SnowflakeがAmazonだけではなくAzureクラウドにも拡大

クラウドデータウェアハウスであるSnowflakeが、Microsoftとの提携を発表し、そのプロダクトをAzureクラウドへと拡大した。新製品はまだプレビュー中だ。

SnowflakeのCEOであるBob Mugliaが、Microsoftで20年以上働いていたことを思えば、創業以来のパートナーであったAmazonに続いて、Microsoftが第2のパートナーとなったことは不思議ではない。しかし、Mugliaによれば、Microsoftとの旧来のコネよりも、市場からの要求の方が本当に多く寄せられているのだという。実際、現時点では、毎日1、2社のAzure顧客からの問い合わせを受けているという。

計画では、本日よりプライベートプレビューを開始し、サービスを他のプラットフォームに移植する際に発生する様々な課題を解決して、秋の適当な時期に一般開放をする予定だ。

このパートナーシップは突然結ばれたわけではない。それは既に1年を超える開発期間を経ているのだが、MugliaによればAzureはAmazonと比べると色々な点でまだ成熟しておらず、それらを解消するためには技術的な協力が必要なのだという。

「私たちはプロダクトを彼らのプラットフォーム上で動作させるために、いくつかの点についてMicrosoftと協力する必要がありました、特にAzure Blob Storageに関しては、少々異なるやり方をAzure上で行う必要がありました。よって動作させるために、私たちのプロダクトの内部に手を入れる必要がありました」と彼は説明した。

とはいえ、全体として両社のエンジニアたちは、こうした課題を解決するために協力しており、Mugliaによれば、プレビュー版の中ではまだ作業中のいくつかの機能はあるものの、秋にAzure版が一般公開されたときには、基本的にはAmazon上で提供されているものと同じものになるという。「私たちの目標はAmazon上のプロダクトと文字通り同じものを提供することです。私たちはMicrosoftと共に、その目標を達成することができると信じています」と彼は語った。

もちろんSnowflakeにとって、それは大幅な市場の拡大を意味する。今やAzureとAmazonどちらのプラットフォームを使う企業に売り込むことは可能になり、全く新しい顧客へのパイプラインを開くことができるからだ。Azureは、Amazonに続く第2位のクラウドプロバイダーだ

最も興味深い点は、もちろんAmazonとMicrosoftがクラウドの中で競合することだが、Snowflake自身もそれぞれのクラウドプロバイダーと、そのプロダクトで戦っている。この種のパートナーシップは、クラウドの世界ではますます標準的なものになって来ている。複数のプラットフォームにまたがって作業を行い、得意なところで競争を行うのだ。

「業界内での関係のほとんどに、なんらかの競合要素は含まれています、まあそれが普通ですけどね」と彼は語った。

[原文へ]
(翻訳:sako)

Datadogが立ち上げたWatchdogは機械学習でクラウドアプリケーションの健康をチェックし続ける

あなたが今使っている典型的なクラウドモニタリングサービスは、数ダースのサービスを統合し、きれいなダッシュボードを表示し、何らかの自動化により、アプリケーションの現況を監視する手助けをするだろう。Datadogも長年そんなことをやっていたがしかし今日(米国時間7/12)、Watchdogという新しいサービスを導入した。それは、機械学習を使って自動的に異状を見つけるのだ。

同社によると従来のモニタリングのセットアップでは、アプリケーションの動きをチェックするためのパラメータをユーザーが定義して、それらをモニタするためのダッシュボードやアラートをセットアップしていた。しかし今日の複雑なクラウドアプリケーションでは、そのやり方には限界がある。そこで、オートメーションの層がもうひとつ必要になる。

そしてそれが、Watchdogの役目だ。このサービスは、捉えられるかぎりのパフォーマンスデータをすべて観察し、それらの正常値を学習し、そして何か異状が起きたらアラートを発して、できるかぎり、何が起きたのかのインサイトをユーザーに与える。

Datadogのデータサイエンスの長、Homin Leeが、Watchdogの発表声明で述べている: “私たちの顧客の長年にわたるデータセットを使って、アルゴリズムの研究と訓練を行った。プログラムが問題を見つける点ではこの技術はユニークだが、それだけではなく、ユーザーが調査を始めるために必要な、おおよそのルートコーズ(根本原因)を指摘できる”。

このサービスは、DatadogのEnterprise APMプランの顧客が今日から利用できる。

関連記事: デベロッパーとオペレーションの文化を融合するDatadog(未訳)

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

API管理のGoogle ApigeeがInformaticaとパートナーしてアプリケーションの統合を充実

GoogleはAPI管理サービスApigeeを2016年に買収したが、今日まで、その後の展開はあまり見られなかった。しかし今日(米国時間7/12)のApigeeの発表によると、いくつかの小さなアップデートによりGoogle Cloud Platformとの統合がより深まり、また、クラウドデータの管理統合サービスを提供するInformaticaとの大型パートナーシップにより、InformaticaがGoogle Apigeeの最優先の統合パートナーになった。

この分野のパートナーシップの多くがそうであるように、Informaticaとの契約には営業やマーケティングにおける協力も含まれるが、重要なのはその部分ではない。このパートナーシップで重要なのは、Informaticaのツールの一部をGoogleがApigeeのダッシュボードに載せてしまうことだ。それによってApigeeのユーザーは、Informaticaの幅広い各種サードパーティ製エンタープライズアプリケーションの統合を利用でき、またInformaticaのユーザーは自分たちのAPIをApigeeから公開でき、管理もしてもらえる。

Googleと競合するMicrosoftなどは、独自の統合サービスを作っている。Google Cloudのプロダクト管理担当Ed Anuffによると、Googleのロードマップにそれはなかった。彼は曰く、“コネクターの充実したカタログを作るためには、大量のノウハウを必要とする。統合化プラットホームを作るのは簡単でも、アプリケーションのコネクターがなければ何の役にも立たない”。そこでGoogleは、すでに大きなカタログを持ち、エンタープライズ界隈で信頼の厚いパートナーを、探すことにしたのだ。

同様に、Informaticaでビッグデータとクラウドとデータインテグレーションを担当しているVPでGMのRonen Schwartzは、彼の会社の顧客の多くがクラウドへの移行を志向するに伴い、自分たちのサービスをApigeeに持ち込んで、外部のアプリケーションに対してオープンにすることが、より容易になる、という。“今回のパートナーシップにより、両社の良いとこ取りを顧客に提供できる。しかも顧客はそれを、統合化され最適化されたやり方で利用できる”、と彼は語る。

画像クレジット: TechCrunch

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

ShippableとARMとPacketがパートナーしてARMベースのサーバーにCI/CDプラットホームを提供

継続的インテグレーションとデリバリー(CI/CD)の市場は、その大半がハイエンドのx86サーバーにフォーカスしているが、しかしARMベースのサーバーの出現により、ARMサーバーの上でネイティブに動くソリューションへの需要も芽生えてきた。そしてその気運に乗ったCI/CDプラットホームShippableは今日(米国時間7/9)、ベアメタルのホスティングプラットホームPacketおよびARMとパートナーして、まさにそのようなソリューションを提供しようとしている。

そのパートナーたちは、ARMベースのサーバーの採用が増えているのだから、デベロッパーはそれらをネイティブにサポートするCI/CDプラットホームが必要だ、と主張する。“正しいインフラストラクチャの上でテストできることが、楽しめるビルドプロセスと苦痛なプロセスをわける境界だ。エッジやIoTなど今急成長中の分野につきものの、多様なハードウェア環境ではとくにそう言える”、とPacketのCEO Zac Smithは言う。“Shippableは最初からARMをサポートしているので、その速いビルドとシンプルなワークフローの組み合わせは、他に類がないほど強力だ”。

Packetは現在、比較的強力なARMベースのマシンを1時間$0.50(50セント)で提供しているが、競合他社も多くて、たとえばScalewayはメニューがもっと豊富だ。

当然ながらShippableはPacketのARMマシン上に同社がホストするCI/CDプラットホームを提供し、その上でデベロッパーは32ビットおよび64ビットのアプリケーションを構築できる。オープンソースのプロジェクトを動かしているなら、そのワークフローのビルドとテストに無料でアクセスできる。

このようなコラボレーションがここでも再度強調しているのは、Packetのようなセカンドティアの(== あまりメジャーでない)クラウドプロバイダーと、彼らの周辺にあるデベロッパーツールのエコシステムは、パートナーシップを武器としてAWS, Google, Microsoftのようなハイパースケールなクラウドベンダーに対抗する、というパターンだ。たとえばPacketは最近、このほかにPlatform 9やBackblazeなどともパートナーシップを組んだ。今後このような動きが、さらに多くなると予想される。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

次のビッグウェーブはサーバーレスだ――新たなスタートアップ・エコシステム構築のチャンス

サーバーレス・コンピューティングというのは特に新しいコンセプトというわけではない。しかしテクノロジーの進歩によって興味ある地位を占めるまでに成長してきた。デベロッパーはサーバーレス・アーキテクチャの価値を認めるようになり、全く新しいスタートアップ・エコシステムが構築される可能性が出てきた。

もちろんサーバーレスといってもどこかにサーバーは存在する。しかしデベロッパーはイベントのトリガーをセットするだけでインフラに関してはすべてクラウド任せにできる。クラウドのベンダーはコンピューティングパワー、ストレージ、メモリー等々をデベロッパーが必要とするまさにその量だけ提供する。デベロッパーはインフラについて考える(あるいはそのためにコーディングする)必要がない。

なるほどこれは理想的な環境に思える。しかしあらゆる新しいテクノロジーに言えることだが、何かが解決されればその裏側で新しい課題が生じている。そしてこの新しい課題こそ野心的な起業家に道を開く。今後数年の間にサーバーレス・コンピューティングを助け、セキュリティーを確保するために必要なツール、ライブラリ、API、ダッシュボード、その他あらゆるユーティリティーの作成が大きなビジネスチャンスとなるはずだ。

抽象化のレイヤーを構築する

当初われわれはサーバーを物理的にまるごと所有していた。しかしこれは非常に能力の無駄が多かった。そこでバーチャルマシンが開発され、物理的には単一のサーバーが複数のバーチャルマシンに分割された。これは当時として驚くべきブレークスルーであり、VMware始め数多くのスタートアップが生まれた。またこのテクノロジーがクラウド・コンピューティングを可能にした。しかしこれはほんの手始めに過ぎなかった。

続いてコンテナが登場し、DockerKubernetesという2つのオープンソース・プラットフォームによって大きな意味を持つ存在となった。 デベロッパーは一枚岩的な巨大システムを多数の独立した部分に分割して作動させることが可能になり、コンピューティングの効率が大きくアップした。そしてさらに最近ではサーバーレス、イベント・ドリブンなどと呼ばれるコンピューティングのパラダイムが登場した。これはインフラを抽象化し、ひとつのレイヤーとするコンセプトだ。

写真: shutterjack/Getty Images

プログラムを実行するためにはどこかにCPU、メモリー、ストレージが存在しなければならないのだから物理的にいえば「サーバーレス」ではない。しかしサーバーレス・コンピューティングはデベロッパーがサーバーを使うための手間を省く。現在大きなプログラムを動かそうとすれば、それを動かそうとするコンピューター(バーチャルマシンであれ物理的マシンであれ)とプログラムの各部分とを適切に結びつけるために膨大なコーディングが必要だ。サーバーレスの場合ならこれをクラウドのベンダーがすべて肩代わりしてくれる。

主要なクラウド・ベンダーはそれぞれサーバーレス・プロダクトを提供している。、AWS Lambda、Google Cloud Functions、Microsoft Azure Functionsなど、すべて似たようなアプローチを取っている。しかしいずれも目新しいコーディングの方法という以上の可能性を秘めている。サーバーレス・コンピューティングはプログラムとそれを作動させるインフラとの関係についてのわれわれの概念を一変させることになるだろう。

ただし、まだわれわれはそういった場所まで到達していない。サーバーレス・コンピューティングが一般的な現実となるまでには数多くの作業が必要だ。しかしこの分野には近い将来、多数のスタートアップを生むに足る巨大なポテンシャルがある。次の「ビッグな波」を探している投資家の注目を集めていることはもちろんだ。

参入障壁がさらに下がる

AWS Lambdaのジェネラル・マネージャー、Tim Wagnerは「サーバーレス・コンピューティングの最大のメリットはデベロッパーがサーバーを管理することに伴う負担をすべて取り除くところにある」と言う。「サーバーを利用するときに、プロビジョニング、デプロイング、パッチング、モニタリング等々、OSレベルでの煩わしい作業は必要なくなる」とWagnerは説明する。

Wagnerによれば、デベロッパーはプログラムの実際の機能の実現にコーディングの努力を集中できる。プログラマーがイベントや関数を定義すればクラウド・プロバイダーがそれを実行するために必要なインフラの容量を正確に見積もり、必要な作業をすべて引き受ける。これはプログラムがたった1行のコードに過ぎない場合でも同じだ。

Greylock Partnersでアーリーステージのスタートアップに投資を行っているパートナー、Sarah Guoはサーバーレス・コンピューティングはインフラの処理をプロバイダーに任せることによりデベロッパーを機能の開発に専念させる効果があると考えている。【略】

Blocks of servers in cloud data center.

写真:Colin Anderson/Getty Images

調査によれば…

クラウド・コンピューティング企業のDigital Oceanは最近、4800人のIT専門職を対象とする調査を行った。これによれば、55%のITのプロが自分たちをデベロッパーだと考えていたが、サーバーレスについてどう考えるかという質問に移ると、約半数がコンセプトを十分に理解していないことが判明した。しかし81%の人々は重要性を認識しており、これについて今年さらに研究するつもりだと答えている。

このような状況を考えれば、この1年間にサーバーレスでアプリケーションを開発したことがあるかという質問に3分の2が「ない」と答えたのは驚くにあたらない。この率は世界各国ともほぼ同一だった(インドだけがサーバーレスの採用で43%と他地域よりやや高い率を示している)。

グラフ: Digital Ocean

Digital Oceanの調査では、サーバーレス・モデルを利用しているユーザーの中ではAWSが他を大きく引きはなしたトップだった。回答者の58%がAWS Lambdaをツールとして使っていると回答している。Google Cloud Functionsが23%、Microsoft Azure Functionsが10%で続いている。

サーバーレスを採用することに抵抗がある層はその理由としてツールの欠如を挙げている点は興味深い。Digital Oceanのレポートは「サーバーレス・モデルでデベロッパーが直面するもっとも大きな困難の一つはモニタリングとデバッギングだ」と述べている。つまりサーバーレスの可視性を高めるツールの開発ができればスタートアップにとっては大きなチャンスとなる。

エコシステムを創造する

インフラをカバーする抽象化レイヤーは同時に別のニーズを生み出す。これには当初から予測できるものと、実際にプログラミンするなかで浮上する予想外のニーズとがある。現在まだツールが不足していることはサーバーレスの普及を妨げる要素ではあるが、必要は発明の母という言葉のとおり、あらたなツールを生み出す強力な要因ともなる。

これがGrelockのGuoが投資家として重視する点だ。「デベロッパーがサーバーレス開発にアクセスしやすくなるよう、さまざまな側面を改善していかねばならない。ここに大きなチャンスがある。ユースケースの拡大と同時に、可視性やセキュリティーの改善が重要な課題となる。これらの問題はインフラのコントロールをベンダーなど外部に預ける場合に非常に重要性を持ってくる点だ」という。

写真: shylendrahoode/Getty Images

Accelのジェネラル・パートナー、 Ping Liもサーバーレス化は投資家にとって大きなチャンスだ考えている。「デベロッパーがアプリケーションを開発する手法にシフトが起きれば、それを助けるためのツール・セットの開発に大きなチャンスが生まれるというのが現実だ」Liは述べている。

Liはまたチャンスは大きいがサーバーレス化がメインストリームになるためにはこの手法を採用するデベロッパーの数が臨界量を超える必要があるみている。「サーバーレスには強い関心をもって注視している。将来のアプリケーション開発で中心的な位置を占めることになると思う。しかし現在はまだごく初期段階にあることも事実だと言いたい」という。

Madrona Venturesのマネージング・ディレクター、 S. Somasgearはサーバーレスはインフラまわりの煩雑さを大いに軽減すると同時に新しい課題を生み出し、これがスタートアップにとってのチャンスとなると主張する。「この問題は複雑だ。インフラストラクチャーを抽象化したレイヤーを構築し、このレイヤーを使えばインフラに煩わされることがないとデベロッパーに利用を勧めたとする。しかしデベロッパーが本当にそのレイヤーを使いこなせるようになるためには数多くのツールが提供されなければならない。それは開発ツールかもしれないし、デバッギング、デプロイメント、モニタリングのツールかもしれない。サーバーレスの世界でアプリケーションを開発するデベロッパーに実際に何が起きているのか正確に知らせるツールが必要だ」という

ツール整備を超えて

可視性の確保も重要な課題となるだろうが、可能性はそこにとどまらない。TwilioやStripeのような会社が提供しているのは通信や決済代行サービスについて深い知識がなくてもAPIを通じたライブラリの呼び出しや利用などでこうした機能が利用できるようにするサービスだが、サーバーレスの世界でも同種のニーズは大きいはずだ。

企業はサーバーレス・コンピューティングの採用によってさまざまな問題を解決する新たな方法を見出しつつある。今後、このアプローチは勢いを増し、それと共にツールも拡充されていくだろう。

サーバーレスはまだ初期の段階にあるが、Guoも言っているとおり、デベロッパーの仕事はインフラを稼働させることではない。これはやむを得ずやっているに過ぎない。「面白くなってくると思う。エコシステムはまだきわめて初期の段階にある。それでも大きな可能性があることは明白だ。そのためには必要なツールが整備され、プログラマーがサーバーレス方式で開発を行うことに勢いがつけば、その周囲にスタートアップのエコシステムが形成されていくはずだ」とGuoは述べている。

[原文へ]

(翻訳:滑川海彦@Facebook Google+

Google CloudのCOO、わずか7ヶ月で離任――原因に関心集まる

昨年11月、Googleは Diane BryantがGoogle Cloud事業の新しいCOOに就任すると発表した。Bryantは当時Intelのデータセンター事業部の責任者で一時休職中だった。Bryantの採用はGoogleにとって大成功だと考えらたが、長続きしなかったようだ。Business Insiderのスクープによれば、Bryantは就任からわずか7ヶ月でGoogle Cloudを去った。

TechCrunchがGoogleに確認を取ったところ、広報担当者から、「BryantがGoogleを離れたことを確認する。われわれは在任中のBryantの貢献に感謝し、次の段階にも多幸を祈っている」というコメントが返ってきた。

Bryantの離任の原因は現在のところ明らかでない。IntelのCEO、Brian Krzanichが女性社員との不適切な関係が報じられて辞任した後、取締役会は後任探しを始めている。Bryantはその条件に適していると考えられている。IntelはCEOの選択で部内者を抜擢するのが例だった。ただし今の段階でIntelの取締役会がすでに後任を決定しているということは考えにくい。Intelに25年間勤務して実績を挙げてきたBryantのリクルートはGoogle Cloudにとってヒットだった。Googleはクラウド事業でAmazonとMicrosoftを追う立場にあり、Bryantはこうした事業のトップとして理想的と見られていた。

Bryantの採用にあたって、Google CloudのCEO、Diane Greeneは「Bryantの戦略における見識やテクノロジー上の知識、またクライアントを熟知していることなどは今後Google Cloudを新しい段階へとスケールさせるためにこの上なく価値あるものとなるだろう」と述べていた。最近のアナリストのレポートによればGoogle Cloudの市場シェアは漸増しており、売上もそれに比例してアップしている。それでもGoogleはこの分野でかなり離れた3位であり、この状態は当分変わりそうにない。

[原文へ]

(翻訳:滑川海彦@Facebook Google+

MongoDBのGlobal Clustersを利用するとデータの地理的配置が楽にできる

MongoDBAtlasは、クラウド上のマネージドデータベースサービスだ。マネージド(managed, 管理つき)というのは、データベースのセットアップやメンテナンスは全部Mongoが面倒見るので、デベロッパーがそのレベルで苦労する必要はない、という意味だ。今日(米国時間6/27)同社は、このやり方をさらに一歩前進させて、顧客がデータの所在(地理的配置)を細粒度でコントロールできる、Global Clustersと呼ばれる機能を発表した。

これによりユーザー企業はクラウドプロバイダーを自由に選び、そしてAtlasが動くMongoDBのデータベースからは世界のデータのどの位置にも移動できるようになる〔後述〕。MongoDBのCTOで協同ファウンダーのEliot Horowitzの説明によると、クラウドプロバイダーはどこの誰であってもよい。データの位置ポリシーを設定し、クラウドベンダーとデータセンターの場所を選び、その結果をグラフィカルな世界地図(下図)の上で見ることができる。それでOKなら、Mongoがバックグラウンドで自動的にデータを移動し、そのときシャットダウンは不要だ。

Global Clustersのインタフェイス。スクリーンショット提供: MongoDB

今月発効したEUのGDPRに見られるように、多くの国がデータ主権(data sovereignty)の証拠を求める。でも企業がそのような規則に自力でコンプライアンスすることは、難題である。Horowitzによると、彼はAtlasのための地理的パーティションを作ったが、それは技術的にものすごい苦労だった。しかしそれをこのようなサービスとして提供することによって、データのマイグレーションを小企業でもできるようになり、彼らは最初から(データに関し)地理的な粒度を持てることになる。

彼曰く: “圧倒的に数が多いのは小企業だが、彼らも今では、大型のWebサイトと互角に競争できると感じているし、最初からレベルの高いサービスを提供できる。しかもそのために、エンジニアのチームを雇う必要もない”。

Mongoから見てこのやり方が優れているのは、ユーザー企業自身が全世界的なデータセンターを構築しなくてもよいことだ。AWS, Microsoft, Googleなどメジャーなパブリッククラウドプロバイダーがグローバルなロケーションを持っているから、それに乗っかるだけでよい。

“データセンターはクラウドプロバイダーが持ってる、というところがクールだね。ユーザーが必要とするリージョンを持ってるクラウドプロバイダーを、選べばよいのだ”、と彼は言う。

Atlasのユーザーは今日からこの機能を利用できる。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Google Cloudが古典的ファイルシステムを必要とするアプリケーションのためのストレージオプションを用意

Google Cloud Platform(GCP)のストレージオプションが、新たにまた一つ増える。そのCloud Filestoreと名付けられたサービスは、来月ベータでローンチするが、それは要するに、クラウド上の完全な管理を伴うnetwork attached storage(NAS)だ。これにより、ストレージに対して従来的なファイルシステムのインタフェイスを必要とするアプリケーションを、GCP上で動かせるようになる。

従来のようにストレージの利用インタフェイスとしてオブジェクトストレージやデータベースしかないGCPのような環境で標準的なファイルシステムを使いたければ、それ専用に恒久的に使うハードディスクを使ってファイルサーバーを急ごしらえするしかない。Filestoreはそんな面倒を取り除き、ユーザーが必要に応じて簡単にストレージを確保できるようにする。

Filestoreは、高スループット、低レイテンシー、そして高IOPSを約束している。料金体系はプレミアムとスタンダードの2種、そしてプレミアムは、1GB/月が30セントで、ストレージの容量にかかわらず700MB/sのスループットと30000IOPSを約束する。スタンダードは1GB/月が20セントで、パフォーマンスは容量でスケールし、Filestoreに10TB以上を保存するまではピークパフォーマンスに達しない。

GoogleはFilestoreをロサンゼルスで行われたエンターテインメントとメディア関連のイベントでローンチした。その業界には、共有ファイルシステムを必要とする大量のエンタープライスアプリケーションがあり、またそのような種類のエンタープライスアプリケーションは、他のさまざまな業界にもたくさんある。

Filestoreベータは来月ローンチする。ベータ時点では、アップタイムの約束はなく、またベータを終えるETAもまだない。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

プログラマーのための即席ファイル共有ツールTransfer.shはコマンドラインで使う

今日このごろファイル共有ツールはあまりにもありふれている。Dropboxがあり、Google Driveがあり、iCloudがある。でも、コマンドラインで迅速容易にシェアしたい、と思ったらどうだろう? そこでプログラマーのRemco Verhoefは、Transfer.shを作った。

このサービスは要するにファイルダンプで、curlでtransfer.shにファイルを送ると14日間保存されて、その後自動的に削除される。たとえばぼくは、この画像を、自分の.bashrcにちょっとコードを加えることによってアップロードした。

このシステムは、よくある、必要な仕事だけをしてくれる小さくて巧妙なツールの例だ。Verhoefは、仕事中に簡単にファイルをアップロードしたいから、これを作った。

彼曰く: “ぼくがこのアプリケーションを作ったのは、sshシェルの中から誰かにログのデータをシェアする必要があったからだ。そこでぼくは、コマンドラインを使ってcurlでファイルを簡単にアップロードしたり変えたりできるWebアプリケーションを作った。コンテンツを暗号化したり、それらに対してgrepなどを使ったりもできる。curlは、ほとんど、どんなプラットホームにもあるからね。アプリケーションはオープンソースにしたから、ほかの人たちも使えるし、みんなぜひ、自分のサーバーを動かして使ってほしい”。

“ビジネスモデルなんか、ないよ。今でもサイトを動かしているのは、一種の礼儀だな。でも人気が出てきてユーザーが増えてるから、このまま動かすのは難しい”、とも言っている。彼には自分のデベロッパーショップがあって、ICOのセキュリティなど、いろんなプロダクトを売っている。

Verhoefは、彼のプラットホームのセキュリティは約束していない。単純に便利なツールであるだけだ。彼は、ファイルをgpgにパイプしてアップロードすることを勧めている。

このプロダクトが、善いことだけに使われていないことが、彼のチームの不満だ。

“たくさんの人たちが使っている。ログファイルをアップロードするために使っている人もいれば、隠し撮りビデオを全部エクスポートするやつもいる。マルウェアやボットネットなどの配布に悪用されることもある。でもそれらは、なるべく早く見つけてやめさせている。ポルノサイトがポルノ写真のサーバーとして使ったこともあるが、それを見つけたときは、写真を全部、犬と子猫の写真にリプレースしたよ”。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

マイクロソフトが海中にデータセンターを設置する理由とは

今週初め、マイクロソフトはプロジェクトNatickの第二段階を実行した。これは、海中に大規模なデータセンターを設置し、そのメリットや問題を検証するという実験だ。チームは、サーバーがぎっしり詰まった輸送コンテナほどのサイズのタンクをオークニー諸島沖に沈めた。今後数年間そのままにして、果たして将来のデータセンターとして有効な手段となるかどうかを見極める。

もし水をラップトップPCにこぼしたことがあるのならわかるかと思うが、当然ながらコンピューターと水というのは相容れない。だからサーバーの列を水中に置くというのは、奇妙なアイデアのように思える。しかし、マイクロソフトリサーチのBen Cutlerが、サーバーを設置するのに海底がうってつけの場所である理由を説明してくれた。

Cutlerいわく、ほとんどの人が海から200キロ以内の場所に住んでいる。そしてマイクロソフトはこれまで、多くの人が住んでいるところの近くにデータセンターを設置するというクラウド戦略をとってきた。再生可能エネルギーを作り出す大規模な風力発電施設が近くにあり、海中に設置することで冷却面で明らかにメリットがある(冷却コストはデータセンターを維持する上で大きなものだ)今回の取り組みは、理にかなっている。

私がCutlerに今回のプロジェクトの発端について尋ねると、彼は「マイクロソフトは、クラウドにかなりのエネルギーと時間、そしてもちろんお金も費やしてきた」と語り、「我々は常に刷新的な手法を探している。今回のアイデアはもともと、米国海軍の潜水艦で働いた経験があり、そしてテクノロジーについての知識も持ち合わせていた社員から生まれた。このアイデアをデータセンターに活用できるかもしれないということになったわけだ」と説明した。

そこでチームは2013年に第一段階の実験を実行した。それは、いくつかのサーバーを入れた小さな圧力容器を太平洋に沈めるというものだった。この実験では極めて良い結果が得られ、また周囲の海中生物にとって容器は好ましいものだったようだ。まず、この容器が周囲の水の温度を上げていないことが確認された。容器から数フィート離れたところの水の温度は数千分の1度(摂氏)高かっただけだった。それから騒音も、取るに足りないものだった。「容器から数メートルも離れると、海中でよく聞こえるテッポウエビの音など、周囲の音に囲まれることがわかった」とCutlerは語り、海というのは非常に影響を受けやすい環境であるために、こうした影響を測定するのがチームの仕事だったと強調した。「この容器が自然環境に受け入れられ、そして周辺に生息するカニやタコといった生物の住処となったこともわかった」。

今回の第二段階の実験を、チームはスコットランドで実施することにした。というのもスコットランドは欧州海洋エネルギーセンターの本拠地であり、陸と海で発電された再生可能エネルギーをサーバーを入れた容器に供給する設備がすでにあったからだ。

一度容器を水中に入れると、その後のメンテナンスはほぼ不可能だ。つまり、失敗するかもしれない、取り替えがきかないということを覚悟しなければならない。計画では、数年後に容器を回収し、新しいマシーンに取り替えて再び海中に設置する。

一方で、この実験の一環として、チームはどうやればサーバーを可能なかぎり長持ちさせられるかも検討した。というのも、容器の中のハードドライブが故障しても取り替えに行くことはできないからだ。その結果、腐食などを防ぐためにチームは容器の中に窒素を充填することにした。この影響を分析するため、マイクロソフトは同様の容器を陸上にも設置し、どれくらいシステムがうまくいくかを比べることにしている。

今回の実験では最先端のテクノロジーは使われていない、とCutlerは強調する。特殊なサーバーを使っているわけではなく、海中ケーブルや容器もごく普通のものだ。

今後について、Cutlerはこれらの容器を工場で組み立て式につくり、必要なところに送るという青写真を描いている。だからこそ、この容器は輸送コンテナサイズなのだ。チームは実際、ロジスティックチェーンをテストするために、容器をフランスで製造し、トラックに乗せて英国まで海上輸送した。

もちろん、これらがうまくいくかどうかはわからない。目下、チームはNatickの経済面を分析中で、これを本格採用するかどうかの判断はマイクロソフトAzureチームに委ねられる。Cutlerは「我々のゴールは、この手法が経済的に優れ、なおかつ望ましいものである、という状態にもっていくこと。それが達成されて初めて、製品チームがこの手法を使うべきか、どこで活用するかを決めることになる」と語った。

[原文へ]

(翻訳:Mizoguchi)

Google、単一テナント・クラウドのベータ版開始――ユーザーは物理的マシンを専有できる

クラウド・コンピューティングではユーザーがバーチャル・マシンを立ち上げた場合、実際の処理はデータセンターの運営者が効率が最適となるよう多数のサーバーに分散される。しかしユーザーが他のユーザーとサーバーを共有することを望まず、物理的にマシンを専有したい場合もある。

こうした要求に応えるべく、GoogleはGoogle Compute EngineでSole Tenant Nodesのベータ版をスタートさせた。これは法規に定められた場合やコンプライアンス上の必要からユーザーが物理的マシンを全面的にコントロール下に置かねばならず、他のユーザーと共有することが不適切なユースケースに対応するサービスだ。

Googleのブログによれば「あるバーチャル・マシンのインスタンスを実行する物理的サーバーは多数のユーザーと共有されるのが普通だ。しかしソール・テナント・ノードでは物理的マシンを自分だけで使える」という。

図:Google

Googleではサービスに柔軟性を持たせ、カスタマーが必要に応じて適切にCPUとメモリを構成できるようにしている。 ユーザーはどのマシンを専有するかをGoogleに任せることもできる。この場合はGoogleがその時点でもっとも効率が高いと認めたマシンにタスクが割り振られる。さらに高度なコントロールを必要とする場合は、ユーザーがマニュアルで特定のマシンを選択することも可能だ。いずれのケースでも処理を実行するマシンが他のユーザーと共有されることはない。

このサービスを利用したい場合、トライアル用の無料プランがある。その後はコンピューティングの必要性に応じて各種の有料プランが用意される。Googleによれば、すべてのプランは秒単位(最低1分)の課金となる」という。

現在はベータ版であるためSLA(サービス・レベル契約)は用意されない。MicrosoftとAmazonも同様のプランを提供している。

[原文へ]

(翻訳:滑川海彦@Facebook Google+

GUNはオープンソースのP2Pデータベース――ノードがオフラインでも機能する

GUNはオープンソースの分散データベース・システムでデベロッパーは簡単にP2Pネットワークで作動するアプリを開発できる。しかもこのネットワークでは一部のノードがオフラインであっても作動する。今日(米国時間5/23)、このデータベースを開発した会社(ピストルのロゴと社名は一考の要があるかも)はDraper Associatesがリードしたラウンドで150万ドルのシード資金の調達に成功してことを発表した。今回のラウンドにはSalesforceのマーク・べニオフのAloha Angels、Boost VC、CRCM Venturesなどのエンジェル投資家が加わっている。

GUN のファウンダー、Mark Nadalは私の取材に答えて、「データベースに取り組み始めてから4年になる。きっかけは、私の初期のプロジェクトでの失敗のほぼすべてがデータベースが原因だったからかだ」と語った。データベースがダウンすればサービスはすべてダウンする。そこでリアルタイムでアップデートしても整合性が保たれる分散データベース・システムの開発を始めたたのだという。

GUNはマルチマスタ・レプリケーションによるP2Pデータベースであり、クラウド・サーバーはネットワークの一つのピア・ノードに過ぎない(もちろんユーザー側ブラウザに比べてはるかに大量のリソースをを持ち、信頼性もはるかに高い)。GUNユーザーにはアップデートにおけるコンフリクト解消などのデータベース運用上必須のツールが標準で提供される。データは自動的にピアに拡散、同期される。ユーザーがオフラインになるとデータはローカルにキャッシュされ、再度オンラインになったときにネットワークに書き戻される。

Nadalは2014年にFirebase、MySQL、MongoDB、CassandraをベースにGUNの最初のプロトタイプを開発した。これはかなりつぎはぎの仕事だったが、引き続きこのアイディアを追求するに足るだけのデベロッパーの関心を集めることができた。

現在GUNを利用してRedditのクローン から分散版のYouTubeのコピーまでさまざまなデータベースが実験されている。

Nadalはまた一部の現行データベースに比べてこのシステムはスピードの点でも大きな優位性があるとしている。「予備的なテストの結果ではわれわれのキャッシュはRedis、MongoDBなどに比べて28倍速いと判明した。GUNは現在、ゲーム、IoT、VR、分散的機械学習などの分野におけるパイオニア企業と提携を進めている」という。

オランダ海軍はすでに艦上のIoTサービスの一部にGUNを採用している。AI/機械学習分野で利用しているグループも多い。Nadalはこのデータベースはブロックチェーン・テクノロジーとの適合性が高いとして、この分野のデベロッパーもGUNに注意を払うべきだと考えている。

[原文へ]

(翻訳:滑川海彦@Facebook Google+


【以上】

ベアメタルでプライベートクラウドを提供するPacketがPlatform 9やDateraとパートナーして構成を充実

ベアメタルのクラウドプロバイダーPacketが今日(米国時間5/22)、オープンソースのハイブリッドクラウドスペシャリストPlatform9およびストレージとデータ管理サービスDateraとパートナーして、新しいプライベートクラウドソリューションをローンチした。それは、自分のプラットホームをもっと強力かつ広範にコントロールしたいと願う企業をターゲットとする。しかもPacketによると、この新しいソリューションはパブリッククラウドのソリューションを使う場合に比べて50%の費用節約を実現する。

PacketのCEO Zac Smithはこう述べる: “パブリッククラウドのような洗練されたユーザー体験を提供するとともに、それらよりもずっと多い選択肢と大きなパフォーマンスを提供したい。Packetのマネージドベアメタルに、DateraやPlatform9のような強力なマーケットリーダーが組み合わされば、これまでのパブリックやプライベートのクラウドソリューションの数分の一のコストでサービスを提供できる”。

Packetがとくに注目してほしいと言うのは、Platform9自身が最近AWSからマイグレートしたことだ。同社によると、パブリッククラウドというモデルには制約が多く、またその課金とデリバリのモデルも複雑なため、Platform9はもっと緑の多い草原を求めたのだ、という。

ここ数か月で二件の例があったが、小さなクラウドプロバイダーたちがチームを組んで独自のソリューションを提供し、AWSやAzure、Google Cloudなどと互角に競合しようとしている。先月PacketはBackblazeおよびServer Centralとパートナーして、BackblazeのクラウドストレージサービスB2〔低コストなバックアップストレージが売り〕をそのメニューに加えた。

Packetによると、この新しいソリューションは全世界18箇所で可利用となる。同社のOpenStackおよびKubernetesプロダクトも、同様である。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Dropboxの最新アップデートでモバイル上のコラボレーションがとてもスムーズに

Dropboxが今日(米国時間5/22)発表したアップデートで、モバイルからの利用機能が強化され、外回りの社員がDropboxに保存されているファイルの変更に追従しやすくなった。

典型的なユースケースを挙げると、チームで共有しているファイルについて、AさんがBさんの意見や承認を求めている、とする。Bさんがそれをちゃんとやってくれたか知りたいときには、メールやテキストメッセージを使う。これでは、なめらかなワークフローとは言えない。

そこでDropboxの最新のモバイルアプリでは、メールなどほかのアプリを使わなくても、Dropboxアプリの中で、誰がそのファイルを見たか、誰が何をやったか、などが分かる。

またファイルのレビューを求めるときも、通知が相手のホーム画面に出るから、メールなどを見る必要がない。

写真提供: Dropbox

DropboxのプロダクトマネージャーJoey Loiによると、チームメンバーのいろんなアクティビティがDropboxの中ですべて分かるから、すっきりとしたワークフローになる。“今回のアップデートでは、コラボレーションのループがDropbox内で完全に閉じることを考えた。コラボレーションとは要するにフィードバックのフローだから、Dropboxの外へ出なくても最後まですべてのフィードバックができる、ということだ。ぼくがファイルのどこかを変えたら、同僚はすぐにその変更が分かる”、とLoiは説明する。つまり、フィードバックループが閉じるのが早い。ループの形もシンプル。

また今度からは、頻繁に開いているファイルはホーム画面の上部に、Google DriveのRecentsのように出るから、仕事の流れがワンステップ早い。また、頻繁にアクセスするファイルをDropboxのリストの上部に集めることもできる。今の仕事で使っているファイルを、いちいち探さなくてもよい。

そして、メールで送ってきたファイルをドラッグ&ドロップでDropboxに入れることが、モバイルでもできるようになった。

ひとつひとつはどれも些細な変化だけど、これでモバイルのDropboxでファイルを扱うことが、ずいぶん楽になる。Loiはこう言う: “モバイル上でチームのコラボレーションを円滑にすることに、とくに配慮した”。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

OpenStackがオープンソースのCI/CDプラットホームZuulを切り離して独立化

OpenStackほど複雑なオープンソースプロジェクトはほかにないと思われるが、これは要するに、AmazonのAWSのような総合的なクラウドコンピューティング環境を、企業が自分のデータセンターの(主としてプライベートな)インフラストラクチャとして装備するためのシステムだ。それを構成するさまざまなサブシステムを作るためにチームは、独自のDevOpsツールを作らざるをえなかった。2012年には、その一環として、オープンソースの継続的インテグレーションとデリバリ(CI/CD)プラットホームZuulを作った。そしてこのほど、Zulu v3のリリースを契機に、ZuluをOpenStackから切り離して独立のプロジェクトにした。でもOpenStackのエコシステムを去るわけではなく、依然としてそれは、OpenStack Foundationがホストするツールだ。

構造をざっと展望すると、OpenStack Foundationは一種の母体的組織であり、その傘下のメインプロジェクトとしてOpenStack本体のほかに、昨年おそく登場したKata Containersと、今回のZuulがある、という構造になる。すなわちOSFは近年、本体OpenStackのほかに、関連のインフラストラクチャプロジェクトも揃えよう、としているのだ。

Zuulはデベロッパーたちに、プロジェクトに新たな変更を加えようとするときの、コードのマージ、ビルド、そしてテストの工程を自動化するシステムを提供する。サポートする開発プラットホームはかなり幅広くて、GitHubや、コードレビューとプロジェクト管理のツールGerritなどもサポートしている。

Zuulの現在のコントリビューターは、BMW, GitHub, GoDaddy, Huawei, Red Hat, そしてSUSEだ。BMWのソフトウェアエンジニアTobias Henkelは語る: “ソフトウェアプロジェクトがCD/CIを幅広く採用することは、高品質なソフトウェアをタイムリーにデリバリするための基盤だ。それにより、個々のコミットチェックからフルリリースに至るまでの、開発サイクルの重要な部分を、すべて自動化できる。弊社BMWのCI/CDチームは、Zuulコミュニティの一員であることを誇りとし、オープンソースのZuulプロジェクトの積極的なコントリビューターであり続けたい”。

Zuulがスピンオフして独立した今の時期は、CI/CDに関して選択肢がとても多くなっている。GoogleとNetflixはオープンソースのSpinnakerで、Zuulと同様の機能を提供しようとしているし、またJenkinsとその類似プロジェクトたちも依然として強い。これらに対してZuulは、大規模で複雑な開発プロジェクトをうまく扱えるmulti-repo gatingマルチリポジトリ・ゲーティング)機能の有利性を強調している。

今カナダのバンクーバーで、これらのオープンソースプロジェクトの代表者たちによるOpenDevカンファレンスが行われており、そこでOpenStack Summitも併催されているので、数日〜数週間後にはこれらのプロジェクトすべてに関するより詳しい情報が出てくることだろう。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Googleフォトに「いいね!」と「お気に入り」がやって来る――ハートと星に注目

以前Twitterは「お気に入り」の星アイコンをハート型の「いいね!」アイコンに取り替えたが、Googleフォトは今回のアップデートで両方のアイコンを追加する。Googleの今日の午後ツイートによると、同社の写真共有サービスには星型の「お気に入り」ボタン」が追加された。ハート型の「いいね!」ボタンが追加されるのは来週だという。2つのボタンはそれぞれ異なる役割を担う。

「お気に入り」(星)ボタンは自分のライブラリーだけに表示される。ユーザーが「お気に入り」に選ぶとその写真は自動的に「お気に入りアルバム」に保存される。この機能はAppleやGoogle自身のPicasaを始め他の写真サービスではかなり以前から使われている。Googleが今回追加したのは少々遅いがまずは順当だろう。

ハート型アイコンはGoogleフォト版の「いいね!」だが、こちらは他のユーザーと共有している写真にだけ表示される。つまり「いいね!」できるのは家族、友達などユーザーの写真を見ることのできる相手だ。Googleによれば、アルバム全体が共有されている場合はそのアルバムに「いいね!」することもできるが、逆に共有されていない写真やアルバムに「いいね!」がつくことはないという。「いいね!」した写真を自分の「お気に入り」に追加したい場合は、まずその写真を自分のライブラリーにコピーしておく必要がある。

一見するとマイナーな改良のように思えるが、こうした「いいね!」や「お気に入り」を導入するのはサービスのソーシャル化の上で大きな決断といえる。以前Twitterが星型アイコンをハート型アイコンに変えたときは一部のユーザーから強い反発を受けた。Twitterでは今だにこの変更に馴染めないユーザーもいる。Facebookの場合でも、投稿に対する反応が「いいね!」だけであることに対するユーザーの不満が大きくなり、「ひどいね!」など他のリアクション・ボタンを導入することになった。

Googleフォトにも「いいね!」だけでなく「すごいね!」や「うけるね!」アイコンが導入されたら面白いだろう。 すべての写真が「良い」わけではなく、バカバカしい、悲しい、ショッキングだなどいろいろな種類の写真があるはずだ。当面はすべて「いいね!」で間に合わせておくことになる。

AIを利用した修正やモノクロ写真の自動着色などGoogle I/Oで発表されたGoogleフォトの各種の新機能も近く一般向けにリリースされる予定だ。

[原文へ]

(翻訳:滑川海彦@Facebook Google+

AWSの仮想マシンサービスEC2にローカルなNVMeストレージが付随するインスタンスが登場

AWSの仮想サーバーEC2は、そのオプションが日に日に増えている。今日(米国時間5/18)加わった新しい仮想マシンは、ローカルなNVMeストレージによって、標準的なSSDよりも相当速いスループットを提供する。

このC5dと呼ばれる新しいインスタンスは、このサービスがすでに提供している、コンピュート(処理能力)優先で最適化されているC5インスタンス群の仲間に加わる。AWSはC5について、ハイパフォーマンスコンピューティングのワークロードやリアルタイムのアナリティクス、マルチプレーヤーゲーム、ビデオエンコーディングなどのユースケースに適する、としているが、今回高速ストレージのオプションが加わったことによって、さらなるパフォーマンスの向上が望めるだろう。

そのローカルストレージは仮想マシンに付随するので、インスタンスが停止したらそれも終了する。だから長期的なストレージではなくて、一時的なファイルの保存に向いている。

C5とC5dのインスタンスは共に、同じプラットホーム、3.0GHz Intel Xeon Platinum 8000プロセッサーを共有する。

この新しいインスタンスは今、アメリカとカナダのリージョンで利用できる。料金は通常のC5インスタンスよりやや高くて、オレゴン州のリージョンではもっともベーシックなRAM 4GBのマシンで1時間$0.096からだ。通常のC5マシンは、1時間$0.085からだ。

なお、FPGAを使用できるF1インスタンスも、NVMeストレージを提供している。それらは非常に高度な専用マシンで、C5のような一般的なデベロッパー向けではない。

AWSは今日のNVMeインスタンスの発表と並行してEC2のベアメタルインスタンスの一般公開についても言及した。これらの仮想マシンはその下の物理マシンへのダイレクトアクセスを提供し、仮想マシンだけでは要求を満たせないアプリケーションに理想的な運用環境を提供する〔関連記事〕。またコンテナのクラスターの安全な稼働にも適している。これらベアメタルインスタンスも、NVMeストレージをサポートしている。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Google Compute Engineに最大3844GBのバーチャルマシン登場

ときおり「もっとRAMが必要だ」という状況に出くわす。メモリーを大食いする巨大エンタープライズ・アプリ、たとえばSAPのHANAデータベースなどを運用しているときだ。 非常に高いパフォーマンスを必要するタスクを実行するときもそうだ。これまでGoogleのクラウド・プラットフォームでCompute Engineを利用する際の最大メモリー割当は624GBだった。しかし今日(米国時間5/15)、メモリー割当の大幅拡大が公式ブログで発表された。新たに導入されたクラスでは最大160台のバーチャルコアに3844GBを割り当てることができる。

新しいクラスはn1-ultramemと名付けられ、既存のn1-megamemクラスの一員となる。n1-ultramemはコアの数によって3種類に分けられている。もちろん高いパフォーマンスを得るにはそれなりのコストが必要だ。いちばん「低い」バージョン、40コア、938GB RAMの場合は月額3221ドルだ。トップエンドの160コア、3844GBのバージョンとなると月額1万2885ドルとなる。

1時間当たりの料金表を下にエンベッドした。

これらの新しいバーチャルマシンの投入でGoogleもハイパフォーマンスのクラウド・コンピューティング市場でAWSプラットフォームと互角にわたりあえるようになった。実際GoogleのほうがAWSよりコンピューティング・パワーがわずかに強力だ。これは新しいプロセッサーを用いており、コアの数自体も多いためだ。

Googleは、当然ながら、n1-ultramemの典型的なユースケースとしてSAP HANAを挙げている。公式ブログには 「クラウドへの移行をためらっている理由が、現在社内で実行しているSAP HANAデータベースのインスタンスをロードできるほど大容量のクラウド・メモリーが見当たらなかったからだとすれば、われわれのCompute Engineをチェックしていただきたい。アプリケーションが次々にクラウドに移行する中、データベースだけをオンプレミスで運用しなければならない理由はなくなった」と書かれている。

新しいultramemマシンが利用できるリージョンは現在、us-central1、 us-east1、europe-west1だが、今後さらに拡大される。

[原文へ]

(翻訳:滑川海彦@Facebook Google+

新しいGoogle One、ストレージ半額でサポートも充実――2TBが月10ドル、24時間年中無休ヘルプなど

今日(米国時間5/14)、Googleは一般ユーザー向けクラウド・ストレージの料金を大幅値下げすると発表した。 新しく月額2.99ドルで200GBのプランが設けられ、2TBのプランは従来の月額19.99ドルから月額9.99ドルに値下げされた(これにともない月額9.99ドルで1TBのプランは廃止された)。またクラウド・ストレージ・サービスのブランドはGoogle Oneに変更された(ただしGoogleドライブのブランドはそのまま)。

またこのアップデートの実施後、ユーザーは契約ストレージ容量を家族最大5人までと共有できるようになる。

最近では4Kビデオや高精細画像が普及したため、100GBくらいはまたたくまに使ってしまう。しかし今回のアップデートにはもうひとつ重要な狙いがある。新しいブランド名のGoogle Oneには、あらゆるGoogleサービスからワンタップでGoogle Expertsにアクセスして援助を受けることができるという意味がある。

Google Expertsを担当するのは人間の専門家で、生半可やAIチャットボットなどではない。Expertsサービスは24時間年中無休、月額1.99ドルで100GBという入門編のプランでも利用可能だ。メールでも電話でも受け付ける。当初はアメリカ市場でスタートするが、Googleによれば「このワンタップ・サポートをあらゆる地域に拡大し、日々改良していく〔のがわれわれの〕目的だ〕ということだ。

GoogleではG Suiteで有料のビジネスユーザー向けに24時間年中無休のサポートを提供しているが、一般向けサービスでのライブ・ヘルプの提供は今回が初めてだ。

なお、15GBで無料というプランはこれまでどおりで内容に変更はない。

契約者はライブでサポートを受けることができるようになるだけでない。Google Oneのディレクター、Larissa Fontaineが私に語ったところによれば、契約者はGoogle検索で発見したホテルの宿泊料金その他Google Payで支払を行う各種サービス、プロダクトについて特別割引を受けることができるという。Fontaineは「カバー内容を次第に拡大していきたい」と述べた。

Google Oneグループのプロダクトマネージャー、Brandon Badgerに取材したところでは、「われわれがユーザーのクラウド・ストレージの利用状況を調べたところ4Kビデオを撮影して家族と共有するという使い方が増えていた。こういう場合、利用するデバイスの数も多くなっていた。新しいプランはこういう利用スタイルに合わせたものだ」という。

またFontaineによれば、クラウドストレージのユーザーは概してGoogleのヘビーユーザーであり、ストレージとヘルプを一体化するのはきわめて理にかなっているという。

ひとつ残念なのは、既存の契約者に対するアップグレードに多少の時間がかかるという点だ。Googleはここ数ヶ月かけて順次既存の契約をGoogle Oneのアカウントに変更していくという。まずアメリカ市場が対象で、以降世界に拡大していく。Googleはクラウドストレージの契約(ファイルではない)を管理するための新しいAndroidアプリを準備している。

今回のアップグレードはクラウドストレージに関するものだが、Google Oneは料金値下げやヘルプサービスの追加だけに留まるものではない。Google Oneは新しい野心的なプランの第一歩であることは間違いない。Google Oneは今のところそのブランド名にもかかわらずストレージという分野しかカバーしていない。新しい総合的なサービスが今後発表されていくだろう。たとえば、Googleのあらゆる一般向けサービス、つまりドライブ、YouTube、Red、Play Music(それにまだ発表されていない新サービス)などを一括して契約、管理できるサービスも考えられる。

〔日本版〕Googleドライブのページにはまだアップグレードに関する発表はない。

[原文へ]

(翻訳:滑川海彦@Facebook Google+

AdobeのCTOはAIへの取り組みを率先して押し進めている

現在まともな会社なら、人工知能(AI)に対して、全く何の取り組みもしていないということは考えられない。こうした組織は、この先どう展開して行くかは完全には理解していないとしても、AIがゲームチェンジャーになることを理解している。

3月に開催されたAdobe Summitで、私はAdobeのエグゼクティブVPでありCTOであるAbhay Parasn​​isに話を聞くことができた。話題は多岐にわたり、次の10年のために構築するクラウドプラットフォームや、そこでAIがどれほど大きな役割を果たすかなどについての話を聞くことができた。

Parasn​​isは、同社の技術戦略の方向を設定する、典型的なCTOの役割を始めとして、幅広い責任を負っていると語ったが、もちろんそれで終わりではない。彼はまた、コアクラウドプラットフォームの運用と、AIとSenseiを含むプラットフォーム構築のためのエンジニアリングを担当している。この役割には、数千人に及ぶエンジニアリングチームの管理も含まれている。また、全てのデジタルインフラストラクチャとIT部門に対しても、多少の責任を負っている。

これからの10年

Adobeが箱売りのソフトウェア企業から、サブスクリプションベースのクラウド企業に変わり始めたのは2013年のことだった。これはParasnisが入社するずっと前のことである。それは大成功をおさめているが、Adobeはそのことが、長期的な生き残りのために単に箱売りソフトウェアを捨て去ってしまう事以上の意味を持っていることを知っていた。Parasnisがやってきたとき、次のステップは、少なくとも10年は長持ちするような柔軟性を持たせるように、基礎プラットフォームを再構築することだった。

「次世代プラットフォームを考え始めたとき、私たちは何のために構築したいのか考えなければなりませんでした。それはとても気分を高揚させる体験でしたが、私たちは10年もつようにそれを作り上げなければなりませんでした」と彼は語った。特に技術が急速に変化している現在は、時間が経つにつれて多くのものが変化する可能性があるため、大きな課題が待ち構えている。

これは、時間の経過とともに、そうした変更を受け容れることを可能にするための柔軟性を持たなければならないことを意味している。同社はもちろん、ARとVRのような臨場感あふれる技術同様に、音声技術も将来への種として考え始める必要があった。そして彼らの基礎プラットフォームはそうしたものを支えられるような適応性の高いものでなければならなかったのだ。

すべてにSenseiを

しかし、Adobeには、AIに関わる万全の準備を整える必要もあった。それこそがおよそ18ヶ月前に同社が、新しいプラットフォームの中核としてAIを開発する戦略的決定をした理由なのである。彼らは、開発者向けのより汎用的なAIを狙っている多くの企業があることは知っていたが、彼らのビジョンはそれとは異なるものだった。それはAdobeの中核機能にしっかりと焦点の当たったものである。Parasn​​isはこれを、同社のクラウドプラットフォーム戦略の重要な部分と見ている。「AIはテクノロジーの中で最も変形力の強いものになるでしょう」と彼は言った。そして「Senseiは、これまで私が最も多くの時間を費やしているものです」と付け加えた。

写真:Ron Miller

同社は、より大きな人工知能の目標を念頭に置いた、新しいクラウドプラットフォームを考え始め、コアプラットフォーム機能を扱うための、AIを取り込んだアルゴリズムを構築し始めている。社内での利用を経て洗練された後、次のステップでは、これらのアルゴリズムをサードパーティの開発者たちに公開して、AdobeのAIツールを使用してそれぞれのアプリケーションを構築できるようにすることだ。

そのサービスがAIを含んでいようがいまいが、結局これは古典的なソフトウェアプラットフォーム作戦なのだ。BoxからSalesforceに至るまで、クラウド企業はそのサービスを何年も公開して来た。開発者たちはクラウド企業の専門知識を利用することで、自分たちの中核機能に集中することが可能になる。開発者たちはストレージやセキュリティなどを、初めから構築する必要はない。そうした機能は、専門知識が詰め込まれ、アプリケーションへの簡単な導入手段が提供されたプラットフォームから、取り込むことができるのだ。

ここで差別化を可能にしているのが、そこにはAdobeの中核機能が組み込まれているという点だ。このことでAdobe Experience Managerの中での自動トリミングやスマートタギングが可能になり、Creative Cloudの中でのAIを用いたビジュアルストック検索なども可能になる。これらは、Adobeのソフトウェア体験に不可欠な機能である。同社はこれらをAPIとしてパッケージングして、開発者たちが自身のソフトウェアの中で使用できるように提供している。

Senseiが今後10年間Adobeのクラウドプラットフォームを駆動する技術であるかどうかにかかわらず、Parasn​​isと会社はそのビジョンに真剣に取り組んでいる。今後数カ月そして数年のうちに、Adobeがより多くのAIアルゴリズムをプラットフォームに組み込み、それらを開発者たちにソフトウェア開発用として提供していくにつれて、私たちはより多くの発表をAdobeから聞くことになるだろう。

Parasn​​isはもちろん、これを現在進行形のプロセスだと認識している。「やらなければならない仕事はまだ沢山ありますが、私たちのアーキテクチャはとても良い方向にスタートを切ることができました。AIはその非常に重要な部分となるでしょう」と彼は言った。

[原文へ]
(翻訳:Sako)