社員がG Suiteと併用してもよいサードパーティアプリケーションをアドミンが管理できるようになる

GoogleがITアドミンのために今日(米国時間7/6)ローンチする新しい機能により、社員たちはG Suiteの生産性ツールと、そのほかのサードパーティアプリケーションを容易に併用できるようになる。

似たようなサービスとしてGoogleは、OAuthのプロトコルを使って、サードパーティのアプリケーション(メール、カレンダーなど)にユーザーの会社のデータへのアクセスを許している。Googleは、自身のサービスからのデータの遺漏を防ぐためにツールをたくさん提供しているが、サードパーティのサービスにはその保証がなく、ITアドミンたちを不安にさせていた。今回ローンチしたホワイトリスティング機能*によりアドミンは、会社のデータにアクセスしてもよいサードパーティアプリケーションを限定できるようになる。〔*: ホワイトリスト、ブラックリストの逆で、良いもの、OKなもののリスト。〕

これを一度セットアップすると、ユーザーは簡単にOAuthによる認証ができるようになり、前と同じようにG Suiteのデータへのアクセスを認可できる。そしてITの人たちは、認可したアプリケーションだけがデータにアクセスできる、と知っているので、枕を高くして寝ることができる。このツールを使ってアドミンは、Gmail, Drive, Calendar, ContactsなどのAPIへのアクセスも管理できる。

この新しい機能はG Suiteの既存のセキュリティツールを補完するもので、たとえば Data Loss Prevention(DLP)ツールはGoogle DriveやGmailのデータを保護し、社員の送信メールや共有ファイルに社会保障番号や運転免許証番号などがないことを確認する。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

NvidiaとBaiduが、クラウド、自動運転、リサーチ、そしてスマートホームにまたがる包括的なAI協業提携を行った

本日(米国時間7月5日)BaiduとNvidiaは、人工知能についての包括的な協業提携を行ったことを発表した。適用分野はクラウドコンピューティング、自動運転、教育と研究、および民生機器を介した家庭内での利用にまたがる。これはNvidiaにとって、急成長する人工知能ビジネスの中で、これまでで最も包括的なパートナーシップであり、今後数年にわたりNvidiaのGPU事業を大きく拡大する可能性がある。

今回のパートナーシップには、Baidu CloudでNvidiaのVolta GPUを使用する契約や、複数の中国の自動車メーカーと提携して自動運転車を市場に投入しようとしているBaiduの取り組みに対して、Drive PXを適用することなどが含まれている(今朝発表されたBaiduの自動運転車向けApolloプログラムとその野望、詳細はこちらから )。さらに、BaiduとNvidiaは、Baiduが開発した、Nvidia Volta用オープンソース深層学習フレームワークであるPaddlePaddleの最適化に向けて協力を行なう。そしてその成果は広く研究者や研究機関などに提供される予定だ。

消費者サイドに目を向けると、Baiduは今年初めにハードウェアをアップグレードしたAndroid TVベースのセットトップ・ストリーミングボックスであるNvidia Shield TVに、DuerOSを追加する予定だ。DuerOSは、SiriやGoogle Assistantに似た仮想アシスタントで、以前スマートホームスピーカーやデバイス向けに発表されていたものだ。Shield TVは今後のアップデートによって、Google Assistantのサポートを受ける予定だ。Nvidiaはまた、最終的に家庭内に展開可能なスマートホームマイクを提供して、DuerOSでも動作可能な機能を提供する。

これはNvidiaにとって大きな勝利であり、現代のAIコンピューティングにおける最も重要なパートナーシップの1つが出現する可能性がある。両者はこれまでも協業してきたものの、今回の提携はAIの将来の成長が見込まれる潜在的な分野すべてにパートナーシップの幅を広げるものだ。

[ 原文へ ]
(翻訳:Sako)

Microsoftがクラウド情報管理会社のイスラエル企業Cloudynを買収、買収額は5000万ドルから7000万ドル

Microsoftが、イスラエルのクラウドスタートアップ企業であるCloudyn社を買収しようとしているという話を耳にし始めたのは、この4月のことだった 。条件の交渉に時間はかかったが、本日(米国時間6月29日)ついに、Microsoftはそれを公式発表した

複数の情報ソースがTechCrunchに語ったところによれば、買収価格は5000万から7000万ドルの間だという。

本日(米国時間6月29日)付けの同社のブロク投稿で、MicrosoftのJeremy Winterは「企業とマネージドサービスプロバイダたちが、クラウドサービスへの投資を最適化することを助ける革新的企業のCloudynの買収に関し、Microsoftが最終合意に達することができたことを嬉しく思います」と書いている。

世の企業は引き続きマルチクラウド戦略を推進しているので、この買収はMicrosoftに対して、特にAWSやGoogle Cloud Platformといった競合相手たちに勝る、クラウド課金と管理ソリューションをもたらすことになる。

TechCrunchのIngrid Lundenが4月に書いたように、Microsoftはマルチプラットフォームサービスアプローチを推進しているので、これはその全体的な戦略に合致したものだ。さらに彼らに対して、他のクラウドプラットフォームを横断する利用データを提供してくれるというボーナスもある:

CloudynはMicrosoftのポートフォリオにとって、より有用なものとなり得る:Microsoftの顧客たちのサービスがどのようにクラウドの中で使われているかのモニタをすることを助ける一方、その過程でおそらくMicrosoft自身のサービスの効果的な組み合わせ方についての提案もすることができるだろう。

もちろんCloudyn自身が大規模なクライアントリストを蓄積してきたことも大いに役立つ。同社は、「すべての主要業界におけるFortune 500リーダー企業たち」を含む数千の企業と協力していると述べている。

また注目したいのは、Cloudynは既にMicrosoftのパートナーでもあるということだ。今年3月には、同社はMicrosoft Cloud Solution Providersへのサポートをアナウンスしている。すなわちAzure(もしくは他のクラウドプロバイダー)と企業の間に入るインテグレータたちやミドルサービスプロバイダーたちに対して、インテグレータによって実装された特定のプロダクトに依存したプラットフォームの利用状況を、彼らに代わって管理しモニターするというサービスを提供するのだ。Infosys(こちらもCloudynに投資している)、Westcon-Comstor、Insightはすでに顧客となっている。

Lundenが指摘していたように、これは投資家にとって確かな利益をもたらす筈だ。

Crunchbaseによれば、2011年に設立されたCloudynは、Carmel Ventures、Infosys、ロシアのTitaniumを含む投資家から、これまでに2050万ドルを調達している(なおCalcalistによればより高い2250万ドルの調達額が挙げられている)。これは、5000万ドルから7000万ドルという値札が、少なくとも調達資金の2倍以上、あるいは4倍近くになり、年間収益(Calcalistのレポートによれば年間に500万から700万ドル)の10倍に匹敵するということを意味している。

Microsoftはその他にも、AoratoAdallom、そしてSecure Islandsなどのイスラエル企業を買収し、そして今月の初めにはまた別のセキュリティ企業Hexaditeを1億ドルで買収している

[ 原文へ ]
(翻訳:Sako)

ハイブリッドクラウドの管理サービスを提供するNutanixがリソース予測管理ツールなどを導入

Nutanixは2009年にストレージ企業として誕生したが、つねにコンピューティングの世界に対する広い視野を忘れなかった。社長のSudeesh Nairによると、ストレージでスタートしたのも、当時はレガシーのストレージがデータセンターの変化を阻んでいたからだ。今日(米国時間6/28)同社は、その最初のビジョンを超えた新たな一歩を踏み出し、ハイブリッドクラウドのためのより大きなオペレーティングシステムの一部になる、と同社が見なす二つの新しい製品を導入した。

その最初の製品は、災害復旧プロダクトXi Cloudだ。といってもNairによるとそれは、ファイル構造を別の場所へコピーするふつうの復旧サービスではなく、ファイルやライセンスなどあらゆるものを、適切なIPアドレスへコピーする。もし災害にやられても、スイッチを入れるだけですべてが再び正常に動き出す。そのときの必要なコンピューティングパワーは、Nutanixが提供する。

典型的な災害として、2012年のハリケーン・サンディが挙げられる。そのときはニューヨークとニュージャージーのデータセンターが水没した。しかしXiがあれば、企業はほんの数分でシステムを再稼働できただろう、とNairは言う。
 
結局はクラウドサービスのようだけど、Amazonとどこが違うのか? Nairはこう説明する: “XiはあくまでもNutanixのスタックであり、それを顧客がレンタルするのだ。パブリッククラウドのように聞こえるかもしれないが、Amazonと競合する気はない。うちに、そんな力はない。われわれが提供するサービスは、顧客が保有ないしレンタルするインフラストラクチャ上で、完全に不可視だ(存在を意識しない)”。

同社が今日導入するもうひとつのプロダクトは、Nutanix Calmという名前で、同社が昨年買収したCalm.ioがそのベースだ。このサービスは、ユーザーの典型的な利用パターンに基づいて、今後必要になるクラウドリソースを予測する。今日(こんにち)のパブリッククラウドツールに欠けている管理機能を提供してリソースのコントロールを可能にする、とNairは説明する。

これらのツールはいずれも、同社があえて‘ハイブリッドアーキテクチャのためのオペレーティングシステム’と呼んでいる幅広い機能集合の一環だ。“そのスタック全体がオーナーはうちだから、管理もうちなりにエレガントなやり方でできる”、と彼は語る。

彼はパブリッククラウドのパワーを認めており、彼らと戦う気はない。彼は、別の立ち位置にいる。“オンプレミスの体験がパブリッククラウドに比べて相当悪ければ、単純にそっちへ行けばよい。しかしその前に問うべきは、今保有ないしレンタルしているインフラストラクチャ上のまあまあの体験を、もっと良い体験にすることはできないのか?、という問いだ”。

一部のリソースをパブリッククラウドに置き、残りをオンプレミスに置く、ハイブリッド形式は今後も存続する、とNutanixは信じている。そして当分のあいだそうであるのなら、その環境をできるかぎり効率化したいというニーズも必ずある。

ハイブリッドクラウドアーキテクチャの管理という、本質的に複雑な課題を、企業が意識せずにすむようになれば、これからの新しいことにも取り組めるだろう。だからNutanixが今日導入したプロダクトも、彼らにとって、何かもっと大きなことのスタートになりえるのだ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Cloudflareがデベロッパープラットホームとその開発努力を支える1億ドルのファンドを創設

Cloudflareが今日(米国時間6/27)、Cloudflare Appsと呼ばれるアプリケーション開発プラットホームを立ち上げ、またデベロッパーたちのアイデアの実現を助けるためのファンド(当初1億ドル)Cloudflare Developer Fundを発表した。

開発プラットホームは、そこでCloudflareのエコシステムを利用するアプリケーションの構築ができ、それらをCloudflare Appsストアに置いたり、またコーディング不要でWebページにマップやフォームなどの機能を容易に配置できる。

CEOで協同ファウンダーのMatthew Princeは、同社上に開発プラットホームがあることの意味をこう説明する: “今のCloudflareは600万を超える顧客のインターネットプロパティの前に座っている〔CDNや他のリバースプロキシサービスで〕。弊社は世界最大のネットワークを稼働させており、データセンターは世界中に115箇所ある。そのネットワークを毎日大量のトラフィックが通っているが、それらが通るときには、それをいろんな方法で変える/加工する方法と機会がデベロッパーにある”。

今回のデベロッパープラットホームは、Cloudflareが昨年12月にEagerという小さな企業を買収したことが契機だ。今日の発表はその買収の成果だ、とPrinceは説明する。

ひとつの例として、ライブのWebページにGoogleのマップを(コードを書かずに)挿入するやり方がある。Eagerの技術を使うとそれは、Cloudflare AppsストアでGoogle Mapツールをクリックするだけだ。そのあとドロップダウンリストからセレクトして、目的の場所へドロップダウンする。ささいなこと、と思えるかもしれないが、なにしろプロのプログラマーがいなくても、誰でも、地図をWebページに加えることができるのだ。その工程は、とても簡単で早い。

1億ドルのファンドの件は、Princeによると、Cloudflareのアイデアではなくて、投資家たちの提案だ。“彼らはとても熱心だった。NEA、Venrock、それにPelion Venture Partnersらは、人びとがCloudflareのプラットホームの構築と拡張に挑戦すれば、そのスケールとパワーを自分でも納得するだろう、そしてそれが、もうひとつのすごい企業を作る機会であることに気づく、と主張するのだ”、と彼は語る。彼らは、Cloudflareをベースとするアプリケーションを、Cloudflareの新たな分身のように感じている。

NEAのマネージングゼネラルパートナーでCloudflareの取締役でもあるScott Sandellも、同じ意見だ。“このDeveloper Fundでデベロッパーは、Cloudflareのネットワーク上で何千ものエンタープライズや何百万ものユーザーにアクセスできるだけでなく、デベロッパーがビジョンを実現できるための資本も提供されるのだ”、と彼は言う。

Cloudflareは2011年にアプリケーションストアを立ち上げ、約30のアプリケーションをサポートしたが、その後、企業の成長戦略の方が忙しくなって、立ち消えになった。Eagerの技術が使える今は、APIを提供する最初の試みよりもずっとデベロッパーフレンドリーだ。プロトタイプもきわめて迅速に作れる、とPrinceは語る。

Cloudflareは2010年9月のTechCrunch Disruptでデビューし、その後1億8000万ドルあまりを調達している。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

AmazonがAWS上のユーザープロダクトに翻訳サービスを提供、アプリケーションの多言語化を推進

CNBCの報道によると、デベロッパーがAWSを使ってアプリケーションやWebサイトを作るとき、そのコンテンツを複数の言語に翻訳できる機能を提供しようとしている。クライアントのプロダクトを複数の言語で提供するために使用されるその機械翻訳技術は、Amazonが自社のプロダクト全域で使っている技術がベースだ、とその記事は述べている。

翻訳サービスはクラウドサービスでAmazonと競合するAlphabetやMicrosoftが、Amazonに負けていないと主張できる重要な要素のひとつであり、Googleは最近、ニューラルネットワークで強化した翻訳機能のデベロッパー向け実装を提供開始した。Amazonは2年近く前に機械翻訳のスタートアップSafabaを買収し、それによって実装した翻訳機能でAmazon.comなどのサイトを多言語化している。

最近Amazonは競争力強化のためドイツのハイデルベルク大学と提携して、翻訳結果に対する誤訳の指摘など、ユーザーフィードバックに対応できる機械翻訳プラットホームの開発を進めている。

この件に関し本誌は今、Amazonのコメントを求めている。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

ARMアーキテクチャのプロセッサーにこだわるホスティングサービスのScalewayがサーバーの仕様をアップ

Iliadのクラウドホスティング部門Scalewayはここ数年、ARMのチップセットを強く推している。ホスティングの未来はARMのプロセッサーアーキテクチャがベースになる、と信じているからだ。今日(米国時間6/22)同社は、より強力なARMv8オプションをローンチし、そしていちばん安いオプションのコア数を増やした。

プロセッサーのアーキテクチャといっても、Appleを除いて一般的なものといえば、ラップトップやPCならIntelのx86 CPUと、それとほぼ互換のAMDのプロセッサー、そしてスマートフォンは主に、ARMのアーキテクチャに基づくSoC(system-on-a-chip)を使っている。

今年の4月にScalewayは、64ビットのARM機(CaviumのSoC ThunderX)を使った仮想サーバーを立ち上げた。そしてそのいちばん安いオプションは、、めちゃめちゃ安い。USドル換算で1か月3ドル30セント(2.99ユーロ)、ARMv8の2コア、RAM 2GB、SSD 50GB、200Mbit/sの帯域は使用量制限なしだ。

今日のアップデートではこのオプションが2コアから4コアにアップ、DigitalOceanやLinodeなどのエントリーレベルの仮想プライベートサーバーと十分に競合できる性能だ。同社によると、処理能力単価は市場でいちばん安いそうだ。5.99ユーロ払うと、6コア、RAM 4GBになる。

Scalewayは負荷の大きい重要なタスクにもARMアーキテクチャのプロセッサーを載せたサーバーを使うべきだ、と考えている。そのための最大の構成は、64コア、RAM 128GBだ。厚切りステーキのようなこのオプションはもちろん高価(月額279.99ユーロ)だが、16, 32, 48コアという中間的オプションもある。

でもScalewayは今だに、パリとアムステルダムの2箇所にしかデータセンターがない。競争の激しいクラウドホスティング市場でメインの選択肢の一つになるためには、アジアとアメリカにも展開しなければならないことを、自覚していただきたい。

〔関連過去記事(日本語訳):(1)(2)(3)。〕

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Spotifyからショーン・パーカーが去る――上場を控えて取締役会を一新

今やユーザー1億4000万人を擁する音楽ストリーミングの有力企業Spotifyは上場に向けて準備を進めているところだ。ここで取締役会に大きな変化があった。初期からの投資家でありデジタル音楽サービスのパイオニア、NapsterのファウンダーでFacebookの立ち上げにも大きな役割を果たしたショーン・パーカーがSpotifyの取締役会から離れた。もうひとりの初期からの投資家でヨーロッパを代表するエンジェル投資家のクラウス・ホメルズも取締役会を辞任した。

同時にSpotifyは業界の著名人4人を新たに取締役に任命した。Padmasree WarriorはCiscoの元CTO、CSOで現在、中国の電気自動車メーカーNIOのCEOを務めている。Thomas StaggsはDisneyの元COO、Shishir Mehrotraは元YouTube幹部、Cristina Stenbeckは投資家だ。

この4人以外の既存のSpotify取締役はDaniel Ek、Christopher Marshall、Martin Lorentzon、Pär-Jörgen Pärsson、Ted Sarandosの5人だ。

現在Spotifyの企業価値は130億ドル前後と評価されており、これまでに総額15億6000万ドルの資金を調達している。同社はTechCrunchの取材に対して、ショーン・パーカーらが取締役会を離れ、ほぼ同時に4人の新たな取締役が任命されたことを確認した。情報源によれば、パーカー、ホメルズともSpotifyに対する投資家であり、友人であることに変化はないという。

新取締役の変更は先月から噂が流れていたが、今回、ルクセンブルクにおける登記書類によって確認された(スウェーデンのサイト、Breakitが発見した)。

パーカーホメルズは共に2009年からSpotifyの取締役を務めていた。特にパーカーは単なる出資者という以上にSpotifyのビジネスの立ち上げに重要な役割を果たした。上の写真は2010年ごろ、パーカーがパートナーを務めたピーター・ティールのFounders FundがシリーズCでSpotifyの資金調達に加わったときのものだ。

Napsterが海賊版音楽サイトとして悪名を轟かせたことを考えれば皮肉ともいえるが、パーカーはSpotifyを助けてレーベルと交渉に当たり、リスナーがストリーミング再生した回数に合わせてライセンス料金を支払う交渉をまとめた(この契約によってSpotifyは音楽ストリーミングを始めることができたが、ビジネスとしては決して有利な内容ではなかった。Spotifyは現在レーベルと契約の再交渉を進めている)。

パーカーはまたヨーロッパ生まれのSpotifyをアメリカに導入する上でも重要な役割を果たした。アメリカ上陸は同社の成長にとって決定的な段階となった。こうした努力の結果、Spotifyは音楽ストリーミング・サービスにおいてユーザー数でも売上でも世界最大の企業となっている。

新取締役

新メンバーは上場IT企業となることを念頭に選ばれたようだ。Spotifyの上場は今年にも行われるという情報が流れていたが、むしろ2018年になる公算が高い。上場先はニューヨーク証券取引所となる模様だ。

Padmasree WarriorはCiscoの幹部として長く務め、テクノロジーだけでなくビジネスにも経験が深い。これはクラウドベースのテクノロジー企業であると同時にサードパーティーと複雑な権利関係をさばく必要があるSpotifyの取締役として重要な資質だろう。【略】

StaggsはDisneyのベテラン(1990年に加わった)で、2016年に同社を去る前はCOOを務めていた。報道によれば、CEOに昇格する可能性がなくなったためにDisneyを離れたのだという。Staggsはメディア界で契約をまとめた経験が豊富だ。これはSpotifyにとって今後必要性を増す分野だ。【略】

YouTubeで長年エンジニアリングと収益化のために働いてきたShishir Mehrotraについても同じことがいえる。またSpotifyは今後ビデオに注力していくという。ライバルのAppleもデジタル音楽を出発点としてビデオ・ストリーミングにビジネスを拡大した。こうした面からもMehrotraの果たす役割は重要だろう。またMehrotraはこれまでもSpotifyと密接な関係があった。2014年以来同社のスペシャル・アドバイザーとなっている。【略】

Christina Stenbeckはスウェーデンのストックホルムを拠点とする投資会社Kinnevikの会長であり、原動力だ。多くのビジネスに関与しているが、Rocket Internet出身の多くのスタートアップの主要投資家でもある。KinnevikはこれまでSpotifyに出資していないが、われわれが以前報じたとおり、Spotifyはスウェーデン発でもっとも成功したテクノロジー企業であり、スウェーデンを代表する投資家を取締役に加えることを有利とみたのだろう。Stenbeckの取締役就任は上場を控えたSpotifyとしてスウェーデンの投資家に対するプロモーションの一環でもあるだろう。

画像: BillBoardBiz

[原文へ]

(翻訳:滑川海彦@Facebook Google+

Dropbox、独自ネットワークの運用開始――パフォーマンス向上とコスト半減を期待

昨年、DropboxがAWSから離れ、独自のデータセンターを建設する計画を明らかにしたとき、Dropboxのネットワーク自体も大幅に改革されるはずだ推測された。今日(米国時間6/19)、Dropboxは世界のネットワークの大きなアップデート計画を発表した。これによりユーザーは同期速度が大きくアップし、Dropboxにとってはコストが節減されるという。

この大胆なプランにはいくつかの側面がある。一つはGoogle、Amazon、Facebookのような世界的インターネット企業のものに似たカスタムメイドのデータセンターの建設だ。しかしDropboxのようなサービスの場合、ハードのインフラの整備だけでは十分ではない。ストレージ処理をスピードアップするためにはできるだけユーザーに近い場所でサービスを提供できるようにする必要がある。これはコンピューティングをネットワークのエッジに近づける手法と呼ばれている。

Dropboxによれば同社はすでに3大陸、7カ国、 14都市でネットワーク拡張の努力を開始している。 Dropboxのエンジニア、Raghav Bhargavaは同社のブログで、「〔迅速なサービスを実現するために〕われわれは地域的、世界的なISPと契約して数百ギガビットものインターネット接続を追加してきた。またISPを通さず直接データをやり取りするピア・パートナーも数百に上る」と書いている。

同社はこの努力を次のレベルに進めることとし、オープンソース・ソフトを全社的に採用してカスタム・プロキシを開発した。 「エッジ・プロキシはサーバーのスタックでユーザー側から見た最初のゲートウェイとなり、TLS/TCPのハンドシェイクを実行する。これはPoP(point of presence)に導入され、ユーザーが世界中どこにいてもDropboxへのアクセスのパフォーマンスを向上させる」とBhargavaは書いている。

このタイプのネットワーク・アーキテクチャは通常AkamaiのようなCDN(Content Delivery Network)によって提供されることが多かった。しかしDropboxの規模でサービスが提供されるようになると、独自の必要に対応するカスタム・ソリューションを開発する必要があると認められた。

イラスト: Dropbox

今日からDropboxはアメリカのデータセンターでカスタム・プロキシの運用を開始するが、今後世界のデータセンターに導入していく。まずシドニー、マイアミ、続いて第3四半期にはパリ、第4四半期にはマドリッドとミラノが予定されており、今年の末までに4カ国25カ所の施設すべてに導入される。

このネットワークのアップグレード計画には2つの理由がある。一つはユーザー体験の改良で、ユーザーが世界のどこにいようと処理スピードをアップさせる。Dropboxによればユーザーの75%はアメリカ国外からアクセスしているという。したがってコンピューティングをユーザーが存在する場所に可能な限り近付けるエッジ・プロキシの手法は、Netflixも採用しているが、きわめて重要となる。ネットワークのアップグレードが完了し、PoP数も大幅に増加すれば、多数のユーザーを抱える地域でのパフォーマンスの向上が期待できる。

第2の理由は、独自のハード、ソフトを構築することにより大幅なコストの削減が可能になる点だ。同社によればこのアプローチはネットワーク・コストを半減させるという。そうであればDropboxの経営に大きな影響を与える節約となるだろう。

Dropboxには上場の噂が絶えない。ネットワークのインハウス化の進展によるサービスの向上とコストの削減は投資家に対するアピールとして有効だろう。.もちろんユーザーにとってのメリットも大きいはずだ。

画像: download.net.pl/Flickr UNDER A CC BY-ND 2.0 LICENSE

[原文へ]

(翻訳:滑川海彦@Facebook Google+

Cloud Foundryの企業採用が進む

今や、最新のソフトウェアの開発、展開、管理の方法を主導していくために、オープンソースプロジェクトがこれまで以上に大きな役割を果たすようになっている。例えばコンテナのためにはKubernetesがあり、エンタープライズ規模のインフラ運用のためにはOpenStackがあるといった具合だ。しかしここ数年の間に、Cluod Foundryという名のまた別のプラットフォームが、企業が内外のサービスを開発する方法を変えてきた。

Cloud Foundryは「サービスとしてのプラットフォーム」(PaaS)に分類されるもので、OpenStackのような「サービスとしてのインフラストラクチャ」(IaaS)とは区別される。Cloud Foundryが目指しているのは、インフラストラクチャを運用するという厄介な作業やデータベースのようなより高度なサービスを抽象化して、開発者にアプリケーションを書くための単一のプラットフォームを提供することだ。

ここでの前提は、Cloud Foundryの下にあるものを、開発者が気にする必要はないということだ。たとえばそれはオンプレミスのOpenStackクラウドかもしれないし、AWS、Google Cloud Platform、IBM Bluemix、Azureなどのパブリッククラウドかもしれない。これは、企業がアプリケーションをあるクラウドから別のクラウドに移動させる(または複数のクラウドを同時に使用する)能力を得ることを意味する。もちろんその際に、それぞれのクラウド特質に合わせてコードを改変する必要はない。Cloud Foundry FoundationのCTOであるChip Childersによれば、プロジェクトの目標は開発者を幸せに(そして生産的に)することだ。

Cloud Foundryの歴史は、当初の開発者VMwareが最初のバージョンをリリースした2011年に始まるが、2015年以降はLinux Foundationの助けを借りてプロジェクトを推進している(CFとLFとの提携が行われたのは正確には2014年12月)。その提携以前にもプロジェクトは成功していたものの、以降は真に独自の成功を収めて来ている。Fortune 500社の半分が現在、何らかの形でCloud Foundryを利用している。

企業の変化はゆっくりで、しばしば沢山の古いソフトウェアを維持しなければならないために、完全に移行した例はまだ多くないが、現在多くの企業が新しいソフトウェアの全てをCloud Foundryの上に構築している最中だ。最大手のユーザーでも、Cloud Foundryで実行しているアプリケーションはおそらく10%程度に過ぎないが、将来はこのプラトッフォームに賭けられている。

「多くの人たちがその方向に集中しています」と、Cloud Foundry財団のエグゼクティブエディタであるAbby Kearnsは語った。「多くの企業にとって、デジタルトランスフォーメーションはまだ初期段階ですが、企業の変革には通常7〜8年かかると考えられていますし、その中には更に時間がかかるものもあるでしょう」。

会社の従業員たちによる切り替えを簡単にするために、Cloud Foundryでは従業員たち自らがが選択した言語で記述することが可能だ。「Cloud Foundryの目標は、開発者の手に多くの自由を戻し、自ら開発が可能になるようにすることです。そのためには邪魔になるものを減らして行きますが、同時に十分なガードレールも与えます」。

さらに、財団は現在、そのプラットフォームとクラウドネイティブ開発パターンの両方を、一般的に利用する開発者を養成する認定プログラムを提供している。

先週、Cloud Foundryは年次開発者会議を主催したが、その講演者の顔ぶれは、Allstate and Liberty Mutualから、Ford、Home Depot、Google、Microsoft、SAP、IBM、そして独自のサービスを現在これらの企業に提供している多くのスタートアップたちに及んだ。これらの企業はすべてCloud Foundry財団のメンバーであり、Google、Microsoft、IBM、SAP、VMware、Cisco、DellEMC、Pivo​​talといった顔ぶれがこのプロジェクトを構築するためにここに集まっているのは時代を象徴している。

MicrosoftとGoogleが参加するこのラインナップに、明らかに欠落しているのはAWSクラウドのAmazonだ。彼らがすぐに参加してくるとは思わない。しかしながら、ユーザーたちはすでにAWS上にCloud Foundryをデプロイしはじめているため、プラットフォームの進化に対して意見を言うことも大きな関心事になることだろう。

Childersが強調したように、このプロジェクトはオープンソースが主眼というよりも、共同の研究開発を狙ったものである。このことがプロジェクトの哲学を他のオープンソースプロジェクトとは少し異なるものとしている(ガバナンスモデルも他のLinux Foundationプロジェクトとは少し異なる)が、最終的な結果はとても似通ったものとなっている。

将来については、Childersは、財団は明らかに製品会社ではないため、そのロードマップはメンバーやさまざまなサブプロジェクトに非常に依存していると語る。全体の取り組みに関わる商用ベンダーたちはそれぞれのロードマップを持っているので、このプロジェクトが何処へ向かうのかを正確に予測することは困難だ。

例えば、現在エンタープライズ分野で囁かれる、多くの構想段階の概念の1つとして、サーバーレスコンピューティングがある。Cloud Foundry財団は、まだこの騒ぎには跳び乗っていない。Childersはその理由を、今年は企業たちが実際にそれに手をつけようとしていないためだと述べているが、やがてプロジェクトが実際に取り組むときが来るかもしれないことは認めている。「私たちは、エコシステムにイノベーションを導入したくなる、微妙な地点にいるのです」とChilders。「それを素直に押し出して『これには意味がある、世間には沢山の選択肢があるが、私たちはリリースするプラットフォームの全体の中にこれを取り込むことが正しいことだと考えている』と言える場合もあるでしょう。しかし私たちはそれが正しい答えだと言い切る準備はできていません。[…]私たちは目新しいものに飛びつくことはしません」。

プロジェクトが積極的に検討しているのはユニカーネルだ。これは特に、DockerがUnikernel Systemsを買収したことで、ゆっくりと再浮上してきたコンセプトだ。またグループは、Cloud Foundryが、ネットワークのエッジ部分にさらに多くのコンピューティングパワーをもたらすためにどのように役割を果たすことができるかも検討している(コンピューティングをクラウドへ何年も集中してきた動きを思えば、興味深い転換だ)。

「イノベーションは難しいことです。私たちは、コミュニティとして、こうした問題に取り組んでいきます」とChilders。「実を結ぶこともあれば、そうでないときもあるでしょう」。Cloud Foundryは安定したコアを手に入れたため、この先の数ヶ月から数年の間にこうした探求の結果をより多く目にすることになるだろう。特に企業たちはただクラウドを一般的に活用するだけでなく、複数のクラウドベンダーからの最高のサービスを同時に活用できるようにしたいと願っているからだ。

[ 原文へ ]
(翻訳:Sako)

 

FEATURED IMAGE: BRYCE DURBIN

Dropbox Businessのアドミンダッシュボードがデザイン一新、時間制限など機能を増強

Dropboxは消費者市場でスタートしたが、最近では企業ユーザーにとって使いやすいサービスにするための多大なる努力を傾注している。今やDropbox Businessのユーザー企業は20万社を超え、彼らはそのクラウドストレージサービスの上で社員たちが機密性のあるファイルや情報にアクセスするときのための、より高度でより細かい管理機能とセキュリティをますます求めるようになっている。

今日(米国時間6/13)同社は、アドミンダッシュボード上の機能をさらに増やした。それは同社の、AdminXイニシアチブと呼ばれる大きなプロジェクトの一環だ。このプロジェクトは、アドミンのユーザー体験の向上が目的で、社員のアカウントを作ったり、誰は何にアクセスできる/できないといった細かいコントロールするのが彼らの日常の仕事だ。

最初に同社は、アドミンコンソールのデザインを一新して、シンプルで使いやすくした。その単純さは消費者体験に近いものになり、しかし同時に企業が求める堅牢さとセキュリティを確保した。

またWeb上の(各人の)セッションコントロールにより、ログインしてファイルにアクセスしている時間に制限を設けられるようにした。またアドミンは、一部のチームに対してサブドメインの検証ができるようになった。特定のアカウントやユーザーをサブドメインの下に置くと、企業のDropboxアカウントにアクセスしてよい/いけない人を細かく管理できる。

パスワードの作り方やアップデートの仕方にも、改良を加えた。これからは、ユーザーがパスワードを作ったり変えたりするたびにその“強度”を評価し、弱いパスワードを使わないよう勧めることができる。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

MicrosoftがオープンソースのPaaSプロジェクトを支えるCloud Foundry Foundation に参加

Microsoftが今日(米国時間6/13)、Cloud Foundry Foundationに参加する、と発表した。この団体が運営するオープンソースで非営利のPaaSプロジェクトCloud Foundryは今や、Fortune 500社の約半数が利用している。

Microsoftは同団体に、Google, Huawei, Ford, GE Digital, NTT, Philips, Swisscomなどと同じくGold Member(ゴールド会員)として参加し、このプロジェクトを支援していく。Googleは昨年12月に加わり、また同財団の元CEO Sam Ramjiを雇用した。

Cloud Foundry FoundationのCTO Chip Childersによると、プロジェクトにMicrosoftが公式に参加したことにより、今では最大の巨大クラウドプラットホームのうちの二つ(GoogleとMicrosoft)がこのプロジェクトを支持していることになる。ということはもちろん、両プラットホーム上の企業顧客からの需要も期待される、ということだ。

まだここにいないのは、言うまでもなく、Amazonだ。“彼らが来れば歓迎する”、とChildersは言うが、最近のAmazonは徐々にオープンソースの世界で活動するようになってきたとはいえ、Cloud Foundry Foundationへの参加については、現状ではまだ何も言えない雰囲気だ。

MicrosoftのAzureのPM Corey Sandersは、今週シリコンバレーで例年のサミットを開くCloud Foundry Foundationへの参加についてこう語る: “そうなればわれわれのソリューションのデリバリ能力がより深くなり、コミュニティを大きくでき、Cloud Foundryの統合も拡大できる”。

彼の話が具体的に意味しているのは、Azure DatabaseとPostgresSQLおよびMySQLのバックエンド統合により、それらをCloud Foundryベースのアプリケーションのバックエンドデータベースにできることだ。Azure上のPostgreSQLとMySQLは、数週間前に同社のデベロッパーカンファレンスBuildでローンチされた。同社は今日さらに、Azure Cloud Shell上にCloud Foundryのコマンドラインツールを加えたことを発表した。これも、ローンチの機会はBuildだった。

Microsoftは今年初めにDeisを買収したことによって、Cloud Foundryと関わりの深いデベロッパーチームと、またとくにOpen Service Broker APIを獲得した。このAPIを使えばデベロッパーやISVs(デベロッパーショップ)やSaaSのベンダーなどが、自分のアプリケーションを容易に、Cloud FoundryやOpenShift、Kubernetesなどのプラットホームで動くアプリケーションから可利用にできる。DeisがMicrosoftに入り、そしてMicrosoftがFoundationに入ったことによって、Sandersによれば、今後Service Brokerのサポートがさらに増える、という。Microsoftは、Open Service Brokerのワーキンググループにも公式に参加する。

MicrosoftがCloud Foundry Foundationに参加して、最初のうち何をやるのか。Sandersによると、初めはもっぱら、“勉強と、コミュニティへの深いレベルでの参加”だそうだ。

なお、MicrosoftはこれまでもCloud Foundryの各種プロジェクトに活発に関わっている。だから今日の発表は、この関係をより強化するものだ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

脱クラウドして自前のインターネット・インフラストラクチャを構築する企業を助けるInflect…難しい買い物の最適解を提供

AWSのような快適安全なパブリッククラウドから、自前のインフラに移ることになると、面倒なことがたくさんある。たとえばデータセンターやネットワークやエクスチェンジ・プロバイダーを選ばなければならない。でも、これらのインフラストラクチャサービスを迅速に買い整える能力の持ち主が、チームにいないことのほうが、むしろふつうだろう。

今日プレビューでローンチしたInflectは、その全過程を容易にしてくれる。サンフランシスコの同社が顧客としてねらうのは、パブリッククラウドで大きくなり、そして今やそのサービスの一部を、プライベートクラウドへ移す必要が生じた企業だ。移行の理由は、経費節減や特別のニーズなど、さまざまだ。COOのCharles Stewartはこう語る: “そんな幸運な少数者は、なにもかも一つのクラウドに放り込んでおける状態ではなくなってる。成長の過程でそんな曲がり角(inflect)に来ると、そんな厳しい驚きに見舞われるのだ”。

これまでは、データセンターや通信企業を買うことは手作業だった。たくさんの情報を調べ、それらを検証して、それから数社の営業に会う。でも企業のインフラストラクチャチームにとっては、これが彼らの足を重く引っ張る。

Inflectは、そんな企業に一つの中立的なツールを与え、それを使って正しいソリューションを見つけてもらう。そして、正しいインフラストラクチャプロバイダーを紹介する。

Stewartが強調するのは、Inflectが中立を志向することだ。データをさまざまなソースから集め、ユーザーが情報に基づく決定をできるように導くが、決めるのはあくまでもユーザーだ。それどころか、同社のサービスは今のところ無料だが、今後はユーザーが行う買い物(例: データセンター)を同社のプラットホーム上からできるようにして、それを収益源にしたい、と考えている。

以上はきわめて単純明快なサービスに思えるから、これまでそんなサービスがなかったことが不思議だ。同社が言うその理由とは、多くのサービスプロバイダーからデータを集めることが、たいへんな作業だからだ。簡単容易にデータにアクセスできないところも、ざらにある。外部に対してデータを出し渋るサービスプロバイダーもあるし、自分のサービスが必要としないかぎりはAPIすら作らないところもある。この公開APIをめぐる状況は、ぜひ変わってほしいとInflectは望んでいる。同社は通信企業とはすでに親密な仲を築いており、データも他社に比べれば得やすくなっている。また、PeeringDBからのデータも使っている。

目下Inflectは、AmazonのAWSプラットホームから自己サーバーへ移行しようとする企業を顧客としてねらっている(戻りたければAWSに素早く戻れるように、というニーズもある)。将来的には、ほかのプラットホームのユーザーもサポートしていきたい。ユーザーが自社の既存のインフラストラクチャに関する情報をタグを付けてInflectにアップロードすると、それを基に最適解を選び出す。

Inflectはこれまで、200万ドルのシード資金を調達している。その資金で同社は、今年の第三四半期の終わりごろまでにサービスを一般公開へ持って行きたい、と考えている。そしてその次は、サービスを拡張するための新たな資金調達を目指す。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

MicrosoftのDraftはコンテナ化の面倒を引き受けるクラウドサービス、デベロッパーはアプリケーションのコードをローカルに書くだけ

Microsoftが今日(米国時間5/31)、Kubernetesのクラスターの上で動くコンテナベースのアプリケーションを、より簡単に作れるオープンソースのツールDraftをローンチした。簡単というのは、デベロッパーは自分のアプリケーションにだけ集中すればよくて、DockerやKubernetesについては関知しなくてよい、という意味だ。というか、そもそも、コンテナという技術を支えるこれらのツールは、自分のマシンにインストールされていなくてもよいのだ。

4月にMicrosoftは、コンテナプラットホームDeisをEngine Yardから買収した。今日のリリースは、その最初の果実だ。Deisは、デベロッパーがコンテナを簡単に使えるようにすることを使命とし、買収されるまでWorkflow, Helm, Stewardといったオープンソースのツールをいくつかローンチしていた。Draftは、これらDeisの成果物の一部を利用している。

今日の発表声明には、次のように述べられている: “Draftは、デベロッパーのワークフローの“インナーループ”に集中する。デベロッパーがコードを書き、それをバージョンコントロールへコミットする直前までの過程だ”。Draftを使う場合、デベロッパーは‘draft create’というひとつのコマンドで“Draft pack”というものを作る。Draftは、そのコードが書かれている言語を自動検出し(Python, Node.js, Java, Ruby, PHP, Goをサポート)、検出スクリプトとDockerのファイルとKubernetes HelmのChartを書いて、packをソースツリーへとビルドする。そこから先は、そのコードを既存の継続的インテグレーションに入れるだけだから簡単だ。

もうひとつのコマンドでデベロッパーは、自分のアプリケーションに対する仕事をローカルに開始でき、そのコードが自動的にKubernetesの開発クラスターへ入れられる…それが動いているのはローカルでもリモートでもどちらでもよい。ローカルに加えた変更は、数秒以内にそのクラスター上で可利用になる。“そのため、デベロッパーがコードをローカルに書いも、しかし開発環境はクラウドにあり、そこでアプリケーションの依存性のすべてにアクセスできる”、とチームは説明している。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Adobe Scanは文書やレシートその他を編集可能なPDFに変換する

本日(米国時間6月1日)Adobeは、紙文書などを編集可能なPDFファイルへと簡単にデジタル変換できる、新しいモバイルアプリAdobeScanを発表した。App Storeには、既に多くのスキャンしてPDFへ変換するアプリが溢れているが、その多くは無料ではなく、デザインは古臭く、あるいは単にイメージをPDFに変換するだけで編集可能にはしてくれないものが多い。一方、Adobe Scanは、光学式文字認識(OCR)を使用して、印刷されたテキストをデジタルテキストに変換し、Acrobat Reader DCまたはAcrobat DCを使って検索、選択、コピーあるいは注釈付けができるようにする。

これに加えて、Adobeは無料アプリでもスキャンできるページ数に限界はなく、スキャンクオリティも下げないと言っている。

もちろんMicrosoft(Office Lens)、Google(Googleドライブ)、あるいはScanner Proなどの一般的なサードパーティ製アプリケーションなどを利用することに比べて、利用者の視点から見て優れている、あるいは困る点は、このアプリがAdobeのDocument Cloudと連携するようにデザインされているということだ。Adobeの顧客たちにとってはこれは利点だが、好みのアップロード先を選択できるようにする、より自由なソリューションを好む者もいる。

モバイルでスキャンしたドキュメントは、Adobe Document Cloudアカウントに自動的にアップロードされ、オンラインで保存したり、他のユーザーと共有したりすることができる。そしてもしAcrobat DCの加入者(スタンダードは月12.99ドル、プロは月14.99ドル)なら、文書の完全な編集と整理、そして署名の入力なども可能になる。

Adobe Scanは、単に紙だけを対象としたものではないことも指摘しておこう。同社によれば、ショッピングのレシート、名刺、会議中に表示されたスライド、さらにはホワイトボードのようなものをスキャンすることもできるという。

この新しいアプリは、Adobe Senseiという名のAIおよびマシンラーニングに基づくプラットフォームによって支えられている。 Senseiは、境界検出、自動トリミングとキャプチャ、パースペクティブ補正、例えば影部分を削除する自動クリーンなどの実現に利用される。

また、Adobe Signの新しいモバイル機能と連携して、どのデバイスからでもドキュメントに自動的に署名して送信することができる、とAdobeは発表している。

新しいアプリは、今日(米国時間6月1日)からiOSAndroidの両デバイスで利用可能だ。

[ 原文へ ]
(翻訳:Sako)

CoreOSがコンテナプラットホームTectonicをアップデート、Kubernetesの最新バージョンとetcdデータストアをサポート

CoreOSが今日(米国時間5/31)、サンフランシスコで同社のユーザーカンファレンスを開催している。当然ながらそのイベントでは、同社のあれやこれやがたくさん発表された。そしてその多くは、Kubernetesベースのコンテナインフラストラクチャを管理するTectonicプラットホームに関連している。

アップデートの多くは、単純明快だ。たとえばTectonicは今やKubernetesの最新バージョン1.6.4を使っているが、同社によると、エンタープライズ対応のKubernetesプラットホームでその最新バージョンを使っているのはTectonicだけだ、という。ただしそのバージョンは主にバグフィクスが目的で、メジャーバージョンではない。

しかしさらに重要なのは、デベロッパーが今や簡単に、CoreOSで人気のキー-ヴァリューデータストアetcdを導入し利用できることだ…そのためには新たなツールetcd Operatorを使う。etcdを使いたいデベロッパーは、Operatorを使ってetcdを必要に応じてスケールするが、エラーはサービス側がおだやかに処理し、アップデートも自動的に行う。

CoreOSのファウンダーでCEOのAlex Polviによると、同社が今注力しているのはエンタープライズ顧客の獲得だ。彼の主張では、今エンタープライズと呼べるほどの企業は、コンテナによるアプリケーション開発に注目している(そして既存のアプリケーションはクラウドへ)。しかしAmazon, Microsoft, Googleなど特定のベンダーにロックインされたくはない。“でも1年ぐらいそこにいただけで、請求書は屋根を突き抜け、彼らのAPIをすべて使い、そして完全にロックインされる。われわれは、そんなサイクルを終わらせたい”。

Kubernetesは多くの企業にとってコンテナオーケストレーションプラットホームの第一の選択肢だから、CoreOSも、主なクラウドプラットホームすべての上で(そしてオンプレミスでも)その利用を手伝いたいが、主なプラットホームすべてをサポートすることで、そのようなロックインを避けたい。

Polviによると、同社がエンタープライズへの直接的な営業を開始したのはやっと2016年の最後の四半期からだ。最近ではそれがほぼ軌道に乗り、そしてPolvi説ではKubernetesも離陸したから、CoreOSの営業活動のエンジン全開もこれからだ、という。

〔関連記事:Microsoftのコンテナアプリケーション開発ツールDraft(未訳)〕

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

GoogleのCompute EngineはCPUの種類を自由に選べるようになった、メモリは455GBまで使える

GoogleのクラウドコンピューティングサービスCompute Engineが今日(米国時間5/31)アップデートされ、数々の新しい機能が導入されるが、それらはとくに、もっと高性能なプロセッサーを使いたいとか、大量のメモリがほしい、と願っていたユーザーにとって朗報だ。

今日のアップデートはその多くが、Intelの次世代プロセッサーSkylake Xeonの一般供用(最大64コアまで)がベースだ。Skylakeのサポートは2月にベータに入ったが、これからは、Google Cloud Platformの三つのリージョン(Western U.S., Western Europe, Eastern Asia Pacific)でサポートされ、そのほかのリージョンも近日中に対応される。

さらにGoogleは今日64コアのインスタンスとBroadwll CPUのサポートを、すべてのリージョンで可利用にした。

Compute Engineは今やとても多様なIntel系CPUをサポートしているから(Sandy Bridge, Ivy Bridge, Haswell, Broadwell, そしてSkylake)、その中のどれを選ぶかという選択肢をユーザーに与えている。指定は右図のように簡単にできるし、一度指定すると新型機への切り替えは通常のアップデートとして自動的に行われる。

今後60日間は、Skylakeを用いた仮想マシン(VMs)は、古い機種を使うVMと同じ料金となり、そのあとは、古いCPUを使うVMより6-10%高くなる。

このアップデートでCompute Engineのユーザーは、VMインスタンス一つあたり最大455GBのメモリを装着できる。そうするためには、自分だけのカスタムマシンタイプを指定し、その中で拡張メモリオプションを選ぶ。それまでは、メモリと仮想CPUの数のあいだに一定の比率があり、最大が6.5GBだった。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

一歳を迎えたGoogleのTPUチップがアップグレード、機械学習/ディープラーニングのすそ野をさらに広げる

Googleが今日(米国時間5/17)のGoogle I/Oカンファレンスで、同社特製の機械学習チップTensor Processing Unit(TPU)の次世代バージョンを発表した。この、機械学習のタスクを高速化する専用チップは、従来のCPUやGPUよりも速いとされているが、昨年の同カンファレンスで発表されて以来、今回が初めてのアップグレードになる。

まず、スピードのアップだ。Googleによると、第二世代のTPUは1基が180TFLOPSの性能を有する。まだベンチマークは見ていないが、スピード以外でも進歩している。第一世代のTPUは既存のモデルを使って推論するだけだが、第二世代はモデルの訓練もできる。モデルの訓練は機械学習のワークフローの中でもとくに重要だが、その全過程をこの強力なチップがやってしまうのだ。

機械学習のモデルとは、たとえば写真に写っているものが木か車か猫かを正しく同定する能力のことだ。機械学習の推論とは、モデルを使って行う確率つきのオブジェクト同定処理だ。たとえば、“この写真に写っているのは85%の確率で木であってブロッコリの茎ではない”、などと推論する。

Googleの今日の声明文によると、同社の大規模な翻訳用のモデルを訓練するのに、市販の最良のGPU 32基を使用してまる一日、その1/8の台数の“TPUポッド”〔64TPUs, 11.5PFLOPS〕では午後の数時間で完了した、という。

GoogleのTenso Flowチップセット。写真提供: Google

このような比較はいつも、よく調べないと正しい意味が分からないが、とにかくGoogleは、GPUより速いと言っている。今日の機械学習の演算では多くの場合、もっとも強力なチップとしてGPUが使われているのだ。

さらにGoogleは、このチップの能力を同社のクラウドプラットホームからSaaSのサービスとして提供している。誰もが気軽に、この世界に入れるように。また、IntelのSkylakeとかNvidiaのVoltaなど、ほかのチップで作ったモデルを、TPUのクラウドへ移植して使うこともできる。

またコストをあまりかけられない試行や研究用には、無料のクラウドサービスTensorFlow Research Cloudがある。そこでは、研究者たちが、クラウド上の1000 TPUのクラスターを利用できる。



[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

クラウド上で1000 TPUのクラスターをディープラーニングの訓練や推論に使える無料のプログラムをGoogleが外部研究者に提供

Google I/O初日(米国時間5/17)の最後を飾ったのは、研究者たちが無料で同社最先端の機械学習技術を利用できるプログラム、TensorFlow Research Cloudだ。研究者はその上で自分のアプリケーションを動かすことができ、利用にあたって、大学に籍があるなどの資格要件はない。

利用を認められた研究者は、クラウド上の1000 TPUのクラスターにアクセスして訓練や推論処理を実行できる。TPUは、1基の性能が180TFLOPSで、64GBのメモリを自分で持つ。使える時間は、承認されたプロジェクトによって異なる。

承認の条件のひとつは、その研究プロジェクトの詳細が他の研究者によるレビューの可能なメディア上に一般公開され、コードがオープンソースであることだ。公開はまずい、というプロジェクト用にGoogleは、民間企業が社内的に利用できるCloud TPU Alphaというプログラムを準備中だ。

申し込みはまだ完全オープンではないが、Googleに問い合わせれば、記入すべきフォームを指示される。そこに、訓練集合の大きさとか、モデルの訓練に要する時間、モデルの訓練に使用したいプラットホーム、使用するハードウェア、などを記入する。

審査は段階的に行われ、落ちた人はまた新しいプロジェクトで再挑戦するよう、Googleは奨励している。



[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Googleのグローバル分散データベースCloud Spannerが一般供用を開始、MicrosoftのCosmos DBに対抗か

Googleのグローバルな分散リレーショナル・データベースCloud Spannerが、4か月という比較的短いベータを終えて、今日(米国時間5/16)から一般供用される。

このサービスの立ち上げ時のGoogleの位置づけは、既存の関係データベースが手狭になってきた企業のための代替製品、だった。GoogleのDeepti Srivastavaは、こう言っていた: “トランザクションデータベース(transactional database, 日常のトランザクション用のデータベース)のスケールで悩むようになったら、シャーディング(sharded database)かNoSQLにソリューションを求めようとするだろう。しかしこの二つのどっちかを選ぶとなると、今度はトレードオフに悩む。そんなときは、Spannerが最適解だ。それはユーザーが使い慣れているシステムでもある〔リレーショナル・データベース〕。われわれは、ユーザーがトレードオフでなるべく悩まないようにしたい”。

今回一般供用になって、Googleが約束する可用性は99.999%、そして強力な整合性(コンシステンシー)だ。今日のGoogleのブログ記事では、こう述べられている: “ソフトウェアとハードウェアを組み合わせたソリューションとして、Googleのグローバルなネットワーク全域にわたるアトミックなクロックとGPS受信機能を提供する。Cloud Spannerはさらに、完全に管理されたクラウドデータベースなので、精度と信頼性と性能も高い”。

Cloud Spannerの今回の一般供用は、MicrosoftがCosmos DBサービスを発表してから一週間足らずで行われたことになる。Cosmos DBはグローバル+分散という点でCloud Spannerに似ているが、整合性のモデルが多様だ。後者は99.999%のアップタイムだけだが、Microsoftはスループットやレイテンシーと共にコンシステンシーを保証している〔サポートするデータモデルもリレーションだけではない〕。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))