Visual Studioベースの完全クラウド開発環境GitHub Codespacesが登場

Microsof(マイクロソフト)のグループとなったGitHubは、新型コロナウイルス危機が起きていなければ今週パリでデベロッパー向けカンファレンスを開催していたはずだ。 多くのイベント主催者同様、GitHubもSatelliteをバーチャル版に切り替えて続行することにしたのでGithubから多数の発表があるはずだ。

オンライン版のSatelliteの目玉はやはりGitHub Codespacesだろう。これはマイクロソフトのVisual Studio Codespacesをベースにして、デベロッパーにフル機能の開発環境をクラウドで提供するサービスだ。Codespacesというブランド名はまだなじみが薄いかもしれない。これはマイクロソフトがVisual Studio Code Onlineをリニューアルして名称をCodespacesに変えたものだ。GitHubも基本的に同じコンセプトでサービス内に直接Codespacesを組み込むこととした。以前GitubでVisual Studio Onlineを使ったことがあれば、GitHub Codespacesは非常によく似ていることに気づくだろう。

米国時間5月6日の発表でGitHubの製品担当シニア・バイスプレジデントのShanku Niyogi(シャンク・ニヨギ)氏は「コミュニティに貢献できるようなコードを書くのは難しい。 どのリポジトリも独自の開発環境を持つためコードを書く前に何十ものステップを必要とするのが普通だ。さらに面倒なのは、同時に作業している2つのプロジェクトの開発環境がバッティングする場合だ。GitHub Codespacesは、GitHub内でサポートされるクラウド開発環境であり、数秒で起動しフル機能が利用できる。このためすぐにプロジェクトに対してすぐに実際のコードを書き始めることができる」とコメントしている。

現在、GitHub Codespacesはベータ版で利用は無料だ。 ベータが外れた後、料金がどうなるかはまだ明らかになっていない。ニヨギ氏は「料金はGitHub Actionsと同レベルになる」と述べている。Anctiosnsではプログラムのビルドのような多量のコンピューティング能力を必要とするタスクに課金されている。現在、マイクロソフはVisual Studio Codespacesのユーザーに対し仮想マシンの種別に応じて時間単位で課金している。

本日のイベントではさらに GitHub Discussionsというフォーラム機能が発表された。これはプロジェクトごとに意見交換の場を設けるものだ。GitHubにはすでにプルリクエストや特定の問題に関してユーザーが会話できる機能を提供しているが、新しいDiscussionsは構造化されておらず自由にスレッドを立てて会話を始めることができる。 これは特にQ&Aに適しており、事実GitHubもFAQなどのドキュメントを共有する場所によいと述べている。

現在、Discussionsはベータ版であり、オープンソースコミュニティだけに提供されているが、近くほかのプロジェクトでも利用できるようになる。

GitHubのもう1つの柱であるセキュリティ分野では、コードスキャンとシークレットスキャンという2つの機能が発表された コードスキャンは、書いたコードに潜在的なセキュリティの脆弱性がないかどうかチェックする。CodeQLを利用しており、オープンソースプロジェクトの場合は無料だ。シークレットスキャンはプライベートリポジトリで利用できる(同様のサービスはパブリックなプロジェクトでは2018年にリリースされている)。どちらの機能もGitHub Advanced Securityの一部だ。

エンタープライズ向けとしてはPrivate Instancesが発表された。これは他のGithubクラウドと同様の機能を備えたサービスだがここにアップされたコードは当該ユーザー企業以外には一切共有されない。「Private Instancesはセキュリティとコンプライアンスが強化されており、ユーザーは自社の独自の暗号鍵を利用でき、バックアップをアーカイブし、各国のデータ主権の要求に適合させることができる」とGitHubは説明している。

画像:Michael Short/Bloomberg / Getty Images

原文へ

(翻訳:滑川海彦@Facebook

クラウド需要の急増が突きつけるグリーンエネルギーの課題

このロックダウン期間中に、膨大な数の人が仕事でビデオ会議を行っている。しかし、燃料を使う通勤手段をデジタルコネクティビティで置き換えると、個人が2時間のビデオ会議で使用するエネルギーは、4マイル(約6.4km)電車に乗る場合に使う燃料よりも大きなものになる。これに加えて、数百万人の学生が、徒歩ではなくインターネットを使って教室に「通って」いる。

一方、デジタル空間の他の領域では、科学者たちが研究を加速するためにアルゴリズムを猛烈な勢いで展開している。にもかかわらず、ひとつの人工知能アプリケーションのパターン学習フェーズが消費するエネルギーは、1万台の自動車が1日で消費するものを上回る可能性があるのだ。

社会のエネルギー使用を変化させるこの壮大な「実験」は、少なくとも間接的には、ある高レベルの事実セットで見ることができる。4月の第1週までに、米国のガソリン使用量は30%減少したが、全体的な電力需要の現象は7%未満だった。この動きは、実際のところ将来の基本的な傾向を示している。移動用燃料の使用量は最終的には回復するだろうが、真の経済成長は電気を燃料として使うデジタル未来に結びついている。

今回の新型コロナウイルス(COVID-19)危機は、経済が最後に崩壊した2008年のような「大昔」のインターネットと比べて、2020年のインターネットがどれほど洗練され、堅牢であるかを浮き彫りにしている。もし当時、全国でロックダウンが行われていたとしたら、現在在宅勤務している数千万人のほとんどが、解雇された約2000万人の集団に加わっていただろう。また当時だったら、何千万人もの学生や生徒が自宅で学習することも、大学や学校にとって現実的なものではなかった。

アナリストたちは、あらゆる手段での在宅勤務によるインターネットトラフィックの大幅な増加を様々な場所で発表している。デジタルトラフィックを使った手法は、オンライン食料品からビデオゲーム、そして映画のストリーミングまで、あらゆるものに対して急増している。これまでのところ、システムはすべてを適切に処理しており、クラウドは継続的に利用可能で、散発的な問題が発生する程度だ。

新型コロナウイルス危機に際してのクラウドの役割は、ワンクリックのテレビ会議やビデオチャットだけではない。遠隔医療がついに現実のものになった。例えば、症状を自己診断するためのアプリや、X線診断を強化したり、接触者追跡を支援するAIツールがどんどん登場している。また、クラウドを利用することで、研究者は臨床情報の「データレイク」を迅速に作成し、治療法やワクチンを探求するために展開されている現代のスーパーコンピュータの天文学的な能力を活用できるようになった。

AIとクラウドの未来は、新しい治療法のための超迅速な臨床試験はもちろんのこと、実用的な家庭診断や便利なVRベースの遠隔医療とともに、上記のようなことをたくさんもたらしてくれるだろう。そして、ここに述べたことは、医療の一部ではない残り80%の経済で、クラウドが何を可能にするかについてはまだ何も述べていないのだ。

これらの新機能がもたらしてくれるすべての興奮のために、クラウドコンピューティングの背後にある基盤システムは、エネルギーの需要を増やし続けている。エネルギーを節約するどころか、私たちのAIを利用した作業環境では、これまで以上に多くのエネルギーが使用されている。これは、テクノロジー業界が今後数年間で迅速に評価および検討する必要がある課題なのだ。

新しい情報インフラストラクチャ

クラウドは重要なインフラストラクチャである。これにより、多くの優先順位が再構成される。ほんの数カ月前には、ハイテク業界の大企業たちは、エネルギー使用量の削減と運用のための「グリーン」エネルギーの推進についての誓約の公言に対して、お互いに肩を並べていた。もちろん、そうした問題は引き続き重要だ。しかし、信頼性と回復性、つまりシステムの可用性(availability)が今や最優先事項となった。

2020年3月、国際エネルギー機関(IEA)の専務理事であるFatih Birol(ファティ・ビロル)氏は、風力発電と太陽光発電の将来について、外交的な控えめな言葉で次のように語っている。「今日、私たちは、デジタル技術への依存度がさらに高まっている社会を目の当たりにしています」そのことは「政策立案者が極端な状況下での柔軟性のある資源の潜在的な可用性を慎重に評価する必要性を強調しています」。新型コロナウイルスの危機に続くだろう経済的に困難な時代には、「可用性」を確保するために社会が支払わなければならないコストがはるかに重要なものになるだろう。

太陽光および風力技術で 高信頼性の電気を提供することは、依然として法外に高価なものだ。太陽光、風力発電が「グリッドパリティ」(既存電力コストと同等もしくはそれ以下になること)になっていると主張する人びとは、現実を見ていない。データによれば、風力発電や太陽光発電のシェアが米国よりもはるかに高い欧州では、送電網のキロワット時(kWh)のコスト全体が約200~300%高くなっていることがわかる。注目すべきは、消費者の大きな負担を横目に、テック企業を含む大規模な産業用電力需要家は、一般的にグリッド平均からの大幅な割引を受けているということだ。

やや単純化していうならば、大手ハイテク企業がスマートフォンにデータを流すための電気代への支払いが少なくて済むように、各消費者が家庭の電力供給に対して多くのお金を払っていることを意味する(私たちは、今回の危機後の世界で、市民がこの非対称性に対してどれほど寛容であるかを見届けることになるだろう)。

そのような多くの現実は、実際には、クラウドのエネルギー動向が個人的な移動と反比例するという事実によって隠されている。個人的な移動を考えると、消費者は自分の車のガソリンタンクを満たすときに、エネルギーの90%が費やされる場所を、文字通り自分の目で見ている。しかし「接続された」スマートフォンに関していえば、エネルギー消費の99%は遠隔地にあるクラウドの、広大なしかしほとんど目に見えないインフラの中に隠されているのだ。

こうした方面に詳しくない人のために説明すると、クラウドを駆動する貪欲なデジタルエンジンは、人の目に触れない何の変哲もない多数の倉庫規模のデータセンターの中に格納されている。そこには膨大な数の冷蔵庫サイズのラックが立ち並び、そこに置かれたシリコンのマシン群が、私たちのアプリケーションを実行し爆発的に増えるデータを処理している。多くのデジタルの専門家でさえ、そうしたラックのひとつひとつ毎年50台のテスラよりも多くの電力を消費していると知ると驚く。さらにこうしたデータセンターは、グラスファイバーで構成された約10億マイル(約16億km)の情報ハイウェイと、400万基の携帯基地局が作り上げる、さらに巨大な目には見えない仮想ハイウェイシステムを通して、データを送受信する(電力消費のさらに激しいハードウェアを備えた)市場と接続されているのだ。

このようにして、数十年前には存在しなかった、グローバルな情報インフラストラクチャは、ネットワークやデータセンターから驚くほどエネルギーを大量に消費する製造プロセスに至るまで、すべての構成要素を数え上げるなら、現在では年間約2000テラワット時(TWh)の電力を使用するシステムにまで成長したのだ。これは、全世界の500万台の電気自動車すべてが、毎年使用する電力の100倍以上の量だ。

これを個人レベルの話にするなら、個別のスマートフォンが年間で使用する平均電力は、典型的な家庭用冷蔵庫が使用するエネルギーよりも大きいことを意味している。そして、このような見積もりはすべて、数年前の情勢に基づいたものだ。

よりデジタル化される未来は、必然的により多くのエネルギーを使用するだろう

一部のアナリストは、近年デジタルトラフィックは急増しているものの、効率性の向上により、データ中心のエネルギー使用量の伸びは鈍化しているか、あるいは横ばいになっていると主張している。しかし、そのような主張は、拮抗する事実に直面している状況だ。2016年以降、ハードウェア建物 に対するデータセンターの支出が劇的に増えてしているが、そこにはハードウェアの電力密度の大幅な増加も伴っている。

近年、デジタルエネルギーの需要の伸びが鈍化したかどうかとは関係なく、クラウドの急速な拡大が進んでいる。クラウドのエネルギー需要がそれに比例して増加するかどうかは、データの使用量がどれだけ速く増加するか、そしてクラウドの用途に特に大きく依存する。エネルギー需要の大幅な増加は、クラウドの中心的な運用指標 、すなわち可用性を満たすための、エンジニアリングと経済的な課題をはるかに難しいものにする。

過去5年間でその前の10年間全部よりも、広い面積のデータセンターが 建設された。「ハイパースケール」データセンターと呼ばれる新しいカテゴリさえも生まれている。それぞれが100万平方フィート(約9万3000平方メートル)を超える、マシンで満たされた建物のことだ。これらを、1世紀前の不動産用語である「超高層ビルの夜明け」と同じものだと考えて欲しい。しかし、現在の世界には、エンパイアステートビルディング並の大きさの超高層ビルは50棟未満しかないが、地球上には既に約500カ所ほどのハイパースケールデータセンターがある。そして後者は合計すると、6000棟を超える超高層ビルに相当するエネルギーを必要としている。

クラウドトラフィックの成長を推進しているものが何かを推測する必要はない。このリストのトップを占める要因はAI、より多くの動画、特にデータを多用するバーチャルリアリティ(VR)、そしてネットワークの「エッジ」に置かれたマイクロデータセンターの拡大だ。

最近まで、AIに関するほとんどのニュースは、従来の仕事を奪う可能性の側面に焦点を当てたものが多かった。だが真実は、AIは生産性向上を推進するツールの最新版に過ぎない。こうしたツールは、生産性の向上が歴史の中で常に行ったきたことを再現することになる。つまり雇用を拡大し、より多くの人びとのためにより多くの富を生み出すのだ。新型コロナウイルス感染症からの復活の過程では、より多くの雇用や富の生産が必要とされる。だが、それについて話すのはまた別の機会にしよう。現時点では、個人の健康分析やドラッグデリバリーから医学研究や就職活動に至るまで、あらゆる分野の中にAIが果たす役割があることは既に明らかだ。おそらくAIは、最終的には「善い」ものと見なされるようになるだろう。

だがエネルギーに関していえば、AIはデータを大量に使い、電力を大量に消費するシリコンを使用している。そして世界は膨大な数のそのようなAIチップを使用したがっている。一般に、機械学習に費やされる計算能力は、数カ月ごとに倍増している、これはムーアの法則の一種のハイパーバージョンだ。例えば、Facebookは2019年にデータセンターの電力使用量が毎年倍増する主な理由としてAIを挙げている。

近い将来、数週間のロックダウンの最中に、小さな平面スクリーンでのビデオ会議の欠陥を経験した消費者たちが、VRを使ったビデオの時代への準備が整っていることにも期待しなければならないだろう。VRでは画像密度は最大1000倍までに増加し、データトラフィックが約20倍に増加する。進み方は断続的だったが、技術的には準備ができており程なくやってくる高速5Gネットワークは、そうした増加するピクセルを処理する能力を備えている。ただし繰り返しておく必要があるが、すべてのビットは電子であるため、バーチャルリアリティの増加は現在の予測よりも多くの電力需要につながることを意味している。

これに加えて、顧客の近く( エッジ )にマイクロデータセンターを構築する最近の傾向が挙げられる。会議やゲーム用のVR、自動運転車、自動化された製造業、あるいはスマート病院や診断システムなどの「スマート」な物理インフラなどのリアルタイムアプリケーションに、遠隔地のデータセンターからAI駆動のインテリジェンスを届けるには、光の速度は遅すぎるのだ(ヘルスケアにおけるデジタルとエネルギーの密度自身は、既に高く上昇している。病院の単位面積あたりのエネルギー消費量は、他の商業ビルの5倍程度に達しているのだ)。

エッジデータセンターは、この先10年も経たないうちに、10万メガワット(MW)の電力需要を積み上げると予想されている。別の見方をすれば、これはカリフォルニア州全体の電力網の電力容量をはるかに超えている。これらもまた、近年のエネルギー予測のロードマップには載せられていなかったものだ。

デジタルエネルギーの優先順位は変わるのか?

これは関連する質問へとつながる。ポストコロナウイルス時代のクラウド企業は、支出をエネルギー免罪符へと集中させ続けるのだろうか、それとも可用性へと集中させるようになるのだろうか? この場合の免罪符とは、自社施設に対する直接給電以外の場所(海外を含む)に対する、風力、太陽光発電への企業投資のことを指している。それらの遠隔地での投資は、実際には自社の施設に電力を供給していないにもかかわらず、自分たちの施設がグリーン電力であると主張するために「クレジット」されている。

グリーンエネルギーを求める企業が、従来の電力グリッドから物理的に切断して、独自のローカル風力、太陽光発電を構築することを妨げるものは何もない。ただし、それを行って24時間年中無休の可用性を確保することで、施設の電力コストは約400%押し上げられることになる。

購入された免罪符としての電力の現状に関しては、世界の情報インフラは既に世界中の太陽光発電所と風力発電所を合わせた発電量よりも、多くの電力を消費しているということを知っておくと役立つ。したがって、テクノロジー企業にとって(誰にとってもだが)、デジタルエネルギーの使用をすべて相殺するための「クレジット」として購入できる十分な風力、太陽光エネルギーは、もはや地球上に存在しないのだ。

デジタルエネルギーの傾向を研究しているひと握りの研究者は、今後10年間でクラウドによるエネルギー使用量が少なくとも300%増加する可能性があると予測していたが、それは今回の世界的なパンデミックの前のことだ。一方、国際エネルギー機関(IEA)は、その期間における世界の再生可能電力は「単に」倍増するものと予測している。その予測もまた、新型コロナウイルス以前の経済状況下で行われたものだ。現在IEAは、不況がコスト高なグリーンプランへの財政意欲を減らすことを心配している

だが電気を作り出す技術の課題や議論がどうであれ、情報インフラの運営者にとっての優先順位は、ますます必然的に、可用性を重視するものへと移っていくだろう。それは、クラウドが私たちの経済的な健康にますます密接に結びつくようになってきただけでなく、心と体の健康にも関係を持つようになってきたからだ。

そうした可用性の重視が引き起こす変化は、パンデミックと前例のないシャットダウンからの経済の回復の先に、何がくるかについて(グリーンエネルギーへの自らの取り組みが活発になるという意味で)私たちを楽観的にしてくれるはずだ。Microsoft(マイクロソフト)が、新型コロナウイルス以前に出したエネルギーマニフェストの中で、「人類の繁栄を進めることは……エネルギーの賢い利用と表裏一体である」と述べていたことを評価しよう(このマニフェストの中でマイクロソフトはグリーンエネルギーへの大規模な取り組みを表明している)。私たちのクラウドを中心とする21世紀型インフラストラクチャもこれと同じだ。そして、良い結果へとつながるだろう。

【編集部注】著者のMark Mills(マーク・ミルズ)氏は書籍「Digital Cathedrals: The Information Infrastructure Era」(デジタル大聖堂:情報インフラストラクチャ時代)」の著者であり、Manhattan Instituteのシニアフェロー、ノースウェスタン大学のMcCormick School of Engineeringのファカルティフェロー、並びにエネルギーテックのベンチャーファンドであるのCottonwood Venture Partnersのパートナーである。

原文へ

(翻訳:sako)

Spotinstが「Spot」とリブランドし、新しいダッシュボードも発表

米国時間3月25日、クラウドのスポットインスタンスをもっと安く利用したい企業をサポートするスタートアップのSpotinstが「Spot」とリブランドすることを発表した。クラウドの利用状況を詳しく見ることができる、まったく新しいダッシュボードも発表された。

Spotの共同創業者でCEOのAmiram Shachar(アミラム・シャハル)氏は、クラウドの利用状況や費用を可視化して詳しく理解できるように新しいプロダクトを設計したと語る。

同氏はTechCrunchに対し、「この新しいプロダクトで、顧客がクラウドに関する支出を1カ所ですべて見ることのできる包括的なプラットフォームを提供する。クラウドの利用状況、コスト、何に費用がかかっているか、複数のクラウドをどう使っているかがわかれば、(リソースの効果的なデプロイを)実行できる」と述べた。

複数のクラウドベンダーにわたって、クラウドのリソースをどうデプロイしているかの全体像を把握し、利用状況の最適化を目指すのが、可視化だ。これは企業やIT部門の財務面で役に立つだろう。

シャハル氏は「我々は基本的に、顧客のクラウドインフラストラクチャを2つに分け、スポットインスタンスで実行すべきもの、リザーブドインスタンスで実行すべきもの、オンデマンドインスタンスをキープしておくべき理由を伝える」と語った。

この新しいプロダクトは、同社のコアコンピテンシーの上に構築されている。それは、顧客がより安価にクラウドインフラストラクチャのスポットインスタンスとリザーブドインスタンスを自動でデプロイできるように支援するということだ。

スポットインスタンスはクラウドベンダーが使っていないリソースを安価に提供するもので、リザーブドインスタンスは顧客がリソースを前払いで購入することにより割引を受けられるものだ。ただしスポットインスタンスには大きな落とし穴がある。クラウドベンダーがリソースを使うと、ユーザーは利用を中断されてしまうことがあるのだ。Spotは、ワークロードを利用可能な別のスポットインスタンスに自動で安全に移すことにより、この問題に対処する。

Crunchbaseによると、Spotは2015年に創業し、5200万ドル(約57億円)以上を調達した。シャハル氏は、同社の売上高は3000万ドル(約33億円)程度で、この新しいプロダクトで成長が加速する見込みだと述べている。

画像:Chris Clor / Getty Images

[原文へ]

(翻訳:Kaori Koyama)

市場の荒れ模様は続いているが株価水準は回復、SaaSが遅れる

トランプ大統領の「今年中は給与税をゼロにする」という大盤振る舞いの約束はビジネスにバラ色の楽観的なメガネをかけさせる効果があったようだ。

米国の株式市場は売り一色の惨状から一転して回復基調となった。主要インデックスは引けにかけて軒並み上昇した。昨日の下落を帳消しにするほどの値上がりではなかったが、右肩上がりに慣れていた市場にとっては正常への復帰に近かった。

値動きが平常なときであれば驚くべき上げ幅だが、今日はダウ平均が4.89%、1167.1ドルもアップし、S&P 500は4.94%(135.7ドル)、Nasdaqは4.95%(393.6ドル)とそれぞれ上げた。

ところがBessemer-NasdaqのCloud Indexによると、SaaS・クラウド株は3.1%しか戻していなかった。つまりNasdaq全般のアップに遅れを取っている。SaaS、クラウド関連株の昨日の下落(率)が他カテゴリーよりもよりも大きかったうえに、回復も遅れている。 SaaS・クラウド株はここしばらく新しいソフトウェア企業の代表として株式市場でリーダーを務めてきたが、ここにきて株価の調整が入っているかもしれない。SaaS・クラウドプレミアムは低下する可能性がある。

しかし乱高下は広い範囲で続いており、bitcoinは底を打ち、石油も急上昇した。それでも株式市場は高値までは回復していない。ダウは15%安で、今日回復する前に52週の安値を付けている。 S&Pも最近付けた52週の高値と比べて15%以上ダウンしている。Nasdaqはこれよりわずかに大きくダウンし52週の高値から15.2%安だ。

急落を完全に回復するには本日ぐらいの値上がりがさらに数回必要だ。しかも頭上には次のような暗雲が垂れ込めている。ニューヨーク州ニューロシェルに新型コロナウィルスのために検疫隔離施設が設置された。石油、天然ガス企業の債務はひどいものだ。また政府の救済策も具体性を欠いている。

米国時間3月11日の取引では乱高下が収まり、TechCrunchでも我々(WellcomとShieber)が速報を出すのを止めることができるようになることを期待したい。

ちなみにApple(アップル)とMicrosoft(マイクロソフト)はそれぞれ1兆ドル企業だ。そのためこの大混乱の中でもテクノロジー株は全体としてはほとんど損失を被っていない。ともあれNasdaqは対前年では12.6%上っている。

画像:monsitj / Getty Images

原文へ

(翻訳:滑川海彦@Facebook

アリババクラウドのQ4売上高は62%増の約1650億円でシェア4位に

Alibaba(アリババ)は2月13日、直近の四半期(2019年10〜12月期)決算を発表し、それによるとクラウドの売上高が62%増の15億ドル(約1650億円)となり、現地通貨で初めて100億人民元を超えた。

Alibabaはまた、パブリッククラウドへの自らの移行を完了したことも明らかにした。これはマイルストーンとなる。というのも、同社は潜在的な顧客に参考として自前のオペレーションを示すことができるからだ。この点は、同社の会長とCEOを兼務するDaniel Zhang(ダニエル・チャン)氏がアナリストとの決算会見で指摘した。

「Alibabaの主幹事業であるeコマースシステムのパブリッククラウドへの移行は、一大イベントだと確信している。我々自身が作業効率アップというメリットを享受できるだけでなく、我々のパブリッククラウドインフラを他の企業に勧めることもできる」とチャン氏は会見で述べた。

同社がまた中国で問題になっている新型コロナウイルスが2020年の小売事業に影響を及ぼすかもしれない、と指摘したのは記すに値するだろう。しかしクラウドが影響を受けるかどうかについては特に言及しなかった。

13日に発表した決算で同社はランレートを60億ドル(約6590億円)とし、クラウドインフラマーケットシェアにおいて4位を見込む。だが、上位企業との差は大きい。直近の四半期決算で、Googleの売上高は25億ドル(約2740億円)、Microsoftはソフトウェアとインフラの売上高を合わせて125億ドル(約1兆3700億円)、そしてマーケットリーダーのAWSの売上高は100億ドル(約1兆1000億円)を若干下回るものだった。

Synergy Researchの最新マーケットシェアが示すように、Googleと同様、Alibabaも上位2社との差がかなりあり、その他の企業と似たような位置につけている。

AlibabaはAmazonと多くの共通点を持つ。両社ともeコマース大企業だ。そしてどちらもクラウドコンピューティング部門を持つ。しかしクラウドコンピューティングへの参入はAlibabaの方がずいぶん遅い。2009年に立ち上げたが、本腰を入れ始めたのは2015年からだ。

当時のクラウド部門トップのSimon Hu(サイモン・フー)氏は、Alibabaが4年以内にクラウドマーケットでAmazonを追い抜くだろう、とロイターに誇らしげに語った。「我々の最終目標は、顧客数、テクノロジー、世界展開どの点においても4年以内にAmazonを追い抜くことだ」

もちろん、AlibabaとAmazonではだいぶ開きがある。しかし両社ともホットな分野であるクラウドインフラマーケットにおいて着実に成長している。Synergy Researchのアジア地域に関する最新データによると、アジア全体でのマーケットシェアはAWSが最も大きいが、Alibabaは中国におけるトップのクラウドベンダーだ。

画像クレジット: Getty Images

[原文へ]

(翻訳:Mizoguchi

マイクロソフトの四半期決算はアナリスト予想を上回りクラウド化転換も順調

米国時間1月29日、Microsoft(マイクロソフト)は会計年度の2020年の第2四半期(暦年では2019年第4四半期)の決算を発表した。これによると当期の純収入は14%アップの369億ドル(約4兆円)、純利益は38%アップの116億ドル(約1兆2600億円)、希薄化後1株あたり利益は1.51ドルだった。

アナリストは1株あたり利益1.32ドル、売上356.7億ドル、純利益101.2億ドル程度を予想していた。 発表が予想を上回ったため、株価は時間外取引で2%アップした。

というわけで好調のマイクロソフトだが、クラウド事業はどうだっただろう?Azure、Office 365などMicrosoftの未来志向プロダクトの動向を見てみよう。数値はいずれも売上の対前年比だ。

  • Office 365:27%アップ
  • Azure:62%アップ
  • コンシューマー向けOffice製品とクラウドサービス:19%アップ
  • エンタープライズ向けDynamics 365:42%アップ

GAAPベースの数値であるため通貨価値の変動は調整されていない。いわゆる実質通貨ベースの計算だとAzureの成長はもう少し高く64%となる。

上記に加え、近年同社が買収したLinkedInも対前年比で24%成長した。 2 in 1タイプのノート、Surfaceの成長は1桁にとどまった。Xboxのコンテンツ売上は11%ダウンしている。Microsoftでは以前からLinkedInの成長を特に重視すると述べていた。

決算結果の詳しい検討はまた報じるとして、数字をざっと眺めた印象は同社のクラウドへの転換は順調に進んでいるというものだ。時間外取引の株価は小幅上げにとどまったが、同社の株価は2014年のサティヤ・ナデラ氏のCEO就任後は右肩上がりが続き、この記事の執筆時点で時価総額1兆2800億ドル(約140兆円)を記録している。1月28日にやはり好調な四半期決算を発表したライバルのApple(アップル)の上げ幅も小幅だった。

今週はテクノロジー企業の四半期決算のラッシュとなっているが、これまでのところトップグループの経営状態は悪くないようだ。

画像:Justin Sullivan/Getty Images

原文へ

(翻訳:滑川海彦@Facebook

Google CloudがルフトハンザとSabreを顧客に獲得、クラウドネットワーク構築に協力

Google Cloudのユーザー獲得戦略は、特定のエンタープライズ、ビジネス分野に集中するというものだ。ハードウェア、エネルギー、金融、小売業などがこれまで主要なターゲットで、ヘルスケアにも注力しているが最近やや足踏みしている印象だ。EpicはGoogle Cloudに移行する計画を進めないことを発表した

そんな中、Google Cloudは旅行業という新たなバーティカルで有力なクライアントを2社獲得したことを発表した。収益において世界最大の航空会社、ルフトハンザ・グループと航空会社、ホテル、旅行代理店などをネットワークしてサービスを提供するSabreがそれぞれGoogle Cloudに加わった。

Sabreと10年契約を結び、Google Cloud上にネットワークを構築することになった。 航空会社を始め旅行関係の多数の企業がSabreに参加しているが、これまで同社のネットワークはレガシーシステムだった。Sabreは情報インフラの現代化に取り組んでおり、Googleとの10年間の提携はこの努力の一環となる。GoogleとSabreは協力して「既存システムを改善し効率化するのと同時に新たなサービスを開発、追加する。参加航空会社、旅行代理店、旅行者に新しいマーケットプレイスを提供」していくという。AIをはじめとしたGoogle Cloundの最新テクノロジーを利用することでトラベル・ビジネスを一新するような各種ツールの利用が可能になるという。

「航空機のチケットが取れない」というシステム障害に見舞われることもあるが、ほとんどの場合、これはSabreのコンピューターがダウンしたためだ。「むやみにダウンしない」ようになるだけでも、われわれ消費者にとっては大きな改善だ。

GoogleのCEO、Sunder Pichai(サンダー・ピチャイ)氏は「Googleはユーザーを支援するツールを開発している。我々のミッションはのほとんどは、ユーザーである企業がそれぞれの使命を果たせるようにすることだ。Sabreが旅行の未来を築くためにGoogleをパートナーに選んでくれたことは、非常にうれしい。旅行者は高い利便性、選択の自由、コストパフォーマンスを求めている。我々のクラウドとAIテクノロジーによるコンピューティングは、Sabreの価値実現を助けるものだ」と述べた。

広汎なサービスを提供するという点においては、Googleとルフトハンザドイツ航空との提携も同様だ。ルフトハンザはドイツのフラグキャリアだが、グループにはオーストリア航空、スイス航空、ユーロウイングスはじめ多数の子会社があり、他の航空会社に技術サービスを提供する企業も多数持っている。

【略】

ルフトハンザ・グループが戦略的パートナーにGoogleを選んだ目的は「オペレーションの最適化を図る」ためだという。Googleではルフトハンザ向け専任のチームを作ってこれを実現していく。Googlはルフトハンザの航空機運用のためのツールを開発し、クラウドで運用する。こうしたツールはビジネスを効率化するだけでなく、悪天候や空路の混雜、社員のストライキ(この頃多発しているようだ)などの障害が発生した場合、取るべき手段をAIテクノロジーが提案してくれるという。

画像:Sina Schuldt/picture alliance / Getty Images

また、デルタ航空もこれに似たAI利用の支援システムを開発し2020年のCESで発表した

[原文へ]

滑川海彦@Facebook

Googleクラウドに小売業向けに特化した新サービス

Googleは小売業向けの大規模なカンファレンス、NRF 2020でeコマース市場向けのプロダクトを発表した。Googlクラウドプラットフォームはヘルスケアやライフサイエンス、製造業、金融サービス、エネルギー産業など各種のバーティカルな分野に特化したプロダクトに力を入れてきた。

AWSのライバルとしては当然だが、以前から小売業もこうしたターゲットの1つだった。現在、Googleクラウドの小売業のカスタマーにはアパレルチェーンのKohl’s、DIYやリフォームのLowe’s、フランスのスーパーであるカルフールなどがある。

今回、Apigee APIプラットフォームを利用した小売業向けAPIであるAPI Management for RetailやAnthos for Retailといった既存プロダクトに対する新機能の追加などのアップデートなどが発表された。Anthos for RetailはAnthosプラットフォームを利用してストアの運営やロジスティクスの効率化、現代化を図ろうとする企業をターゲットにしている。またGoogle検索をベースにしたリテール向け検索プラットフォームであるSearch for Retailは、通販アプリに組み込むことによりユーザーの製品検索ヒット率を大きく向上させるという。

さらに Googleはまた新たな顧客を獲得するためにRetail Accelerationプログラムなどをスタートさせた。これは例の入念な信頼性確保のプラットフォーム、Customer Reliability Engineeringサービスに基づくものだ。ショッピングは特定の日に集中する傾向があるが、このサービスはピーク時を予測し企業側で事前に対処することを可能とすると同時にオンライン処理の負荷を分散してダウンを防ぐ。

ただし最も興味深いプロダクトはGoogle Cloud 1:1 Engagement for Retailだろう。Googleはこのプロダクトは「多額の初期投資を必要とせず、効率的なデータ駆動型オンラインショッピングを構築するための設計図でありベストユースケース集」だとしている。その狙いは小売企業を助けることだ。Googleのビッグデータプラットフォームを利用して、小売企業が顧客をより深く理解しエンゲージメントするために、顧客からのニーズを理解するためにパーソナライズされ、レコメンドされたオンラインショッピング・サービスを作成する手助けをすることだ。

また、ショッピングニーズの事前予測により仕入れの最適化を図り、通販企業のロジスティクスを改善する機能も新しく発表された。

今回、重点が置かれたのリテール向けサービスだが、これが成功すれば他のバーティカルにも同様のソリューションが導入されるはずだ。われわれはGoogleがクラウドビジネスでも数年以内にAWSに次ぐナンバー2の地位を得ること目指して注力していると考えている。そのためには大企業、特にまだクラウド戦略を確立していない通販企業をユーザーとして獲得することが強く求められるだろう。

画像:Getty Images

原文へ

滑川海彦@Facebook

数百万人のスマートウォッチから位置情報が漏れている事実

両親は子供たちの居場所を確認しようとGPS機能付きのスマートウォッチを買い与えるが、セキュリティー上の欠陥があると子供の居場所は赤の他人にも見られてしまう。

今年だけでも、研究者たちの手により子供の位置情報がトラッキングできる何種類ものスマートウォッチにいくつかの脆弱性が発見されている。しかし、米国時間12月18日に発表された新しい調査結果によると、数百万台ものセルラー対応スマートウォッチの機能を支える共用クラウドプラットフォームに深刻で有害な欠陥が内在しているという。

そのクラウドプラットフォームは、位置情報トラッキング機器の最大手メーカーである中国のThinkrace(シンクレース)で開発されたものだ。このプラットフォームは、Thinkrace製機器のバックエンドシステムとして働き、位置情報や機器からのその他のデータの保管と検索を行う。同社は、我が子の居場所を確認したい親たちに向けた、子供の位置情報をトラッキングできる自社製腕時計だけでなく、サードパーティー向けのトラッキング機器も販売している。それを購入した企業は、自社のマークを貼り付け、自社の箱に入れ替えて、自社ブランド製品として消費者に販売する。

直販されるもの再販されるものを含め、これらすべての機器は同じクラウドプラットフォームを使用しているため、Thinkraceが製造して顧客企業が販売したそのOEM機器はすべて脆弱ということになる。

Pen Test Partners(ペン・テスト・パートナーズ)のKen Munro(ケン・ムンロー)氏は、TechCrunchだけにその調査結果を教えてくれた。彼らの調査では、少なくとも4700万台の脆弱な機器が見つかった。「これは氷山の一角に過ぎません」と彼はTechCrunchに話した。

位置情報をリークするスマートウォッチ

ムンロー氏率いる調査チームは、Thinkraceが360種類以上の機器を製造していることを突き止めた。そのほとんどが腕時計とトラッキング機器だ。実際の販業者はラベルを貼り替えて販売するため、Thinkrace製品の多くは異なるブランド名になっている。「自分たちが売っている製品がThinkraceのプラットフォームを使っていることすら知らない業者も少なくありません」とムンロー氏。

販売されたトラッキング機器は、それぞれがクラウドプラットフォームと通信する。直接通信するのもあれば、再販業者が運営するウェブドメインがホスティングするエンドポイントを通して行われるものもある。調査チームは、コマンドがThinkraceのクラウドプラットフォームに送られることを突き止めた。彼らの説明によれば、これが共通の障害点だ。

調査チームによると、機器を制御するコマンドのほとんどは認証を必要とせず、コマンドの説明がしっかりついているので、基本的な知識のある人間なら誰でも機器にアクセスしてトラッキングができるという。また、アカウント番号はランダムではなく、アカウント番号を1ずつ増やすだけで大量の機器にアクセスできた。

この欠陥は、子供を危険にさらすばかりか、この機器を使う人全員にも危険が及ぶ。Thinkraceはスペシャルオリンピックスの参加者に1万台のスマートウォッチを提供したことがある。しかし、その脆弱性のために、アスリート全員の位置情報がモニターできたとはずだと調査チームは話していた。

子供の録音音声が漏洩する

ある機器メーカーがThinkrace製スマートウォッチの販売権を取得した。他の業者と同じくこの業者も、両親が子供の居場所を追跡できるようにし、両親が設定した範囲から出たときに警報を鳴らせるようにしてあった。

調査チームの話では、簡単に推測できるアカウント番号を1ずつ増やしていくだけで、この腕時計を装着しているすべての子供の居場所をトラッキングできたそうだ。

また、このスマートウォッチには、トランシーバーのように両親と子供とが会話できる機能もある。だが、その音声は録音され、セキュリティーの緩いクラウドに保存されていることを調査チームは発見した。その音声データは誰にでもダウンロードできてしまう。

スマートウォッチの再販業者の脆弱なサーバーに保存された子供の声(子供のプライバシー保護のために音声は削除している)

TechCrunchは、ランダムに選んだ音声をいくつか聞いてみたが、子供たちがアプリを通して親に話しているのがよく聞き取れる。調査チームはこの調査結果を、インターネットに接続して遊ぶテディベアのようなおもちゃCloudPets(クラウドペッツ)に例えていた。2017年、そのクラウドサーバーは保護されていなかったため、200万人の子供たちの声が漏洩してしまったのだ。業者が販売したスマートウォッチを利用している親と子供たちは、およそ500万人いる。

情報開示のモグラ叩き

この調査チームは、2015年と2017年にも、複数のOEM電子機器メーカーの脆弱性を公表している。Thinkraceもそこに含まれていた。一部の販売業者は、そのエンドポイントの脆弱性を修正した。中には、脆弱なエンドポイントを保護する修正を行ったものの、後に元に戻してしまった業者もある。しかし大半は、単に警告を無視し、調査チームに彼らの調査結果を公表しろと促しただけだった。

Thinkraceの広報担当者Rick Tang(リック・タン)氏は、我々の質問に応じなかった。ムンロー氏は、脆弱性が広く悪用されているとは思えないが、Thinkraceのような機器メーカーは、より安全性の高いシステムの構築能力を「高める必要がある」と話している。そうなるまで、それらの機器を持っている人たちは使用を中止すべきだとムンロー氏は言う。

関連記事:スマート家電メーカーは見聞きした情報を政府に開示するのか?

画像クレジット:Getty Images

[原文へ]

(翻訳:金井哲夫)

Googleが仮想マシンをAnthosクラウドに移行させるテクノロジーを公開

Googleは11月20日からロンドンで開催されているCloud Nextカンファレンスで、エンタープライズコンピューティングのAnthosプラットフォームへの移行を助けるための重要なアップデートをいくつか発表した。また各種Cloud Codeツールも一般に公開された。これらはGoogle CloudないしKubernetesクラスターをサポートする環境で作動するモダンアプリケーションを構築するために役立つという。

モダンアプリケーションの開発、移行プラットフォームであるAnthosは、最近Googleがスタートさせたサービスの中で最も重要なものだろう。これはGoogleのエンタープライズビジネスをGoogle Cloudの外、つまりクライアント企業のデータセンターにに拡張するものだ。やがてエッジコンピューティングにもAnthosプラットフォームが浸透していくことになりそうだ。

20日のイベンドでGoogleはAnthos MigrateをベータからGA(一般公開)に移行させた。簡単に言えば、Migrateはエンタープライズが既存のVMベースの処理をコンテナ化するツールだ。オンプレミス、AWS、 Azure 、Google自身のCompute Engineなどすべてのワークロードはコンテナ化され、容易にAnthos GKE、Kubernetesをサポートする環境で作動するようになる。

取材に対し、Googleのプロダクト・マネジメント担当のバイスプレジデントであるJennifer Lin(ジェニファー・リン)氏は「Anthos Migrateはカスタマーの期待に答えて画期的な進歩をもたらすツールだ。既存の仮想マシンを維持しつつ、Kubernetesの利点をフルに活かせる。カスタマーは当初からすべての業務をクラウド・ネーティブのコンテナで処理できるとは限らない。カスタマーにとって重要なのはオペレーションのパラダイムの一貫性と継続性だ」と語った。

Anthos自体についてリン氏は「Googleは有望な手応えを感じている」と述べた。Googleはいくつかのクライアント企業のユースケースを紹介したが、その中にはドイツの空気圧縮機の大手、Kaeser Kompressorenやトルコの銀行、Denizbankが含まれていた。

リン氏によれば、多くの金融機関がAnthosプラットフォームに関心を示しているという。「データ駆動型アプリケーションでは複雑な処理が多数必要とされる。Kubernetesはこのような場合にうってつけだ。つまりデータ駆動型業務では分散した複数のデータベース、ウェブサイト、モバイル・デバイスからの入力を処理しなけれならない。多様なデータセットを対象にしなければならないため、単一のアプリケーションでは処理できないのが普通だ。しかも分析結果はリアルタイムで求められる。成果物はウェブブラウザやモバイルアプリで表示できなければならない。しかしこうした作業はGoogleの得意とするところだ」。

さらに今回のイベントでCloud Codeのベータ版が外れて一般公開された。 これはVisual Studio CodeやIntelliJなどのIDE向けのGoogleのエクステンションで、でロッパーがクラウドネーティブのアプリをコーディング、デバッグ、デプロイするのを効率化する。もちろん最終的な狙いはコンテナをビルドすることを助け、Kubernetesで利用できるようにすることだ。.

一般公開されたツールにはApigeeハイブリッドも加わった。 これはデベロッパー、オペレーターがAPIのトラフィックを管理することを助ける。 APIのホスティングにオンプレミス、クラウド、マルチクラウド、ハイブリッドを選択できるという。最近のエンタープライズではこのような複数の環境を利用することが珍しくなくなっている。これによりApigeeのAPIランタイムをハイブリッド環境で利用することも簡単になる。その場合でもApigeeクラウド上のモニター、分析ツールはフルに利用できるしAnthosにデプロイすることも可能だ。

原文へ

(翻訳:滑川海彦@Facebook

Kubernates利用のクラウドサービス、MirantisがDocker Enterpriseを買収

米国時間11月13日、Mirantis日本サイト)はDockerのエンタープライズ事業を買収したことを発表した。

Docker EnterpriseはDockerのビジネスの中心だった。この売却の結果、評判の高いユニコーンだったDockerのビジネスはいわば以前の抜け殻となった。 残されたDocker自体は今年初めに就任した新CEOの指揮で開発ワークフローを効率化させるツールに引き続き注力するという。一方、MirantisはDocker Enterpriseというブランドを存続させるため混乱が生じることないという。

今回の買収により、MirantisはDocker Enterprise Technology Platformおよび関連するすべての知財(Docker Enterprise Engine、Docker Trusted Registry、Docker Unified Control Plane、Docker CLI等)を取得した。Docker Enterpriseのすべてのクライアント、既存の契約、戦略的技術提携、パートナープログラムも継承する。Docker、MirantisはともにDockerプラットフォームのオープンソースプロダクトの開発を継続するとしている。

両社は買収価格を明らかにしていないが、最近の資金調達ラウンドにおけるDockerの会社評価額を大幅に下回ることは間違いない。Dockerの評価額がこのところ下降を続けてきたことは公然の秘密だった。コンテナ革命のリーダーとして出発したものの、GoogleがKubernetesをオープンソース化し、業界が一斉にに殺到した後は付録のような存在に落ち込んでいた。ただしエンターブライズ事業は多数の大企業をクライアントにもち、健全な運営を続けていた。

Dockerによれば、Fortune 100の3分の1、Global 500の5分の1の大企業がDocker Enterpriseを使用しているという。これはどんな基準からしても高く評価できる成果だろう。Dockerが今回中核ビジネスの売却を急いだということは、こうしたクライアントの大分はDockerのテクノロジーに見切りをつけようとしている同社が考えたことを意味するのかもしれない。

アップデート:Dockerの広報はBenchmark Capitalから3500万ドル(約38億円)の資金を調達したことも発表した。 これは以下の記事の内容に影響を与えるものではないが、Dockerの今後の方向性を考える上で参考になる。なおTechchCrunchはこの資金調達について事前に情報を入手していない。

Dockerは以下のように声明している。

「Dockerは、新しい時代に対応するため、アプリケーションの構築、共有、実行に際して開発者のワークフローの効率化を進めることに焦点を当てることで我々の出発点に戻る。我々のビジネスの重点を再調整する一環として、MirantisはDocker Enterpriseプラットフォーム事業を買収し、このことを発表した。今後我々はDocker DesktopとDocker Hubの役割を拡大することによってアプリの開発者ワークフローを助けていく。具体的には、クラウドサービスの拡大に注力し、開発者がアプリケーションを構築する際に使用するテクノロジーを容易に発見し、アプリを関連する部署、コミュニティと簡単に共有し、オンプレミスであれ、クラウドであれ、Kubernetesが稼働するエンドポイントでアプリをスムーズに実行できるようにしていく」。

一方Mirantis自身もこれまでに相当の波乱を経験している。 Mirantisは十分な資金を調達してOpenStackのディストリビューターとしてスタートしたが、現在ではKubernetesベースのオンプレミスクラウドプラットフォームと関連するアプリケーション配信をサービスの中心としている。CEOのAdrian Ionel(エイドリアン・イオネル)氏は今日の発表に先立って私の取材に答え、「この買収は我々にとって最も重要な決定となるかもしれない」と述べた。

ではMirantisはDocker Enterprise買収で正確に言って何を目指したのだろうか?イオネル氏は 「Docker Enterpriseは我々がすでに目指している方向完全に合致し、また加速するものだ。Mirantisは の方向に大きく踏み出している。目標はKubernetesとコンテナテクノロジーの利用により、 マルチレイヤーのクラウド、エッジコンピューティングとクラウドのハイブリッドを含むあらゆるユースケースに対応することだ。いついかなる場合にもデベロッパーのインフラを開発を助ける一貫したエクスペリエンスを提供する。デベロッパーやクラウド運用者に使いやすいツールをオンデマンドで提供しその負担となるフリクションを最小化する」と述べた。

現在Mirantisの社員は450人ほどだ。買収により新たに元Dockerの社員300人程度を組織に新しく統合する必要がある。Ionel氏によると、当面Dockerのマーケティング部門と営業部門は独立の存在となるという。「我々にとって最も重要なのはクライアントに混乱をもたらさないことだ。そのためチームの統合においても優れたカスタマーエクスペリエンスを維持しなければならない」という。

このことはつまり現在のDocker Enterpriseのクライアントにとっては当面大きな変化はないことを意味する。 Mirantisによれば「Kubernetesとライフサイクル管理テクノロジーの開発、統合を加速すると同時に将来はDocker Enterprise向けのマネージドサービスソリューションを提供していくという。

MirantisとDocker Enterpriseのカスタマーの一部は重複しているものの、この買収によりMirantisは新たに700社のエンターブライズをクライアントに追加することになる。

イオネル氏は「MirantisのライバルはVMware、IBM/Red Hatのような巨大企業だが、我々はクラウドネイティブであり、レガシーのテクノロジーにクライアントをしばりつけることなく、クライアントのコンピューティングをスケールさせることを可能にする」と主張した。

MirantisにとってDockerのエンターブライズ事業の買収が大きな勝利であると同時にDocker時代の終わりを告げるものであることも間違いない。Dockerでは将来に向けた戦略についてさらに発表するとしているが、我々はまだ説明を受けていない。

画像: Chantip Ditcharoen / Getty Images

原文へ

(翻訳:滑川海彦@Facebook

オラクル控訴で米国防省1兆円規模のJEDIクラウド入札勝者発表は延期

賞金が100億ドル(約1兆580億円)の場合Oracle(オラクル)の執念深さは見上げたものだ。米国防省が計画しているJEDIクラウドの調達プロセスについて、1年以上にわたってOracleは考えられるかぎりの法的手段を使って抗議を続けてきた 。しかしそのつどプロセスに問題があることの立証に失敗している。先月もOracleの訴えを連邦裁判所は棄却したが、それで諦めるOracleではなかった。

Oracleは米国を代表するコンピューティングサービスの1つだが、自分たちの利益が不当に脅かされていると感じれば泣き寝入りする会社ではない。特に連邦政府の調達が100億ドル規模とあればなおさらだ。米国時間8月26日に発表された訴訟は連邦請求裁判所(Federal Claims Court)の上級裁判官、Eric Bruggink(エリック・ブルッギンク)判事の判決に対する控訴だ。今回、Oracleの主張は1社の総取りとなるようなJEDIの調達プロセスそのものが違法だとしている。

Oracleの主席法律顧問、Dorian Daley(ドリアン・ダレイ)弁護士は声明で次のように述べている。

JEDI入札訴訟において、連邦請求裁判所はJEDI調達プロセスが違法であると判断したにもかかわらず、Oracleが当事者適格性を欠いているという極めて技術的な理由により訴えを棄却した。連邦調達法は、特定の必須の要件を満たしていないかぎり、JEDIのような単一勝者による調達を特に禁止している。

裁判所は判決付属意見で国防省がJEDI調達においてこの必要要件を満たしていないことを明確に判断した。また意見は、調達プロセスに多くの重大な利益相反が存在することも認めている。こうした利益相反は法律に違反し、国民の信頼を損うものだ。前例を形成すべき重大な例として、我々はOracleに当事者適格がないという結論は、法解釈として誤っていると信じる。判決意見自身がいくつもの点でプロセスの違法性を認めており、我々は控訴せざるを得ない。

昨年12月にOracleは連邦政府に対し、100億ドルの訴訟を起こした。この訴えは主にAmazonの元社員であるDeap Ubhi(ディープ・アブヒ)氏の調達プロセスへの関与が利益相反だとするものだった。アブヒ氏は国防省のプロジェクトに参加する前にAmazonで働いており、国防省の調達プロセスのRFP(仕様要件)を起草する委員会で働き、その後Amazonに戻った。国防省はこの問題を2回調査したが、いずれも連邦法の利益相反であった証拠はないと結論した。

先月、裁判所は最終的に国防省の結論に同意し 、Oracleは利益相反ないし利益相反が調達に影響を与えた証拠を示すことができなかったと判断した。 ブルッギンク判事は次のように述べている。

当裁判所はまた次のように結論する。すなわち調達プロセスを検討した国防省職員の判断、「組織的な利益相反は存在せず、個別人物における利益相反は(存在したものの)調達プロセスを損なうような影響は与えず、また恣意的その他合理性を欠くなど法の求める要件に適合しない要素はなかった」という結論に同意する。このため原告の訴えを棄却する。

OracleはJEDI調達のRFP仕様書が公開される前からあらゆる方法で不平を鳴らしてきた。ワシントン・ポスト紙の記事によれば、 2018年4月にOracleのプレジデント、Safra Catz(サフラ・キャッツ)氏はトランプ大統領に会ってJEDI調達の不正を訴えたという。 キャッツ氏はこのプロセスはクラウド事業のマーケットリーダーであるAmazonに不当に有利となっていると主張した。AWSは2位の Microsoftの2倍以上のシェアを誇っている。

その後OracleはGAO(会計検査院)に対しても検査要請を行ったが、GAOはRFP作成プロセスに問題はなかったと結論した。この間国防省は一貫して利益相反を否定し、内部調査でも違法性の証拠は発見されなかったと結論している。

トランプ大統領は先月、マーク・T・エスパー国防長官に「調達プロセスが不当にAWSに有利だ」という主張を再度調べるよう命じた。その調査は現在続いている。国防省は4月にAmazonとMicrosoftの2社をファイナリストとして発表した。8月末までに勝者を指名するはずだったが、抗議、訴訟、調査が続いているためまだ決定できない状況だ。

問題が困難である理由のひとつは調達契約の性格そのものだ。国防省向けクラウドインフラの構築は、10年がかりとなる国家的大事業であり、勝者となったベンダー(ただし契約には他のベンダーを利用できるオプトアウト条項も多数存在する)は100億ドルを独占するだけでなく、連邦政府、州政府が関連するテクノロジー系公共事業の獲得においても極めて有利な立場となる。米国のすべてのテクノロジー企業がこの契約によだれを流したのは不思議ではないが、いまだに激しく抗議を続けているのはOracleだけだ。

JEDI調達の勝者は今月発表されることになっていたが、上述のように国防省の調査及び各種の訴訟が進行中であるため、勝者を発表ができるまでにはまだ時間がかかるだろう。

画像:Getty Images

【Japan編集部追記】GAO(Government Accountability Office)は「政府説明責任局」と直訳されることもあるが、機能は日本の会計検査院に当たる。日本の会計検査院が憲法上の独立行政機関であるのに対しGAOは議会付属機関であり、連邦支出に関して民間からの検査要求も受け付ける。連邦請求裁判所(Federal Claims Court)は連邦政府に対する民事訴訟を管轄する。連邦裁判官のうち65歳以上で有給退職した裁判官が復職して事件を担当する場合、Senior Judgeと呼ばれる。上級裁判官と訳されることが多いがむしろ「年長、高齢」の意味。

原文へ

(翻訳:滑川海彦@Facebook

Microsoft Azureでサーバーの専有利用が可能に

米国時間8月2日、Microsoft(マイクロソフト)は、Azure Dedicated Host(Azure専用ホスト)のプレビューリリースを発表した。これはシングルテナントの物理サーバー上で複数の仮想マシンを実行できる、新しいクラウドサービスである。すなわち、顧客はそのサーバー上のリソースを他の誰とも共有せず、そのマシンで実行されるものすべてを完全に制御することができる。

これまでにもAzureは、2つの非常に大きな仮想マシンタイプの分離型仮想マシンを提供していた。これらもまだ利用可能だが、その使い勝手は、今回の遥かに高い柔軟性を提供する新しいホスト機能と比べると、比較的制限されたものである。

今回の動きで、MicrosoftはAWSの足跡をたどろうとしている。AWSは既に非常に似通った機能であるDedicated Hosts(専用ホスト)を提供しているのだ。なおGoogle Cloudも同様に「 単一テナントノード 」(sole-tenant nodes)と呼ばれるものを提供している。

Azure Dedicated Hostは、Windows、Linux、およびSQL Serverの仮想マシンをサポートする。価格はホストごとに決定され、そのホスト上で最終的に実行される仮想マシンの数には影響されない。現在、最大48個の物理コアを持つマシンを選択でき、価格は1時間あたり4.039ドルからだ。

これを実現するために、Microsoftは2種類の異なるプロセッサーを提供している。Type 1は、最大3.5 GHzのクロック速度の2.3 GHz Intel Xeon E5-2673 v4をベースにしている。一方Type 2は、最大3.7 GHzのシングルコアクロック速度を持つIntelXeon® Platinum 8168を採用している。利用可能なメモリの範囲は144GB〜448GBだ。詳細はここで参照できる

Microsoftが指摘しているように、これらの新しい専用ホストは、企業が物理的なセキュリティ、データの整合性、および監視に関するコンプライアンス要件を満たすのに役立つ。専用ホストは、Azureデータセンター内の他のホストと同じ基本的インフラストラクチャを引き続き共有するが、ユーザーは、自分のサーバーに影響を与える可能性のある保守機能を完全に制御することができる。

これらの専用ホストは、特定のAzureリージョン内で、より大きなホストグループの中にグループ化することも可能だ。これにより、Azureデータセンター内に独自の物理サーバーのクラスターを構築することができる。実際の物理マシンをレンタルしているため、そのマシン上で起きるハードウェア問題は、そこで実行されている仮想マシンに影響を与える。このため結局は、フェイルオーバー戦略のために複数の専有ホストが必要となるだろう。

110b3725 54e2 4840 a609 adf18fcbe32f

[原文へ]

(翻訳:sako)

Capital Oneの1億人データ漏えいで内部犯行リスクに再び注目

最近のCapital Oneの1億人分の個人データ漏えいは テクノロジー界の注目を再びクラウドのセキュリティーに集めることとなった。実際なにがあったのかについてはまだ不明な部分が多い。公開された起訴状はCapital One以外の企業を匿名としている。クラウド企業側は広報上の一大危機を迎えている。

ここでは単なる推測でなく、確実な事実に焦点を当てたい。不愉快ではあるが避けて通れない問題、つまりクラウドのセキュリティーだ。

皆が気づかないフリをしようとしているのは、クラウドプラットフォームが本質的に抱えるセキュリティー上の問題だ。つまりクラウドサービスの顧客はクラウド企業の従業員の誰がどれほどのアクセス権限を持っているのか知りようがない。クラウド上の自社データに対し管理者レベルのアクセス権が与えられているのは誰なのか?

クラウドの顧客Xはクラウド企業Yで誰がどんな権限を持っているのか分からない。仮にクラウド企業の社員が倫理的義務にあえて違反すると決めれば、その社員は認証情報を含む特権的な内部情報を悪用してデータに対する不正なアクセスができる。顧客Xのデータをコピーするだけでなく、勝手にシステムを改変したりすることも可能だ。

念のために断っておくが、これはCaptal Oneのデータ漏えいがクラウド企業の社員ないし内部情報を利用できた人物の犯行だと示唆しているわけではない。FBIに逮捕された容疑者の職歴にはAmazon Web Services(AWS) も含まれており、データがダウンロードされたのはAWSのサーバーからだとみられている。しかし犯行に使われた知識、技能は必ずしもAWSに関する詳細な内部情報を必要とせず、インターネットにアクセスできるコンピュータと必要な好奇心があれば入手できる程度のものだったかもしれない。

問題はもっと幅広いものだ。企業トップが契約書にサインし、多数の顧客情報を含む機密データを第三者、つまりクラウド企業に引き渡すとき、トップはクラウド・プラットフォームに内在するメリット、デメリットの双方を正確に認識している必要がある。

簡単に言えば、クラウドに業務を移した後はオペレーションンのすべてがクラウドのホスト側に支配される。最悪の場合、クラウド企業が倒産してしまえば顧客のデータはいきなり路頭に迷う。もちろんそんなことになれば弁護士が慎重に作文した契約書のどこかの条項に対する違反となるだろう。しかし契約書や契約書上の文言には、例えばクラウド企業やその契約社員が悪事を働くことを止める力はない。しかもたとえ悪事が行われてもクラウドの顧客側では知りようがないのが普通だ。

つまりこういう状況を簡単に解決できる特効薬はないと認識することが重要だ。 今回の事件は、クラウドホスト側にとってビジネスに好影響をもたらしそうない極めて不愉快な話題であっても、クラウドに内在する危険を率直に検討するにはいい機会となった。こうした事件がなければクラウド内部の人間による悪行が公開される可能性はないからだ。

画像:Getty Images

【編集部注】この記事は米国カリフォルニア州のセキュリティー企業であるUpgurdChris Vickery氏(クリス・ヴィッカリー)の寄稿だ。同氏は、サイバーセキュリティー・リサーチ担当ディレクターとしてVickery氏は25億人のオンラインデータの保護にあたってきた。

【Japan編集部追記】 司法省の起訴状ではデータがダウンロードされたのはCloud Computing Companyからとあり、企業名は明かされていない。アメリカ議会の下院監視・政府改革委員会はCaptal OneとAWSに対し議会休会中の調査に協力するよう求めている。なおAWSの日本語サイトには成功したクラウド化事例としてCapital Oneが紹介されている。

原文へ

(翻訳:滑川海彦@Facebook

インターネットにとって最悪の1カ月

この数週間、まるで空が落ちてきたかのように感じていたのは、私一人ではないだろう。

この1カ月の間に、インターネットの大規模な障害が何度も発生し、世界中の何百万ものユーザーに影響を及ぼした。サイトが落ちた、サービスが止まった、画像が表示されない、ダイレクトメッセージが届かない、カレンダーと電子メールが同時に数時間利用できなくなった、などなど。

これらの障害の原因が1つに集約できるとは考えにくい。どれも極めて不運だったとしか言いようがない。

最初は米国時間6月2日の静かな日曜日だった。ほとんどの人は働いていなかったろう。大規模なGoogle Cloudの障害が米国東海岸のほとんどの地域で発生した。Discord、Snap、Vimeoといった多くのサードパーティサイトだけでなく、GmailやNestなど、Google自身のービスも、その影響を免れなかった。

定期的なものだったはずなのに、誤った設定変更がその原因だった。しかも、問題が発生したとしても、いくつかのシステム内だけに隔離されるはずだったのに、1つのバグのせいで、それがGoogleの他のサーバーにも波及してしまった。その結果、クラウド全体が3時間以上にも渡って大渋滞となってしまったのだ。

米国時間6月24日には、Cloudflareがネットワークルートのリークにより数時間にわたって全トラフィックの15%を欠損させた。同社は直ちに、Verizon(TechCrunchの親会社)がヘマをやらかしたせいだと非難した。インターネットのトラフィックが、インターネット上でどのようにルーティングされるかを管理するボーダーゲートウェイプロトコルに内在していた欠陥が原因で、事実上Verizonは「高速道路の全部のトラフィックを一般道に誘導してしまった」と、Cloudflareは事後のブログ記事で述べている。「これはあってはならないことでした。Verizonはそれれらのルートをインターネットの他の部分に転送すべきではなかったのです」。

Cloudflareのインフラに依存しているAmazon、Linode、およびその他の大企業のサービスも停止を余儀なくされた。

その1週間後の米国時間7月2日、Cloudflareは再び停止することになった。今回は、社内でコードの更新に失敗したためだった。ブログ記事で、Cloudflareの最高技術責任者であるJohn Graham-Cumming氏は、今回の約半時間の停止はウェブファイアウォールの「正規表現」コードのちょっとした不具合が原因だったと明かした。そのファイアウォールは、顧客のサイトをJavaScriptベースの攻撃から守るために設計されたものだという。しかしその正規表現のコードに誤りがあり、世界中のマシンでプロセッサーの負荷の急増を招いた。その結果、サービス全体の障害を引き起こし、それに依存したサイトをすべてダメにしたのだ。しかし、コードのロールバックが迅速に行われたので、インターネットはすぐに正常な状態に戻った。

こんなことでCloudflareの向こうを張ろうとは思っていないGoogleも、米国時間7月2日に、米東海岸地域の光ファイバーケーブルの物理的な損傷が原因で、新たな障害に見舞われた。その混乱は、約6時間ほど続いた。Googleは、トラフィックを他のデータセンターに誘導したことで、ほとんどの障害を軽減することができたとしている。

その次はFacebookだ。WhatsAppとInstagramを含むすべてのサービスが、米国時間7月3日に8時間に渡って不安定な状態となった。それらのサービスで共用している配信ネットワークの障害によるものだった。Facebookは、不具合を告知するのにTwitterを使うしかなかった。画像やビデオはまったく表示されず、機械学習によって生成された気味の悪い写真の内容説明だけが表示されるというありさまだった。

Instagramは、今回の障害で打撃を受けた多くのFacebook所有のサービスの1つだ。Twitterには、画像の自動的なタグ付けや分類に触れた投稿が多くあった(画像:Derek Kinsman/Twitter

それとほぼ同時期に、Twitterも無関係ではいられなくなった。ダイレクトメッセージ機能が停止したことをツイートで認めたのだ。そこにあるはずのない「幽霊」メッセージが表示されるとか、新しいメッセージが来ても通知が表示されない、といった苦情が寄せられた。

そしていよいよAppleの番となった。米国時間7月4日、iCloudは3時間に渡って米国内全域で停止した。App Store、Apple ID、Apple Pay、Apple TVといったクラウドベースのサービスのほぼすべてが影響を受けた。ユーザーによっては、電子メールや写真にアクセスできなくなることもあった。

インターネットのモニタリング会社であるThousandEyesによると、この機能停止の原因もまた別のボーダーゲートウェイプロトコルの問題であり、VerizonとCloudflareの間で起こったいざこざに似ているという。

何の説明もないAppleの運用状況のページ。問題の発生は示されているが、その理由や回復の見込みなど、何もわからない(Image:TechCrunch)

多くの人にとって騒がしい月だった。CloudflareとGoogleについては、何が起こったのか、その理由が何なのかを説明しているので、まだいい。Apple、Facebook、そしてTwitterに至っては、ほどんと説明もなく、かろうじて問題の発生を認めただけだ。

ここから何を学ぶことができるだろうか?1つには、インターネットプロバイダーは、ルーティングフィルタの扱いには、もっと気をつけたほうがいいということ。もう1つは、新しいコードを実動のシステムでそのまま実行するのは止めたほうが良さそうだということ。

ここ数週間というもの、クラウドに対する印象は、あまりいいものではなかった。AmazonやGoogleといった大手のホスティング会社への信頼も揺らいでしまった。こうしたインターネットの障害は、ハッカー、あるいは何らかの攻撃者がサービス妨害攻撃をしかけたからだなどと、早急に、あるいは無責任に結論付けるのは、たいてい間違っている。まずは、サービス内部の過ちを疑ってかかるほうが、ずっと無難だ。

それでも、ほとんどの消費者にとって、そして大多数の企業にとって、自社でサーバーを運用するのに比べれば、クラウドのほうがはるかに高い回復力を備え、ユーザーのセキュリティを保護する能力も高い。

もっとも確かな教訓は、すべての卵を1つのかごの中に入れてはいけないということ。つまり、すべてのデータを1つのクラウドに保存するのは危ないということだ。しかし、この1カ月の事例が示すように、それでもなお不幸に見舞われることはあるだろう。

画像クレジット:Getty Images

原文へ

(翻訳:Fumihiko Shibata)

マイクロソフトはサービスメッシュの相互運用性向上に一石を投じる

クラウドネイティブのコンピューティングの世界では、今サービスメッシュがホットだ。隔年で開催されるKubeConは、クラウドネイティブに関するあらゆる事柄を扱う。その場でマイクロソフトは、米国時間の5月21日、この分野の何社かと協力して、ジェネリックなサービスメッシュのインターフェイスを開発すると発表した。これによりデベロッパーは、特定の技術に縛られることなく、サービスメッシュのコンセプトを容易に適用できるようになる。

現状では、ネットワーク上で利用可能なAPIの数は増え続けている。あちこちのデベロッパーが、猛烈な勢いで新たなマイクロサービス、コンテナ、その他のシステムを立ち上げているからだ。そうしたサービスは、暗号化、トラフィック管理、その他の機能を提供してくれるので、実際のアプリケーションは、詳細を気にすることなく利用できるようになっている。しかしサービスメッシュ自体にも、たとえばIstioLinkerdなど、何社かの競合する技術があるため、デベロッパーはそのうちのどれをサポートすべきか、選択を迫られるのが現状だ。

「この業界の中の人材を集約して、大規模なコンソーシアムをまとめ上げることができたことに、非常にワクワクしています。それにより、サービスメッシュの分野で、相互運用性を推進できるでしょう」と、元DeisのCTOで、現在はマイクロソフトのコンテナ担当の主幹プロダクトマネージャ、Gabe Monroy氏は私に語った。「これは今まさにホットなテクノロジです。それにはもちろん理由があります。クラウドネイティブのエコシステムは、よりスマートなネットワークと、よりスマートなパイプの必要性を増長しているのです。そして、その要求に応えるのがサービスメッシュなのです」。

パートナーとして名前が挙がっているのは、Buoyant、HashiCorp、Solo.io、Red Hat、AspenMesh、Weaveworks、Docker、Rancher、Pivotal、Kinvolk、それにVMwareだ。これは、かなり広範囲の連合だが、クラウド分野で競合する重要なプレーヤー、つまりIstioの背後にいるGoogle、そしてAWSは当然ながら含まれていない。

「急激に進化するエコシステムでは、共通の標準を制定することが極めて重要です。それによってこそ、最終的なユーザー体験を可能な限り最高のものにすることができるのです」と、Solo.ioの創立者でCEOのIdit Levine氏は述べている。「これがSuperGlooを支えるビジョンです。異なるメッシュ間でも一貫性を保つことができるように抽象化レイヤーを設定するのです。そのために、私たちは先週、Service Mesh Hubをリリースしました。サービスメッシュの採用が拡がり、SMI仕様として業界レベルのイニシアチブに育っていくことを嬉しく見守っています。

当分の間、この相互運用性機能は、トラフィックのポリシー、テレメトリ、そしてトラフィック管理に焦点を合わせたものとなる。Monroy氏によれば、これらが今最も差し迫った課題だという。そして、この共通のインターフェースによって、さまざまなサービスメッシュのツールを革新することが可能であり、デベロッパーは必要に応じていつでも独自のAPIを直接利用することもできる、と力説した。また、この新しい仕様はSMI(Service Mesh Interface)と呼ばれ、そうした機能に対して独自の実装を提供するものではないということも強調している。つまり、共通のAPIのセットを定義するだけなのだ。

現在最も有名なサービスメッシュは、おそらくIstioだろう。2年ほど前に、Google、IBM、そしてLyftによって立ち上げられたものだ。SMIの登場によって、この市場における競争が、それほど激しいものになることはないだろう。というのも、SMIは特定のサービスメッシュの実装の選択をデベロッパーに迫るものではなく、サービスメッシュの採用全般を促すものだからだ。

マイクロソフトは同日、SMIに加えて、同社のクラウドネイティブ、およびKubernetesサービスに関して、他にもいくつかのアップデートを発表した。たとえば、パッケージマネージャHelm 3の最初のアルファ版、Visual Studio Code用のKubernetes機能拡張の1.0リリース、オープンソースのVirtual Kubeletプロジェクトを利用したAKS仮想ノードの一般公開などだ。

画像クレジット:Zen Rial/Getty Images

原文へ

(翻訳:Fumihiko Shibata)

マイクロソフトとソニー、ゲーム界の二巨頭がAzureクラウドをベースに提携

この20年間、ソニーとMicrosoft(マイクロソフト)のゲーム部門は全面戦争状態にあった。両者は価格で、ゲーム機で、ゲームソフトで、特別ボーナスで常にがっぷり組んで相手を叩き潰そうとしてきた。しかし発表された覚書によれば、両者はこれまでの行きがかりを一時棚上げし、カジュアルなクラウドゲームによってGoogleがゲーム市場を席巻するのに備えようとしている。

具体的内容についてはまだほとんどわかっていない。しかし米国時間5月16日に公表されたソニーの吉田憲一郎社長とMicrosoftのサティヤ・ナデラCEOが握手している写真をフィーチャーした公式覚書には、両者がMicrosoft Azureをベースとしてクラウド化で提携したことが明記されている。

両社は将来のクラウドソリューションに関して共同で開発を進めることとした。両社のゲームおよびコンテンツのストリーミングサービスをMicrosoft Azureがサポートしていく。これに加えて、両社はMicrosoft Azureのデータセンターをベースとするソリューションをソニーのゲームおよびコンテンツのストリーミングサービスに適用する可能性を追求する

ソニーがゲームその他のオンデマンドサービスで他の多数のクラウドを利用できることは疑いない。実際、 Playstation Nowはその例だ。しかしここ数年のうちにゲーム界を激震が襲うことが予想されている。これはインターネットの浸透により消費者の多くがいわゆるコードカッターとなってケーブルテレビを解約しはじめたことと比較できる。Netflixなどのストリーミングサービスの躍進により、これまでテレビ番組や映画の視聴で圧倒的な勢力を誇っていたケーブルテレビ企業は一気に苦境に追い込まれた。ゲーム企業がこうしたクラウド化に対応するためには巨額の資金とノウハウを必要とする。

最も警戒すべき挑戦者はなんといってもGoogleだ。今年3月、GDCで発表されたStadiaゲームストリーミングサービスは、Googleの技術力、資金力、世界的認知度に加えて、検索とYouTubeという入り口を押さえている。これまでGoogleはゲームではさほど強くなかったが、今後は別だ。ブラウザでゲームを検索し、好みのゲームを発見すれば文字通り5秒後にそのブラウザ内からゲームがプレイできるというのは脅威だ。しかもこういうことができるのは現在Googleしかない。

これだけでも容易ならぬ暗雲だが、Microsoftとソニーに手を握らせることになった理由は他にもあるかもしれない。Switchの世界的大成功による任天堂の復活はその1つだ。「いつでも、どこでも、誰とでも」をキャッチフレーズとし、据え置き、携帯両対応でインターネットとモバイル接続に強く依存するSwitchは従来のゲーム専用機を時代遅れにしつつある。Apple Arcadeもあまり魅力が感じられないお仲間だが、正直こちらは誰も気にしていないようだ。

ソニーとMicrosoftの間には秘密のホットラインがあり、「休戦。まずGoogle Stadiaを撃滅。できればNvidia(エヌビディア)も」というようなメッセージがやり取りされたのだろう。

もっとも、想像をたくましくする必要はない。ソニーの吉田憲一郎社長は発表でこう述べている。

Microsoftとソニーはある分野では激しく競争してきたが、長年にわたってもっとも重要なビジネスパートナーの1つでもあった。今回のクラウド開発における両社のジョインベンチャーはインタラクティブなコンテンツのサービスを前進させる上で極めて大きな役割を果たすだろう。

世界的テクノロジー企業であるソニーはストリーミングサービスを手がける技術力もノウハウも持っている。しかしクラウドサービスをゼロから自前で立ち上げるより、すでに地位を固めているMicrosoft Azureの上で展開するほうが有利であるのは明らかだ。

MicrosoftにしてもAzureにソニーのような巨大企業を迎え入れることができればハッピーだ。ともあれソニーとMicrosoftがゲーム分野でライバルだったことはGoogleという両社のゲームビジネスの存立にかかわる脅威に比べれば何ほどのこともない。Microsoftもソニーと戦い続けるよりパートナーとなることが有利と見たはずだ。

ライバルと手を組むという複雑な関係ではソニーのほうが経験を積んでいる。ソニーは以前から撮像素子を始めとするカメラテクノロジーを多くのスマートフォン、デジタルカメラのメーカーに提供してきた。これはソニー自身のプロダクトとバッティングするわけだが、単に売上だけでなく、顧客メーカーからさまざまなノウハウのフィードバックを受けることがソニーが映像業界において不動の地位を確保する上で役立ってきた。

画像業界といえば、両社はソニーの撮像素子とMicrosoftの人工知能を統合した新しいテクノロジーの開発に向かっている。プロダクトとしてはロボティクス、自動運転車となる可能性が高い。この分野の競争は激烈だが、今のところ両社ともにこれというプレゼンスがない。提携の背後にはこの事情を変えていこうという野心もあるかもしれない。

画像:Christian Petersen / Getty Images

原文へ

(翻訳:滑川海彦@Facebook

光学式ドライブレスのXbox One Sは5月7日発売

Microsoft(マイクロソフト)は近くXboxの低価格モデル、Xbox One Sを発売する。コスト削減のためにBlu-rayを搭載しないディスクレスモデルとなる。Thurrottのリーク画像を掲載したWinFutureの記事によれば、新製品は5月7日発売の予定だという。ドイツでの価格は販売229ユーロ(日本では2万9000円前後)という。

発売開始予定が数週間後に迫っていること、リーク画像がマーケティング用の製品の箱であり、これまで報じられてきた予想の通りであることなどから考えて、おそらく正確な情報だろう。

新しい製品はXBox One S All Digitalと呼ばれ、WinFutureの画像によれば、外観はこれまでのXbox Oneそのままで光学式ディスクのスロットがない点だけが異なる。このゲームコンソールは1TBのHDDを内蔵する。これは現行Xbox One Sと同様だ。

Microsoftでは新しいS All Digitalはオンラインでのプレイだと注意を促している。ユーザーがすでにブルーレイのXBox Oneゲームをを所有していても新製品には光学式ドライブが存在しないので、ゲームをプレイすることは不可能だ。

コンソールにはMinecraft、Sea of Thieves、Forza Horizon 3という3タイトルのゲームをダウンロードできくるパスコードが添付される。オンラインゲームをさらにストアで購入してもいいし、サブスクリプションでXbox Game Passを入手してもよい、

上で述べたように、ドイツでの販売価格は229ユーロだが、これよりだいぶ安く購入する方法がいくつあるようだ。例えば、Amazonでは200ドル前後で販売しているショップがいくつかある。Microsoftは1ユーロ1ドルとして価格を決定してきので、S All Digitalの販売定価も229ドルになるのではないかと思う。

Microsoftはこの新製品でディスクレス版ゲーム機に対するユーザーの反応を実験したいのだろう。 MicrosoftはこのところWindowsやfficeでクラウド・サービスへのピボットを進めてきた。Xboxというブランドも伝統的ゲーム専用機からクラウドサービスへと発展させる計画だろう。この試みが成功すればゲーム機ビジネスの中でMicrosoftは独自の新世代となることができるはずだ。

原文へ

(翻訳:滑川海彦@Facebook

米国防省は1兆円超のJEDIクラウドの最終候補にMicrosoftとAmazonを選定、Oracleは選外

米国防省は10年で100億ドル(約1.12兆円)を支出するJEDIクラウドプラットフォームの契約者決定にあたって最終候補、2社を選定したことを発表した。抗議声明訴訟裏口からの大統領への嘆願を含む数々の努力にもかかわらず、Oracle(オラクル)は選に漏れた。選ばれた2社はMicrosoft(マイクロソフト)とAmazon(アマゾン)だった。

TechCrunchの取材に対し、国防省の広報担当官であるElissa Smith氏は2社がMicrosoftとAmazon(AWS)であることを確認し、以下のように答えた。

各社案を検討した結果、国防省はJEDI(統合エンタープライズ国防インフラストラクチャー)クラウドの調達にあたり、合衆国の法規ならびに当省の規定に合致した最終提案の提出をMicrosoftとAmazonの両社に求めた。この両社の提案が今後の調達決定過程において考慮されることとなる。

国防省のクラウド計画が業界の強い関心を集めたのにはいくつかの理由がある。まず第一に総額の巨大さだが、それ以上に重要なのはこれが勝者総取りのプロジェクトだということだろう。

MicrosoftにせよAmazonにせよ、調達に選定されたとしてもいきなり100億ドルのキャッシュが手に入るわけではない。また10年間という期間も保証されたものではない。国防省はどの時点であれ計画を中断ないしキャンセルできる。とはいえ、単一企業が契約者となるという点は当初から参加者に緊張を強いるものとなっていた。

昨年、Googleがレースから離脱する一方、IBMとOracleは「選定過程が不公平だ」と大声で不平を並べた。またこれほど大規模なプロジェクトをジョイントベンチャーではなく単一ベンダーに任せるという決定に対する疑問の声も上がっていた。一方、100億ドルというのはたしかにバカにできない金額だがクラウドビジネスでは天文学的というほどの数字ではないが、関心の焦点は金額だけではなかった。

この契約の勝者は今後、各種の政府調達契約で優位に立てるのではないかというのが重要なポイントだった。つまりJEDIプロジェクトはディナーの前菜で、この後にメインのコースが続くはずという予想だ。合衆国政府にとってももっとも高い信頼性、機密保持能力を求められる国防クラウド計画を首尾よく運営することができるなら、連邦政府、州政府の他の大型クラウド計画の選定過程においても絶大な説得力を発揮するはずだ。

結局、関係他社の抗議にもかかわらず、国防省はことを予想どおりに進めた。ファイナリストはクラウド事業でもっともある実績がある2社で、国防省の仕様書の内容を実行できる可能性がいちばん高かった。MicrosoftはAmazonからだいぶ引き離されているとはいえ、この2社がクラウドの1位、2位の事業者である点は疑いない。この分野をモニターしている調査会社のデータによれば、Amazonは圧倒的な33%、Microsoftは13〜14%程度で、この2社で市場シェアのほぼ半分を握っている。

Microsoftの強みは非常に強力な生産性アプリケーションを擁するAzure Stack。これはプライベートなミニAzureで、軍にとってはきわめて使い勝手がいいはずだ。しかしMicrosoftだけでなくAmazonももちろん政府業務の経験は十分に積んでいる。両社はそれぞれにメリット、デメリットがあるので、どちらかを選ぶのは非常に困難な作業となる。

去る2月にはさらに別のドラマが展開した。国防省は元Amazonの社員が国防省が作成した新サービスの仕様策定に関与したのちAmazonに戻ったかもしれないという利益相反の疑いについて調査を実施したという報告書を公開した。報告書は「利益相反の事実はなかったが、倫理的行動義務の違反となるような部分があったかもしれない。この点の情報については省内の倫理行動基準を調査する部門に引き渡した」と述べた。

国防省は今月末に勝者を発表するが、その後もドラマはさらに続きそうだ。

画像:SOPA Images / Getty Images

原文へ

(翻訳:滑川海彦@Facebook

Google Cloud Next 2019の重要発表トップ6まとめ

Googleのクラウドデベロッパー向けカンファレンス、Cloud Next 19はサンフランシスコで開催中だが、プロダクトの発表は出揃ったようだ。以下にもっとも重要と思われる6項目をまとめてみた。

Anthos

これは一体何?
AnthosはGoogle Cloud Services Platformに与えられた新しい名称だ。 エンタープライズ企業がコンピューティングリソースの管理や料金の積算、支払いといったわずらわしい業務の処理もすべて任せるプライベートデータセンターとしてとしてGoogle Cloudを利用する場合、 Anthosがそのプラットフォームの名前となる。

しかもAnthosはAmazonのAWSやMicrosoftのAzureといったライバルのクラウドもサポートに含める。これにより他のクラウドを利用している企業もGoogleを単一のクラウドの窓口とすることができる。つまりAnthosを使えばGoogle以外のクラウドに自社のプリケーションをデプロイしたり管理したりできる。クラウドのダッシュボードが単一となるだけでなく、料金もAnthosがまとめて計算し、請求する。こうしたことが可能になるは、予想通り、コンテナーとKubernetesの威力だという。

どこが重要なのか?
Googleのような巨大クラウドの運営者がライバルのクラウドをサポート対象に含めるというのは異例中の異例だ。ライバルのクラウドで実行されたコンピューティング料金はライバルに流れてしまう。しかしGoogleは「これは顧客の要望に基づくもので重要な問題を解決する」と主張する。GoogleはAWSやAzureを追う立場にあり、先行ライバルに対してはっきりした差別化を図る必要があった。優位にあるAWSやAzureが今後Googleのアプローチを採用する可能性は低いが、そうなればユーザーの利便性は大きく高まるだろう。

Google Cloudがオープンソース各社と提携

これは一体何?
Googleはオープンソースプロジェトのトップ企業多数と提携し、Googleクラウドのサービスjの一部として利用できるようにした。発表されたパートナーはConfluent、DataStax、Elastic、InfluxData、MongoDB、Neo4j、Redis Labsだ。提携はさらに拡大するものと見られる。

どこが重要なのか?
すでにこうしたオープンソースプロジェクトの製品を利用しているエンタープライズにとって大きな朗報であり、Google Cloudのセールスポイントとなるだろうこうしたオープンソースプロダクトのカスタマーサポートや利用コストの支払いなども上で紹介したAnthosプラットフォームが単一の窓口となる。実際の内容はかなり複雑だが、今回のカンファレンスでGoogleがオープンソース化を鮮明にしたことがはっきりした。これはAWSのクローズドなアプローチとは対照的だ。オープンソース各社はAWSが「オープンソースを利用するだけでまったく貢献しようとしない」として反発を強めている。

Google AIプラットフォーム

これは一体何?
Googleは自社の強力なAIがAWSやAzureなどのクラウドと競争する上でセールスポイントとなると考えている。Googleはすでにデベロッパーやデータサイエンティストなどに向けて各種のAIツールを提供している。たとえばAutoMLは、その名のとおり、与えられたデータから自動的に機械学習モデルを生成するサービスだ。利用するために計算機科学の博士号は必要ない。新しいAIプラットフォームはエンタープライズの業務に全面的なソリューションを与えることができるさらに高度なサービスをデベロッパー向けに提供する。これは元データの整理からモデル化、学習、アプリ作成までサポートする。このプラットフォームには簡単に利用できるテンプレートモデルがいくつか用意される。

どこが重要なのか?
AI(機械学習を含む)は現在の主要クラウド事業者全員が取り組んでいるホットな課題だ。しかしユーザーが実際に業務に適用しようとすると改善を要する点がまだ多い。とくに元データからアプリケーションまでエンドツーエンドでソリューションを提供できるというのは明らかに大きな進歩だ。これにより機械学習の利用が拡大することが期待できる。

Androidスマートフォンがセキュリティーキーになる

これは一体何?
ドングルを接続したりマニュアルでセキュリティー数字を打ち込んだりせずにAndroid 7以降のスマートフォンを持っていれば自動的な2要素認証によるサービスへのログインが可能になる。ユーザーはGoogleアカウントからBluetoothを有効にしておく必要がある。今のところこの機能はChromeのみサポートしているが、Googleはこの機能を他のブラウザやモバイルOSがサポートすることを期待している。Googleではユーザーが(残念ながら起こりうる可能性だ)スマートフォンを紛失したときのために、これまで通り、プリントアウトできるセキュリティーキーが使えるとしている。

どこが重要なのか?
2要素認証は単なるパスワードによる認証より安全性が格段に高い。しかし2要素認証であってもユーザーを偽サイトに誘導するフィッシング攻撃で破られる可能性があった。しかし今回の新しい自動2要素認証システムは正規のサイトかどうかを判別する。またユーザーの煩わしさも大きく軽減される。Googleではこれにより2要素認証の普及が進むことを期待している。

Google Cloud Code

これは一体何?
Cloud CodeはIntelliJやVS CodeのようなポピュラーなIDEで利用できる一連のプラグインだ。これは開発作業でローカルとクラウドを往復したり、必要なツールを別途探したりする必要をなくしてデベロッパーにクラウドネイティブな開発環境を提供することが狙いだ。Cloud Codeを利用すれば、デベロッパーはこれまでのローカルの開発と同様にコードを書くだけで自動的にクラウドで実行可能なパッケージが生成される。これはKubernetesクラスターに送りこんでテストしたり、業務に利用したりできる。

どこが重要なのか?
クラウドネイティブなアプリを書くのは複雑な作業で、特に適切なコンフィグレーションファイルを書くのが難しかった。Cloud Codeはデベロッパーの負担を軽減するのが狙いだ。これによりクラウドが企業コンピューティングのインフラとなることが促進されるはずだ。

Google Cloudはリテラーをターゲットに据えた

これは一体何?
今回、通販など小売業を対象としてバーティカルソリューションが発表された。Googleはリテラーをクラウドコンピューティングのターゲットに加えた。それだけ聞けば「当たり前だろう」と思う読者も多いだろうが、Google Cloudではリテラーがすぐに使えるパッケージを今後強化していくという。

どこが重要なのか?
Google Cloudの新CEOのThomas Kurian氏によれば、カスタマーは現在使用中の業種に特有なツールをそのままクラウドでも利用したいと強く要望しているという。リテラー向けパッケージは(ヘルスケア分野もそうかもしれないが)業種に特化した初めてのクラウドソリューションとなる。カバーされる業種は今後されに拡大される予定であり、クラウドプラットフォームの重要な柱に成長させていくという。

記事の背景
TechCrunchはGoogle Cloudの新しいCEOのThomas Kurian氏に独占インタビューするチャンスがあった。我々は各種の発表の背景やGoogle Cloudが目指す方向について参考となる話を聞くことができた。

原文へ

(翻訳:滑川海彦@Facebook