サーバーを粘液に漬け込んで地球を救うSubmerの新材料技術

デジタル技術は今や世界経済の中枢神経系であり、その機能を、世界中の企業の稼働を維持するために大量の電力を猛スピードで消費する、巨大なデータセンターに依存している。

データセンターの稼働を維持するだけでなく、すべてのデータを収める膨大な数のサーバーを空調の効いた環境に置いて効果的に運用するためには、巨額の冷暖房費用を必要とする。

企業が自分たちのエネルギー消費を意識してその炭素排出量を減らそうとすると、もっと少ないエネルギーでサーバーを動かす方法を見つけなければならない。そこに、Submerが登場する。

このスペインの企業は、サーバーを保存し冷却する新しい方法を開発した。基本的にそれは、サーバーを同社の創業者たちが設計した環境親和性の良い粘液に漬け込み、それらを特製の容器に保存する。同社の創業者たちによると、この方法はエネルギー消費をを50%減らし、水の使用量を99%、スペースの使用量を85%減らす。

Submerのお話は、実は拒否から始まる。同社を創業したPol Valls氏は元プログラマーでエンジニア、そして彼の義兄弟のDaniel Pope氏は、のちにTelefonicaに売ったデータセンターを経営していた。

4年前に二人は、データセンターをもっと効率的に動かすための方法についてブレーンストーミングを開始した。彼らは、自分たちのさまざまな人脈を辿って、エンジニアや材料科学の技術者の話を聞き、無毒で不燃性で生分解性の素材を開発した。そして、その粘液を収めたコンテナにサーバーを沈めれば、もっと効率的に運転できると考えた。

自分たちの名案に感動した二人は、このアイデアをY Combinatorに売り込んだ。しかし選考の最終ラウンドまでは行ったが、結局、YCの早期アクセラレーター事業に入れなかった。

Valls氏はこう言う: 「当時はクレイジーなアイデア以外には何もなくて、クラスには入れなかったが、面接には通ったんだ」。

二人は、退職した熱力学工学の技術者の協力を求め、最初のプロトタイプを三つ開発した。そして6回の試行ののち、実際に商品になりそうな製品に到達した。

液体でサーバーを冷却するというコンセプトは、Submerの独占ではない。Microsoftは最近、スコットランドの海岸で行った実験の結果を公表したが、そこでは海水にサーバーを沈め、自然環境を利用してハードウェアを冷却し保存した。

関連記事: マイクロソフトがProject Natickで海底データストレージの実行可能性を確認、乾燥地と比べて信頼性が最大8倍

Valls氏によれば、Microsoftのやり方はおもしろいけど、データセンターの新しいインフラストラクチャ技術が対応すべき重要な問題を解決していない。

まず、コンピューティングはリアルタイムの作動を必要とするアプリケーションになるべく近いところで行われる必要がある。5Gのネットワーキング技術も、スマートカーも、そのほかのイノベーションも、すべてそうだ。

Valls氏によると、「ハイパースケールの連中やデータセンターは今、インフラストラクチャを都市の中心に移動して通信の遅延を減らそうとしている。遅延は、計算とそのユーザーがそれぞれどこにあるかに依存する。低遅延のアプリケーションは、計算が都市の中心に近いことを今後ますます必要とするだろう」。

Submerの方式には十分な説得力があるので、同社はスウェーデンのインパクト投資企業Norrsken VC(NPO Norrsken Foundationの投資部門)とJane Street Capitalの引退した共同創業者Tim Reynolds氏がリードするグループから、およそ1200万ドルの資金を調達できた。なおNorrskenは、ヨーロッパのフィンテックユニコーンKlarnaの共同創業者の一人が創立し、金融のインクルージョンと持続可能な開発において国連の持続可能な開発という目標を推進する技術とサービスにフォーカスしている。

そのNorrsken VCの投資マネージャーAlexander Danielsson氏はこう言っている: 「データセンターは人類の進歩の原動力だ。コア・インフラストラクチャとしての彼らの役割は今やこれまで以上に明白であり、AIやIoTのような新興技術がコンピューティングのニーズを増大し続けている。しかしながら、その業界の環境フットプリントは、人びとが不安を抱くほどの大きさで成長している」。そこでDanielsson氏は、Submerのソリューションに期待している。

強力な説得力は業界の規模にもある。Global Market Insightsのデータによると、データセンターの市場は近く250億ドルに達する。

画像クレジット: Submer

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

17年以上69四半期連続で売上が増加しているデータセンターベンダーのEquinixとは

良い時も悪い時も一貫しているとき、そこには何か語るべきことがある。驚異的な一貫性で実績を上げる企業の1つが、国際的なデータセンターベンダーであるEquinix(エクイニクス)だ。同社によると、69四半期連続で売上高が増加しているという。

これは驚くべき記録だ。17年以上にわたり売上高が成長している。連勝が始まったのは2003年だということだ。当四半期も堅調だった。経済の混乱にもかかわらず四半期売上高は14億4500万ドル(約1500億円)と前年同期比6%増、前四半期比では2%増となった。同社は、企業がサーバー用にスペースをレンタルできるデータセンターを運営している。Equinixは、ラック、配線、冷却などのインフラを全てユーザーに提供し、ユーザーは必要な数だけラックを購入すればよい。

ワークロードの一部であっても自社のサーバーで管理している場合、自社で施設を運営するよりも、Equinixなどのベンダーからスペースを借りる方がはるかに費用対効果が高くなる可能性がある。

当四半期の新規顧客の中には、今月初めにOracle(オラクル)とのパートナーシップを発表したZoom(ズーム)とTikTok(ティクトク)が含まれている。両社はキャパシティの確保に奔走している。いずれの会社も動画を扱っているため、非常にさまざまなタイプのリソースを必要とする。

関連記事:Zoomが新型コロナによる需要増対応でOracleを選択するという驚きの結果

今回の決算の背景には、ストリーミングビデオやビデオ会議などの需要の大幅増加がある。何百万もの人々が自宅で仕事や勉強をしたり、気晴らしの対象を探している。もし同社の業績の継続性を疑うとしても、同社自身は継続できると信じている。同社の2020年の売上高の予想は58億7700万〜59億8500万ドル(約6300~6400億円)で、前年比で6〜8%増加する見込みだ。

これは反IBMと呼んでもいいかもしれない。IBMは、2012年から2018年まで不名誉なことに22四半期連続で売上高が減少し、その後ようやく止血する方法を見つけた。

Equnixの連続記録には前回経済が悪化した2008年から2010年の期間も含まれていると考えると記録はさらに印象的で、指摘する価値があると言えよう。

画像クレジット:Bob Sacha / Getty Imag

[原文へ]

(翻訳:Mizoguchi

マイクロソフトがニュージーランドに初のデータセンター設置、クラウド利用増に対応

新型コロナウイルス(COVID-19)パンデミックで経済の先行きが不透明であるにもかかわらず、成長を続ける分野がクラウドコンピューティング直近の四半期決算でAzureが59%成長したMicrosoft(マイクロソフト)がニュージーランドにデータセンターを設置すると発表したのはおそらくこのためだ。海外投資局から許可が降り次第、新データセンターをオープンさせる。

「ニュージーランドのデジタルインフラへの今回の大型投資は、イノベーションに対する同国の素晴らしい精神への誓いであり、国としての可能性を我々がいかに広げていくかを反映している」とMicrosoftニュージーランドのゼネラルマネジャーを務めるVanessa Sorenson(ヴァネッサ・ソレンソン)氏は声明で述べた。

このプロジェクトの背景には、デジタルトランスフォーメーションの加速がある。いま世界のあちこちでパンデミックによって従業員がオフィスで働くことができなくなったために、企業はこれまでよりも素早くクラウドに向かうことを余儀なくされている。

CEOのSatya Nadella(サティア・ナデラ)氏がTwitterに記したように、データセンターの開設は移行中のニュージーランド企業をサポートするはずだ。「今まで以上に、我々はデジタルトランスフォーメーションのパワーを目の当たりにする。そして今日、ニュージーランドの組織が自前のデジタル能力を構築できるよう、我々は同国における新たなデータセンターリージョンを発表する」とナデラ氏はツイートした。

同社はデータセンター設置以上のことを描いている。スキル・トレーニングやデータセンターの環境負荷の軽減などを含む幅広い投資を行い、データセンターはその一環とする。ニュージーランド当局が許可すれば、同社は世界140カ国をカバーする60リージョンを有することになる。新たなデータセンターはAzureのみならず、Office 365やDynamics 365の使用促進にもつながる。

画像クレジット: Scott E Barbour / Getty Images

[原文へ]

(翻訳:Mizoguchi

Google Cloudがラスベガスにデータセンターをオープン

Google Cloud(グーグル・クラウド)は4月29日、ラスベガスのデータセンターリージョンの正式オープンを発表した。米国西部のリージョンは4カ所となり、ラスベガスは既存のデータセンター(カリフォルニア州ロサンゼルス、オレゴン州ダレス、最近オープンしたユタ州ソルトレイクシティ)を補完することになる。

Googleは現在、世界合計23地域でアプリケーションをホストするオプションを顧客に提供している。今回の新しいリージョンのオープンにより、米国のリージョンは7つとなる。

Googleのすべての新しいリージョンと同様に、ラスベガスでも3つのアベイラビリティーゾーンを提供し、開発者はほとんどのGoogle Cloudサービスにアクセスできる。ただしラスベガスではCloud FunctionsやCloud Runなどの比較的新しいサービスがまだ使用できない。Cloud HSMやSecret Managerなど、他のいくつかの機能もまだだ。

同社が最初にラスベガスへの拡張を発表したのは2019年7月だった。現在ラスベガスは不気味なほど静かだが、新しいリージョンを設ける理由は、企業に対し、顧客の近くに構える選択肢、低いレイテンシーでのアプリケーションへのアクセス、より広い地理的領域にワークロードを分散する機能を提供するためだ。

Googleは今年初め、年内にジャカルタ、ソウル、ワルシャワにリージョンをオープンすると発表した。これまでのところ、新型コロナウイルスの感染拡大が計画を減速させているようには見えない。

ラスベガスでのGoogleのローンチパートナーはAristocrat(アリストクラット)だ。Aristocratは、ギャンブル業界向けのデジタルプロダクトを提供している。

「クラウドテクノロジーは当社に2つの重要な成果をもたらす」とAristocratのCIOであるJames Alvarez(ジェームズ・アルバレス)氏は述べた。「第一に、ゲーム開発プラットフォームを安全かつ一貫して即座に有効または無効にする能力。第二に、需要に基づきインフラを拡張・縮小する能力。これら両方により、顧客とビジネスの要求を完全にサポートすべくテクノロジーを変更できる。ラスベガスリージョンでは、Google Cloudサービスをもっと積極的に利用して、ネットワークへのエントリポイントを持つ利点を活かしたい」

画像クレジット:Maximilian Müller / Getty Images

[原文へ]

(翻訳:Mizoguchi

今年のデータセンターM&A総額が早くも2019年実績超え

全てのニュースが経済活動をマイナスに押し下げるものとなっているこの時期に、Synergy Research(シナジー・リサーチ)は23日、今四半期のデータセンターM&Aがかなり活発で、すでに2019年の実績を上回ったとする新たなレポートを発表した。

急増は主に、84億ドル(約9000億円)ものDigital Realty(デジタル・リアルティ)によるInterxion(インターシオン)の買収だ。Synergyによると、これはこれまでで最大のデータセンターM&Aで、このディールにより四半期の計28件の総額は150億ドル(約1兆6000億円)に押し上げられた。

年間総額が最も大きかったのは2017年で、200億ドル(約2兆1000億円)超だった。しかし今年この調子が続けば、2017年の記録はあっさりと塗り替えられそうだ。

当然のことながら、現在の経済状況ではそれが実現するかは保証されない。しかしクラウド使用が今後も堅調で、データセンター需要がすぐに弱まることがなさそうなのは明らかだ。実際、SynergyのチーフアナリストJohn Dinsdale(ジョン・ディンスデール)氏は、さらなるディールが間もなくクローズする見込みで、データセンターM&Aは引き続き増えると考えている。ディンスデール氏は、非常に活発な年になるはずだ、と話す。

「今年に入って4カ月もしないうちに、M&A金額はすでに2019年の実績を上回った。加えて、交渉を終えたディール17件がクローズ待ちであることも我々は把握している。ほかにも、数十億ドル規模の案件がいくつか動いている」とディンスデール氏は発表文で述べた。

そして「クラウドサービスのアウトソーシングの傾向やアグレッシブな成長は、データセンターの対応能力に対する需要をかつてなく押し上げている。これは業界再編と新たな投資資金源を探す必要性を生み出している」とも付け加えた。

Synergyは2015年からデータセンターM&Aの動きを追跡している。開始以来、計388件、総額900億ドル(約9兆7000億円)以上のディールがあった。外部の経済要因がどうであれ、これらの数字は今年増えるばかりのようだ。

画像クレジット: CasarsaGuru / Getty Images

[原文へ]

(翻訳:Mizoguchi

Facebookは人権侵害する国にデータを保管しない、ただしシンガポールを除く

Mark Zuckerberg(マーク・ザッカーバーグ)氏が3225ワードにわたる長文のブログ記事で、人権の守られていない国にはデータセンターを建設しないと宣言して間もなく、彼は約束を破った。

彼はシンガポールを例外扱いすることを選んだ。Facebookのファウンダーはわずか数ヶ月前の投稿で、「全員にサービスを提供」するために、同社にとってアジア初のデータセンターをこのミニ国家に作ると宣言した。

ザッカーバーグ氏は明快だった。「世界中に基盤を構築していく中で、われわれはプライバシーや表現の自由などの人権を侵害した歴史のある国にはデータセンターを置かないことに決めた」

シンガポールについて知られていることが2つあるとすれば、プライバシーも表現の自由もないことだろう。

その華やかさと経済力をよそに、シンガポールの人権の歴史は国際的認識のはるか下を行っている。人口500万人のこの国は人権団体による世界ランキングで最下位に近く、それは言論、表現、集会の自由に反対する圧政的法律と、 拡大する監視社会の元でのプライバシー権利の制限などが理由だ。さらに悪いことに、この国はLGBTQ+コミュニティーに対する残虐な扱いでも知られており、彼らの行動は極度に制限され、公衆でのあらゆる行動や表現は犯罪とみなされている。メディアさえも厳重な監視を受け、政府による懲戒や名誉毀損訴訟による脅迫が後を絶たない。

国境なき記者団は、シンガポールを「不寛容な政府」を持つ国であると言い、ヒューマン・ライツ・ウォッチはこの国の制限の厳しい法律を「ドラコンのように過酷」であると評している。

われわれはこうした指摘をFacebookにぶつけてみたが、同社はザッカーバーグ氏の発言が矛盾するとも偽善であるとも見ていない。

「データセンターをどこに新設するかは多段階のプロセスであり、再生可能エネルギー、インターネット接続、地元の強力な人材資源など、何十種類もの要素を考慮しなくはならない」とFacebookの広報担当者Jennifer Hakes氏は言った。「しかし最重要な要素は、その設備に保存されたあらゆるユーザーデータを、われわれが確実に守れることだ」

「これはザッカーバーグ氏が先週の投稿で強調した重要な点だった」とHakes氏は言った。「我々はシンガポールについてこれらの要素を慎重に検討した結果、アジア初のデータセンターに適切な場所であるという結論を下した」

皮肉なことに、Facebook自身のプラットフォームは、シンガポール政府によるよる口うるさい反対者の取締りの標的になっている。活動家のJolovan Wham氏は、Facebookページで 集会を組織した後に投獄された。集会許可申請が却下されたため、Wham氏は連絡手段をSkype通話に切り替えた。

Facebookに、どんな場合にある国の人権を容認できないのか尋ねたところ、ザッカーバーグ氏の投稿を再度指し示しただけだった。

シンガポールは今でもIT業界とビジネスにとって重要な拠点であり(特に欧米企業にとって)、そのため日頃プライバシーと言論の自由への強い意志を強調している会社も、人権を捨ててきた。AmazonMicrosoftGoogleDigitalOcean, Linode、およびOVHの各社はいずれもこのミニ国家にデータセンターを置いている。

しかし、現時点で人権の歴史に汚点のある国にデータを保存しないと公約しているのは1社だけだ。

なぜFacebookはシンガポールを例外にしたのか?これはザッカーバーグ氏にしかわからない謎だ。

[原文へ]

(翻訳:Nob Takahashi / facebook

AWSのクラウドをそのままオンプレミスのデータセンターに持ち込むAWS Outposts

AWSはつねに純粋なクラウドベンダーだったが、ときにはハイブリッドにも目を向け、そしてこれからはそれを全面的にサポートする気だ。今日同社はVMwareと共に、AWSをデータセンターに持ち込むためのオプションを発表した。

えっ?企業のデータセンターにAWS?…そう、そのとおり。これからは、あなたの会社のデータセンターにAWSを置ける。AWSのハードウェアを使用し、設計もAmazon本体のAWSとまったく同じになる。そのために、AWS Outpostsの二つのプロダクトを利用する。

二つとは、「VMware Cloud on AWS Outposts」と「AWS Outposts」だ。最初のは、VMwareのコントロールパネルを使う。そして後者は、AWSのクラウドで使われているのと同じAWS APIを使って計算処理やストレージをオンプレミスで動かす。

実際にre:InventのステージにはVMwareのCEO Pat GelsingerとAWSのCEO Andy Jassyが一緒に立って、共同発表を行った。両社はかなり前から協働して、AWSのクラウドへVMwareを持ち込む作業を続けていた。しかし今回の発表ではそれが逆になり、AWSのクラウドをオンプレミスに持ち込んでVMwareと併用する。どちらの場合も、AWSはそのハードウェアをユーザーに売り、お望みならインストールもするし、メンテナンスも担当する。

これは、クラウドのビジョンをひたすら追うAWSにとって、後れていた分野だ。データセンターに戻るなんて! でも近年の暗黙の了解としては、近未来の顧客は両方の場所での運用を望むのだ。

この発表は、同社のクラウドネイティブ的ビジョンを拡張するものでもある。月曜日(米国時間11/26)に同社は、Transit Gatewaysを発表したが、それは、クラウドやオンプレミスなど、いろんなところにあるネットワークリソースを一元的に管理する仕組みだ。

そして今回AWSは、そのクラウドをオンプレミスに持ち込む。それは、MicrosoftやCanonical、Oracleなどなどが前からやっていたことだ。

なお、今日の発表は公開プレビューであり、本番のリリースは来年後半になるようだ。

more AWS re:Invent 2018 coverage

〔outpost, 前進基地。Amazonにとっての前進基地だ。〕

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Googleがシンガポールに三つめのデータセンターをオープン、将来の膨大なインターネット人口を想定

Googleは、東南アジアにおけるインターネットの成長が今後も持続すると推測し、今後の成長市場対応としてシンガポールに三つめのデータセンターを開くことになった。

それは同社がシンガポールに同国で二つめのデータセンターを開設してから三年後にあたる。その3年間に同社の推計では東南アジアの7000万の人びとがインターネットを初体験した。それにより、当リージョンのインターネットユーザーは3億3000万人になったが、東南アジアの総人口は6億5000万だから、成長の余地はまだまだ大きい。

ローカルなデータセンターの目的は、必ずしもその至近の近傍に奉仕することではない。アジアのデータセンターがアメリカのトラフィックを扱うこともあるが、しかしローカルな容量を増やしたということは、Googleのサービスや、Googleのクラウドで事業を営む企業にとって、その特定のリージョンのインターネットユーザーにより高速なサービスとトラフィックを提供できることを意味している。だからそれは、地元の利益であるだけでなく、Googのビジネスにとっても重要だ。Google Cloudのこの地域の著名なユーザー企業には、Singapore AirlinesやNinjavan, Wego, Go-Jek, そしてCarousellなどがいる。

この検索超大手のデータセンターは、東南アジアでは台湾にもある。最初は、台湾とシンガポールの共通の拡張先を香港に求める、という案があったが、用地を確保できず2013年に計画はぽしゃった

Googleの最初のシンガポールデータセンターは2011年にオープンし、Googleによると、今度の三つめを合わせるとシンガポールにおける総支出額はおよそ8億5000万ドルになる。 これに台湾を含めると、総支出額は10億ドルを超える。

関連記事: 東南アジアは世界で三番目に大きいインターネット市場だ…Googleらの調査報告より

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

マイクロソフトが海中にデータセンターを設置する理由とは

今週初め、マイクロソフトはプロジェクトNatickの第二段階を実行した。これは、海中に大規模なデータセンターを設置し、そのメリットや問題を検証するという実験だ。チームは、サーバーがぎっしり詰まった輸送コンテナほどのサイズのタンクをオークニー諸島沖に沈めた。今後数年間そのままにして、果たして将来のデータセンターとして有効な手段となるかどうかを見極める。

もし水をラップトップPCにこぼしたことがあるのならわかるかと思うが、当然ながらコンピューターと水というのは相容れない。だからサーバーの列を水中に置くというのは、奇妙なアイデアのように思える。しかし、マイクロソフトリサーチのBen Cutlerが、サーバーを設置するのに海底がうってつけの場所である理由を説明してくれた。

Cutlerいわく、ほとんどの人が海から200キロ以内の場所に住んでいる。そしてマイクロソフトはこれまで、多くの人が住んでいるところの近くにデータセンターを設置するというクラウド戦略をとってきた。再生可能エネルギーを作り出す大規模な風力発電施設が近くにあり、海中に設置することで冷却面で明らかにメリットがある(冷却コストはデータセンターを維持する上で大きなものだ)今回の取り組みは、理にかなっている。

私がCutlerに今回のプロジェクトの発端について尋ねると、彼は「マイクロソフトは、クラウドにかなりのエネルギーと時間、そしてもちろんお金も費やしてきた」と語り、「我々は常に刷新的な手法を探している。今回のアイデアはもともと、米国海軍の潜水艦で働いた経験があり、そしてテクノロジーについての知識も持ち合わせていた社員から生まれた。このアイデアをデータセンターに活用できるかもしれないということになったわけだ」と説明した。

そこでチームは2013年に第一段階の実験を実行した。それは、いくつかのサーバーを入れた小さな圧力容器を太平洋に沈めるというものだった。この実験では極めて良い結果が得られ、また周囲の海中生物にとって容器は好ましいものだったようだ。まず、この容器が周囲の水の温度を上げていないことが確認された。容器から数フィート離れたところの水の温度は数千分の1度(摂氏)高かっただけだった。それから騒音も、取るに足りないものだった。「容器から数メートルも離れると、海中でよく聞こえるテッポウエビの音など、周囲の音に囲まれることがわかった」とCutlerは語り、海というのは非常に影響を受けやすい環境であるために、こうした影響を測定するのがチームの仕事だったと強調した。「この容器が自然環境に受け入れられ、そして周辺に生息するカニやタコといった生物の住処となったこともわかった」。

今回の第二段階の実験を、チームはスコットランドで実施することにした。というのもスコットランドは欧州海洋エネルギーセンターの本拠地であり、陸と海で発電された再生可能エネルギーをサーバーを入れた容器に供給する設備がすでにあったからだ。

一度容器を水中に入れると、その後のメンテナンスはほぼ不可能だ。つまり、失敗するかもしれない、取り替えがきかないということを覚悟しなければならない。計画では、数年後に容器を回収し、新しいマシーンに取り替えて再び海中に設置する。

一方で、この実験の一環として、チームはどうやればサーバーを可能なかぎり長持ちさせられるかも検討した。というのも、容器の中のハードドライブが故障しても取り替えに行くことはできないからだ。その結果、腐食などを防ぐためにチームは容器の中に窒素を充填することにした。この影響を分析するため、マイクロソフトは同様の容器を陸上にも設置し、どれくらいシステムがうまくいくかを比べることにしている。

今回の実験では最先端のテクノロジーは使われていない、とCutlerは強調する。特殊なサーバーを使っているわけではなく、海中ケーブルや容器もごく普通のものだ。

今後について、Cutlerはこれらの容器を工場で組み立て式につくり、必要なところに送るという青写真を描いている。だからこそ、この容器は輸送コンテナサイズなのだ。チームは実際、ロジスティックチェーンをテストするために、容器をフランスで製造し、トラックに乗せて英国まで海上輸送した。

もちろん、これらがうまくいくかどうかはわからない。目下、チームはNatickの経済面を分析中で、これを本格採用するかどうかの判断はマイクロソフトAzureチームに委ねられる。Cutlerは「我々のゴールは、この手法が経済的に優れ、なおかつ望ましいものである、という状態にもっていくこと。それが達成されて初めて、製品チームがこの手法を使うべきか、どこで活用するかを決めることになる」と語った。

[原文へ]

(翻訳:Mizoguchi)

Appleはこれからの5年間で、米国内で3500億ドルの投資をすることを誓った

Appleは、この先5年で3500億ドルという投資を行い、米国経済に大きな後押しを行おうとしている。その一部として、今年単年で550億ドルの投資を確約し、その期間内に2万人の新しい雇用を増やす計画だ。Amazonに続いて、Appleは今年、米国内の何処かに新しいキャンパスを設置することも計画している。

沢山のニュースがある。まずは3500億ドルという大規模投資の話から始めよう。Appleによれば、この金額の中には、従業員の給与やApple製品の売上から発生する税金は含まれていない。

しかしその中には、Appleが海外に持つ、現在2560億ドル規模の現金を、米国に送金する際の税金は含まれているということだ。米国への送金によって発生する税額は380億ドルと予想されているが、その大部分は同社の資本支出となる。

手始めに、300億ドルが沢山のプロジェクトへ資金提供されるが、その中には前述のキャンパスの建築費用も含まれている。これにはまず、顧客のためのテクニカルサポートを収容する計画だ。Appleはこの新しい施設の場所を、今年の後半にアナウンスすると述べている。その際に作られる建物は、再生エネルギー源を全面的に採用したものになる予定だ。

しかし、これで終わりではない。現在既に稼働中あるいは計画中の7つのデータセンターに加えて、新しいデータセンター群のために、さらに100億ドルを投資するのだ。なおその7つとは、もうすぐアイオワに開設されるもの、ネバダ州リノで着工されたばかりのもの。そして既に稼働中のノースカロライナ、オレゴン、ネバダ、およびアリゾナのデータセンターの5つだ。(この数には、Appleが所有しておらず、運用もしていないコロケーション施設も含まれている)。

同社はまた、昨春に始めた先進製造業支援基金を、10億ドルから50億ドルに増額する計画も立てている。ここでのアイデアは、先進的な製造業務を米国中部地域(保守的で伝統的な価値観が支配的な地域)に持ち込むことだが、既にケンタッキーとテキサスでプロジェクトに資金提供を行っている。

最後に、Appleはコーディングへの取り組みを拡大し、K-12(小学校から高校まで)の生徒や教師たちや、全米のコミュニティカレッジの学生たちが価値あるコーディングスキルを身につけられるようにすることも計画している。

明らかにこの発表には、大規模な広報要素が含まれているものの、1民間企業の提供する投資額としては真に驚異的なものである。これにより新しい雇用が生まれ、地域の経済が刺激され、次世代の仕事のために学生たちを教育することができるだろう。これを否定することはできない。

原文へ
(翻訳:sako

FEATURED IMAGE: JOSH EDELSON/GETTY IMAGES

DropboxがAWSを捨てて独自のインフラとネットワークを構築した理由

企業内には、必要なものは何でも、自社で作るかあるいは購入するかについての緊張が常にある。数年前Dropboxは、必要とするインフラストラクチャの大部分をAWSから自社のデータセンターに移行することを決定した。想像できるように、それには大変な努力を要したが、自らの運命をコントロールできることの利点は、そこに到達するまでに直面する、すべての困難に見合う価値があると彼らは信じていたのだ。

まず第一に、Dropboxのような会社は、莫大な量のデータを保存している多数の顧客を扱っている。最新の数字によれば、5億人のユーザーと20万のビジネス顧客がいる。彼らが移行を行ったときには、AWSサーバーに置かれていた500ペタ(5のあとに0が17個続く)バイトという真に膨大な量のデータを移動させる必要があった(AWSはまだ一部のワークロードで使用されている)。

最初のステップは、それを置き換えるインフラを構築することだった。ここで話題にしているのは、わずか数十人のインフラチームを抱える、総勢1500人の会社のことだ。これは超大規模な作業ではなかったが、彼らがやろうとしていたのは、それまでは遥かに大きなチームを抱えたわずかな会社だけが成し遂げていたことを、自力で行なうということだった。

それには米国内の3つのデータセンターの建築と運用が含まれていた。またそれは、米国のデータセンターと世界中に散らばる他の施設の間をつなぐネットワークバックボーンの構築も意味していた。Dropboxを開いてファイルをリクエストしたなら、利用者はファイルが待ち時間なくほぼ即座にダウンロードされることを期待するだろう。古いシステムから新しいシステムへの移行が行われている最中も、それが確実に行われるかどうかはチームの腕次第だった。

「バックボーンについて見られる素晴らしい点は、おそらくGoogleやFacebookの中でも見つけることができるでしょう。しかし私たちはそれを彼らよりも小さなチームで成し遂げたのです」とTechCrunchに語るのは、Dropboxのプロダクションエンジニアリング責任者のDan Williamsだ。そしてその小さなチームは、すべてのサービスを継続的に運用しながら、バックボーンを構築して、すべてのコンテンツを移動しなければならなかった。

とはいえ同社は、インフラストラクチャーのコントロールを切望していたので、この大規模な作業を喜んで行ったのだ。Williamsは、このような決定を下す際には常に譲歩が必要なことは認めていたが、最終的にそれらのトレードオフは意味のあるものだった。「私たちの場合、それは品質とコントロールと管理に関するものでした。高い品質と性能を備えたしっかりした第三者がいることは分かっていますが、私たち自身のシステムも同じか、あるいは更に良いものだと感じています。なぜなら自分たちのシステムなのでその中身を良く知ることができるからです」。

Williamsによれば、Dropboxにとって、ネットワークを構築することはビジネス上の決定であり、全体的なビジネスにプラスの影響を与えたと語った。「このようなかなり規模のネットワークを実際に構築した者は、ビジネス上によい影響があると考えています。本当にユーザーの信頼を獲得することができますし、この高い品質のサービスに基く、更なるプロダクトやサービスへユーザーを迎えることができるからです」とWIlliamsは説明した。

新しいシステムは、確かに企業ITにおけるDropboxの評判にプラスの影響を与えた。過去を振り返ると、Dropboxは大規模な組織内での未許諾利用によって、しばしばIT部門から悪評を招いていた。今日では、Dropbox Businessの製品ラインが、企業のインフラストラクチャとネットワークを組み合わせて、これまでにないレベルの信頼性を実現している。Williamsは、Dropboxがネットワーク運用の詳細な洞察を得ていること、そして今回の変更でユーザーに新たな負担は求めなかったものの、その運用データはセールスに活用できていると語った。

「私たちの信念の1つは、高性能で低コストの製品を提供することです」彼はこれによって、この移行を通じて古い顧客を維持しつつ、ユーザーベースを増やすこともできたのだと信じている。

所有コストが実質的に下がったかどうかにはかかわらず、同社はそれを自ら構築することによって目標を達成できた考えている。「コストは常に考慮していますが、私たちのネットワーク拡張の目標は、ユーザーのためにパフォーマンス、信頼性、柔軟性およびコントロールを向上させることでした。これには成功することができたのです」と同社広報担当者はTechCrunchに語った。

自作するか購入するかの意思決定は決して簡単ではない。特に移行中に2つのシステムの間でバランスをとらなければならなかったDropbox程度の規模の会社にとっては。しかし現在振り返ってみれば、彼らにとっては十分に価値があったようである。

[ 原文へ ]
(翻訳:Sako)

FEATURED IMAGE: KYNNY/GETTY IMAGES

あなたの次のパソコンはデータセンターの中にあるかもしれない

パソコンのパワーや携帯性は日を追うごとに向上しており、ノートパソコンでも負荷のかかるタスクをこなせるようになった。一方で、回線速度も驚くほど速くなってきているため、データセンターにあるサーバーへ簡単にタスクの一部をアウトソースできるようにもなっている。

携帯アプリもすでにほとんどがサーバーコンポーネントを利用して、データの処理・保管を行っている。例えばFacebookに投稿された動画は、サーバー上で再度エンコードされるため、ユーザーはSDやHDなど複数のフォーマットで動画を楽しむことができる。

しかし私は、このトレンドが向こう数年間でさらに重要性を増してくると考えている。全てのデバイスは、近くのデーターセンサーのサーバー上で動いているものを映し出す、単なるスクリーンになるかもしれないのだ。

そんな未来の実現に向けたひとつめのステップが、世界中の回線速度とレイテンシーの大幅な改善だ。私は幸運にも人口が多くインフラも整備されたパリに住んでいるため、自宅の回線でも上下それぞれ250Mbps、800Mbpsの速度が出ており、有線接続であれば2ミリ秒以内にパリ中のデーターセンターにアクセスできる。

次に、私はここ何年間もスペックより携帯性を重視してきた。現在私はこの記事を、12インチの小さなMacBookで執筆している。軽くてファンレスのこのマシンは、以前使っていたMacBook Proにもほとんど負けないくらいパワフルだ。

できるだけ軽いデバイスを選びたいと思っている人は、今後しばらくはノートパソコンの劇的なパフォーマンス向上は見込めないだろう。しかし同時に、強力なGPUを必要とするタスクは増えている。クリエイティブ系の人であれば、画素数の多い写真や4K動画を編集しなければならないし、インターネットブラウザでさえ、以前よりも強力なプロセッサーを必要としている。

3つめに、企業はユーザーのコーディング経験の有無に関わらず、誰もが使えるようなサービスを開発しなければならない。例えばAdobeであれば、PhotoshopやPremiere Proといったアプリのクライアント版をリリースし、重いタスクは全てサーバー側で処理することができるだろう。希望者にこのようなサービスを提供するにあたって、Adobeのサブスクリプションモデルは完璧な土台のように感じられる。

現存するテクノロジーを使って、革新的なサービスを提供している企業も存在する。フランスのスタートアップBladeは、主にクラウドゲーム向けのShadowと呼ばれるサービスを運営中だ。彼らはサーバー向けのXeonプロセッサーを使って何千台もの仮想マシンを管理しており、ユーザーは月額32.7ドル(30ユーロ)で、Nvidia GTX 1070が1人ひとつずつ割り当てられたパーソナルインスタンスを手に入れられる。

当初私はレイテンシーや画像圧縮などの制約から、クラウドゲームが本当に成立するのか疑っていたが、彼らのサービスではWindows 10の本格的なデスクトップ環境の再現と素晴らしいネットワークパフォーマンスを実現できることがわかった。

Bladeはつい最近WindowsとAndroid向けのアプリをリリースし、現在はmacOS版アプリのほか、安価なCPUとさまざまなポートを搭載した専用デバイスの開発にも取り組んでいる。このデバイスがリリースされれば、ユーザーはパソコンを持っていなくてもShadowサーバー上の仮想マシンにアクセスできるようになる。

私もWindows機でShadowのアプリを使ってみたところ、すぐに別々の壁紙を使わなければいけないと気づいた。というのも、自分がローカルのマシンを操作しているのか、パリの近くにあるShadowのデータセンターにある仮想マシンを操作しているのか区別できなくなってしまったのだ。

Shadowインスタンスでゲームをプレイしているときは、ローカルのコンピュータには負荷がかからないので、ユーザーのノートパソコンは静かなままだ。そのため、重いタスクを外部で処理しているということを実感することができる。一方でBladeのような企業は、強固なプライパシーポリシーとセキュリティシステムを備えていなければならない。

CPUやGPU、SSDの性能は今後も向上していくだろうし、クラウド企業はそれを利用してより優れたサーバーを提供できるようになる。

逆に光ファイバーとLTEが組み合わさることで、常時接続が当たり前となる中、インフラの重要性はさらに高まっていくだろう。全てのデバイスでギガ回線を利用できるようになれば、未来に住んでいるような気分になるはずだ。

原文へ

(翻訳:Atsushi Yukutake/ Twitter