毎秒1.7ペタビット、既存技術の7倍の容量を可能にするマルチコアファイバーによる光海底ケーブルの5つの基盤技術を確立

毎秒1.7ペタビット、既存技術の7倍の容量を可能にするマルチコアファイバーによる光海底ケーブルの5つの基盤技術を確立

KDDI総合研究所は3月28日、1本の光ファイバーの中に複数のコアを持つマルチコアファイバーで大容量化した光海底ケーブルの実用化に向けた各種技術の開発と実証を行い、基盤技術を確立したことを発表した。これにより、アジア域をカバーする3000km級の光海底ケーブルを、既存システムの7倍(毎秒1.7ペタビット程度)に容量を拡大できるという。2020年代半ばの実用化を目指す。

KDDI総合研究所、東北大学住友電気工業古河電気工業日本電気(NEC)、オプトクエストの6機関は、総務省の委託研究として大容量光海底ケーブルの研究開発を行っている。5Gサービスの普及に伴うモバイルデータ通信の増加やデータセンター間の通信需要の増大などを背景に、国際通信の回線需要が増大しているが、それに対応するためには海底ケーブルにより多くの光ファイバーを通す必要がある。しかし、光ファイバーの本数を増やせばケーブルの外径が大きくなり、敷設が困難になる。そこで、1本のファイバーで複数の通信が可能となるマルチコア(多芯)ファイバーを使い、外径はそのままで容量を増やす技術が求められてきた。上記の6機関は、世界に先駆けてその基盤技術を確立し、実証を行った。

このシステムは、5つの基盤技術で構成されている。その第1が4つのコアを持つ光ファイバーだ。2020年11月に古河電気工業とKDDI総合研究所が開発した技術で、コア間の信号干渉を抑えることで損失は世界最小級となる1kmあたり0.155dB(デシベル)を実現し、クロストーク(混線)は100kmでマイナス60dBを達成。毎秒109Tbit(テラビット)の信号を3120km以上伝送でき、毎秒56Tbitの信号を1万2000km以上伝送できることを実証した。

第2の技術は、このマルチコアファイバーを収容した光海底ケーブルだ。2021年10月、NEC、OCC、住友電気工業は、マルチコアファイバーを32芯収容した海底ケーブルを開発し、水中で長距離の伝送試験を行った。ケーブルにした状態でも、マルチコアファイバーの光学的特性に大きな変化はなく、良好な伝送性能を得ることができた。

第3は、マルチコアファイバーの統制評価技術。マルチコアファイバーの依存損失とクロスオーバーの評価を行う波長掃引法と、損失、クロストークの長手分布を評価するOTDR法という2つの技術を開発した。

第4は、空間多重型高密度光デバイス。4コアファイバー用アイソレーター内蔵Fan-in/Fan-out(ファンイン/ファンアウト)デバイス、4コアファイバー用Fan-out付きTAPモニターデバイス、4コアファイバー用O/E変換器付きTAPモニターデバイスの3種類の光増幅装置を開発し、1つの複合機能デバイスに集約した。これにより、世界最高水準の低損失と小型化を実現させた。

第5は、マルチコア光増幅中継方式。シングルコア光増幅器をベースに作られた従来のマルチコア光増幅器は、コアの数だけ増幅装置が必要であり、コア数が増えればそれだけ大型化するという課題があった。新しく開発されたマルチコア光増幅器は、1つの増幅装置で複数のコアを一括して増幅できるクラッド励起方式を採用し、体積を従来の半分程度に収めることに成功した。

これらを統合することで、既存システムの7倍となる毎秒1.7ペタビットほどの容量拡大が可能になることが確認されている。今後は、マルチコアファイバーの量産化技術の開発、長期信頼性の検証、運用保守技術の開発を進め、2020年代半ばの実用化を目指すとしている。

サーバーのクロックを同期するClockworkがその技術の応用プロダクトをローンチ

膨大な数のサーバー隊列のクロックの同期は、解決済みの問題と思われるかもしれないが、実は今なお難しい問題で、特に要求がナノ秒クラスの精度という場合は難しい。そしてこのことはまた「クロックの時間に基づくシステムを作ってはならない」という命題が、コンピューターサイエンスの公理であり続けている理由でもある。米国時間3月16日、2100万ドル(約25億円)のシリーズAの資金調達ラウンドを発表したClockwork.ioはこれを、ハードウェアのタイムスタンプでは5ナノ秒、ソフトウェアのタイムスタンプでは数百ナノ秒という同期精度でこの状況を変えようとしている。

その技術に基づいて同社は本日、ユーザーにクラウド上やオンプレミスそしてハイブリッドの環境で、レイテンシーが極めて地裁データを提供する最初のプロダクトLatency Senseiをローンチした。ユーザーはそのようなデータを使って自分のネットワークのボトルネックを見つけ、チューンナップすることができる。同社の顧客にはすでにNASDAQやWells Fargo、RBCなどがいる。

画像クレジット:Clockwork

同スタートアップはYilong Geng(イーロン・ゲン)氏とDeepak Merugu(ディーパック・メルグ)氏、そしてスタンフォード大学の「VMwareの創業者たちのコンピューターサイエンス教授」と呼ばれるBalaji Prabhakar(バーラージー・プラバカール)氏らが創業し、VMwareの共同創業者でスタンフォードのコンピューターサイエンス教授であるMendel Rosenblum(メンデル・ローゼンブラム)氏が取締役およびチーフサイエンティストになっている。この由緒正しい顔ぶれからもわかるように、Clockworkのシステムは、チームがスタンフォードで行った学術的な基礎研究がベースとなっている。

今日の多くのコンピューターがクロックの同期に使っているNetwork Time Synchronization Protocol(NTP)と呼ばれる標準形式は至るところで使われているが、あまり正確ではない。その改良はこれまでも行われており、たとえばFacebookは2021年、ハードウェアによるソリューションをOpen Compute Projectに寄贈したが、Clockworkのチームは、それよりもはるかに高い精度を自負している。

プラバカール氏の説明によると「データセンターの中で1秒の違いが生じることもある。私のスマートフォンとこのベースステーションの秒はおそらく合っているでしょう。しかし、もっと細かく、マイクロ秒やナノ秒になると、それらを合わせることは難易度は上がります。2つのクロックが指す時刻を、ナノ秒まで正しくすることは、とても難しいことです。しかも、同期は一瞬実現するだけでなく、両者の同期を維持しなければなりません。気温の変化や振動の影響を受けない高精度のクロックをサーバーに装備することは可能ですが、そんなクロックはすぐにサーバー本体よりも高価なものになります」。

画像クレジット:Clockwork

この問題を解決するためにチームは、タイムスタンプが任意のサーバーに到着するのに要する時間を極めて正確に計測できるシステムと機械学習のモデルを開発した。NTPとそれほど違わないものだったが、チームはさまざまなタイムスタンプ使って改良し、さらにクロックのオフセットと周波数の相対的な違いも考慮に入れた。そして、それらすべてを機械学習のモデルに入れる。そしてチームは、異なるクロックが互いに会話して、同期してないことや自分たちが正しいことを検出できるシステムも開発した。

信頼できるタイムスタンプがないため、これまでの分散システムはクロックのない設計に依存してきた。しかしそれによって、複雑なシステムがさらに一層複雑になった。Clockworkのチームは、彼らの仕事によって研究者たちが、データベースの一貫性とか、イベントの正しい順序、コンセンサスのプロトコル、各種の台帳など、多くの問題領域で時間をベースとする新しいアルゴリズムを実験できるようになる、と期待している。ローゼンブラム氏とプラバカール氏のチームによる最初の研究は、分散システムでクロックを信頼できるなら何ができるか、という問題に集中していた。

「現在、GoogleのSpannerやCockroachDBなど、あるいは一部のデータベース関連の仕事をしている人以外は時間を使っていない。しかし、今後は時間が重要な課題があちこちで出てくるでしょう。それらにうまく対応するためには時間の同期が重要であり、正しく行う方法を私たちは研究開発しています。そこで私たちは、このようなシステムを別の方法でプログラミングするようになるのではと考えています」。

同期化の問題を解決したと信じているClockworkは、今度のLatency Senseiを嚆矢として、それを利用するプロダクトを作ろうとしている。しかしプラバカール氏が念を押すのは、チームはすでに、データセンター内の渋滞を容易に検出できるプロジェクトに取りかかっているということだ。彼によると、TCPはワイドエリアネットワーク(WAN)には向いているが、データセンターの中で使うのはまったくの浪費だ。しかしネットワークとそのレイテンシーについてもっとよく知れば、データセンターの中でパケットをルートする最良の方法を同社のシステムで見つけて、TCPプロトコルにヒントを与えることができるかもしれない。同社のシリーズAをリードしたのはNEAで、さらに著名なエンジェル投資家であるMIPSの共同創業者John Hennessey(ジョン・ヘネシー)氏、初期のGoogleの投資家Ram Shriram(ラム・シュリラム)氏、そしてYahooの共同創業者Jerry Yang(ジェリー・ヤン)氏が参加した。

画像クレジット:MirageC/Getty Images

原文へ

(文:Frederic Lardinois、翻訳:Hiroshi Iwatani)

東京都市大学、磁気ヘッドの誤差を減らしデータセンター用HDDを30%大容量化する技術を開発

HDDの磁気ヘッドは、ボイスコイルモーター(VCM)とピエゾ素子(PZT)を用いた2つのアクチュエーターによって制御される

HDDの磁気ヘッドは、ボイスコイルモーター(VCM)とピエゾ素子(PZT)を用いた2つのアクチュエーターによって制御される

東京都市大学は2月21日、インターネットのデータセンターで使われるHDDを、現行から30%大容量化する技術を開発したと発表した。ディスクにデータを読み書きする磁気ヘッドの位置決め精度を改善し、単位面積あたりの記録密度を向上させるという。

東京都市大学理工学部機械システム工学科の藪井将太准教授と、千葉工業大学工学部の熱海武憲教授らからなる研究グループは、磁気ヘッドの位置決め制御系に着目し、ディスク上の1bitあたりの物理サイズを小さくすることを目指した。HDDのディスクのサイズは規格化されているため、容量を増やすには記録密度を高めるしかない。ディスク上の1bitの記録サイズは、磁気ヘッドの位置決め精度によって決まる。そこで、磁気ヘッドを正確に制御する必要がある。

HDDの磁気ヘッドは、ボイスコイルモーター(VCM。Voice Coil Motor)とピエゾ素子(PZT)を用いた2つのアクチュエーターによって制御されるが、研究グループは、これらの制御性能を最大限に引き出すコントローラーを設計した。それにより、その位置決め精度は、現行の精度に比べて30%向上した。この技術を使えば、現行で18〜20TB(テラバイト)の記録容量を、25TB程度まで増大できる。

磁気ヘッドの位置誤差信号

現時点でのHDD容量とデータセンターの消費電力の関係

現時点でのHDD容量とデータセンターの消費電力の関係

身の回りのガジェットではHDDがSSDに急速に置き換わっているが、データセンターでは今後もしばらくHDDが使われてゆく見通しだ。だが、現在のデータセンターは膨大な電力を消費し、大量の熱を発するなど、環境への影響が問題視されている。そこでこの技術を導入すれば、データセンターのHDD稼働台数を減らして効率化し、消費電力を低減できるということだ。

北極圏にデータセンターを構えて実質無料で冷却、Neu.roはゼロエミッションの機械学習モデル構築ソリューションを発表

企業が機械学習を活用してビジネスをより効率的に運営しようとする動きはますます活発になっているが、機械学習モデルの構築、テスト、稼働には膨大なエネルギーを必要とすることも事実だ。アーリーステージのスタートアップ企業でフルスタックのMLOps(エムエルオプス、機械学習運用基盤)ソリューションを手がけるNeu.ro(ニューロ)は、より環境負荷の少ないグリーンなアプローチに取り組んでいる。

同社は米国時間11月22日、フィンランドのクラウドインフラストラクチャパートナーであるatNorth(アトノース)とともに、ゼロエミッションのAIクラウドソリューションを発表した。

同社によると、atNorthはティア3に適合するISO 27001認定のデータセンターを提供し、そこでNVIDIA(エヌビディア)A100を搭載したDGXおよびHGXシステムを稼働させるという。80MWの電力容量を持つこのデータセンターは、すべて地熱と水力エネルギーで稼働している。さらに、北極圏に位置しているため、実質的に無料で冷却することができ、Neu.roのソリューションを使用して機械学習モデルを構築する顧客に、エネルギー効率の高いソリューションを提供できる。

Neu.roの共同設立者であるMax Prasolov(マックス・プラソロフ)氏によると、この問題を調査した結果、コンピューティングとテレコミュニケーションが世界の総エネルギー消費量の約9%を占めており、この数字は今後10年間で倍増する可能性があることがわかったという。プラソロフ氏らは機械学習モデルの構築がその中でも重要な役割を果たすと考え、自社の二酸化炭素排出量を削減するために、atNorthと提携することを決めた。

「当社ではすべてのオペレーションとすべての実験を、ゼロエミッションのクラウドに移行することに決めました。目標は、クレジットを購入して使用量を埋め合わせることができるカーボンニュートラルではありません。問題は、どうやってゼロエミッションを達成するかです。私たちは、顧客のために機械学習モデルをトレーニングする際に、非常に多くのエネルギーとコンピューティングパワーを費やしていることに気づきました。それこそが、間違いなく、我々が排出している最大のカーボンフットプリントであることを理解したのです」と、プラソロフ氏は述べている。

その一方で、同社はソフトウェアソリューションを通じて、より効率的な方法でモデルを構築する方法を考え出した。これによって必要なエネルギー量を削減し、さらに持続可能なソリューションを提供することが可能になる。

製品自体については、同社は柔軟性のあるクラウドネイティブなサービスを提供しており、そこでツールの一部を提供するものの、企業が自分たちにとって最適と考える方法で補う余地を十分に残している。

「当社のアプローチは、データの取り込みから、モニタリング、説明可能性、パイプラインエンジンなど、構築が必要なツールをすべて1つずつ構築するのではなく、相互運用性を重視しています。まだ構築されていないものを構築し、すでに存在するKubernetes(クバネティス)によるツールのユニバースに接続します」と、同社の共同設立者である Arthur McCallum(アーサー・マッカラム)氏は説明する。

このスタートアップ企業は現在、商用のソリューションを提供しているが、オープンソース版のスタックにも取り組んでおり、まもなく、おそらく年内にはリリースされる見込みだ。同社の目標は、Amazon(アマゾン)、Microsoft(マイクロソフト)、Google(グーグル)というビッグ3以外の小規模なクラウドベンダーに、クラウドベースのAIソリューションを提供することである。これには世界各地の地域的なベンダーも含まれるだろう。

Neu.roは2019年に創業し、2020年にソリューションの最初のバージョンを公開した。これまでにシード資金として230万ドル(約2億6500万円)を調達しているという。

画像クレジット:a-image / Getty Images

原文へ

(文:Ron Miller、翻訳:Hirokazu Kusakabe)

慶應が通信エラーフリーのプラスチック光ファイバー開発、データセンター通信の次世代標準PAM4伝送を誤り訂正なしで成功

慶應が通信エラーフリーのプラスチック光ファイバー開発、データセンター通信の次世代標準PAM4による通信に誤り訂正なしで成功

慶応義塾大学の慶応フォトニクス・リサーチ・インスティテュート(KPRI)小池康博教授らの研究グループは、通信エラーをほとんど発現しないプラスチック光ファイバー(エラーフリーPOF)を開発したことを発表した。100m以内の短距離通信において、データセンター通信の次世代標準となるPAM4(4値パルス振幅変調)方式による毎秒53ギガビットの信号の伝送を、誤り修正機能を使うことなくエラーフリーで実現した。

光ファイバーは、通信速度が上がるにつれ、光の拡散やノイズの影響が大きくなり、誤データを補正する誤り訂正機能や波形成型回路が必要となることから、それによる消費電力の増大や通信の遅延が問題になっている。大量の高速通信が求められるデータセンターなどでは、電線に比べて格段に低損失なガラス光ファイバーが使われているのだが、光ファイバーには光伝送固有のノイズや問題が存在し、PAM4導入のネックになっている。通常、デジタル通信は0と1の2値で行われるが、PAM4では0、1、10、11の4値で行うため、通信速度が格段に高くなる代わりにノイズの影響を受けやすくなるのだ。

光ファイバーにはガラスとプラスチックの2種類がある。プラスチック光ファイバーは、安価で柔軟性が高く、信号強度がガラス光ファイバーよりも高いという利点がある一方で、光通信で問題となる光の散乱はガラスのほうが低く、特に長距離通信ではガラスが優れている。しかしKPRIでは、かねてより「屈折率分布型プラスチック光ファイバー」を提案しており、それをさらに進めて「内部にミクロ不均一構造を形成し、前方光散乱を介して効果的なモード結合を誘起する」ことによりノイズや歪みを大幅に低減した。そうして、高速性と低雑音性を兼ね備えたエラーフリーPOFが誕生した。

エラーフリーPOFは、通信の遅延、発熱、コスト上昇の原因となる補正回路がいらなくなるばかりか、データセンターの省電力化、自動運転車や作業用医療用ロボット、さらには8Kなどの大容量映像データ伝送に欠かせないリアルタイム通信が実現し、「次世代情報産業を支えるコアテクノロジーになる」とKPRIは話している。
慶應が通信エラーフリーのプラスチック光ファイバー開発、データセンター通信の次世代標準PAM4による通信に誤り訂正なしで成功

IBMが新型「Power E1080」サーバーを発表、エネルギー効率とパワーの劇的な向上を約束

強力なサーバーを稼働させる大規模なデータセンターでは、膨大な量の電力が使われていることを私たちは知っている。とりわけ気候変動が問題になっている今、電力消費量を削減できるのであれば、何であれ歓迎すべきことだ。その点においても注目されるのが、最新の「Power10」プロセッサーを搭載した新しい「IBM Power E1080」サーバーである。

IBMの主張によれば、競合する126台のサーバーで行っていた作業を、たった2台のE1080に集約することで、エネルギーコストを80%削減できるという(同社推定)。さらに同社は「この新サーバーは、主要なSAPアプリケーションのパフォーマンスを測定するSAPベンチマークにおいて、x86ベースの競合サーバーが使用するリソースの半分しか必要とせず、40%の差をつけて世界新記録を達成した」と述べている。

Moor Insight & Strategy(ムーア・インサイト・アンド・ストラテジー)社の創設者兼主席アナリストで、チップ業界に詳しいPatrick Moorhead(パトリック・ムーアヘッド)氏は、このシステムが達成できることについてのIBMの大胆な主張は、ハードウェア設計の観点から見て納得がいくと語っている。「SAP、Oracle(オラクル)、OpenShift(オープンシフト)のワークロードについての同社の主張は、同じ性能を得るために必要なソケットや物理プロセッサの数が単純に少なくて済むという点で、まずは納得できるものでした。これらの数値は、(将来的に)Sapphire Rapids(サファイアラピッズ)に置き換えられることになっているIntel(インテル)のCascade Lake(カスケードレイク)と比較したものです」と、同氏は述べている。

IBMのPower Systems Group(パワー・システムズ・グループ)でバイスプレジデント兼ビジネスライン・エクゼクティブを務めるSteve Sibley(スティーブ・シブリー氏)によれば、この新しいサーバー(およびそれを実行するPower10チップ)は、スピード、パワー、効率、セキュリティの組み合わせを求める顧客のために設計されているという。「ここで我々が提供する拡張性とパフォーマンスは、お客様の最も高い要求に迅速に対応して拡張でき、機敏性をさらに高めることが可能です」と、同氏は述べている。

顧客に用意された選択肢としては、E1080サーバーを買い取り、企業のデータセンターに設置することもできるし、あるいはIBMのクラウド(場合によっては他社のクラウドも)からサービスとしてサーバーアクセスを購入することもできる。または、サーバーをレンタルして自社のデータセンターに設置し、分単位で支払うことでコストを軽減することも可能だ。

「当社のシステムは、いわゆる購入のベースコストという観点からすると少々高価ですが、当社ではお客様が実際に(E1080サーバーを)サービスベースで購入し、分単位の粒度で料金を支払うこともできるようにしています」と、シブリー氏は語る。

さらに、Power10チップをベースに初めて発売されるこのサーバーは、内部でRed Hat(レッドハット)のソフトウェアが動作するように設計されており、このことはIBMが2018年に340億ドル(約3兆7000億円)で買収したRed Hatに新たな活躍の場を与えている。

関連記事:IBMが約3.7兆円でRed Hat買収を完了

「Red Hatのプラットフォームをこのプラットフォームに導入することは、RHEL(Red Hat Enterprise Linux、レッドハット・エンタプライズ・リナックス)オペレーティングシステム環境からだけでなく、OpenShift(オープンシフト、同社のコンテナプラットフォーム)からも、アプリケーションをモダナイズするための重要な手段となります。また、当社のRed Hat買収とそれを活用することのもう1つの重要な点は、Red HatのAnsible(アンシブル)プロジェクトや製品を活用して、当社のプラットフォームの管理と自動化を推進していくということです」と、シブリー氏は説明する。

2020年4月にIBMのCEOに就任したArvind Krishna(アービンド・クリシュナ)氏は、一部のコンピューティングがクラウド上に存在し、一部がオンプレミスに存在するハイブリッド・コンピューティングに会社の重点を移そうとしている。今後は多くの企業が何年もの間、同じ状況になるだろう。IBMは、Red Hatをハイブリッド環境のマネジメントプレーンとして活用し、さまざまなハードウェアおよびソフトウェアのツールやサービスを提供したいと考えている。

Red HatはIBMの傘下で独立した企業として活動を続けており、顧客にとって中立的な企業であり続けたいと考えているものの、ビッグブルーは可能な限りその提供物を活用し、自社のシステムを動かすために利用する方法を模索し続けている。E1080はそのための重要な手段を提供することになる。

IBMによると、新型サーバーの注文受付は直ちに開始されており、納品は2021年9月末より始まる見込みだという。

画像クレジット:IBM(Image has been modified)

原文へ

(文:Ron Miller、翻訳:Hirokazu Kusakabe)

さくらインターネットが石狩データセンターの主要電力をLNG発電に変更、年間CO2排出量の約24%にあたる約4800トン削減

さくらインターネットが石狩データセンターの主要電力をLNG発電に変更、年間CO2排出量の約24%にあたる約4800トンを削減

クラウドコンピューティングサービスのさくらインターネットは6月21日、北海道石狩市・石狩データセンターの電力調達先について、LNG(液化天然ガス)火力発電を主体とする電力会社に6月より変更したと発表した。これにより、石狩データセンターの二酸化炭素(CO2)年間排出量を約4800トン削減できるという。

サーバー室面積5000平方m2以上、ラック単位の電力供給量が6kVA(キロボルトアンペア)以上の大規模データセンター、いわゆる「ハイパースケールデータセンター」は、IDC Japanが2021年5月に発表した調査報告によると、2021年から2025年までの日本国内での平均成長率は、床面積ベースで28.8%になると予測されている。またハイパースケールデータセンターは消費電力も大きく、「電力キャパシティベース」での年間平均成長率は面積ベースよりも高い37.2%と見積もられている。そのため、ハイパースケールデータセンターにはサステナブルな対応が求められている。

さくらインターネットの石狩データセンターは、2011年の開所以来、北海道の冷涼な気候を活かした外気による冷却や排熱利用など、サステナビリティーに積極的に取り組んできた。その影響で、都市型データセンターと比較して約6割まで電力量を削減しているという。今回、LNG火力発電に切り替えることで、二酸化炭素排出量は、従来の24%にあたる4800トンが削減可能となる。「『やりたいこと』を『できる』に変える」との企業理念の下、今後もサステナブルなデータセンター運営を通じて社会のDXを支えてゆくと、同社は話している。

関連記事
パナソニックが世界で初めて純水素型燃料電池を活用したRE100化ソリューションの実証実験を開始
クラウド需要の急増が突きつけるグリーンエネルギーの課題
データセンターの膨大な電力需要を補うための液浸冷却技術にマイクロソフトが参入
アップルが世界中の製造パートナー110社以上が製品製造に利用する電力を100%再生可能エネルギーに変更と発表
マイクロソフトが2030年までに事業展開地域で利用する以上の水を生態系に戻すことを宣言
マイクロソフトがProject Natickで海底データストレージの実行可能性を確認、乾燥地と比べて信頼性が最大8倍
グーグルが2030年までにカーボンフリーエネルギーのみを利用する目標を設定
アップルは製品とサプライチェーンを含む事業全体を2030年までにカーボンニュートラルにすると発表
Amazon、2030年までに出荷の50%をカーボンニュートラルにすると宣言
さくらインターネットがブロックチェーン環境をベータ提供、石狩・東京で分散

カテゴリー:EnviroTech
タグ:SDGs(用語)さくらインターネット(企業・サービス)持続可能性 / サステナビリティ(用語)電力 / 電力網(用語)データセンター(用語)二酸化炭素排出量 / カーボンフットプリント(用語)日本(国・地域)

元インテル社長が創業したAmpereが同社初のデータセンターとクラウド専用カスタムチップを構想中

Armベースのチップをデータセンターやエッジに売り込もうとしているAmpereが米国時間5月19日、例年のメディアデーを開催した。80コアのAltraと128コアのAltra Maxで同社は、ライバルのIntelやAMDに多くの共通のシナリオで勝るプラットフォームをすでに提供しており、そしてAltra Maxは現在では量産と一般販売を始めている。ただしこれらのチップは、ARMの標準アーキテクチャであるNeoverse N1がベースだが、しかしこれから同社は、5nmのプロセスによる独自のAmpere Coreをローンチしようとしている。

Intelに26年在籍し、その後Ampereを創立したRenee James(レネイ・ジェームズ)氏は次のように述べている。「AltraとAltra MaxはArmのN1コアがベースです。弊社はアーキテクチャのライセンシーであり、またIPのライセンシーでもありますが、今日はうちのメディアデーであり、弊社独自のコアについて話しましょう。何をどうやって、なぜ作っているのか、そしてそもそもクラウドネイティブのプロセッサーとはどういうものか?について。AppleのPCのM1についてみなさんが考えるように、私たちはその自社製コアについて考えたいと思っています。クラウドのデータセンターサーバー用のAmpere Coreのことです」。

128コアのAltra Maxは、Ampereによれば、AMD Rome CPUに比べて1コアあたりの消費電力が50%低く、たとえばウェブサーバーのNGINXを動かした場合パフォーマンスは1.6倍になる。同じベンチマークをIntelのCascade Lake Refresh CPUに対してやると、結果はさらに良い。AMDのRomeがローンチしたのは2019年8月で、IntelのCascade Lake Scalable Performance Refresh CPUは2021年の2月以降、市場にある。

AmpereのCPOであるJeff Wittich(ジェフ・ウィッチッチ)氏は次のようにいう。「重要なのはクラウド用のCPUというものを作って、クラウドネイティブなワークロードの現在と未来のニーズに応えること、そのためのソフトウェア開発とインフラストラクチャーのデプロイを支えることです。それは私たちにとっては、さまざまなワークロードに対して正確な予測性があり、計算処理とメモリと入出力とネットワーク関してスケーラビリティが高く、そして極めてエネルギー効率の高いプラットフォームを作ることに帰結します」。

画像クレジット:Ampere

ウィッチッチ氏によると、Ampere独自のコアの開発を常に計画している。それは主に、極めて特殊なユースケースのための極めて特殊なプロダクトを提供できるためだ。「イノベーションのためにはコアの自主開発が非常に重要であることは、最初からわかっていました。主な理由は、クラウドにフォーカスしていることです。その他の市場、中でもクライアントや、クラウド以外のサーバーには関心がありません。クラウドに特化したコアを開発することが、私たちにとって実に重要なのです」とウィッチッチ氏はいう。

クラウドを運用しているAmpereの顧客は、たとえばセキュリティの機能や、実行性能と電力消費を管理できる機能の搭載を求めている。ウィッチッチ氏が強調するのは、そういう機能が正しく動くためにはマイクロアーキテクチャのレベルでの内蔵が必要なことだ。しかもそれによって、実行性能の最適化もできる。

「クラウドが求めることをプロセッサーができるためには、自社独自のコアを開発しなければならない」、とウィッチッチ氏は主張する。そのAmpere CoresはたとえばメモリI/Oの帯域が極めて高くて、しかもクラウドというユースケースに向けて最適化されているだろう。ハイパフォーマンスコンピューティングのユースケースではなくて。

画像クレジット:Ampere

創業者のジェームズ氏も同意見だ。顧客はそんな機能を求め、そしてAmpereの競合他社はそれらを提供するだろう。「クラウド事業はかなり特殊であり、顧客の要求は厳しい。だから開発には絶え間ないリズムが必要であり、極めて良質なプロダクトを作っている顧客とも競合することになる」と彼女はいう。

現在、AmpereはMicrosoftやOracle、Tencent Cloudなどが顧客であり、この戦略は功を奏しているようだ。噂ではMicrosoftがArmベースの独自のチップを開発しているというが、皮肉にも今回のAmpereのメディアデーで同社は、AzureをAltraで動かす準備を進めていると語った。

カテゴリー:ハードウェア
タグ:AmpereArmデータセンター

画像クレジット:xia yuan/Getty Images

原文へ

(文:Frederic Lardinois、翻訳:Hiroshi Iwatani)

エネルギー事業で余った天然ガスを利用し暗号資産のマイニングに電力供給するCrusoe Energy

Crusoe Energy(クルーソーエナジー)の2人の創業者が、今日の地球が直面している2つの大きな問題、すなわちハイテク産業のエネルギー使用量の増加と、天然ガス産業に関連した温室効果ガスの排出に対する解決策を見つけたかもしれない。

エネルギー事業で余った天然ガスを利用してデータセンターや暗号資産のマイニング事業に電力を供給するクルーソーは、事業の拡大に向けて、つい最近ベンチャーキャピタル業界のトップ企業から1億2800万ドル(約139億6396万円)の新規資金を調達したところであり、これはこれ以上なく良いタイミングだ。

温室効果ガスの排出量を削減し、地球温暖化をパリ協定で定められた1.5℃以内に抑えることを目指す研究者や政策立案者にとって、メタンガスの排出は新たな注目分野となっている。クルーソーエナジーはまさにこのメタンガス排出を使用してデータセンターやビットコインマイニングへの電力供給を行おうとしている。

メタンの排出量を削減することが短期的に非常に重要である理由は、メタンの温室効果ガスは二酸化炭素の温室効果ガスに比べてより多くの熱を閉じ込め、またより早く消散するからだ。そのため、メタンの排出量を劇的に削減できれば、人間の産業が環境に与えている地球温暖化の負荷を短期間で緩和することができる。

メタンを排出する最大の原因は、石油・ガス産業だ。クルーソーエナジーの共同設立者であるChase Lochmiller(チェース・ロックミラー)によると、米国だけでも毎日約3964万立方メートルの天然ガスが焼却されているという。焼却量のうち約3分の2はテキサス州で、さらに約1415万立方メートルはクルーソーがこれまで事業を展開してきたノースダコタ州で焼却されている。

米国の大手金融機関でクオンツトレーダーとして活躍していたロックミラーと、石油・ガス業界の3代目社長であるCully Cavness(カリー・カブネス)にとって、回収した天然ガスをコンピューターに利用することは、金融工学と環境保全という2人の関心が自然に結びついたものだった。

ノースダコタ州ニュータウン。2014年8月13日、ノースダコタ州ニュータウン近くのフォート・バートホールド・リザベーションにて、3つの油井と天然ガスのフレアリングの様子。1カ月に約1億ドル(約108億9600万円)相当の天然ガスが焼却されるのは、それを回収して安全に輸送するパイプラインシステムがまだ整備されていないからだという。フォート・バートホールドにある近親三部族は、マンダン族、ヒダーツァ族、アリカラ族から成る。ここは、フラッキングと、そこに住む多くのネイティブアメリカンに石油使用による収益をもたらしていた石油ブームの震源地でもある(画像クレジット:Linda Davidson / The Washington Post via Getty Images)

デンバー出身の2人は、予備校で出会い、その後も友人として付き合っていた。ロックミラーがマサチューセッツ工科大学に、キャブネスがミドルベリー大学に進学したときには、まさか一緒にビジネスを立ち上げることになるとは思ってもいなかった。しかし、ロックミラーは大規模なコンピュータや金融サービス業界に触れ、キャブネスは家業を継いだことで、天然ガスの大量廃棄に対処するためのより良い方法があるはずだという結論に達した。

クルーソーエナジーにまつわる会話は、2018年にロッキー山脈にロッキー・クライミングに行った際に、ロックミラーがエベレストに行った話をしたことから始まった。

2人がビジネスを構築し始めたとき、最初に注目したのは、ビットコインのマイニングで発生するエネルギー・フットプリントに対処するための環境に優しい方法を見つけることだった。この試みが、Olaf Carlson-Wee(オラフ・カールソン-ウィー、ロックミラーの元雇用主)が立ち上げた投資会社Polychain(ポリチェーン)や、Bain Capital Ventures(ベインキャピタル・ベンチャーズ)、新たな投資家であるValor Equity Partners(ヴェイラー・エクイティ・パートナーズ)などの目に留まった。

(この試みについては、私が同社のシードラウンドを取材する際にロックミラーが言及していた。当時、私はこの会社の前提に懐疑的で、この事業は炭化水素の使用を長引かせ、政府の崩壊に対する投機的なヘッジ目的以外には実用性が限られている暗号資産を支えているだけではないかと心配していた。しかし、少なくとも私の懐疑のうちの1つは間違っていたと言える)

ヴェイラー・エクイティの広報担当者はメールで以下のように述べている。「持続可能性についての質問ですが、クルーソーには、排出量を実質削減するプロジェクトのみを追求するという明確な基準があります。通常、クルーソーが担当する油井はすでにフレアリングしており、クルーソーのソリューションがなければフレアリングが続くでしょう。同社は、従来のパイプラインから低コストのガスを購入することになる数多くのプロジェクトを断ってきました。その需要と排出量の実質増加を望んでいないためです。さらに、マイニングは再生可能エネルギーへの移行が進んでおり、座礁資産であるエネルギーに対するクルーソーのアプローチは、座礁資産であり限界のある再生可能エネルギーの経済的価値を向上させ、最終的には再生可能エネルギーをより多く取り入れることができます。マイニングは、電力の需要が増加したときに削減できる中断可能なベースロード需要を提供することができるため、全体として、より多くの再生可能エネルギー源をグリッドに追加する動機付けとなる効果があります」。

その後、Lowercarbon Capital、DRW Ventures、Founders Fund、Coinbase Ventures、KCK Group、Upper90、Winklevoss Capital、Zigg Capital、Tesla(テスラ)の共同創業者であるJB Straubel(J.B.ストラウベル)といった投資家が加わっている。

同社は現在、ノースダコタ州、モンタナ州、ワイオミング州、コロラド州で、廃棄された天然ガスを動力源とする40のモジュール型データセンターを運営している。来年は、クルーソーがテキサス州やニューメキシコ州などの新しい市場に参入するため、その数は100ユニットに拡大する見込みだ。2018年の立ち上げ以来、クルーソーは、ビットコインマイニング、レンダリング、人工知能のモデルトレーニング、さらには新型コロナウイルス感染症の治療法研究のためのタンパク質のフォールディングシミュレーションなどのエネルギー集約型コンピューティングによってフレアを削減する、スケーラブルなソリューションとして登場した。

クルーソーは、メタンガスの燃焼効率が99.9%であることを誇っており、さらにデータセンターやマイニング現場でのネットワーク構築という新たなメリットももたらしている。将来的にはクルーソーの事業所周辺の農村地域の接続性向上にもつながる可能性がある。

現在、同社の業務の80%はビットコインマイニングに関するものだが、データセンター業務での使用の需要も高まっており、ロックミラーの母校であるMITをはじめとするいくつかの大学が、自校のコンピュータのニーズのために同社の製品を検討している。

ロックミラーはこう述べている。「今はまだ潜伏期の段階です。プライベート・アルファ版には、何人かのテストを行う顧客がいますが、2021年後半には一般のお客様にもご利用いただけるようになるでしょう」。

クルーソー・エナジー・システムズのデータセンターの運用コストは世界で最も低いはずだと、ロックミラーは述べている。同社は、データを顧客に届けるために必要なインフラ構築をサポートするために費用をかけるつもりだが、エネルギー消費量に比べれば、それらの費用は無視できるレベルだという。

これはビットコインマイニングにおいても同様で、中国で石炭を使ったマイニングを行う代わりに、(送電網の整備に使用されるのではない)再生可能エネルギーを使った新たな設備の建設という選択肢を提供できる。暗号資産業界は、その生成と流通にともなうエネルギー使用に対する批判をかわす方法を探しており、クルーソーはすばらしいソリューションとなる。

また、制度や規制面での追い風も同社を後押ししている。最近では、ニューメキシコ州が来年4月までにフレアリングとガス放散を事業者の生産量の2%以下に制限する新しい法律を可決した一方で、ノースダコタ州は現場でのフレアガス回収システムを支援するインセンティブを推進し、ワイオミング州はビットコインマイニングに適用されるフレアガス削減のインセンティブを設ける法律に署名した。世界最大の金融サービス企業もフレアガス対策に取り組んでおり、BlackRock(ブラックロック)は2025年までに日常的なフレアガスの発生をなくすよう呼びかけている。

ロックミラーは「電力消費量については、プロジェクトの評価段階で、石油・ガスプロジェクトの排出量を削減するための明確な線引きをしています」と語った。

カテゴリー:EnviroTech
タグ:Crusoe Energy温室効果ガス暗号資産データセンター資金調達電力

画像クレジット:Spencer Platt / Getty Images

原文へ

(文:Jonathan Shieber、翻訳:Dragonfly)

データセンターの膨大な電力需要を補うための液浸冷却技術にマイクロソフトが参入

LiquidStackもやっているSubmerもそうだ。どちらも地球を救うために、機密データを搭載したサーバーを液体に浸しているのだ。そしてついに、データセンターのエネルギー効率を向上させるため、世界最大級のハイテク企業であるMicrosoft(マイクロソフト)が液浸冷却市場に参入した。

マイクロソフトは、水の沸点よりも低い華氏122度(摂氏50度)で沸騰するように設計された自社開発の液体をヒートシンクとして使用し、サーバー内の温度を下げることで、オーバーヒートのリスクなしに、フルパワーで稼働できるようにしている。

関連記事
仮想通貨批判の的であるエネルギー消費量を95%も削減する二相式液浸冷却式データセンターを展開するLiquidStack
サーバーを特殊粘液に漬け込んで冷却、地球を救う新材料をスペイン拠点のSubmerが開発

沸騰した液体の蒸気は、サーバーを貯蔵するタンクの蓋にある冷却されたコンデンサーと接触して、再び液体に戻る。

「当社は、本番環境で初めて二相浸漬冷却を行ったクラウドプロバイダーです」。ワシントン州レドモンドにあるマイクロソフトのデータセンター先進開発チームのプリンシパルハードウェアエンジニアであるHusam Alissa(フサム・アリッサ)氏は、同社の社内ブログでそう伝えている。

とはいえ、液冷は熱を移動させてシステムを作動させる方法としてはよく知られているものだ。自動車の場合にも、高速道路を走行する際にはモーターの回転を維持するために液冷が使われている。

テクノロジー企業がムーアの法則の物理的限界に直面する中、より高速で高性能なプロセッサーが求められているため、より多くの電力を処理できる新しいアーキテクチャーを設計する必要がある、と同社はブログ記事の中で述べている。中央演算処理装置に流れる電力は、1チップあたり150Wから300ワW以上に増加した他、ビットコインのマイニング、人工知能搭載アプリ、ハイエンドグラフィックスの多くを担うGPUは、それぞれ1チップあたり700W以上を消費する。

液体冷却をデータセンターに応用した最初のハイテク企業はマイクロソフトではないということ、そして同社が最初の「クラウドプロバイダー」という分類を使用していることが大きな意味を持つということを強調しておきたい。というのも、ビットコインのマイニングには何年も前からこの技術が使われているからだ。実際、LiquidStackは、液浸冷却技術を商品化して大衆に提供するために、ビットコインマイニング業者からスピンアウトしたものだ。

「空冷では不十分」

プロセッサーに流れる電力が増えれば、チップの温度が上がり、冷却を強化しなければチップが故障してしまう。

「空冷では不十分なのです」。レドモンドにあるマイクロソフトのデータセンター先進開発グループのヴァイス・プレジデントのChristian Belady(クリスチャン・ベラディ)氏は、社内ブログのインタビューで説明している。「それが、チップの表面を直接冷却する液浸冷却を導入した理由です」。

ベラディ氏は、液冷技術を使用することで、ムーアの法則の密度と圧縮をデータセンターレベルにまで高めることができるのだ。

エネルギー消費の観点から見た結果はすばらしいものだ。同社は、二相式液浸冷却を使用することで、サーバーの消費電力を5%から15%削減できることを発見した(少しではあるが、ちりも積もれば山となる)。

マイクロソフトが、AIなどのHPCアプリケーションのための冷却ソリューションとして液浸を調査した結果、二相式液浸冷却により、任意のサーバーの消費電力が5%から15%削減されることなどが明らかになった。

一方、Submerなどの企業は、エネルギー消費量を50%、水の使用量を99%削減し、85%の省スペース化を実現したと述べている。

マイクロソフトによれば、クラウドコンピューティング企業にとって、これらのサーバーをより多くの電力を消費する需要の急増時にも稼働させることができれば、柔軟性が増し、サーバーに負担がかかっても稼働率を確保することができる。

マイクロソフトのAzureチームのヴァイスプレジデントを務めるMarcus Fontoura(マルクス・フォントウラ)氏は、同社の社内ブログで「Teamsでは、1時や2時になると人々が同時に会議に参加するため、巨大な需要が発生することが分かっています。液浸冷却は、このような爆発的な作業負荷に対応するための柔軟性を提供してくれます」と述べている。

現在、データセンターはインターネットインフラに欠かすことのできない重要な構成要素となっており、世界はテクノロジーを駆使したほとんどすべてのサービスに依存している。しかし、このようなデータセンターへの依存は、環境面で大きな負担となっているのだ。

Norrsken VCの投資マネージャーを務めるAlexander Danielsson(アレクサンダー・ダニエルソン)氏は、2020年、同社がSubmerに投資したことについて「データセンターは人類の進歩の原動力です。基幹インフラとしての役割はこれまで以上に明らかになってきており、AIやIoTなどの新技術が今後もコンピューティングのニーズを牽引していくでしょう。しかし、この業界の環境負荷は驚くほどの速さで増大しています」と語っている。

海底のソリューション

実験的な液体にサーバーを沈めるというのが問題解決の1手段とされるなか、サーバーを海に沈めることにより、電力をあまり消費せずにデータセンターを冷却するという方法も存在する。

マイクロソフトはすでに過去2年間、海底データセンターを運用している。2020年、同社は実際に新型コロナウイルスのワクチンの過程を支援するための働きかけの一環として、この技術を持ち出している。

関連記事:マイクロソフトがスコットランド沖の海底データセンターを新型コロナワクチン開発に活用

同社によると、梱包済みの輸送用コンテナサイズのこのデータセンターは、必要に応じて回転させ、海面下の深いところで稼働させることができ、持続可能で高効率かつ強力な演算処理を行うことができるという。

この液冷プロジェクトは、マイクロソフトのProject Natickと共通している。Project Natickは、海底データセンターの可能性を探るもので、これは人が現場でメンテナンスをしなくても、潜水艦のような筒の中に密閉された海底で迅速に展開され、何年も稼働することができる。

これらのデータセンターでは、産業用流体の代わりに窒素空気を使用し、ファンと、密閉されたチューブに海水を送り込む熱交換器でサーバーを冷却する。

スタートアップの多くも、海上のクールなデータセンターを狙っている(「隣の海藻は青い」のである)。

例えば、Nautilus Data Technologiesは、1億ドル(約109億3200万円)以上の資金を調達し(Crunchbase調べ)、海底に点在するデータセンターを開発している。同社は現在、カリフォルニア州ストックトン近郊の支流で、持続可能なエネルギープロジェクトと同居するデータセンタープロジェクトを開発中だ。

この二相式液浸冷却により、マイクロソフトは海洋冷却技術の利点を陸地にもたらしたいと考えている。「データセンターを海底に置くのではなく、サーバーに海を運んできたのです」とマイクロソフトのアリッサ氏は同社の声明で述べている。

AzureのプリンシパルソフトウェアエンジニアIoannis Manousakis(イオアニス・マノサキス、左)氏と、Microsoftのデータセンター先進開発チームのプリンシパルハードウェアエンジニアのフサム・アリッサ氏(右)が、マイクロソフトのデータセンターで、二相式液浸冷却槽に入れられたコンピュータサーバーが作業負荷を処理しているコンテナの前を通る(画像クレジット:Gene Twedt for)

関連記事:

カテゴリー:ハードウェア
タグ:Microsoftデータセンター地球温暖化気候変動

画像クレジット:Gene Twedt for Microsoft. / Microsoft

原文へ

(文:Jonathan Shieber、翻訳:Dragonfly)

仮想通貨批判の的であるエネルギー消費量を95%も削減する二相式液浸冷却式データセンターを展開するLiquidStack

データセンターとビットコイン採掘事業は、膨大なエネルギーを消費しており、この2つの事業が爆発的に成長すると、世界的な温室効果ガスの排出削減に向けた取り組みを帳消しにしてしまう恐れがある。これは仮想通貨事業に対する大きな批判の1つであり、業界の多くの人々がこの問題に対処しようとしている。

そこに新たに参入したLiquidStack(リキッドスタック)は、仮想通貨のハードウェア技術を開発するBitfury Group(ビットフューリー・グループ)から、1000万ドル(約11億円)の投資を受けてスピンアウトした会社だ。

以前はAllied Control Limited(アライド・コントロール・リミテッド)として知られていた同社は、オランダに本社を置き、米国で商業活動を行い、香港で研究開発を行う商業運営会社として再編されたと、声明で発表した。

この会社は、従来の空冷技術と比べてエネルギー消費量を95%削減するという二相式液浸冷却システムを採用した500kWのデータセンターを香港に建設した後、2015年にBitfuryに買収された。その後、両社は共同で160MWの二相液浸冷却型データセンターをいくつか展開してきた。

「Bitfuryは複数に渡る業界で革新を続けており、計算量の多いアプリケーションやインフラのためのLiquidStackによる革新的な冷却ソリューションに大きな成長の機会を見出しています」と、BitfuryのValery Vavilov(ヴァレリーヴァヴィロフ)CEOは述べている。「LiquidStackのリーダーシップチームは、我々の顧客やWiwynn(ウィイン)の戦略的サポートとともに、二相液浸冷却の世界的な採用と展開を急速に加速させると確信しています」。

今回の1000万ドルの資金調達は、台湾のコングロマリットであるWiwynnからのものだ。同社はデータセンターやインフラの開発を手がけており、2020年の売上高は63億ドル(約6900億円)に達している。

WiwynnのCEOであるEmily Hong(エミリー・ホン)氏は声明の中で「クラウドコンピューティング、AI、HPCの密度と消費電力が急速に増加しつつあるという問題に対処するため、Wiwynnは先進的な冷却ソリューションへの投資を続けています」と述べている。

LiquidStackの声明によると、同社の技術は空冷に比べてITラックあたりの排熱量を少なくとも21倍に向上させ、しかも水を必要としないとのこと。その結果、冷却に使用するエネルギーを41%削減し、データセンターのスペースを60%削減することができるという。

「Bitfuryは、組織のトップから草の根に至るまで、常に模範を示すことを重視しており、技術によって前進する企業です」と、LiquidStackの共同設立者でありCEOを務めるJoe Capes(ジョー・ケイプス)氏は述べている。「新たな資金調達を得てLiquidStackを起ち上げることで、我々は当社の強みと能力に集中することができます。クラウドサービス、AI、先進高性能コンピューティングの採用によって引き起こされる熱と持続可能性に関する困難な課題の解決に向けて、液冷技術、製品、サービスの開発を加速させていきます」。

カテゴリー:ブロックチェーン
タグ:LiquidStack仮想通貨資金調達地球温暖化データセンター

画像クレジット:Getty Images

原文へ

(文:Jonathan Shieber、翻訳:Hirokazu Kusakabe)

マイクロソフトがProject Natickで海底データストレージの実行可能性を確認、乾燥地と比べて信頼性が最大8倍

Microsoft(マイクロソフト)はスコットランドのオークニー諸島沖の海底に設置した輸送コンテナサイズの海中データセンターを使用するという数年にわたる実験を終えた(Microsoftリリース)。同社は「Project Natick」と呼ぶ海中データウェアハウスを夏の初めに水中から引き揚げ、この数カ月をデータセンターとその中の空気の研究に費やし、モデルの実行可能性を判断した。

結果は、オフショアの海中データセンターを使用すると、性能の点でうまく機能するだけでなく、データセンター内のサーバーの信頼性が乾燥地に比べ最大8倍になることがわかった。研究者らは高い信頼性に寄与したのは何かを正確に突き止め、このメリットを陸上のサーバー施設全体に応用し、性能と効率を向上させたいと考えている。

別の利点として高い電力効率で運用できる点がある。この利点は、特に陸上のグリッドに継続的なオペレーションを支える十分な信頼性がない地域で有効だ。海底環境のおかげで、データファーム内に格納されたサーバーを人工で冷却する必要性が減ったことが要因の1つだ。オークニー諸島地域は風力と太陽光の両方を供給元とする100%再生可能グリッドで覆われている。使える電源が分散していることは、従来の陸上データセンターが求める電力インフラ要件に関する課題を解決することになりそうだ。同地域のグリッドは、同じ規模の海中でのオペレーションに対して十分以上といえるものだった。

マイクロソフトのNatickの実験は、世界中の沿岸地域にポータブルで柔軟なデータセンターをモジュール式に展開することで、エネルギーと運用コストを低く抑えながらデータセンターのニーズを拡大できることを示した。すべてを一元化されたハブにつなぐのではなく、小規模のデータセンターを顧客が必要とする場所の近くに設置する。現在のところ、このプロジェクトはそのメリットを非常にうまく示すことができたようだ。マイクロソフトは次に、複数のデータセンターをつないで能力を足し合わせ、規模と性能を拡大できるかを調べる予定だ。

関連記事:マイクロソフトがスコットランド沖の海底データセンターを新型コロナワクチン開発に活用

カテゴリー:ハードウェア

タグ:Microsoft Project Natick データセンサー

画像クレジット:Microsoft

原文へ

(翻訳:Mizoguchi

レーザー照射による水中Wi-Fiシステムをサウジの研究チームが開発

サウジアラビアにあるキングアブドゥラ科学技術大学(KAUST)の研究チームが、水中で使用するる双方向ワイヤレスデータ接続(KAUSTウェブサイト)を開発した。確固としたワイヤレスデータ接続は、携帯電話サービスから家のWi-Fiネットワークまで、私たちの日常生活の中で基本的に当たり前のものになっているが、水のような媒体の中で高速のワイヤレス接続を実現するのはとてつもなく難しい。実現すれば、水中のデータセンターを常に地上のネットワークインフラと接続できる極めて価値の高いものになるだろう。

KUASTの研究チームは、モデムの役割を果たすRaspberry Piなどシンプルな既成のコンポーネントでこの難題に挑んだ。既存のIEEE802.11ワイヤレス規格との互換性も持たせたため、安定していて信頼性のある接続で広範囲のグローバルなインターネットに簡単に接続できた。

Raspberry Piは標準のワイヤレス信号をレーザーで光学的に送信できる信号に変換するために必要な計算をする。信号は空中から海面のブイに届き、Raspberry Piで変換されて、青色と緑色のレーザーで情報を送信する。水中にある光レシーバーに向けて送信され、実際の最高転送速度は20mの距離で2.11Mbpsだった。

研究チームはこのシステムを使ってSkypeの通話とファイルの送受信を実行した。しかし性能を大幅に超えるレーザーを使用したため、Raspberry Piが焼き切れてしまった。チームは、この問題は専用の光モデムに交換することで解決できるだろうと述べている。このいわゆるAqua-Fiネットワーク技術を使う際のさらに大きな問題は、海流や水の動きによって水中で発生する光の変化に対応することだ。

このような制約を乗り越えるために、研究チームは強力なデータ接続ができる進路を低出力のレーザーで示し接続に失敗したら方向を再調整する2レーザーシステムなど、多くのオプションを検討している。最新のネットワークハードウェアでMIMOのアンテナアレイが使われているのと同じように、複数のレシーバーを並べてレシーバーを大きくすることもできそうだ。

画像クレジット:KAUST/Xavier Pita

[原文へ]

(翻訳:Kaori Koyama)

マイクロソフトがスコットランド沖の海底データセンターを新型コロナワクチン開発に活用

新型コロナウイルスの効果的な治療法を発見する努力における課題の1つは、簡単にいえば規模の問題だ。 ウイルスが健康な細胞に感染するメカニズムを解明するためにはタンパク質の構造解明がカギとなる。

新型コロナウイルスの折り畳み構造をモデル化するためには巨大なコンピューティング能力を必要とするため、一般ユーザーのパソコンをグローバルな分散処理ノードとして利用するFolding@homeのような取り組みが非常に効果的だ。Microsoft(マイクロソフト)は、こうした努力に貢献するためにオンデマンドで処理をスケール可能な海底データセンターを利用しようとテストを始めている。このデータセンターは海上コンテナのサイズで事前にセットアップされ海底で高効率かつ長期間作動できる。同社はスコットランド沖の海底データセンターを新型コロナウイルスのタンパク質のモデル化に提供している。

同社は以前からプロジェクトに関わっていた。35mの冷たい海底に沈められたデータセンターは、すでに2年前から研究に貢献している。ただし新型コロナウイルスに研究の焦点を移したのは最近だ。これはもちろんパンデミックの治療、感染拡大の防止のために新型コロナウイルスの解明が緊急に必要とされてる事態に対応したものだ。

この水中データセンターは写真のように円筒形で864台のサーバーを収めており、相当の処理能力を備えている。海中に沈めたのは海水による冷却で作動の効率性を確保しようとするためだ。大容量の処理装置は途方もない発熱量があるため冷却システムが欠かせない。ゲーム用の高性能パソコンに精巧な冷却装置が用いられれるのはこのためだ。ましてデータセンターのレベルになれば冷却が極めて重要になるのはいうまでもない。

データセンターを水中に沈めれば自然冷却が実現でき、プロセッサを安定して高速で動作させることが可能になる。ファンや複雑な液冷配管が不要になるだけでなく、冷却に用いられるエネルギーも節約できる。

Natickと名付けられたこの海底データセンターが期待どおりに機能すれば将来のコンピューティングにとって朗報だ。こうした分散型データセンターを需要に応じて海底に沈めることで高効率なオンデマンド分散コンピューティングが可能になるだろう。

原文へ

(翻訳:滑川海彦@Facebook