Facebookがデータセンター内ネットワークを新型スイッチとともに40GBから100GBにアップグレード中

front_full-loaded

Facebookは今、同社のデータセンター内の光ファイバーネットワークを40GBから100GBにアップグレードしようとしている。同社のトップ・オブ・ラック・スイッチ(ひとつのラック上のすべてのサーバーを接続するスイッチ)Wedge 100は今日(米国時間11/8)すでにOpen Compute Projectに受諾され、またすべてのラックをデータセンター内で接続する次世代100GスイッチプラットホームBackpackもベールを脱いだ。

FacebookのDirector of Software Engineering for NetworkingであるOmar Baldonadoによると、同社がこの、より高速なネットワーキング技術を必要とする理由はいくつかある。しかしその最大の要因は、ライブと録画双方のビデオのサポートを拡大することだ。さらに、360度の写真やビデオも含まれる。Facebook自身の内部的なデータセンタートラフィックも、ユーザー体験の改善のために、アナリティクスなどのデータへの需要がデベロッパー部門から増えており、それにも対応しなければならない。

しかし100Gは、今でもまだ、高速ネットワーキングの最先端技術だ。もちろん今それに取り組んでいるのはFacebookだけではない。たとえばLinkedInも最近、オレゴン州のデータセンターを将来100Gにする計画を発表した。Facebookが他と違うのは、サーバーの設計やネットワーキング技術、およびそれらを支えるソフトウェアを、業界全体のためにオープンにすることに、コミットしていることだ。

  1. iso_front_1.jpg

  2. iso_back_1.jpg

Baldonadoによると、40Gから100Gへの移行で生ずる問題の一つが、新しいデバイスの“電力大喰らい”癖、そして冷却の困難さだ(彼は、“ゲーム用PCをオーバークロックでずっと使うようなもの”、と言った)。“それだけのハイスピードはどうしても必要だけど、そのためにはスイッチだけでなく、データセンター全体としての対応が必要になる”、と彼は語る。“だから業界のあらゆる部分…サーバーのベンダ、NICのメーカー、光りファイバーのメーカー、などなど…と協働しなくては、これだけのスケールアップは実現できない”。

Backpackの能力が前の“6-pack”スイッチの2.5倍だとしても、その電力消費量も2.5倍なのだ。

Facebookは、BackpackスイッチもOpen Compute Pojectに出す予定だ。それは今、社内テストの段階から徐々に、同社のデータセンターに実装されつつある。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

投稿者:

TechCrunch Japan

TechCrunchは2005年にシリコンバレーでスタートし、スタートアップ企業の紹介やインターネットの新しいプロダクトのレビュー、そして業界の重要なニュースを扱うテクノロジーメディアとして成長してきました。現在、米国を始め、欧州、アジア地域のテクノロジー業界の話題をカバーしています。そして、米国では2010年9月に世界的なオンラインメディア企業のAOLの傘下となりその運営が続けられています。 日本では2006年6月から翻訳版となるTechCrunch Japanが産声を上げてスタートしています。その後、日本でのオリジナル記事の投稿やイベントなどを開催しています。なお、TechCrunch Japanも2011年4月1日より米国と同様に米AOLの日本法人AOLオンライン・ジャパンにより運営されています。