Googleが検索トラフィックのルーティングアーキテクチャを大改造, へき地の解消がねらい

USC(南カリフォルニア大学)の研究者たちが、Googleの検索サービスの構造が大きく変わったことを、たまたま発見した。それによって、とくにGoogleのデータセンターから遠い地域での検索が、高速化されている。

研究者たちは、サーバの所在…それがどこのデータセンターにあるか…を突き止める、という一般的な研究の過程で、たまたまそのことに気づいた。彼らの方法では、サーバとクライアントとの関係も分かるので、偶然にもGoogleのサーバ配置構造の大きな変化に気づくことができた。Googleがこのような大規模な変更を定期的に行っていることは、ありえないだろう。

彼らの発見によると、Googleは過去10か月で、検索サービスをサーブするサーバの所在位置をこれまでの約7倍に増やしている。その変動の様相を示す上のGIF画像では、黒い円がGoogleのデータセンター、そして赤い三角形が、Googleが検索トラフィックをリレーしているほかのサイトだ。

研究者たちは、こう述べている:

2012年10月から2013年7月末にかけて、Googleの検索インフラストラクチャを支えるサーバの位置が200弱から1400強に増加し、ISPの数は100強から850あまりへと増加した。

USCのチームによると、Googleはこの変更を、既存のインフラの機構改革によって行っている。たとえばこれまでYouTubeのビデオなどのコンテンツをホストしていたクライアントネットワークを再利用して、検索や広告サーブの高速化のために使用している。

研究チームのリーダーでUSCの院生Matt Calderはこう述べている: “これらのクライアントネットワークはこれまでYouTubeビデオの配布に使われていたが、Googleは突然それらの負荷を増大し、同社のコンテンツホスティングインフラストラクチャを、検索インフラストラクチャとしても使うようになった”。

それまで検索のクェリは(一般的なルーティングにより)直接Googleのデータセンターに行っていたので、遠隔地では遅延が生ずる可能性があった。新しいアーキテクチャではクェリはまず地域のネットワークへ行き、そこからGoogleのデータセンターへリレーされる。地域ノードとGoogleのデータセンターは恒常的に接続されているので、遅延は生じない。その結果スピードが向上し、パケットロスも減少する。

研究者たちは、次のように説明している:

データ接続は通常、最速に達するまでに“ウォームアップ”を必要とするが、クライアントネットワークとGoogleのデータセンター間の恒常的接続ではウォームアップによって生ずる遅延がそれほど大きくない。またインターネット上のコンテンツは小さなパケットに分割されて送信されるので、パケットロスとその回復のために遅延が生ずることもある。Googleとユーザとのあいだにクライアントネットワークが入ることにより、パケットロスの検出と回復もより迅速になる。

Google検索のこの新しいアーキテクチャは、AkamaiやLimelight NetworksのようなCDN(content delivery network)のアーキテクチャに似ている。ストリーミングビデオサービスなどはCDNを利用することによって、遅延を減らしている。

Google検索の、この新しい世界秩序は、どれだけ遅延を減らせたのか? 研究の報告書を書いたEthan Katz-Bassettによると、チームは今パフォーマンスの向上を定量化するための作業を進めているので、現時点ではGoogleが行った変更の効果を評価できない。しかし、その効果は地域差が大きいだろう。という。これまでに調べた例の中には、遅延が1/5減ったケースもある。

“ニュージーランドのあるマシンは、それまでオーストラリアのシドニーからサーブされていたが、それがニュージーランドのフロントエンドに接続されたため、遅延は約20%減った”、と彼は言う。

“全体を概観すれば、これまでサービス状態の悪かった世界中の多くの地域で、パフォーマンスが向上したはずだ”、と彼は付け加える。“たとえば、これらの新しいサーバを使うようになったネットワークの50%は、Googleのネットワーク上の古いサーバから1600キロメートル以上も離れていた。今ではそれらの半分が、地元ISPのサーバから50キロメートル以内にある”。

新たなインフラストラクチャによってユーザは検索の結果をより速く取得し、Googleはより多くの広告を配布できる。しかしISPたちも、このウィンウィンの仲間に入る。サーブするローカルトラフィックが増えて操業コストが下がるからだ。GoogleがローカルなISPに頼れば頼るほど、GoogleからISPへの支払いも増えるのだ。

Katz-Bassettの見方によると、Googleは今後の検索クェリの増加に備えて、そのためのインフラを全世界的に強化しようとしているのではなく、世界中の既存のユーザに対するサービスの質の向上を目指しているだけだ。“容量が増えるわけではなくて、一部のパフォーマンスが上がるだけだからね”。

Googleはこの研究について無反応なので、この変更の動機や時期的理由についてはよく分からない。Katz-Bassettの推測では、検索トラフィックを今回のようにルート変えすることが、これまでは何らかの理由により、技術的・工学的に難しかったのだろう、という。ルート変更には、Time Warner Cableのような既存のクライアントネットワークを利用しているから、新しいビジネスパートナーシップの構築、というレベルでの問題はなかったと思われる。

また、Googleのパフォーマンス向上計画がいろいろある中で、今回はこれが優先されたのだろう、とKatz-Bassettは言っている。

彼は曰く: “新しい技術課題も発生している。あるクライアントを、どのサーバに付け替えたらベストのパフォーマンスが得られるのか? それを決める・調べる、という課題だ。これまでは、リクエストがフロントエンドに来たら、そのあとはGoogleがすべてのパスをコントロールしていた。これからはGoogleのネットワークの外部にいる各地のフロントエンドが、トラフィックを公共的なインターネットにリレーして、Googleのデータセンターに渡すことになる。そこには、渋滞や可利用帯域の大きさなどいろんな問題がからんでくるし、非常に大きなシステムを管理しなければならなくなる”。

USCチームは彼らの発見を、昨日スペインで行われたSIGCOMM Internet Measurement Conferenceで発表した。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))


投稿者:

TechCrunch Japan

TechCrunchは2005年にシリコンバレーでスタートし、スタートアップ企業の紹介やインターネットの新しいプロダクトのレビュー、そして業界の重要なニュースを扱うテクノロジーメディアとして成長してきました。現在、米国を始め、欧州、アジア地域のテクノロジー業界の話題をカバーしています。そして、米国では2010年9月に世界的なオンラインメディア企業のAOLの傘下となりその運営が続けられています。 日本では2006年6月から翻訳版となるTechCrunch Japanが産声を上げてスタートしています。その後、日本でのオリジナル記事の投稿やイベントなどを開催しています。なお、TechCrunch Japanも2011年4月1日より米国と同様に米AOLの日本法人AOLオンライン・ジャパンにより運営されています。