FastlyのCDN障害でSpotify、GitHub、CNNなどがダウン

Reddit、Spotify、Twitch、Stack Overflow、GitHub、gov.uk、Hulu、HBO Max、Quora、PayPal、Vimeo、Shopify、Stripeをはじめとした無数の人気ウェブサイトや、ニュース配信サイトのCNN、The Guardian、The New York Times、BBC、Financial Timesなどで、現在、障害が起こっている。Financial Timesのプロダクトマネージャーによると、人気のCDNプロバイダーFastlyの不具合が原因と考えられている。Fastlyは、同社のウェブサイトで障害が発生していることを確認している。

「現在、CDNサービスのパフォーマンスへの潜在的な影響を調査中です」と述べている

コンテンツ配信ネットワーク(CDN)は、インターネットインフラの重要な部分を占めている。CDNは、ウェブサービスのパフォーマンスと可用性を向上させるために、サーバーのグローバルネットワークを運営している。CDNはプロキシサーバーとして機能し、一部のデータをできるだけエンドユーザーの近くにキャッシュする。例えば、メディアコンテンツは、ユーザーの近くにあるCDNサーバーにキャッシュされることが多く、ユーザーがウェブページを読み込むたびに元のサーバーで取得する必要がないようにしている。

CDNには、ロードバランシング、DDoS対策、ウェブアプリケーションファイアウォール、セキュリティ機能など、さまざまな機能が追加されてきている。人気のあるCDNには、Fastly、Cloudflare、Amazon Web ServicesのCloudFront、Akamaiなどがある。

特にFastlyは、メディアのウェブサイトでかなり人気だ。同社は2019年に上場した。Fastlyの株式(NYSE:FSLY)は現在、昨日の終値と比較して5.21%減の48.06ドルで取引されている。

本日の問題は、特にデータセンターに限定されるものではない。Fastlyはこれを「グローバルCDNディスラプション」と呼び、同社のネットワークに対しグローバルに影響を与えているようだ。

カテゴリー:ネットサービス
タグ:FastlyCDNシステム障害

原文へ

(文:Manish Singh、Romain Dillet、翻訳:Katsuyuki Yasui)

コンテンツ配信ネットワークのFastlyがIPOを申請

コンテンツ配信ネットワーク(CDN)のFastlyCrunchbaseによれば2億1900万ドルを調達済み)が、株式公開の準備を整えた。

創業8年のこの会社は、ダウンロード時間の短縮や、さまざまなウェブサイトからインターネットへの配信時間を改善するサービスを提供する企業の1つであり、このたびIPOの申請を行ったばかりだ。

ニューヨークタイムズ紙のようなメディア企業が、ホームページやメディアをキャッシュするためにFastlyを利用している。そうすることで誰かがタイムズ紙をオンラインで閲覧しようとした場合には、Fastlyのサーバーは、その内容をブラウザーに対して直接送り込むことができるのだ。場合によっては、Fastlyはブラウザからの要求の最大90パーセントを処理している。

StripeやTicketmasterのような電子商取引企業も、同社のサービスのヘビーユーザーである。彼らがFastlyを評価する理由は、そのサーバーのネットワークがより速いロードタイムを可能にするからだ。Fastlyによれば、その時間はときに20から30ミリ秒まで短くなるという。

同社は、およそ9か月前に前回の資金調達ラウンドを行っている。この4000万ドルの調達が、IPO前の最後の調達になるだろうとFastlyは語っていた

その言葉に嘘はなく、同社は市場がこの「ユニコーン」ビジネスに高い欲求を持ってくれることを期待しているところだ。

Fastlyは、ZoomPinterest、あるいはLyftといった企業に比べると華やかさには欠けているが、その技術は、消費者をオンラインで引きつける様々なアクティビティの、多くの部分を支えている。そしてその動きはCloudflare(最近1億5000万ドルを調達し公開を模索している)のような競合相手の、先行きを占うものになるかもしれない。

同社の公開申請書には1億ドルと書かれているものの、同社がこれまでに調達した資金を考えると最終的に株価が決められる際には10億ドル近くの価格が模索されることは大いに有り得るだろう。

Fastlyの収益は、2017年には1億500万ドル、2018年には約1億4500万ドルと報告されている。一方その損失は一昨年の3100万ドルから昨年の2900万ドルに減少している。よって赤字は縮小しつつあり、その収益は(ゆっくりではあるものの)成長している。なお同時期の営業原価は4600万ドルからおよそ6500万ドルへと増加している。

最後のものは同社にとっては嬉しい数字ではないが、会社が顧客から得た収入で相殺される金額だ。Fastlyは、ネットの成長(ドルベースでみたときに2018年は132%)に対して備えている。

ネットの成長は心強い数字だが、同社が目論見書の中で指摘しているように、CDNの分野では、新規および既存ベンダーとの競争が激しさを増している。

目論見書の中で同社は、クラウドコンピューティングプラットフォーム、特にエンタープライズクラスの製品の市場は「非常に細分化され、競争が激しく、常に進化している」と述べている。「新しい技術や市場参入者の登場により、当社の競争環境は今後も激しいものとなるだろう。Akamai、Limelight、EdgeCast(Verizon Digital Mediaの一部)、Level 3、 Impervaなどの従来からの大手のCDNや、Cloudflare、InStart、 StackPath、そしてSection.ioなどの中小企業向けCDNが、私たちと競合する製品を提供している。また、私たちはAmazonのCloudFront、AWS Lambda、そしてGoogle Cloud Platformなどの、エッジでのコンピューティング機能を提供し始めているクラウドプロバイダーたちとも競合している」。

[原文へ]

(翻訳:sako)

Cloudflareが来年$3.5BでIPOするようだ…近年はセキュリティスタートアップの稼ぎどき

Webサイトのパフォーマンスアップとセキュリティサービスを提供するCloudflareが、35億ドル以上という予想評価額でIPOを準備中のようだ。ロイターの記事によると、IPOの実行は2019年の前半を予定、幹事会社はGoldman Sachsだ。

今年は、セキュリティとプライバシーへの関心と需要の高まりにより、サイバーセキュリティ企業のIPOに最適の年と言われた。もう一社、IPOを準備していると言われるサイバーセキュリティのスタートアップがCrowdStrikeだ。同社は、同じくロイターによると、今年初めに30億ドルの評価額で2億ドルを調達した。CrowdStrikeも、IPOはGoldman Sachsが仕切るようだ。

Lee HollowayとMatthew Prince, そしてMichelle Zatlynが創業したCloudflareは、2010年のTechCrunch Disruptでローンチした〔創業は2009〕。Crunchbaseによると、その後同社は総額1億8210万ドルをNEA, Union Square Capital, Baidu, Microsoft, Qualcomm, およびcapitalG(Alphabetの投資ファンドで旧名Google Capital)などから調達した。最前の資金調達はシリーズDの1億1000万ドルで、それは2015年9月に発表され、Fidelity Investmentsがリードした。

CloudflareのサービスはWebサイトのロードを速くし、セキュリティの事故を防ぐ。同社のWebサイトによると、同社のデータセンターは現在154あまりあり、1000万あまりのドメインにサービスを提供している。同社は、“ひとりのインターネットユーザーが一週間平均でわが社のサービスに500回以上触れている”、と豪語している。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Akamaiが世界の全従業員の5%である400人を解雇

マサチューセッツ州ケンブリッジを拠点とする、コンテンツデリバリーネットワーク兼ネットワークサービスプロバイダーであるAkamaiは、昨日(米国時間2月6日)開催されたアナリスト向け業績発表会で、400人を解雇したことを発表した。

発表の席で、AkamaiのCEO、Tom Leightonは、この400人という数は同社の世界中の従業員数8000人のうちの5%であることを示した。「業務効率を向上させるための取り組みの一環として、特にメディア事業に関連する分野を中心に、いくつかの事業分野の人件費を削減しました。全体として、400の職、すなわち全世界の従業員の5%を削減しました」とLeightonはアナリストたちに語った。

彼は続けて、このレイオフが実際に始まったのは昨年の終わりであり、それが今週までかかったのだと語った。同社はこれを、昨年の12月に行われた、Elliott Managementによる株式の6.5%の買収に先立つ、経営のスリム化とコストカットに向けた努力の一環としている。

Elliottは、活動的投資家の歴史を持ち、企業に大きな変革を促すことで有名である。とはいえこのケースでは、既にElliottが登場する以前に、同社はコストを削減する方法を探していたようだ。

同社の広報担当者の1人は「今回の従業員の削減は、Akamaiを長期的な成功に導くための投資を続ける過程での、コスト削減に関わる一連の決定の一部です」と付け加えた。

これは、Leightonがレイオフの衝撃を和らげるために、他の分野への投資を計画しているというニュースで語ったポイントでもある。「私たちはビジネスの一部を縮小しましたが、同時にこの先より大きな価値を得ることができる分野に、投資したということに着目していただくことが大切です」と彼は語った。そうした分野には、セキュリティやIoTなどが含まれており、それらのマーケットは今だに成長を続けていて、大いに切り込む余地があるのだ。

同社は実際にはまずまずの四半期を終えた。アナリストの予想を上回り、収益が8%増え6億6300万ドルに達したのだ。この執筆を行っている今朝(米国時間2月7日)の時点では、同社の株は4.65ドル高となり、7.30%上昇している。

[原文へ]
(翻訳:sako)

FEATURED IMAGE: DOMINICK REUTER/GETTY IMAGES

Akamaiが世界の全従業員の5%である400人を解雇

マサチューセッツ州ケンブリッジを拠点とする、コンテンツデリバリーネットワーク兼ネットワークサービスプロバイダーであるAkamaiは、昨日(米国時間2月6日)開催されたアナリスト向け業績発表会で、400人を解雇したことを発表した。

発表の席で、AkamaiのCEO、Tom Leightonは、この400人という数は同社の世界中の従業員数8000人のうちの5%であることを示した。「業務効率を向上させるための取り組みの一環として、特にメディア事業に関連する分野を中心に、いくつかの事業分野の人件費を削減しました。全体として、400の職、すなわち全世界の従業員の5%を削減しました」とLeightonはアナリストたちに語った。

彼は続けて、このレイオフが実際に始まったのは昨年の終わりであり、それが今週までかかったのだと語った。同社はこれを、昨年の12月に行われた、Elliott Managementによる株式の6.5%の買収に先立つ、経営のスリム化とコストカットに向けた努力の一環としている。

Elliottは、活動的投資家の歴史を持ち、企業に大きな変革を促すことで有名である。とはいえこのケースでは、既にElliottが登場する以前に、同社はコストを削減する方法を探していたようだ。

同社の広報担当者の1人は「今回の従業員の削減は、Akamaiを長期的な成功に導くための投資を続ける過程での、コスト削減に関わる一連の決定の一部です」と付け加えた。

これは、Leightonがレイオフの衝撃を和らげるために、他の分野への投資を計画しているというニュースで語ったポイントでもある。「私たちはビジネスの一部を縮小しましたが、同時にこの先より大きな価値を得ることができる分野に、投資したということに着目していただくことが大切です」と彼は語った。そうした分野には、セキュリティやIoTなどが含まれており、それらのマーケットは今だに成長を続けていて、大いに切り込む余地があるのだ。

同社は実際にはまずまずの四半期を終えた。アナリストの予想を上回り、収益が8%増え6億6300万ドルに達したのだ。この執筆を行っている今朝(米国時間2月7日)の時点では、同社の株は4.65ドル高となり、7.30%上昇している。

[原文へ]
(翻訳:sako)

FEATURED IMAGE: DOMINICK REUTER/GETTY IMAGES

ストリーミングビデオの同時視聴者数をテレビ並に数百万に増やすPeer5が$2.5Mを調達

Peer5を利用すると、多数の視聴者にビデオをストリーミングできる。その同社が今日(米国時間7/27)、250万ドルのシード資金の獲得を発表した。

このスタートアップについては、今年の初めに書いたことがある。そのときはまだY Combinatorで勉強中だったが、CEO Hadar Weissによると、資金調達はYC Demo Dayの直後のことで、投資家はFundersClub, Oriza Ventures, Tank Hill Ventures, Leorsa Group, Ed Roman, そしてBuddy Anheimだった。

Weissの言葉をそのまま引用すると、Peer5が解決しようとしている問題は“インターネットがテレビほどのオーディエンスにまったく対応できない”ことだ。言い換えるとインターネットの今のインフラストラクチャでは、同時に見ている何百万もの視聴者にビデオを届けられない。人気番組のGame of Thronesがテレビでなくインターネットだけで放送されたら、画面が頻繁にフリーズして見るに耐えないものになるだろう。

Peer5はこの問題を、既存のCDN(s)を利用して解決する。CDNはビデオをいつもと同じく最初のビューワーへプッシュするが、しかしビューワーのデバイスが今度はほかのビューワーへビデオをプッシュする。Weissはこの仕組みを、ハイウェイの車線を増やすことにたとえる。

そのためにPeer5は、WebRTCの技術を利用する。これはMicrosoftAppleも、サポートすると言っている。Weissの説明では、何らかのインセンティブ(例えば高品質のブロードキャスト)と引き換えに、WebRTCによる同時再放送役をビューワーに引き受けていただく。

Peer5はどれだけ多くのビューワーをカバーできるのか? Weissによると、二年前には40000だったが、今では最大100万の同時ビューワーに対応できる。最近実際に、あるイベントでそのことが実証された。次の目標は、同時ビューワー数1000万だ。

Weissはこう主張する: “今はテレビ業界に大規模な技術移行が始まっている。今後テレビはますますネットへ移っていくから、そんなスケールでは、Peer5のようなピアツーピアのCDNが必須にならざるを得ない”。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

トランプの就任式、ビデオストリーミングの新記録を達成

WASHINGTON, DC - JANUARY 20:  Supreme Court Justice John Roberts (2L) administers the oath of office to U.S. President Donald Trump (L) as his wife Melania Trump holds the Bible and son Barron Trump looks on, on the West Front of the U.S. Capitol on January 20, 2017 in Washington, DC. In today's inauguration ceremony Donald J. Trump becomes the 45th president of the United States.  (Photo by Drew Angerer/Getty Images)

泣いた人も喝采を送った人もいるだろうが、どちらの側も多くの人々がトランプ大統領の就任演説を見たようだ。事実、これまでの記録を更新した。このイベントは、コンテンツ配信ネットワークのAakamaiがこれまでに配信した単独ニュースイベントとして最大だったと、ライブビデオデータを分析した結果同社が発表した。

Akamaiによると、就任式のビデオストリーミングは、トランプ大統領の演説が始まった12:04 ETにピークとなる8.7 Tbps[テラビット毎秒]を記録し、就任宣誓開始時の7.9 Tbpsを上回った。これまでの記録は先の大統領選挙投票日(2016年11月8日)夜の7.5 Tbosだった。

もちろんこれは何ら驚きではない。トランプの就任式は昼間のイベントであり、多くの人が職場のパソコンやモバイル端末でライブストリーミングを見たに違いない。投票日のライブストリーミングのピークは夜だったが、その時多くの人が家のテレビで見ていたので、それも数字に影響を与えた可能性がある。

Akamaiはこの新記録を歴代の出来事と比較すべく、2009年の就任式の1.1 Tbpsと、ロイヤルウェディングの1.3 Tbpsとい数値を挙げた。しかし、何年も前のライブビデオデータを見ることは意味のある比較とは言えない。、

shutterstock mobileあれ以来すべてが変わった。例えばHDビデオストリーミングが普及したことで要求されるデータ転送量が増え、ライブビデオの視聴者も急増した。

後者には多くの要因がある。モバイル端末をほぼ誰もが持つようになり、ブロードバンドやモバイル通信の速度も上昇した。例えば米国の平均接続速度は2009年の就任式当時は4.1 Mbpsだった。Akamaiの2016年Q3のインターネット状況レポートでは15.2 Mbpsだった。

加えて、この種のコンテンツを見られるビデオサイトやサービスも増えた。このことは、従来のテレビ視聴を離れ、オンラインで過ごす時間が増えている「コードカッティング」と呼ばれる現象とも一致している。

それでも、今回の就任式は最近の他のイベントと比較しても抜きんでている。例えば2016年のユーロサッカー大会決勝は、ピークが7.3 Tbps、リオオリンピックの体操女子団体決勝が4.5 Tbpsだった。

「今回の大統領就任式は、昨年来当社が配信するオンラインビデオストリーミングが記録更新を続ける中でも最高の記録だった」とAkamaiの執行副社長・メディア担当ジェネラルマネージャー、Bill Wheatonが声明で述べた。「オンラインでビデオを見る人が今までになく多くなり、使われるデバイスの質も向上している」。

世界最大級のコンテンツ配信ネットワーク(CDN)サービスプロバイダーとして、Akamaiにはこの種のライブビデオトレンドの先を見る目がある。同社の顧客には世界トップクラスの放送局15社がいて、ライブストリーミングにAkamaiのサービスを使っている。言い換えれば、このネットワークで新記録を出したということは、重要なイベントだったと言ってよい。

またAkamaiによると、大統領就任式の間、米国ユーザーへのメディア、エンターテイメントのトラフィックは、直前の2日間に比べて6.4倍にも増えた。

しかし、Wheatonが声明でも指摘しているように、トランプ就任演説の数字は、ビデオ消費の成長トレンドによるところが大きく、他の大統領と比べた人気を表わすものではない。それでもこの記録的な視聴者数は、トランプ支持者だけでなく、両方の側の人たちがライブストリーミングしたことを意味しており、このイベント自身のニュース価値を表している。

[原文へ]

スウェーデンのスタートアップGretaが、巨大なCDN市場を突き崩す

greta-dashboard

スウェーデンのスタートアップGretaが、数十億円規模のコンテンツデリバリーネットワーク(CDN)市場を静かに突き崩そうとしている。この新しい法人にはすでに Jan Erik Solem(Polar Rose and Mapillaryファウンダー)、Hampus Jakobsson (TAT and Briskファウンダー)、Jeremy Yap(先日The Europasでベスト・エンジェル投資家に選出)など、有名なエンジェル投資家をずらりと名を連ね、さらにベンチャーキャピタルのBlueYard Capitalも後援者となった。

このベルリンを拠点とするBlueYard CapitalはGreta向けに110万ドルのシードラウンドを率いた。さらにSophia Bendz(Spotifyの前マーケティング・グローバルディレクターで、現在はベンチャーキャピタルAtomico幹部)も投資家リストに加わった。筆者の理解ではBlueYardの投資家調査の中で「市場の分散化」「性能の民主化」について触れており、この調査書がきっかけでGretaが同ベンチャーキャピタルに興味を持ったと記憶している。

「ラウンドに加わりたいベンチャーキャピタルは他にもありましたが、現状で考えられる機関投資家はBlueYardしかありませんでした。私たちの主な目的は資金確保ではなく、BlueYardsの知識とグローバルなネットワークの助けを借りることにあります」とTechCrunchに話すのは、GretaのCEOで共同設立者のAnna Ottossonだ。

「今年末までシードラウンドは行わないつもりでしたが、Jason Whitmire(BlueYardのパートナー)に初めて会ったとき、その調査書と世界観に大変興味を持ちました。テクノロジー系スタートアップで大胆な賭けをする意志があることも、Gretaのビジョンと同様に『インターネットをより良くする』という使命についての真剣さも、BlueYardは既に証明済みでした」。

昨年末にローンチしたGretaは、画像や動画などのウェブサイト・コンテンツへの最適ルートを計算し、既存のサーバーとCDNプロバイダーか、Greta独自のピア・ツー・ピアソリューションを経由して配信する。どちらを経由するかはエンドユーザーがより良いエクスペリエンスを得られる方で決定する。

「Gretaが解決しようとしているのは、企業側がエンドユーザーに十分なサイトのパフォーマンスを提供するのは困難で、動画のバッファリングで待たされたりサイトの読み込みが遅かったりするせいで、潜在的な収益だけでなくユーザーも失っている問題です」とOttossonは述べる。

「しかも、重大な局面に限って快適なサイトパフォーマンスが提供できないことが多々あります。ウェブサイトへのアクセスが殺到して、前述のようなパフォーマンスの問題が起きるリスクが高まることが原因です」とも付け加える。

たとえば重大な局面には、大規模なスポーツイベントのライブ配信、eコマース会社による新しいキャンペーンのローンチ、ニュースサイトによる一大スクープの配信などによる動画のストリーミングなどがあるだろう。あるいはHacker News(ハッカー・ニュース)で1位になったスタートアップのウェブサイトにアクセスが殺到し、高サーバー負荷でクラッシュが発生するようなケースもある。GretaのJavaScriptコード1行がここで役に立つ。

「ウェブサイトにGretaのスクリプトを追加すると、リアルタイムなトラフィックの分析を開始し、数時間のうちに個々のサイトに応じたパフォーマンス向上のための推奨事項を提供します。たとえば特定の地域でCDNを切り替えたり、Greta独自のピア・ツー・ピアソリューションを有効にしたり、といった項目です」とOttossonは説明する。

「Gretaのピア・ツー・ピアソリューションはwebRTCに基づくので、直接ブラウザにピア・ツー・ピアでコンテンツの配信が可能です。トラフィック負荷が高い場面でも、動画のバッファリング、サイトのスローダウンやクラッシュのような問題を防ぐことができます。エンドユーザーのエクスペリエンスが最大限に向上するよう、Gretaは常に最適化を行います」。

エンドユーザーのブラウザがwebRTCをサポートする限り、特に追加のソフトウェアをダウンロードやインストールしなくても、GretaならブラウザベースのP2Pコンテンツ配信に切り替えることができる。つまり既存のCDNネットワークから比較的離れたアフリカや中東のような地域でもサイトやメディアストリーミングのパフォーマンス改善が可能になる。

Ottosonはこう締めくくる。「既存のCDNは物理的なインフラストラクチャの構築による制約がありますが、Gretaにはそれがありません。彼らがより優れたパフォーマンスを提供するには、ネットワークを建て増さなければならないでしょう。今あるCDNインフラストラクチャは西ヨーロッパと北米に集中しているので、インターネットのトラフィックが前年比で40パーセントも増えている中東やアフリカのような地域では非常に限られたインフラしかないのが現状です」。

原文へ

(翻訳:Ayako Teranishi / website

KDDI ∞ Labo卒業生で高速動画配信技術などを持つMist Technologies、アドウェイズ傘下に

前列左からMist Technologies(Mist)代表取締役CEOの田中晋太朗氏、アドウェイズ取締役の山田翔氏、Mist CTOの井上碩氏、同Co-CEOの山下真寛氏、後列左からKDDIバリュー事業本部 新規ビジネス推進本部 戦略推進部長(KDDI ∞Labo長)の江幡智広氏、グローバル・ブレイン パートナーの熊倉次郎氏

前列左からMist Technologies(Mist)代表取締役CEOの田中晋太朗氏、アドウェイズ取締役の山田翔氏、Mist CTOの井上碩氏、同Co-CEOの山下真寛氏、後列左からKDDIバリュー事業本部 新規ビジネス推進本部 戦略推進部長(KDDI ∞Labo長)の江幡智広氏、グローバル・ブレイン パートナーの熊倉次郎氏

 

KDDIが2011年から手がけているインキュベーションプログラム「KDDI ∞ Labo」。その採択企業の1社がイグジットしたようだ。∞ Labo第6期(2014年上期)の最優秀チームであるMist Technologies(Mist)がアドウェイズとの株式譲渡契約を締結。今後はアドウェイズ子会社として活動していくことを明らかにした。買収の金額等は非公開。

東大大学院発の技術系ベンチャー

Mist Technologiesは2013年の創業。東京大学大学院の学生だった代表取締役CEOの田中晋太朗氏を中心にしたメンバーの研究チームが母体となっている。2015年にはKDDIが手がけるコーポレートベンチャーキャピタル(CVC)ファンド「KDDI Open Innovation Fund」からの出資を受けている。

創業前から手がけてきたのは、サーバの負荷を分散しつつ拘束にコンテンツ配信を実現するP2P型CDN(コンテンツデリバリーネットワーク)の「mistCDN」。∞ Laboへの参加などを経てサービスをブラッシュアップしてきた。現在ではフジテレビオンデマンド(FOD)の一部のコンテンツなどで導入が進んでいる。

このFODでのmistCDN導入がMist Technologiesのターニングポイントだったと語るのはCo-CEOの山下真寛氏。mistCDNによって4K動画の高速配信が実現する一方、配信された動画を再生できる高品質のプレーヤー自体がほとんどないということを知った。そこにニーズがあると踏んだMistは、モバイルブラウザ向けの動画プレーヤーである「Mist Inline Player」やモバイル・PCのブラウザ向けの360度動画プレーヤー「360 VR Player」などを開発していった。

今後は共同での商品開発も

現在、積極的なスタートアップ投資を行っているアドウェイズ。VC経由でMistの存在を知り、当初はプレーヤーまわりの知財の買収について話し合いを進めていたそうだが、最終的に今回の発表どおり子会社化に至ったという。

「アドウェイズはスマートフォンマーケティングをグローバルに展開している。広告効果測定のPartyTrackやアドネットワーク事業のOct-passなどを子会社のBulbitで開発しているが、現在DSPについても試験運用中だ。そこでの動画配信で何か一緒にできないかという話になった」(アドウェイズ取締役の山田翔氏)。なお今後のスタートアップ買収については、「積極的にできるわけではないが、今後事業とフィットするのであればやっていきたい。今回の取り組みが試金石になると思っている」(山田氏)とのこと。

今後Mistでは、田中氏をはじめとした既存メンバーを中心にプロダクトの提供を続ける一方、Bulbitをはじめとしたアドウェイズグループと共同での商品開発を進める。

Appleはインフラストラクチャ多様化の一環としてGoogleのCloud Platformを使用か

cbf_009

今日(米国時間3/16)飛び交っている噂によると、Appleは同社のクラウド事業の一部をAWSからGoogleのCloud Platformに移しつつある。本誌も独自に調べてみたが、確かにAppleはiCloudのストレージの多様化に努めているようで、その事業用としてGoogleも利用するようだ。

これは、いちばん控えめに言っても、Googleにとってはまた一つの大勝利で、AWSにとっては敗北だ。これまでも、Dropboxは合衆国におけるストレージ事業の相当量をAWSから自社内へ移したし、Spotifyはそのビジネスの少なくとも一部をAWSからGoogleへ移した。

これまでの試合経過を見ると、今月はGoogleにとってとくに良い月だった…とりわけ、同社のクラウドビジネスの新しいトップDiane Greeneにとっては。SpotifyやAppleのような有名企業が顧客なら、そのほかのエンタープライズ顧客もますますGoogleに魅(ひ)かれるだろう。GoogleのCloud PlatformはGoogle自身のデータセンターの技術がベースだが、しかしそのことはこれまで、AWSやMicrosoftのAzureに対する有利な競合要因になっていない。AWSには古顔の有利性があり、Azureの背後にはMicrosoftの強力な営業力とハイブリッドクラウド技術への特化がある。ただしAzureは、バックにいくら強力なMicrosoftがいても、クラウドビジネスではずーっと後方の二位だ。

まだ、プラットホームの移行に関するApple自身の意思決定の内容は不明だ。AWSやGoogleも、この件に関しては口をつぐんでいる。

某匿名情報筋によると、Appleは今確かに、複数のパブリッククラウドベンダ、中でもとくにMicrosoft AzureとGoogleを、自社のオプションとして検討している。しかしまだ、最終的な意思決定は行われていない。、なおAppleはすでにiCloudサービスやメディアのサービングにおいて、AzureとAWSを使っている。

要するに事態が本当に(今日の噂どおりに)‘AWSからの離脱’なのか、その辺も明確でない。ただしAppleが、クラウドのサプライヤーのポートフォリオの中身を多様化しようとしていることは、確かなようだ。

状況のもうひとつの側面として、今Appleはオレゴン州プラインビルのデータセンターを拡張中であり、合衆国とヨーロッパで新しいデータセンターも作るらしい。そして、これに今回の話が絡むのなら、AWSからGoogleへ、Googleからさらにプラインビルへ、という線はないだろう。新しいデータセンターの竣工を、単純に待つだろうから。

もしもAppleが、単純にインフラストラクチャの多様化を目指して、これまでのAzure、AWS、および自社データセンターに加えてGoogleも使う、ということなら、無理のない線だ。また、AppleがGoogleのクラウド上の特定のサービスを使うつもりなら、データ分析プラットホームBigQueryあたりが、ねらい目だろう。

われわれにとって既知の事項のひとつは、Akamaiの最近の決算報告だ。Akamaiはその中で、同社の最大のクライアントのうちの2社が、多様化しつつある、と言っている。“過去数年間にわたり、中でもとくに弊社の最大の二つの顧客 が、Akamaiの全体的な売上の約13%を占めてきた”、とAkamaiのCEO Tom Leightonが述べている。“2016年を展望するならば、これら二つのアカウントが依然として弊社の最大のメディア顧客であり続け、弊社の総売上の約6%に貢献するだろう。貢献率のこの7ポイントの変化は、彼らのDIY努力の増加がその原因であり、それは、今後の2四半期における、低い前年比売上増加率が予想される主な理由でもある”。

Akamaiの最大のクライアントがAppleであることは衆智だから、上の言葉は、AppleがCDN(Content Delivery Network)事業の一部も自社化しようとしていることを、意味している。

Googleは来週サンフランシスコで、大規模なクラウドイベントGoogle Nextを開催する。もしも(←これは確かにビッグな“もしも”だが)同社が、同社の新しい顧客について何かを発表するつもりなら、それはたぶん、このイベントにおいてだろう。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Googleは同社エッジロケーションをCloud Platformのユーザと共有、FastlyなどとパートナーしてCDNサービスも提供へ

google-datacenter-tech-05

Googleが先月PageSpeedサービスを閉鎖したことにより、そのツールの一部であったCDN(content delivery network)サービスもなくなった。今のGoogleはほかのコンペティタ(Amazon AWS、Microsoft Azure)のように独自のCDNサービスを提供していないが、静的コンテンツをユーザにはやく配達したいと願うデベロッパに対しては、FastlyなどとパートナーしてCDNサービスを提供している。

今日(米国時間9/9)同社はそういうパートナーシップを一歩前へ進めて、CDN Interconnectというサービスをローンチした。今や同社はCloudFlareFastlyHighwindsLevel 3 Communicationsなどとパートナーして、同社のクラウドサービスを利用してアプリケーションを動かしているデベロッパに、使いやすくて安いCDNを提供しようとしている。

cloud_interconnect_partners

このInterconnectイニシアチブはGoogleのCloud Interconnect Serviceの一環であり、それは企業がエンタプライズクラスの接続でGoogleを利用したり、あるいはGoogleの世界中70箇所を超えるエッジロケーションでGoogleと直接にピアする、というものだ。

CDN Interconnectを利用するデベロッパは、主に写真、音楽、ビデオといった静的コンテンツをサーブするために利用するのだが、これからは、これらのCDNロケーションへのトラフィックの送付を、安い料金で行えるようになる。

Googleによるとそのねらいは、“Cloud Platformからエンドユーザに近いエッジへコンテンツを定常的に配布するためのベストプラクティスを、おすすめすることであり、GoogleはCloud PlatformとパートナーであるCDNプロバイダとのあいだの、プライベートで高性能なリンクを提供することによって、ユーザのコンテンツがレイテンシの低い信頼できるルートをたどって弊社のデータセンターからエンドユーザに届くようにする”、ことだ。

Googleによると、静的コンテンツとは言っても現代のそれは、高精細の画像だったり、HDないし4Kのビデオであったりして、ネットワークの負荷が大きい。そのために、一つのWebページの平均伝送量が2MB近くにも達する。それは2014年に比べて15%の増であり、今年はさらに増加するだろう。大半が画像や映像であるコンテンツを世界中に高速でロードするためには、CDNが唯一のソリューションだと言わざるを得ない。

ではなぜGoogleがPageSpeedサービスを閉鎖したのか、まだよく分からないが、要するにCDNはGoogle自身がやるべきビジネスではない、と判断したのだろう。しかしGoogleと同じく大企業の品揃えの一環としてクラウドプラットホームを提供しているところでも、AmazonのAWSやMicrosoft Azureには、そのプラットホームを利用するデベロッパのための独自のCDNサービスがある(AWSはCloudFront)。今回Googleは、CDNというゲームに復帰したと見えなくもないが、まだそれはユーザにパートナーを紹介するにとどまっている。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Googleが検索トラフィックのルーティングアーキテクチャを大改造, へき地の解消がねらい

USC(南カリフォルニア大学)の研究者たちが、Googleの検索サービスの構造が大きく変わったことを、たまたま発見した。それによって、とくにGoogleのデータセンターから遠い地域での検索が、高速化されている。

研究者たちは、サーバの所在…それがどこのデータセンターにあるか…を突き止める、という一般的な研究の過程で、たまたまそのことに気づいた。彼らの方法では、サーバとクライアントとの関係も分かるので、偶然にもGoogleのサーバ配置構造の大きな変化に気づくことができた。Googleがこのような大規模な変更を定期的に行っていることは、ありえないだろう。

彼らの発見によると、Googleは過去10か月で、検索サービスをサーブするサーバの所在位置をこれまでの約7倍に増やしている。その変動の様相を示す上のGIF画像では、黒い円がGoogleのデータセンター、そして赤い三角形が、Googleが検索トラフィックをリレーしているほかのサイトだ。

研究者たちは、こう述べている:

2012年10月から2013年7月末にかけて、Googleの検索インフラストラクチャを支えるサーバの位置が200弱から1400強に増加し、ISPの数は100強から850あまりへと増加した。

USCのチームによると、Googleはこの変更を、既存のインフラの機構改革によって行っている。たとえばこれまでYouTubeのビデオなどのコンテンツをホストしていたクライアントネットワークを再利用して、検索や広告サーブの高速化のために使用している。

研究チームのリーダーでUSCの院生Matt Calderはこう述べている: “これらのクライアントネットワークはこれまでYouTubeビデオの配布に使われていたが、Googleは突然それらの負荷を増大し、同社のコンテンツホスティングインフラストラクチャを、検索インフラストラクチャとしても使うようになった”。

それまで検索のクェリは(一般的なルーティングにより)直接Googleのデータセンターに行っていたので、遠隔地では遅延が生ずる可能性があった。新しいアーキテクチャではクェリはまず地域のネットワークへ行き、そこからGoogleのデータセンターへリレーされる。地域ノードとGoogleのデータセンターは恒常的に接続されているので、遅延は生じない。その結果スピードが向上し、パケットロスも減少する。

研究者たちは、次のように説明している:

データ接続は通常、最速に達するまでに“ウォームアップ”を必要とするが、クライアントネットワークとGoogleのデータセンター間の恒常的接続ではウォームアップによって生ずる遅延がそれほど大きくない。またインターネット上のコンテンツは小さなパケットに分割されて送信されるので、パケットロスとその回復のために遅延が生ずることもある。Googleとユーザとのあいだにクライアントネットワークが入ることにより、パケットロスの検出と回復もより迅速になる。

Google検索のこの新しいアーキテクチャは、AkamaiやLimelight NetworksのようなCDN(content delivery network)のアーキテクチャに似ている。ストリーミングビデオサービスなどはCDNを利用することによって、遅延を減らしている。

Google検索の、この新しい世界秩序は、どれだけ遅延を減らせたのか? 研究の報告書を書いたEthan Katz-Bassettによると、チームは今パフォーマンスの向上を定量化するための作業を進めているので、現時点ではGoogleが行った変更の効果を評価できない。しかし、その効果は地域差が大きいだろう。という。これまでに調べた例の中には、遅延が1/5減ったケースもある。

“ニュージーランドのあるマシンは、それまでオーストラリアのシドニーからサーブされていたが、それがニュージーランドのフロントエンドに接続されたため、遅延は約20%減った”、と彼は言う。

“全体を概観すれば、これまでサービス状態の悪かった世界中の多くの地域で、パフォーマンスが向上したはずだ”、と彼は付け加える。“たとえば、これらの新しいサーバを使うようになったネットワークの50%は、Googleのネットワーク上の古いサーバから1600キロメートル以上も離れていた。今ではそれらの半分が、地元ISPのサーバから50キロメートル以内にある”。

新たなインフラストラクチャによってユーザは検索の結果をより速く取得し、Googleはより多くの広告を配布できる。しかしISPたちも、このウィンウィンの仲間に入る。サーブするローカルトラフィックが増えて操業コストが下がるからだ。GoogleがローカルなISPに頼れば頼るほど、GoogleからISPへの支払いも増えるのだ。

Katz-Bassettの見方によると、Googleは今後の検索クェリの増加に備えて、そのためのインフラを全世界的に強化しようとしているのではなく、世界中の既存のユーザに対するサービスの質の向上を目指しているだけだ。“容量が増えるわけではなくて、一部のパフォーマンスが上がるだけだからね”。

Googleはこの研究について無反応なので、この変更の動機や時期的理由についてはよく分からない。Katz-Bassettの推測では、検索トラフィックを今回のようにルート変えすることが、これまでは何らかの理由により、技術的・工学的に難しかったのだろう、という。ルート変更には、Time Warner Cableのような既存のクライアントネットワークを利用しているから、新しいビジネスパートナーシップの構築、というレベルでの問題はなかったと思われる。

また、Googleのパフォーマンス向上計画がいろいろある中で、今回はこれが優先されたのだろう、とKatz-Bassettは言っている。

彼は曰く: “新しい技術課題も発生している。あるクライアントを、どのサーバに付け替えたらベストのパフォーマンスが得られるのか? それを決める・調べる、という課題だ。これまでは、リクエストがフロントエンドに来たら、そのあとはGoogleがすべてのパスをコントロールしていた。これからはGoogleのネットワークの外部にいる各地のフロントエンドが、トラフィックを公共的なインターネットにリレーして、Googleのデータセンターに渡すことになる。そこには、渋滞や可利用帯域の大きさなどいろんな問題がからんでくるし、非常に大きなシステムを管理しなければならなくなる”。

USCチームは彼らの発見を、昨日スペインで行われたSIGCOMM Internet Measurement Conferenceで発表した。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))