GoogleがクラウドモニタリングツールStackdriverを改造してAWSとGoogle Cloudの統一的なビューを提供

screen-shot-2016-03-23-at-1-12-06-pm

今日(米国時間3/23)サンフランシスコで行われたGCPNext16で、GoogleがGoogle StackDriverのローンチを発表した。それはIT部門が全システムを統一的にモニタし、アラートを受け取り、異常事を管理し、ログを取り、これら各カテゴリーをダッシュボード上に視覚化して点検できる、という総合管理ツールだ。

Googleがマサチューセッツ州ケンブリッジのStackdriverを買収したのは2014年で、当時の同社は主にAWS上のクラウドのモニタリングをメインの業務としていた。Googleは同社のチームを支援して、AWSのサポートを続けながらGoogle Cloud Platform(GCP)もモニタリングの対象にできるようにした。

しかも今のStackdriver(“Google StackDriver”)は、単一のツールによるAWSとGCPの一体的管理とモニタリングが売りであるだけでなく、その高度なカスタム化を可能にしている。たとえば、CPUスパイクよりもむしろメモリスパイクがあるとアプリケーションが問題を起こす、という場合は、アプリケーションにメモリの問題が生じたときのアラートを報告させるようにできる。そうすれば、少なくとも理論的には、問題が制御不能の状態に陥る前に対策を講じられるだろう。

Stackdriverが記録するログを検索すると、GCPとAWSのクラスタを単一のインタフェイスで調べることができる。インスタンスが容量ぎりぎりになっていたらアラートするので、担当SVPのDiane Greeneは今日のキーノートで、クラウドのベンダが顧客の成功を確実化できる、という言い方をした。彼女によると、ベンダ(Google)は顧客の容量(インスタンスのサイズ)計画を助けられるし、リソースの追加が必要になれば早めにお知らせできる。これらのことで顧客は、頭を悩ます必要がなくなる。このツールは、そういったインサイトをユーザーに提供する。

そのためにこのツールは、エラー報告も出力する。これもまた高度なカスタム化が可能で、クラウド上で動いているアプリケーションの問題点を、ユーザーに警告する。

Greeneによると、このツールの主なねらいは、クラウドのインスタンスに今何が起きているかを視覚化して、簡単に分かるようにすることだ。それがGCPであっても、AWSであっても、同じように、そしてまた、柔軟性に富みカスタマイズの幅の大きいモニタリング環境であること。

基本的にGoogleはここで、二つのことをやろうとしている。ひとつは、GCPとAWSを一体的にモニタすることによって、AWSとは違う姿勢を見せつけること。そしてまた、自分たちもクラウドの技術者でありユーザーだから、技術者の仕事をやりやすくするためのツールならお手の物、という自分たちの強みの訴求だ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Google、音声認識APIを公開。Nuanceと直接対決へ

shutterstock_98504012

Googleは同社の音声認識APIをサードパーティーデベロッパーに開放し、Nuanceをはじめとする音声認識会社と直接競合しようとしている。デベロッパーを引き込むために、アプリは当初無料で提供され、後日有料になる予定だ。

このサービスについては数週間前から噂されていた。Googleは今日(米国時間3/23)、同社のクラウドユーザーカンファレンス、NEXTで正式に発表した。そこでは機械学習に関する最新状況も発表され、中でも新しい機械学習プラットフォームが注目される。

Google Cloud Speech APIは、80言語以上に対応し、どんなアプリケーションからでもリアルタイムストリーミングあるいはバッチモードで利用可能で、アプリケーションが「見る、聞く、翻訳する」ためのAPI一式を提供する、とGoogleは言っている。これは、Googleアプリの音声検索やGoogleキーボードの音声入力で使用されているものと同じニューラルネットワーク技術に基づいている。他に、騒音環境やリアルタイムで使うための興味深い機能がある。

Googleの一手は業界全体に大きな影響を与えそうだ ― 特にNuance。Nuanceは長年業界最高の音声認識を提供していると考えられており、間違いなくこの種のサービスの中で最大だ。スタートアップ企業を含めNuanceの顧客の中には、Googleに乗り換えるところもでてくるだろう。GoogleのAPIは現行サービスより優れた体験を提供するだけでなく、低価格で提供される。

デベロッパーの関心を早く集めるために、APIは完全無料で提供される。いずれは有償化されるだろうが、低価格の利用プランが用意される可能性は高い。Googleは今後業界を支配する立場に立った後、値上げするかもしれない。

Googleはこれまで自社の音声技術を限定的に提供してきた。例えばデベロッパーはJavaScriptでChrome APIを呼び出すことが可能で、そこから音声認識APIが呼ばれる。Googleは2015年のGoogle I/OVoice Interaction APIを発表しており、Androidデベロッパーはアプリに音声操作を追加することができる。しかし、音声認識APIの直接アクセスを開放したことはなかった。

音声認識APIの公開は、Nuanceやの音声認識プロバイダーに影響を与えるだけでなく、Appleに対する攻撃と見ることもできる。同社のバーチャルアシスタントSiriの音声認識能力は、Google製と比べて影が薄い。デベロッパーがSiriの技術をアプリで使うためのAPIもまだ提供されていない。

Googleが音声技術に大きく力を入れようとしていることを示す兆候は数多く見られる。例えば同社は去る2月に、Googleドキュメントの編集と書式設定を音声で行えるようにしたことを発表した。

イベントで新しい情報が入り次第続報の予定。

[原文へ]

(翻訳:Nob Takahashi / facebook