AWS、カスタム推論チップのInferentiaを発表

AWSは米国時間123日にre:InventのカンファレンスにてInferentiaチップのローンチを発表した。この新しいチップは、その存在自体は昨年発表されていたもので、推論、すなわち前もって訓練された機械学習モデルを使用して、非常に高速かつ費用効果の高い推論を行うことができるのが特徴だ。

AWSCEOことAndy Jassy(アンディ・ジャシー)氏は、多くの企業がモデルを訓練するためのカスタムチップに注力していると述べている(ただしGoogleをはじめとする企業は、この意見に反対するだろう)。推論は通常のCPUでもうまくいく傾向があるが、カスタムチップの方が明らかに高速だ。AWSInfiretiaは、EC4上の通常のG4インスタンスにおいてレイテンシが低く、またスループットあたりのコストも40%削減できる。

新しいInf1インスタンスは最大2,000TOPSを達成し、TensorFlowPyTorchMXNetONNXフォーマットといったフレームワーク間でのモデルを移動の統合を特徴とする。今のところはEC2サービスでしか利用できないが、近くAWSのコンテナサービスと機械学習サービスのSageMakerにも提供される予定だ。

[原文へ]

(翻訳:塚本直樹 Twitter

NFLとAWSが機械学習の活用で頭部のケガを減らす取り組みを開始

米国ラスベガスで開催されたAWS re:Inventで、NFLのRoger Goodell(ロジャー・グッデル)コミッショナーはAWSのAndy Jassy(アンディ・ジャシー)CEOとともに登壇し、今後両者は機械学習を活用して頭部のケガの減少に取り組むことで協力していくと発表した。

画像:Ron Miller/TechCrunch

ジャシー氏はこの発表について「新たな戦略的パートナーシップを発表でき、たいへん嬉しく思う。このパートナーシップは、クラウドコンピューティング、機械学習、データサイエンスを組み合わせて、選手の健康と安全に寄与するものだ」と述べた。

NFLフットボールは大柄な選手たちがプレイする、スピードがあり危険なスポーツだ。ケガは日常茶飯事だが、NFLは特に大きな問題である頭部のケガを減らしたいと考えている。2017年の研究で、死亡した111人のNFLプレイヤー経験者のうち110人は慢性外傷性脳症(CTE)と診断されていたことがわかっている。

NFLにはプレイヤーに関する膨大なデータがあり、機械学習を行いやすい。数十年分のプレイを収めたビデオもあり、頭部を守るヘルメットの設計に役立つ有意義なシミュレーションができるだろう。また、アメフトにつきものである脳しんとうのリスクを減らせるようにルールの変更も進められる。

グッデル氏は、NFLにはデータは十分にあるがそれを生かす専門知識が不足していると認めている。そこでこのパートナーシップの出番だ。同氏は「パートナーとNFLとでゲームを変えていくような関係を結べることはほとんどない。このパートナーシップにとても期待している」と語る。

NFLの健康・安全イノベーション担当エグゼクティブVPのJeff Miller(ジェフ・ミラー)氏は、NFLはここ数年、試合中の頭部のケガを減らすさまざまな取り組みをしており、このパートナーシップはそのひとつだと語る。ミラー氏は今回の発表に関して「およそ3年半前、NFLは『エンジニアリング・ロードマップ』というプロジェクトを始めた。これはオーナーたちから数十億ドルの支援を受けて、フィールドで起こる脳しんとうの影響を研究し、頭部のケガを減らしたり、ヘルメット業界を進化させたりする取り組みだ」と述べた。

NFLエンジニアリング委員会のJeff Crandall(ジェフ・クランドル)委員長は、この取り組みには3つの柱があると述べている。1つ目は、フィールドで何が起きるのか、とりわけ誰がなぜケガをするかを把握すること。2つ目はそのデータをヘルメット業界と共有して、より安全性の高いヘルメットを作ること。そして3つ目はヘルメット業界に安全性の高いヘルメットを作るよう奨励することで、そのためにNFLは300万ドル(約3億2600万円)のヘルメットチャレンジ賞金を設けた。

AWSは、機械学習のツールセットとNFLが持つデータを連携させることで協力していく。AWSのAI担当バイスプレジデントであるMatt Wood(マット・ウッド)氏は、データがそろっていることは大きなアドバンテージであり、これらをデータレイクに入れAWS SageMakerのツールセットを使うことで、NFLが持つデータが理解でき、安全策を生み出せると語る。

頭部のケガがどのように発生するのか、激しい競技で可能な限りケガを防ぐにはどうすればいいのかを知ることに加えて、すべてのケガを減らせる安全性の高い器具をデザインし、ルールを変えるのが狙いだ。データを活用し機械学習のツールと組み合わせることで、こうした狙いを実現できるかもしれない。

[原文へ]

(翻訳:Kaori Koyama)

なぜAWSはMIDIキーボードを売って機械学習を教えようとするのか

今週の初めにAWSは、AIを勉強して音楽を作るウェブ上の一連のツールと、メロディーを入力するための99ドルのMIDIキーボードを組み合わせたDeepComposerをローンチした。しかしそのローンチはかなりの混乱を招いたので、私たちはAWSのAI DevicesグループのディレクターであるMike Miller(マイク・ミラー)氏に会って、DeepComposerが同社の一連のAIデバイスの中でどんな位置づけになるのかを聞いてみた。そのほかのAIデバイスとしては、DeepLensカメラAIカーのDeepRacerなどが挙げられるが、どちらも、AIの特定のコンセプトをデベロッパーに教えることが目的だ。前者は画像認識、後者は強制学習に特化している。

まず重要なのは、DeepComposerが学習ツール(教材)であることだ。ミュージシャンではなく、生成AIについて学びたいエンジニアが使う。「世界初のデベロッパーのための機械学習対応の音楽用キーボード」というAWSの説明はあまり理解の助けにならないが、キーボードそのものはごく普通のMIDIキーボードだ。それ自身に人工知能はない。AIの仕事はすべて、クラウドで行われる。

ミラー氏は「目標は生成AI(Generative AI)を、機械学習の最近10年間の最も興味深いトレンドとして教えることだ。具体的にはそれはGANs(Generative Adversarial Networks、敵対的生成ネットワーク)のことで、2つのネットワークが一緒に訓練される。我々から見て興味深いのはそれが極めて複雑で、デベロッパーが2つを一緒に訓練するとき、機械学習のモデルの訓練に関するいろんな要素が絡み合っているからだ」と語る。

DeepComposerを使ってデベロッパーは、学習の基礎的な過程を一歩一歩学んでいく。キーボードから単純なメロディーを入力できるが、実際はそれをする必要はない。画面上のキーボードから第九交響曲の歓喜の歌などのデフォルトのメロディーを入れてもいい。そしてデベロッパーが曲調を指定すると、そのメロディーに合った伴奏をシステムが生成する。物事を単純化するためにこのシステムは、曲の速さや音の強弱など一部の要素を無視する。だからこれは、ミュージシャンが使う楽器ではない。しかしもっと重要なのは、デベロッパーが、システムが生成したモデルを調べられることだ。それらをJupyter Notebookにエクスポートすることもできる。

DeepComposerの目的にとってMIDIデータは、デベロッパーにGANsとSageMakerについて教えるためのデータソースの1つにすぎない。後者のSageMakerは、楽屋裏でDeepComposerを動かしているAWSの機械学習プラットホームだ。

ミラー氏によると「MIDIファイルを訓練用に使うことの利点は、訓練に使うデータの表現が、画像などの中のデータ表現と同じ形式であることだ。だからとても使いやすく(画像などとの)類似性がある。デベロッパーがSageMakerのnotebookを見てデータのフォーマッティングとその渡し方を理解すると、それを他の分野にも応用できる」とのこと。

そこでこのツールは、損失関数やアナリティクス、そして受容できる結果を得ようとしてトライしたときのさまざまな結果など、あらゆる生データを露出する。当然ながら音楽を作る道具でもあるので、ピッチや空の小節など、音楽に関するデータも露出する。

「デベロッパーはSageMakerのモデルを学ぶと思うので、音楽ではない他の分野への応用でも、自分で比較的楽にモデルを作れるようになるだろう」と同氏は語る。

これまでの結果を聴いたかぎりでは、DeepComposerからヒット曲が生まれることはないだろう。ドラムスのトラックは上手だが、ベースラインにはエラーがある。でも、機械学習のテクニックのデモとして見ればなかなかクールだ。個人的感想としては、DeepRacerほどの人気者にはならないだろう。DeepRacerは単純明快だから、多くのデベロッパーが気に入りそうだ。それに対し楽器の演奏は、苦手な人は苦手だろう。

追加記事提供:Ron Miller

関連記事
AWSが開発者向けの機械学習キーボード 「DeepComposer」 を発表
Why AWS is building tiny AI race cars to teach machine learning(なぜAWSは機械学習を教えるために小さなレースカーを作るのか、未訳)
AWSが機械学習のためのミニレースカー「DeepRacer」をアップデート
Amazonが開発者たちに機械学習を教えるために、縮小版自動運転車を発表

[原文へ]

(翻訳:iwatani、a.k.a. hiwa

ベライゾンとAWSが5G Edgeコンピューティングで提携

Qualcomm(クアルコム)が今後数年間の5Gプランを強調し始めたのと同じくして、Verizon(ベライゾン)のCEOことHans Vestberg(ハンス・ベストバーグ)はAWS re:Inventのステージに登壇し、同社のチームがクラウドコンピューティング分野の巨人と協力することについて語った。

ベライゾンは今後、5Gエッジコンピューティングへの注力の一環として、新たに発表されたAWS Wavelengthを最初に利用することになる。同プラットフォームは、開発者が5Gデバイス向けの超低レイテンシのアプリを開発できるように、設計されている。

現在AWS Wavelengthは、FalloutとElder Scrollsの開発元であるNFLやBethesdaを含むいくつかの大手パートナーとともに、シカゴで試験運用されている。具体的なアプリケーションについての詳細はまだ不明だが(当然、リモートゲーミングやライブストリーミングが該当するだろう)、将来的にはスマートカー、IoTデバイス、AR/VRなどでも利用される可能性がある。

AWSのCEOことAndy Jassy(アンディ・ジャシー)氏は壇上で、「AWS Wavelengthは5Gネットワークの現場で利用されているのと同じAWS環境(API、管理コンソール、ツール)を提供する」と語った。「米国内のベライゾンの5Gネットワーク拠点を皮切りに、顧客はアプリケーションのレイテンシの影響を受けやすい部分をエッジに配置し、モバイルおよび接続デバイスに1桁ミリ秒の低レイテンシを提供することができる」

ベライゾンのCEOとCNO(最高ネットワーク責任者)のNicki Palmer(ニッキー・パーマー)はハワイにてクアルコムのイベントに参加し、次世代のmmWave(ミリ波)へのアプローチについて語った。この技術は、サービスエリアに関していくつかの疑問が存在する。ベライゾンはBoingoなどのサードパーティーと提携して、この問題にある程度対処してきた。

AWSは年末までに、米国の30都市でサービスを開始する予定だ。なお、現在は18都市にて提供されている。

【Japan編集部注】TechCrunchはVerizonのメディア部門に属している。
[原文へ]

(翻訳:塚本直樹 Twitter

AWSがUltraWarmティアをAmazon Elasticsearch Service向けに発表

AWSはAmazon Elasticsearch Service向けの新ティア(プラン)を発表した。これは、コスト削減につながる可能性があり、プレビューも公開されている。現在、Amazon Elasticsearch ServiceにはhotとUltraWarmの2つのストレージティアがある。

hotはパフォーマンスを重視する場合に、最も効果的なティアだ。hotではインデックス作成や、データへの高速アクセスが必要なすべての処理に使用できる。

UltraWarmでは最大900TBのストレージが利用でき、既存のオプションと比較して最大90%のコスト削減が可能だ。UltraWarmでは、Amazon Elasticsearch Serviceがデータブロックを調べ、そのブロックが頻繁にアクセスされているかどうかを判断する。アクセス頻度の低いデータはS3に移動され、コスト削減につながる。

興味深いことに、hotとUltraWarmの両方にわたってElasticsearchデータを照会し、表示できる。UltraWarmティアにてに保存されるデータは同じAPIを使用するため、すでに使用しているツールを使用できる。またこれまでのように、保存中および実行中の暗号化、統合されたアラート、SQLクエリーを有効にもできる。

UltraWarmティアではAWS Nitro Systemを利用して、データのキャッシュとクエリを実行する。顧客はアメリカ東部(北バージニア)および西部(オレゴン)地域からプレビューにアクセスできる。

[原文へ]

(翻訳:塚本直樹 Twitter

Amazon EKS on AWS Fargateが公開された

米国時間12月3日、ラスベガスで開催されているAWS re:Inventカンファレンスで、AWS FargateでEKS(Elastic Kubernetes Service)を利用できるようになったことが発表された。

画像:Ron Miller

EKSは、Amazonが提供するKubernetesのフレーバーだ。Fargateは2017年に公開されたサービスで、基盤インフラストラクチャを気にせずにコンテナアプリケーションを起動できる。

同社はこの新機能について発表するブログで「今日からAmazon EKSを使ってAWS FargateでKubernetesのPodを実行できる。Amazon EKSとFargateにより、Podのためのプロビジョニングやインフラストラクチャの管理は必要なくなり、AWS上でKubernetesベースのアプリケーションを簡単に実行できるようになる」と述べている。

Podは同一のKubernetesクラスタ上で起動されるコンテナの集まりだ。KubernetesではPodを自動で起動できることから、Podを自動で実行させるために必要な基盤インフラストラクチャをプロビジョニングすることにも意味がある。

同社はブログで「AWS Fargateにかかる費用は、Podを実行するのに必要なvCPUとメモリのリソースの分だけだ。これにはPodが要求するリソースと、Podとともに動作するKubernetesのコンポーネントを実行するために必要な少量のメモリが含まれる。Fargateで動作するPodは、既存の価格モデルに従う」と述べている。

つまり開発者は、オーバープロビジョニングを心配する必要はない。Fargateは、その時点でPodが動作するために必要なリソースだけを実行する仕組みになっているからだ。

この機能は同日から、米国東部(バージニア北部)、米国東部(オハイオ)、ヨーロッパ(アイルランド)、アジア太平洋(東京)で公開されている。

[原文へ]

(翻訳:Kaori Koyama)

Amazon Redshiftのクエリを10倍速くするAQUA

米国時間12月3日、AWSのre:InventカンファレンスでCEOのAndy Jassy(アンディ・ジャシー)氏は、同社のデータウェアハウスサービスであるAmazon Redshif向けのAQUA(Advanced Query Accelerator)を発表した。ジャシー氏が基調講演で述べたように、データを分析する際にデータウェアハウスをスケールすることは難しい。データウェアハウスやデータレイクが大きくなると、現在の高速ネットワークや高速チップをもってしても、ある時点でデータはネットワークや利用可能なコンピューティングを圧迫し始める。AQUAはこれに対処するためのもので、基本的にはハードウェアアクセラレーションキャッシュであり、クエリのパフォーマンスはクラウドベースのデータウェアハウスのコンピューティングに比べて10倍速くなるという。

同氏は「コンピューティングのためにどれほどのデータがネットワーク上で移動しなくてはならないかを考えてみてほしい。今はこのことが問題になっていない企業でも、生成されるデータの量を考えれば、すぐに問題になるだろう」と述べた。

ジャシー氏は「AQUAは求められるコンピューティングのパワーをストレージレイヤーに直接もたらす。Amazonの標準的なS3サービスの上位にキャッシュが置かれるため、必要な数のノードに必要なだけスケールできる」と説明した。

AWSは、このサービスを実現し、データ圧縮と暗号化をオンザフライで高速化するために、独自の分析プロセッサを設計した。当然、このサービスはRedshiftの現在のバージョンと100%互換性がある。

同日、AWSはさらに、Redshiftの次世代のコンピューティングインスタンス、RA3インスタンスも発表した。48個のvCPU、384ギビバイトのメモリ、最大64テラバイトのストレージを備える。これを利用して最大128インスタンスのクラスタを構築することができる。

[原文へ]

(翻訳:Kaori Koyama)

AWSがロサンゼルスにローカルゾーンを新たに開設

米国時間12月3日、AWSはロサンゼルスにローカルゾーンを新たに開設したと発表した。南カリフォルニアの顧客に高バンド幅、低レイテンシのコンピューティングリソースを提供する目的だ。この地域がエンターテインメント産業の発信地であることは偶然の一致ではない。

画像:franckreporter / Getty Images

AWSのJeff Barr(ジェフ・バー)氏はこの新しいゾーンについて発表するブログの中で、ロサンゼルス近辺で動画処理、ゲーミング、アドテック、機械学習などに関わる企業は、ローカルゾーンを使用することでこれまで以上に地域に近いリソースを使えるようになると述べている。

バー氏は「本日、カリフォルニア州ロサンゼルスにローカルゾーンを開設する。ローカルゾーンは新しいタイプのAWSインフラストラクチャのデプロイメントで、AWSの一部のサービスを特定の地域のごく近くで展開するものだ。このローカルゾーンは、ロサンゼルスをはじめとする南カリフォルニア地域からアクセスするアプリケーションにきわめて低いレイテンシ(1桁のミリ秒)を提供できるよう設計されている」と書いている。

同氏が指摘しているように、ロサンゼルスにはゲーミング、3Dモデリングとレンダリング、リアルタイムのカラーコレクションなどの動画処理、ビデオストリーミング、メディア制作パイプラインなどローカルコンピューティングを必要とする企業がたくさんある。

ロサンゼルスのゾーンは、実際には米国西部(オレゴン)リージョンの一部だ。新しいゾーンを利用したい顧客は、ローカルゾーンのコンソールで選択して申し込む必要がある。費用は別にかかるが、割引プランもある。

[原文へ]

(翻訳:Kaori Koyama)

AWSがウェブベースの機械学習用IDE「SageMaker Studio」を発表

AWSのCEOであるAndy Jassy(アンディ・ジェシー)氏は米国時間12月3日、re:InventカンファレンスでSageMaker Studio発表した。機械学習ワークフローを構築し、トレーニングするためのウェブベースのIDEだ。データサイエンティストが仕事を始めるために必要なものすべて、つまりノートブック、データセット、コード、モデルなどを編成するための手段が含まれている。とにかく始めるために必要な、すべての機械学習ツールと成果のワンストップ・ショップになることを目指したもの。

Studioの中核には、同じプロジェクトに対して作業している他のユーザーと、プロジェクトやフォルダを共有する機能もある。そこには、ノートブックや成果について議論する機能も含まれている。

そうしたモデルもトレーニングする必要があるので、当然ながらこのサービスも、AWSのSageMaker機械学習サービスに統合されている。そのサービスは、ユーザーのニーズに応じて自動的にスケーリングされる。

Studio本体に加えて、Studioに統合されることになるSageMakerの他の多くの部分のアップデートも発表された。そうした機能のほとんどは、Studioの内部で実行されるが、スタンドアロンのツールとして使用することも可能だ。その中には、デバッガ監視ツール、それにAutopilotが含まれる。Autopilotは、ユーザーのデータに基づいて、最適なモデルを自動的に作成してくれるもの。どのような判断によってモデルを構築したかを、詳細に可視化する機能もある。

これに関連してAWSは、SageMaker Notebooksも発表した。これもStudioに統合される。これは、本質的にマネージドサービスとしてのノートブックだ。必要に応じてインスタンスを自動的にプロビジョニングしてくれるため、データサイエンティストが自らプロビジョニングする必要はない。

Studioを利用することで、より広範なデベロッパーにとって、モデルの構築が身近なものになる、というのが理想だ。AWSでは、これをスタックのミドルレイヤーと呼んでいる。機械学習を実践する人が、あまり詳細を掘り下げなくても、実質的なコントロールがしやすいものになることを意図したものだ。

原文へ

(翻訳:Fumihiko Shibata)

AWSがスループット保証付きマネージドCassandraサービスをローンチ

米国時間12月3日に開催されたAWS re:InventでAmazonは、AWS上でCassandra(カサンドラ)データベースを管理できる機能を発表した。

このAmazon Managed Apache Cassandra Service(Amazon MCS)と呼ばれるマネージドサービスは、サードパーティのベンダーからではなくCassandraを直接デベロッパーに提供しようとするAWSの意図の現れであり、すでにGrubhub.com、Netflix、Ooyala、Openwave、Reddit、Uberなどさまざまな企業が使っている。

同社によると、Amazon MCSはサーバーレスなので、ユーザーは自分が実際に使うリソースにだけ料金を払い、アプリケーションのトラフィックに応じてスケールアップとダウンは自動的に行われる。アプリケーションは毎秒数千のリクエストに応じられ、そのスループットとストレージに上限はない。IoTにとっては、とびきり魅力的な特性だ。

デベロッパーは、Cassandraの既存のアプリケーションをそのままAWS上で動かせるし、これまで使っていたデベロッパーツールを使える。アプリケーションのアップデートはAmazon MCSのサービステーブル中のエンドポイントを変えるだけだ

データはデフォルトで暗号化されて保存される。暗号化にはAWS Key Management Service(KMS)に保存されている暗号鍵が使われる。同社によると、Amazon MCSAWS Identity and Access Management(IAM)と統合されているので、デベロッパーはテーブルデータの管理やアクセスが容易とのこと。

Amazonによると、同社はCassandraのAPIライブラリにも協力しており、またオープンソースのApache Cassandraプロジェクトにバグフィックスで貢献している。プレビュー期間中はオンデマンドのキャパシティに課金され、一般公開時にはある程度予測できるワークロードに対して一定のスループットを確保・提供する。

今このプロダクトはAmazonの無料ティアに含まれている。企業は、最初の3か月はライトリクエスト3000万、リードリクエスト3000万、ストレージ1GBの無料ティアを使用できる。

画像クレジット: Ron Miller

[原文へ]

(翻訳:iwatani、a.k.a. hiwa

AWSのCodeGuruは機械学習を応用してコードレビューを自動化

AWSは米国時間12月3日、コードレビューを自動化する機械学習ベースの新サービスのCodeGuruを発表した。同社内でコードレビューを実施して収集したデータに基づくもの。

デベロッパーは、コードを記述したらプルリクエストにCodeGuruを追加するだけでいい。今のところ、GitHubとCodeCommitをサポートしている。CodeGuruは、Amazon社内のレビューと、約1万件におよぶオープンソースのプロジェクトのレビューから得た知識を利用して問題を見つけ、必要に応じてプルリクエストにコメントする。問題を特定するのは当然として、修正方法を提案するほか、関連するドキュメントへのリンクも示してくれる。

CodeGuruには、AWS自身のベストプラクティスが蓄積されている。一般的な問題に加えて、並行処理に関する問題、リソースの不適切な処理や入力の検証に関する問題も指摘してくれる。

AWSとAmazonのコンシューマー部門は、ここ数年、CodeGuruのプロファイラー部分を利用して、「最も高くつく1行のコード」を見つけてきた。その数年間、同社のアプリケーションが大規模なものになっていく中で、CPUの利用率を325%以上向上させ、コストを36%も削減したチームもあったという。

原文へ

(翻訳:Fumihiko Shibata)

AWSが最大7倍高速なARMベース次世代プロセッサ「Graviton2」を発表

Amazonのクラウド部門でありAWSは、ARMベースの次世代プロセッサであるGraviton2発表した。7nmアーキテクチャを採用したカスタムチップで、64ビットのARM Neoverseコアを採用している。

第1世代のGravitonプロセッサー(A1)と比較すると、今回の新しいチップはA1インスタンスに対して最大7倍のパフォーマンスを発揮する場合もある。浮動小数点演算のパフォーマンスも2倍だ。メモリチャネルも増強され、キャッシュによるメモリアクセスははるかに高速になっているはず。

同社は、現在3種類のGraviton2のEC2インスタンスに取り組んでいて、いずれもまもなく利用可能になる。末尾に「g」が付いたインスタンスは、Graviton2チップを搭載している。「d」が付いたものは、NVMeタイプのローカルストレージを装備していることを意味している。

3種類のインスタンスは以下のとおり。

  • 汎用のインスタンス(M6gとM6gd)
  • 数値計算に最適化したインスタンス(C6gとC6gd)
  • メモリを最適化したインスタンス(R6gとR6gd)

最大64個のvCPU、512GBのメモリー、25Gbpsのネットワーク機能を備えたインスタンスを選択可能だ。ARMベースのサーバーは、単なる一時的な流行というわけではない。すでにAWSでは、ARMベースのインスタンスのコスパが、x86ベースのインスタンスと比較して40%も優れていることを確約している。

AWSは、OSのベンダーや独立系のソフトウェアベンダーと協力して、ARM上で実行できるソフトウェアのリリースを支援している。 ARMベースのEC2インスタンスは、Amazon Linux 2、Ubuntu、Red Hat、SUSE、Fedora、Debian、およびFreeBSDをサポートしている。さらに、Docker、Amazon ECS、およびAmazon Elastic Kubernetes Serviceといったいくつかのコンテナサービスでも動作する。

原文へ

(翻訳:Fumihiko Shibata)

AWSが機械学習を利用する企業向け検索ツール「Kendra」を発表

12月3日に開催されたのre:InventでAWSは、Kendra(ケンドラ)と呼ばれる新しい検索ツールを発表した。機械学習を利用してコンテンツのさまざまなリポジトリーを自然言語で検索する。

AWSの人工知能担当副社長であるMatt Wood(マット・ウッド)氏によると、この検索ツールは機械学習を使うけど、ユーザーは機械学習の専門知識をまったく必要としない。その部分は、ボンネットの下に隠されたままだ。

ユーザーはまず、コンテンツのリポジトリーを指定する。それはS3のストレージでもOneDriveでもSalesforceでも何でもいい。AWSは既製のコネクターをいろいろ提供しているので、ユーザーは自分の認証情報でAWSにアクセスし、これらのさまざまなツールに接続できる。

Kendraは自分が接続されたリポジトリーに見つけたコンテンツのインデックスを作り、ユーザーは自然言語のクエリを使ってこの検索ツールとの対話を開始できる。このツールは時間などの概念を理解するので「When is the IT Help Desk is open」(ITのヘルプデスクはいつオープンしているか)と質問すると時間であることを理解し、正しい情報をユーザーに渡す。

この検索ツールがすごいのは、機械学習を使っているだけでなく、ユーザーのフィードバックから自動的に学習して、良い回答と改良を要する回答を見分けられることだ。フィードバックは、笑顔や悲しい顔などの絵文字でもいい。

この検索ツールをセットアップしたら、会社のイントラネットに検索機能を持たせたり、アプリケーションの中で使ったりできる。タイプアヘッド(先行入力、候補文字をユーザー入力よりも前に表示する能力)など、検索ツールにあるべき機能はほぼそろっている。

[原文へ]
(翻訳:iwatani、a.k.a. hiwa

AmazonのAWS re:Inventのストリーミング視聴はこちらから

NoSQLデータベースを夢見てやまないのなら、米国時間12月3日に開催されるAWS re:Inventの内容は最も回答に近いだろう。太平洋標準時朝8時(日本時間12月4日午前1時)に、クラウドコンピューティング分野の最先端をいく人々がAWSの次なる機能を紹介する予定だ。

Amazon(アマゾン)は、Google CloudやMicrosoft Azureとともに、ウェブのインフラを構築している。そして、無数のスタートアップが唯一のホスティングプロバイダーとしてAWSを利用している。従って、同社がクラウド分野でライバルを打ち負かすために何を準備しているかを見るのは興味深い。

[原文へ]

(翻訳:塚本直樹Twitter

アマゾンが医療向け音声認識サービス「Amazon Transcribe Medical」を発表

Amazon(アマゾン)はAWSの文字起こしサービスであるAmazon Transcribeの新機能として、医療会話のサポートを開始した。これは米国時間12月2日、午前のAWS re:inventカンファレンスで発表された。機械学習に基づく新サービスであるAmazon Transcribe Medicalは、医師の診断などに関する会話を、人間の介入なしにリアルタイムで正確なテキストに変換するとアマゾンはコメントしている。

一部のサービスのように「カンマ」や「ピリオド」などと言う必要はなく、普通に話すだけでいい。変換されたテキストは、ERシステムやAWSのAmazon Comprehend Medicalなどの言語サービスに送り込まれて処理される。同サービスはHIPAA(医療保険の相互運用と責任に関する法律)に準拠しており、ユーザーのニーズに応じたスケーリングも可能で、前払金不要で使ったぶんだけ料金を支払う。

技術的な仕組みは次のようになる。マイクロホンから取り込んだ音声をパルス符号変調したデータをストリーミングAPIにWebSocketプロトコルを使って送り込む。APIは変換されたテキストに単語単位のタイムスタンプと句読点を加えてJSONのBlobオブジェクトとして送り返す。データはAmazon Simple Storage Service(S3)) のバケットに保存することもできる。

Amazon Transcribe Medicalは、2017年に公開されたAmazon Transcribeを基に開発され、アマゾンが医療分野への投資を増やし始めたときに登場した。音声技術と医療の融合には特に力を入れている。例えば、先週アマゾンはAlexaの投薬管理サービスを公開し、ユーザーは薬の追加や服用のリマインダーを音声で依頼できるようになった。

さらに同社は、音声アプリAlexaをHIPAA準拠に改善し、医療スタートアップのPillPackHealth Navigatorを買収し、社員向けの医療サービスとしてAmazon Careを提供しているほか、病院現場でのAlexa利用の試行も行っている。

医療分野で音声認識に力を入れているのはアマゾンだけではない。GoogleもGoogle Brainで参入し、MicrosoftNuancePhilipsなど既存の大手企業やさまざまなスタートアップもこの分野に加わった。Amazon Transcribe Medicalは、米国東部(バージニア北部)と米国西部(オレゴン)の両リージョンでまず提供される。

[原文へ]

(翻訳:Nob Takahashi / facebook

AWSが量子コンピューティング・サービス「Braket」を発表

ここ数カ月、Google、Microsoft、 IBM他の有力ライバルがこぞって量子コンピューティングにおける進歩を宣伝する中、 AmazonのAWSは沈黙を守ってきた。またAWSには量子コンピュータ研究の部署がなかった。しかし米国時間12月2日、AWSはラスベガスで開幕したデベロッパー・カンファレンスのre:Invent 2019で、独自の量子コンピューティングサービスとしてBraket(ブラケット)を発表した。

現在利用できるのはプレビュー版で、量子力学計算でよく用いられるディラックが発明したブラケット記法が名称の由来だ。ただしこの量子コンピューティングはAWSが独自に開発したものではない。D-Wave、IonQ、Rigettiと提携し、これらのシステムをクラウドで利用可能とした。同時にAWSは量子コンピューティングの専門組織を整備し、 Center for Quantum Computing(量子コンピューティングセンター)とAWS Quantum Solutions Lab(量子ソリューションラボ)を開設した。

Braketではデベロッパーは独自の量子コンピューティング・アルゴリズムを開発してAWSで実行をシミュレーションできる。同時にAWSを通じて提携パートナーの量子コンピュータハードウェアを用いて実際にテストすることが可能だ。これはAWSとして巧妙なリスクヘッジ戦略だろう。

AWSとしては量子コンピュータを独自に開発するための膨大なリソースを必要とせずに量子コンピューティングをサービスにとり入れることができる。提携先パートナーは自社の量子コンピューティングのマーケティングやディストリビューションにAWSの巨大なユーザーベースが利用できる。デベロッパーや研究者はAWSのシンプルで一貫したインターフェイスを利用して量子コンピューティングを研究、開発することができる。従来、個別の量子コンピューティングにアクセスするのは手間のかかる作業であり、いくつもモデルを比較してニーズに適合した量子コンピューティングを選ぶのは非常に困難だった。

Rigetti Computingの創業者でCEOのチャド・リゲッティ(Chad Rigetti)氏は「AWSとの提携により、我々のテクノロジーを広い範囲に提供することが可能になった。これは量子コンピューティングというマーケットの拡大を大きく加速するだろう」と述べた。D-Waveの最高プロダクト責任者、R&D担当エグゼクティブ・バイスプレジデントのアラン・バラツ(Alan Baratz)氏も同じ趣旨のことを述べている。

【略】

AWSが自社のデータセンターに直接量子コンピュータを導入したわけではないのが重要なポイントだ。簡単にいえばAWSは複数の量子コンピューティングに対して多くのユーザーになじみがある一貫したインターフェイスを提供する。個々の提携先企業はすでに量子コンピューティングを自社のラボやデータセンター内で稼働させていたが、それぞれインターフェイスが異なるため外部のユーザーがアクセスするのが難しかった。

これに対してBraketはAWSの標準的インターフェイスを通じて他のクラウドサービスと同様のマネージドコンピューティングを提供する。またデベロッパーはオープンソースのJupyter notebook 環境を通じてアルゴリズムをテストできる。Bracketにはこれ以外にも多数のデベロッパーツールがプリインストールされているという。また標準的量子コンピューティングやハイブリッドコンピューティングを開発するためのチュートリアル、サンプルも多数用意される。

また新たに開設されたAWSの専門組織は、研究者が量子コンピューティングのパートナーと協力、提携することを助ける。「我々の量子ソリューション・ラボはユーザーが量子コンピュータを開発している各社と提携することを助ける共同研究プロジェクトだ。これにより世界のトップクラスの専門家と提携し、ハイパフォーマンス・コンピューティングを推進できる」とAWSでは説明してる。

研究センター、ラボの開設はAWSにとって長期的な量子コンピューティング戦略の基礎となるものだろう。AWSの過去の動向から考えると、これはテクノロジーそのものの開発というよりむしろサードパーティが開発したテクノロジーに広い範囲のユーザーがアクセスできるプラットフォームを提供するところに力点が置かれるものとなりそうだ。

AWSのユーティリティ・サービス担当のシニア・バイスプレジデント、チャーリー・ベル(Charlie Bell)氏は次のように述べた。「量子コンピューティングは本質的にクラウド・テクノロジーであり、ユーザーは量子コンピュータにクラウドを通じてアクセスするのが自然だ。Braketサービスと量子ソリューション・ラボはAWSのユーザーがわれわれのパートナーの量子コンピュータにアクセスする。これにより新しいテクノロジーにどのようなメリットがあるのかは実際に体験できる。また量子コンピューティング・センターは大学を始め広く研究機関と協力し量子コンピューティングの可能性を広げていく」。

[原文へ]

(翻訳:滑川海彦@Facebook

AWSが開発者向けの機械学習キーボード 「DeepComposer」 を発表

米国時間12月2日、Amazon(アマゾン)はデベロッパーカンファレンスであるAWS re:Inventの開始とともにDeepComposerを発表した。

「AWS DeepComposerは、32キー、2オクターブのキーボードで、独自かあるいは訓練済みのモデルに関わらず、開発者がGenerative AIを体験できるように設計されている」と、AWSのJulien Simon(ジュリアン・サイモン)氏はAmazonの最新の機械学習ハードウェアを紹介するブログ記事で書いている。

このキーボードは、開発者が機械学習について楽しく学べるだけでなく、音楽を作ることもできる。また、人工知能で創造的な作品を生み出すことを「生成的ネットワーク」と呼ぶ。つまり、「生成的かつ敵対的なネットワーク」を使って、創造的なものを生み出すように機械に教えることができるのだ。

「開発者はMLや音楽の経験に関わらず、生成的かつ敵対的なネットワーク(GANs)から始めることができる。この生成的AIの技術では、2つの異なるニューラルネットワークを互いに比較し、サンプル入力に基づいて新しいオリジナルのデジタルワークを生成する。AWS DeepComposerを使えば、GANモデルをトレーニングして最適化し、オリジナルの音楽を作ることができる」と、アマゾンは述べている。

開発者は独自の機械学習モデルをトレーニングしたり、あるいはアマゾンが提供するモデルを使って学習を始めることができる。どちらの方法でも、モデルに基づいて音楽を作成し、AWSクラウド上のDeepComposerコンソールで微調整してから、音楽を生成する。必要であれば、完成した作品をSoundCloudで共有することもできる。

これは、2017年に導入されたDeepLensカメラや昨年導入されたDeepRacerレーシングカーに続き、Amazonからの3番目の機械学習の指導装置だ。なお、デバイスはまだ準備できていないが、アマゾンはユーザーがプレビューにサインアップできるようにしている。


[原文へ]

(翻訳:塚本直樹 Twitter