コンテナ仮想化のDockerがAWSと提携しワークフローを改善

DockerとAWSは米国時間8月9日、DockerのComposeとDesktopの開発者ツール、およびAWSのElastic Container Service(ECS)とECS on AWS Fargateの深い統合を発表した。これまでComposeファイルを取り込んでECS上で実行するワークフローは、開発者にとって困難なことが多かったと両社は指摘している。今回両社はこのプロセスを簡素化し、ローカルで実行中のコンテナとECS上で実行中のコンテナの切り替えを容易にした。

「Dockerと協力して、コンテナ化されたアプリケーションの構築とAWSへのデプロイに関する開発者の経験を単純化できることに非常に興奮している」 と、AWSのCompute Services担当VPであるDeepak Singh(ディーパック・シン)氏は語った「これにより顧客は、コンテナ化されたアプリケーションをローカルのDocker環境からAmazon ECSに直接デプロイすることが容易になった。このようにアプリケーション開発とデプロイメントが迅速になることで、顧客はアプリケーションの独自の価値に集中することが可能になり、クラウドへデプロイする方法を考える時間を削減できる」。

なお意外なことにDockerは昨年、エンタープライズ事業をMirantisに売却し、クラウドネイティブの開発者体験にのみ注力していた。

DockerのCEOであるScott Johnston(スコット・ジョンストン)氏は今年、TechCrunchのRon Miller(ロン・ミラー)に対し、「11月には業務や経営幹部、直販モデルに重点を置いていたエンタープライズ事業を切り離し、Mirantisに売却した」と語った。「その時点で残りのビジネスに開発者を注力させることが、2013年と2014年におけるDockerの本当の目的だった」。

このパートナーシップによって解決されるワークフローの問題は、すでにかなり前から存在していたことを考えると、本日の動きは新しい提携の一例といえるだろう。

Dockerは最近Microsoft(マイクロソフト)と戦略的パートナーシップを結び、Dockerの開発者エクスペリエンスをAzureのContainer Instancesと統合したことも注目に値する。

[原文へ]

(翻訳:塚本直樹 Twitter

AWSの上級役員技術者が社員の解雇に抗議してAmazonを退社

Amazon(アマゾン)では、メーデーのストライキに参加するために病欠をした労働者が多かったが、その中でTim Bray氏は、彼の同社での最後の日を過ごしていた。Amazon Web Servicesの副社長で「勲功技術者」(Distinguished Engineer)の称号を持つ」彼は今日(米国時間4/29)、5月1日はこのリテール大手における彼の最後の日であると発表し、批判的な発言をする社員をAmazonが解雇したことに言及した。

XMLの共同作者としていちばんよく知られていると思われるBray氏は、Amazonで5年あまりを過ごし、その前はGoogleとSunに在籍した。自分の記事の中で彼はAmazonを「これまでで最良の職場」と呼び、そのあとで、労働運動を組織したEmily Cunningham氏とMaren Costaly氏が解雇されたことを忍耐の限界と指摘している。

関連記事: アマゾンが従業員2人を追加解雇、パンデミック発生時の労働条件を批判

Costa氏とCunningham氏は、解雇がAmazonの環境に関する履歴やCOVID-19の危機の間における従業員の取り扱いを批判したことと直接関連していると述べているが、当然ながら同社はその関連を否定して、「われわれはこれらの社員を内規違反を繰り返したために解雇した」と言っている。

[Tim Bray: 金曜日はAmazonにおける私の最後の日だった。[サーバーがちょっとオーバーヒートしてるが、放っておこう。すぐ終わるから。]]

Bray氏はどうだったかというと、彼は公式のチャネルを通じて自分の懸念を述べたが、結局は辞めることになった、と言っている。

Bray氏はこう説明している: 「そうなった以上、Amazonの副社長として残ることは、自分が忌み嫌う行為を黙認することになる。だから、辞めた。被害者は抽象的な実体ではなく本物の人間だ。名前もある。Courtney Bowden、Gerald Bryson、Maren Costa、Emily Cunningham、Bashir Mohammed、Chris Smallsなどなど。全員が非白人または女性またはその両方なのは、確実に偶然だ。そう思いたいね」。

関連記事: Workers prepare to strike May 1, amid strained pandemic working conditions…パンデミックの不当な労働条件で5月1日に労働者たちがストを計画(未訳)

Bray氏の記事は、彼が役員として仕える企業の公正でない権力構造の告発だ。その記事は主に、全世界のAmazonの倉庫における措置にフォーカスしており、COVID-19への対応と、同社が間違いなく一つの役を演じてきた後期資本主義に関する広義の不平や苦情の両方に関わっている。彼はその措置を、彼自身がそれまでいた事業部であるAWSと比較している:

私が働いたAmazon Web Services(同社の「クラウドコンピューティング」部門)は、それとは全然違う。そこは労働者を人間的に扱うし、ワーク/ライフバランスにも努め、ダイバーシティの針を動かそうと苦労している(ほとんど失敗だがでもどこでもそうだ)。そして、大体のところ、倫理的な組織だ。私はそのリーダーシップを心から賞賛している。もちろん、ワーカーたちには力がある。平均給与はきわめて高く、気に入らない者はその日のうちに別の会社で、同額かまたはそれより高い給与の仕事を得られる。

Amazonは、コメントを拒否した。

画像クレジット: ANGELA WEISS/AFP / Getty Images

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

AWSが放送局級のライブ配信が可能になるデバイス「Elemental Link」をリリース

米国時間5月4日、AWSはElemental Link(日本語ページ準備中)を発表した。これはポータブルな動画圧縮、アップロード用ハードウェアデバイスで AWS Elemental MediaLive サービスと組み合わせて誰でも手軽に放送局レベルの高品位なライブ動画配信が可能となる。重さは500g、価格は995ドル(約10万6000円)で、カメラに接続すると動画にリアルタイムで強力な圧縮をかけてAWSのライブ配信サービスにアップロードする。

デバイスはファンレスなので耳障りな作動音はなくカメラの横に置ける。Etherntに加えてビデオ信号の入力用にHD-SDIとHDMのポートがある。LinkはAWSのライブ配信サービス、Elemental MediaLiveにライブ動画を供給するデバイスで、デバイスは接続速度を検出して最適なデータ出力を行う。AWSの管理コンソールからリモートで操作できる。

AWSのJeff Barr(ジェフ・バー)氏は発表で「放送局のような環境であれば、専用のハードウェアとエンジニアのチームが極めて高い水準でビデオのキャプチャ、エンコード、ストリーミング、保存を行う。しかし学校の授業、企業のプレゼンやカンファレンス、インディーのパフォーマンス、小規模なスポーツイベントなどでは、ハイエンドのビデオをライブ配信する予算やノウハウがないのが普通だ。高品質な動画を高い信頼性でストリーミング配信するにはこれまでは専用のハードウェアと操作が複雑なソフトウェアのインストールが必要だった」と説明する。

AWSは クライアントにネットワーク局を持つだけなく、最近人気が急上昇しているゲームビデオのTwitch TVの配信もホストしており、ストリーミングの経験は豊富だ。

もちろんLinkデバイスのターゲットは個人のゲーマーではなく高品位で安定したビデオ配信を必要とする企業などの組織だ。AWSのElemental MediaLiveサービスはTwitchのような一般ユーザー向けストリーミングプラットフォームよりは操作は複雑だ。また複数のカメラやパソコンなどビデオソースを切り替えながらライブ配信をしようとすれば、Open Broadcaster SoftwareのOBS Studioのようなソフト、BlackmagicのATEM Miniなどのハードが必要になるだろう。

Linkからインターネット経由でアップされたビデオはMediaLiveが処理し、外部の各種ストリーミングサービスに適したフォーマットで出力することになる。バー氏によれば、AWSはリソースのモデル化テンプレートを提供するCloudFormationを利用して簡単にこの設定が行えるよう準備をしているという。

原文へ

(翻訳:滑川海彦@Facebook

パンデミックが吉と出たクラウドインフラストラクチャのベンダーは売上が急増

企業のクラウドへの移行が安定的な動きとして始まっていたのは、COVID-19の影響よりも前からだと言っても過言ではない。それは2019年のRe:inventのキーノートでAndy Jassy氏が言ったように、AWSにとって十分な速さではないかもしれなかったが、でもそれが起きていたことは事実であり、クラウドインフラストラクチャの市場全体が売上の着実な増加を経験していた。

市場の主な選手たちの至近の四半期の決算を見ると、パンデミックと経済の低迷で成長が鈍化した気配もない。むしろそれは、成長に貢献しているのかもしれない。

Synergy Researchが発表した数字によると、クラウドインフラストラクチャの全体の市場規模は2020Q1で290億ドルである。

画像クレジット: : Synergy Research

長年この市場をウォッチしているSynergyのJohn Dinsdale氏によると、パンデミックはささやかながらその成長に貢献している。数字は伸びても企業が無傷であるわけではないが、でも企業がオペレーションをオフィスからシフトしていることも、第一四半期にクラウドの需要が増加した一因と思われる。

Dinsdale氏は、声明で次のように述べている: 「確かに、パンデミックはクラウドのプロバイダーにとっても問題だが、この先の見えない時期にあってパブリッククラウドは、正常なオペレーションを維持しようとして苦労しているエンタープライズに柔軟性と避難場所を提供している。クラウドプロバイダーの売上は目を見張るほどの成長率で伸びており、AWSとAzureを合わせた年商は600億ドルを優に超える勢いだ」。

100億ドルあまりの四半期売上で市場の1/3を支配するAWSが先頭を走り、マーケットシェアでは他の追随を許さない。二位のMicrosoft(マイクロソフト)は59%という急成長を見せ、市場の18%を握っている。数字を公表しないMicrosoftに代わってSynergyの試算によれば、Azureの四半期売上は52億ドルだ。一方Googleは、28億ドルで三位である。

それぞれ国内のマーケットシェアはAWSが32%、Microsoftが18%、Googleが8%だ。これらの比率はかなり安定しているが、しかしMicrosoftはここ数四半期の間に数ポイントを稼ぎ、成長率ではAmazonを上回っている。

関連記事: AWSのQ1は売上は1兆円を突破し年商4兆円超が視界に

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

SaaSアプリケーションとAWSサービスをデータフローで統合するAmazon AppFlowがローンチ

AWSが今日(米国時間4/22)、Amazon AppFlowローンチした。それはAWSとGoogle AnalyticsやMarketo、Salesforce、ServiceNow、Slack、Snowflake、ZendeskなどなどSaaSアプリケーションとの間の、データの移送を容易にするサービスだ。同様のサービスとしてMicrosoft AzureのPower Automateなどがあり、いずれも何らかのイベントをトリガーとして、一定の時間に、またはオンデマンドでデータの伝送を開始する。

しかし競合製品とやや違ってAWSはこのサービスを、ワークフローを自動化する方法としてよりもむしろ、データ伝送サービスと位置づけている。そしてデータフローは双方向が可能だが、AWSの発表は主に、SaaSアプリケーションからそのほかのAWSサービスにデータを送ってさらに分析する、という使い方にフォーカスしている。そのためにAppFlowには、伝送時にデータを変換するさまざまなツールがある。

AWSの主席アドボケイト(advocate, 製品推奨係)Martin Beeby氏が、今日の発表で次のように述べている: 「デベロッパーはSaaSアプリケーションとAWSのサービスの間でデータを受け渡して分析するために、大量の時間を費やして両者の統合のためのコードを書いている。それはとても高くつく仕事であり、数か月かかることもある。データの要求が変われば、そうやって書いた統合に、さらに高くつく複雑な変更を加えなければならない。技術的リソースが十分にない企業は、アプリケーションのデータを手作業でインポートしエクスポートしているかもしれない。それもまた時間がかかるし、データ遺漏のリスクがあり、人的エラーも入り込む」。

データのフローは、ソースのアプリケーションを呼び出してデスティネーションのAWSサービスに送る場合、AppFlowの料金体系では1フローにつき0.001ドルだ。しかし通常のAWSの使い方では、データ処理のコストもある。それは、1GBあたり0.02ドルからだ。

AWSの副社長Kurt Kufeld氏は次のように言う: 「弊社の顧客は、データの保存や処理や分析はAWSでやりたい、と言う。彼らはまた、サードパーティのさまざまなSaaSアプリケーションも使っていて、AWSとそれらのアプリケーション間のデータフローを管理するのが難しい、とも言っている。Amazon AppFlowは、AWSとSaaSアプリケーションのデータを、オープンで公共的ネットワークであるインターネット上で移動せずに、直感的なわかりやすいやり方で結びつける。Amazon AppFlowを使えば、企業のすべてのアプリケーションに散在する数ペタバイト、ときには数エクサバイトものデータをAWSに持ち込むことができ、しかもそのためにカスタムのコネクターを開発したり、APIとネットワークの接続性を管理する必要もない」。

サポートされているサービスはまだ比較的少なく、ソースが14、デスティネーションが4(Amazon RedshiftとS3、Salesforce、Snowflake)だ。デスティネーションとして、AmazonのストレージサービスS3しかサポートされていないソースもある。

もちろん、統合の数は今後増えるだろうが、今のところはサポートされるサービスがもっと多くなることを、AppFlowのチームの努力に期待したい。

AWSは長年、この市場を競合他社に譲ってきたが、しかしそれでも、AWSの複数のサービス間のサーバーレスのワークフローを作るツールAWS Step Functionsや、複数のアプリケーションをこれもサーバーレスで接続するEventBridgeなどがある。サポートされているサードパーティのソースは、今のところEventBridgeの方が多い。でも名前にEventがあるように、これはAWSでイベントをトリガーすることが主で、アプリケーション間のデータ伝送がメインではない。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

機械学習モデルをさまざまなハードウェアに合わせて最適化するOctoMLが16億円相当を調達

OctoMLは機械学習のコンパイラースタックプロジェクトApache TVMのチームが創ったスタートアップだ。米国時間4月3日に同社は、Amplifyがリードし、90万ドル(約4億2000万円)のシードラウンドをリードしたMadrona Venturesが参加したシリーズAのラウンドで1500万ドル(約16億円)を調達した。OctoMLとTVMの中核的なアイデアは、機械学習を使って機械学習モデルを最適化し、さまざまなタイプのハードウェアでより効率的に動くようにすることだ。

OctoMLのCEOでワシントン大学の教授Luis Ceze(ルイス・セズ)氏は「機械学習モデルの開発はかなり進歩しているが、モデルを手にした時点から例えば、それを実際にエッジやクラウドで有効に使うためにはどう活用するのかという大きな苦労が始まる」と語る。

そのためにセズ氏と彼のワシントン大学のアレンコンピューターサイエンススクール(Paul G. Allen School of Computer Science & Engineering)の仲間たちがローンチしたのが、TVMプロジェクトだ。今やそれはApacheのインキュベイティングプロジェクトであり、AWS、ARM、Facebook、Google、Intel、Microsoft、Nvidia, Xilinxなどの企業からの利用、サポートが多いことから、チームは本格的な商用化が必要と考えた。そこで生まれたのがOctoMLだ。今日では、Amazon Alexaのウェイクワードの検出にもTVMが使われている。

セズ氏はTVMを、機械学習のモデルのための新しいオペレーティングシステムだ、と説明する。「機械学習のモデルはコードではないため、そこにコンピューターが実行する命令はない。そこにあるのは、統計的なモデリングを記述する数字だ。そんなモデルを特定のハードウェアプラットフォーム上で効率的に動作させるには非常に多くの問題があります。実行性能の良い方法を決めるのは非常に困難なで、人間の直観を必要とする重要な作業です」。

そのためOctoMLと、そのSaaSプロダクト「Octomizer」が登場した。ユーザーは自分のモデルをこのSaaSへアップロードすると自動的にモデルはユーザーが指定したハードウェアとフォーマットに基づいて最適化され、ベンチマークされ、パッケージされる。さらに高度な使い方として、このサービスのAPIをCI/CDの工程中に加えるやり方もある。そうやって最適化されたモデルは、それが動くハードウェアを完全に有効利用するよう最適化されているため相当速いが、多くの企業にとってさらにありがたいのは、効率化されたモデルがクラウドの利用コストを下げてくれること。そして性能の低い安価なハードウェアを使っても、これまでと同じ結果が得られることだ。ユースケースによっては、TVMはすでに80倍のパフォーマンス向上を達成している。

現在、OctoMLのチームは約20名だ。今回の新しい資金で増員を予定している。採用されるのは主にエンジニアだが、エバンジェリストも雇いたいとセズ氏は言う。また彼によると、SaaSプロダクト「Octomizer」は出だしとしては良いが、本当の目標は機能がもっと完全に揃ったMLOpsのプラットフォームだとのこと。「OctoMLのミッションは、MLOpsを自動化する世界で最良のプラットフォームを構築することだ」とセズ氏は語っている。

[原文へ]

(翻訳:iwatani、a.k.a. hiwa

AWSの機械学習勉強用キーボード「DeepComposer」が1000円程度で買える

米国時間4月2日、AWSは同社のDeepComposerキーボードを単独で販売すると発表した。ただしDeepComposerは、ハッカー用のメカニカルキーボードではなく、AIを使ってユーザーの入力から曲を作るAWSのサービスであるDeepComposerで使う小さなMIDIキーボードだ。

2019年のAWS re:Inventで発表されたこのキーボードは、やや混乱を招いた。まず、Amazonの発表が一般向け製品のようだった。DeepComposerのサービスそのものは、ハードウェアのキーボードがなくても利用できる学習ツールで、キーボードのDeepComposerはその点で、同じくAWSのDeepLensDeepRacerのようなハードウェアに位置づけが似ている。それはデベロッパーに敵対的生成ネットワークについて教えることが目的で、同じくDeepLensとDeepRacerも機械学習の特定の技術にフォーカスしている。

ユーザーがハードウェアまたは画面上のキーボードを使って短いメロディーを弾くとDeepComposerサービスが、ユーザーが指定した曲調に基づいて自動的に伴奏を作り出す。昨年re:Inventで聴いたかぎりでは、出来栄えは好悪まちまちだったが、現在はもっと良くなっているかもしれない。しかし、これはトップ40に入るような曲を作るためのツールではなくて、あくまでも学習ツールだ。学習はこのキーボードがなくてもできると思うが、使ってみたい人は今やAmazonで買える

関連記事: なぜAWSはMIDIキーボードを売って機械学習を教えようとするのか

[原文へ]

(翻訳:iwatani、a.k.a. hiwa

AWSとIBMは新型コロナ問題に挑むデベロッパーを支援する

社会が新型コロナウイルス(COVID-19)のため高まりつつある世界的な危機に直面する中、多くの企業がさまざまな方法で取り組みを強化している。米国時間3月20日、2つの大手IT企業、Amazon(アマゾン)とIBMはそれぞれ、このパンデミックに関連するさまざまな問題の解決策を見つけられるようデベロッパーを支援するプログラムを発表した。

画像クレジット:VectorMine/Getty Images

アマゾンでは、クラウド部門のAWSが「AWS Diagnostic Development Initiative」を発表した。予算として2000万ドル(約22億2000万円)を確保し、AWSクレジットとテクニカルサポートとして提供する。このプログラムは、新型コロナウイルス診断問題に取り組むチームを支援し、鼓舞するように設計されており、より優れた診断ツールが開発されることを目指している。

「AWSビジネスにおいて、緊急の必要性を突きつけられた分野の1つは、新型コロナウイルスの診断方法の研究開発です。迅速で正確な検出と診断が必要とされています。優れた診断法は、治療と封じ込めを加速し、やがてこの流行期間を短くすることにつながるでしょう」と、Teresa Carlson(テレサ・カールソン)氏は、3月20日の同社のDay Oneブログに書いている。

このプログラムは診断ソリューションの開発に取り組んでいる顧客が、製品をより迅速に市場に投入できるよう支援することを目的としている。さらに、関連する問題に取り組んでいる複数のチームが、協力して作業の奨励も目指す。

同社はまた、科学者と健康政策の専門家から構成される諮問グループを設立し、このイニシアチブに参加する企業の支援も発表した。

一方IBMは「2020 Call for Code Global Challenge」というデベロッパーコンテストに、改めて注力することにした。このコンテストの2020年における憲章は、地球規模の気候変動に関する問題を解決するというものだったが、拡大するウイルス危機に関する問題の解決も目指すことにした。いずれも、オープンソースのツールを開発することで貢献しようというものだ。

「新型コロナウイルスは、非常に短い間に私たちが当たり前のことと考えていたシステムの限界をさらけ出してしまいました。2020 Call for Code Global Challengeは、3つの主要な新型コロナウイルス対策の領域について、オープンソースのテクノロジーソリューションを開発するためのリソースを提供します。その3つとは緊急時の危機報道、遠隔学習環境の改善、地域コミュニティの協力関係の増進です」と、同社はブログ記事に書いている。

そうした領域は、かなり多くの人がウイルスを封じ込めるために屋内に留め置かれていることで、大きな負担を強いられている。IBMは、そうした問題に取り組むデベロッパーのインセンティブを鼓舞し、問題の解決につなげることを願っている。

社会のあらゆる状況が影響を受ける社会的、経済的な激変期には企業、学界、政府が協力して、このウイルスに関する無数の問題を解決する必要がある。これらは、そのほんの一例に過ぎない。

原文へ

(翻訳:Fumihiko Shibata)

AWSがコンテナ用OS「Bottlerocket」を公開

AWSは、コンテナをバーチャルマシンと物理サーバーの両方で実行するための独自オペレーティングシステムを公開したBottlerocket(ボトルロケット)と名付けられた新OSは、基本的にLinuxのスリム化バージョンで、Container LinuxやGoogleのContainer-Optimized OSなどに似ている。新OSは現在デベロッパープレビューのフェーズだが、EC2のAmazonマシンイメージ(AMI)上でテストできる(あるいはAmaon EKSでも)。

AWSのチーフ・エバンジェリストであるJeff Barr(ジェフ・バー)氏の発表によると、BottlerocketはDockerイメージおよびOpen Container Initiativeイメージフォーマット準拠のイメージに対応しており、これはLinuxベースのコンテナは事実上すべて実行できることを意味している。

Bottlerocketを特徴づける機能の1つが、パッケージベースのアップデートシステムを使っていなことだ。代わりに、イメージベースのモデルを用いており、バー氏によると「必要な時に迅速かつ完全なロールバックが可能」だという。つまりはアップデートが簡単になるということだ。このアップデートプロセスの中核をなすのが「The Update Framework」で、これはCloud Native Computing Foundationが主催するオープンソースプロジェクトだ。

AWSは、自社ビルドのBottlerocketを(一般公開後)3年間サポートすると言っている。現時点でプロジェクトの焦点は当然ほぼ全面的にAWSに向けられているが、コードはGitHubで入手可能なのでAWS上の作業をベースに他者が拡張する可能性もある。Amazonは同プロジェクトを多数のパートナーと共同で立ち上げた。Alcide、Armory、CrowdStrike、Datadog、New Relic、Sysdig、Tigerera、Trend Micro、Waveworksなどが参加している。

「コンテナに最適化されたオペレーティングシステムは開発チームに新たなスピードと効率を与え、スループットを向上させセキュリティーや稼働時間を改善する」とDatadogのプロダクト管理責任者、Michael Gerstenhaber(マイケル・ゲルステンハーバー)氏と説明する。「Bottlerocket上でAWSを使えることを大いに喜んでいる。これでスケールを拡大しても顧客はこの恒久的環境を安心して監視し続けることができる」と続けた。

[原文へ]

(翻訳:Nob Takahashi / facebook

CircleCIとAWS GovCloudが協力して米国政府のアプリ開発のモダナイズを支援

民間企業と同じく合衆国政府も今はワークロードをクラウドへ移す過程にあり、ともに同じような課題に直面している。米国時間2月25日、継続的デリバリーサービスのCircleCIが、AWS GovCloudとのパートナーシップを発表し、AWSの政府向けプラットホームを使っている連邦政府機関のアプリケーション開発のモダナイズを支援していくことになった。

CircleCIのCEOであるJim Rose(ジム・ローズ)氏は「サーバーをわが社のオンプレミスで動かし、それを政府の顧客がAWS GovCloud上の専用の純粋なクラウドリソース上で動かすかたちになる」と語る。

GovCloudは、専用のシングルテナントクラウドプラットホームであり、そこで政府機関はFedRAMP準拠の安全なクラウドソリューションを作ることができる。また、ほかのクラウドベンダーにも同様のサービスがある。FedRAMPは、政府のためのセキュリティスタンダードの集合で、クラウドベンダーが連邦政府の仕事をするときには必ず準拠しなければならない。

CircleCIは、開発チームに急速なサイクルでアプリケーションに変更を行うための継続的インテグレーションと継続的デリバリー(continuous integrationとcontinuous delivery、CI/CD)パイプラインを構築する。

「GovCloudがあることによって、政府機関が求めているオンプレミスと同じレベルのセキュリティとサービスを、専用のシングルテナントのクラウド環境で提供することができる」とローズ氏は説明する。

また、ローズ氏によると、クラウドアプリケーションの構築には多くのステップがあるが、同社が提供するのは継続的デリバリーのパイプラインという基本部分だけだという。他の関連サービスは提供しない。彼が言うように、1〜2年に1回アップデートするだけのレガシーなメインフレームアプリケーションならCircleCIの出番はない。しかし開発環境をモダナイズしようとしたときには、同社のサービスが大きな助けになる。

さらに 「現代的なクラウドアプリケーションの開発工程では、1日に数百回も変更を加えることがある。しかも多くの場合、変更のソースはとても多人数が関わっており複雑で、マニュアルな管理はほぼ不可能なのだ」とローズ氏はいう。

同社はかつて、中小企業庁(Small Business Administration、SBA)の仕事をしたことがあるが、今後はそのときと同じように、省庁を直接相手にすることになるだろう。またときには、システムインテグレーターやAWSも関わってきて、彼らが大きなRFP(業者への提案依頼書)に載っていることもあるはずだ。

政府の仕事では、そこから論争が生じる場合があることも、ローズ氏は承知している。ChefでもSalesforceでもGoogleでも、一部の社員が国防総省(DoD)や移民局(ICE)の仕事はしたくない、とごねたことがある。そこでCircleCIは、国民との対話を改善する意思のある省庁の仕事に集中し、他の省庁とはお近づきになりたくない、とローズ氏はいう。

「我々のような立場は、政府の問題に深く関われるわけではないが、彼らの一部になるのではなく、常に集団の先頭に立っていたい。商用の仕事でも、政府系の仕事でも越えてはならない一線というものを、常に意識していたい」と決意を述べる。

[原文へ]
(翻訳:iwatani、a.k.a. hiwa

ハイブリッドITのオペレーションを助けるOpsRampが40億円超を調達

企業のITチームによる、ハイブリッド環境の理解と監視、管理、そして最も重要な項目である自動化を支援するOpsRampが米国時間1月30日、Morgan Stanley Expansion Capitalがリードする3750万ドル(約40億9100万円)の資金調達ラウンドの完了を発表した。これには、前からの投資家であるSapphire Venturesと新たな投資家Hewlett Packard Enterpriseが参加した。

OpsRampのこの前の資金調達は2017年で、そのときはSapphireが2000万ドルのシリーズAをリードした。

OpsRampのサービスの中核は、そのAIOpsプラットホームだ。このサービスは機械学習とそのほかの技術を利用して、近年ますます複雑性を増しているインフラストラクチャのデプロイとその管理を支援し、インテリジェントなアラートを提供するとともに、最終的にはチームのタスクの多くを自動化する。同社のプロダクトにはさらに、クラウドのモニタリングやインシデント管理のツールも含まれている。

同社によると、その年商は2019年に前年比で300%増加した(ただしその額は非公表)。顧客は1400社あり、またAWSやServiceNow、Google Cloud Platform、およびMicrosoft Azureなどのクラウドベンダーをパートナーにしている。

OpsRampの共同創業者でCEOのバルマ・クナパラジュ氏

共同創業者でCEOのVarma Kunaparaju(バルマ・クナパラジュ)氏によると、顧客企業の多くは大企業と中規模企業だ。同氏によると「これらの企業のITチームは大きくて複雑なハイブリッド環境を抱えていて、その単純化と一元化に苦労している。しかも、そういう思いとは裏腹にシステムとインフラストラクチャはますます分断化し、バラバラになっている。それでもなお、彼らは弊社のパートナーであるクラウドベンダーたちの成功に倣って、自分もFortune 5000社のグローバル企業の一員を目指したいと願っている」。

クナパラジュ氏によると、同社は今回の資金をマーケティングと製品開発の拡充に充てたいと考えている。「資金は主に、ヨーロッパ、中東、アフリカ、アジア太平洋などへの市場拡大に使いたい。ただしもちろん、北米におけるプレゼンスの拡張も重要だ。また、さまざまな方向性の製品開発にも力を入れたい」と続ける。

ハイブリッドクラウドは企業のITの負荷を増大し、利用するツールも増えるから、それを助けるOpsRampのようなスタートアップに投資家が着目するのも当然だ。今後このような投資案件は、さらに増えるだろう。

Hewlett Packard Pathfinderのトップで副社長のPaul Glaser(ポール・グレイザー)氏は 「我々も顧客企業のハイブリッドインフラストラクチャへの移行が増えている。そういう傾向に合わせて、OpsRampはITのオペレーションを管理するサービスとして差別化を図っており、それは弊社HPEの中核的戦略にもよく沿うものだ。OpsRampのプロダクトのビジョンと顧客企業からの支持を見ると、今は彼らの成長と拡大に投資すべき絶好のタイミングだ」と語る。

[原文へ]

(翻訳:iwatani(a.k.a. hiwa

ドイツのプロサッカーリーグがAWSと組んでファン体験の向上を目指す

ドイツのサッカーのトップリーグであるBundesliga(ブンデスリーガ)は米国時間1月24日、ゲーム中のファン体験をもっと面白くするためにAWSとパートナーして人工知能を利用すると発表した。

ブンデスリーガなどを運営する上位団体ドイツフットボールリーグ(DFL)のデジタルスポーツ担当執行副社長であるAndreas Heyden(アンドレアス・ヘイデン)氏によると、これはファンがゲームの放送を見ているだけか、それともオンラインの対話性があるかによって異なるかたちになる。

ヘイデン氏は「ファンがもっとエキサイトするようにテクノロジーを使いこなしたい。ファンの参加性(エンゲージ)が増すことによって、ファン体験のレベルを上げ、放送では適切なタイミングで適切なデータを見せ、アプリやWebでは体験を個人化したい」と語る。

それには個人化されたコンテンツを届けることも含まれる。同氏は「今の時代は一般的に、人々の注意力や関心が長続きしないから、ユーザーがアプリを開いたときの最初のメッセージは、その時のコンテキスト(状況)とその特定のユーザーに最も合ったメッセージでなければならない」と説明する。

ファンにリアルタイムで高度な統計データを見せたり、あるいは応援しているチームにとって重要な瞬間にゴールの可能性を予言してもいい。ヘイデン氏によると、それは数字でストーリーを語ることであり、事後データの報道ではないという。

同氏はさらに「テクノロジーを利用して、テクノロジーがなければ不可能だったストーリーを語りたい。人間の記者ならシュートが入る確率を当てることはできないが、AWSならできる」と続ける。

Amazon(アマゾン)のCTOであるWerner Vogels(ヴェルナー・フォーゲルス)氏によると、AWSのプラットホーム上で機械学習などの技術を利用して観戦体験の質を上げ、若いファン層を引きつけることはどんなスポーツにも有効だ。フォーゲルス氏は「次世代のファンが参加性のある熱心なファンに育つためには、ありとあらゆる手段による拡張ファン体験が必須だ」と語る。

同氏によると、テクノロジーがない時代にはそんな体験は不可能だった。「10年前には不可能だったが、今では機械学習を初めAWSが提供している先進的な技術と、それらの急ピッチな成長進化により、スポーツファンにリアルタイムで新しい体験を届けることができる」とフォーゲルス氏。

ブンデスリーガは単なるサッカーリーグではない。売上ベースでは世界第2位のプロサッカーリーグであり、スタジアムへの観客動員数では世界一だ。DFLとAWSの関係は2015年に始まり、そのときヘイデン氏がリーグのオペレーションをAWS上のクラウドへ移行した。本日の発表は、そこからの流れだ。

同氏によると、ほかのクラウド企業でなくAWSを使うことにしたのは偶然ではない。サッカーの大ファンであるフォーゲルス氏はハイデン氏の長年の知己だ。AWSはDFLに入る前から10年以上使っている。本日の発表は、そんな長い関係の延長線上にある。

関連記事:AWS is sick of waiting for your company to move to the cloud(AWSはあなたの会社がクラウドに移行しないことにしびれを切らしている、未訳)

[原文へ]

(翻訳:iwatani、a.k.a. hiwa

Cortexならデータ科学者でも機械学習モデルをクラウドで簡単にデプロイできる

実用的な機械学習モデルを作ることも大切だが、それを現実に利用できるようにすることも重要だ。Cortex Labs(コーテックス・ラボズ)は、その最後の段階を、データ科学者たちに提供するためのオープンソース・ツールを提供するアーリーステージのスタートアップだ。

同社の創設者は、バークレーの学生だったころ、機械学習モデルを開発する際に問題となるのは、それをデプロイする手段がないことだと気がついた。当時からオープンソースのツールは山ほどあったが、データ科学者はインフラストラクチャーの専門家ではない。

CEOのOmer Spillinger(オマー・スプリンガー)氏によれば、彼自身、CTOのDavid Eliahu(デイビッド・エリアフー)氏、エンジニアリング責任者のVishal Bollu(ビシャル・ボルー)氏、そして事業成長責任者のCaleb Kaiser(ケイレブ・カイザー)氏からなる創設チーム全員が、インフラストラクチャーをよく理解しているという。

この4人の創設者が行ったのは、オープンソースのツール一式を揃え、AWSサービスでそれらを結合させ、簡単にモデルをデプロイできる手段を提供することだった。「私たちはTensorFlow、Kubernetes、Dockerといったオープンソースツールを、CloudWatch、EKS(Amazon仕様のKubernetes)、S3などのAWSサービスで結合して、モデルをデプロイしたい開発者に、基本的にひとつのAPIを提供します」とスプリンガー氏は説明していた。

データ科学者たちが、書き出したモデルのファイルをS3のクラウドストレージにアップロードするようになったと彼は話す。「それを私たちは引き出し、コンテナ化して、裏でKubernetesにデプロイします。ワークロードのスケールは自動的に調整され、大量の演算が必要なときはGPUに切り替えが可能です。私たちはロゴをストリーミングして、(モデルを)ウェブで公開します。それに関連するセキュリティー管理を我々がお手伝いします。そんな感じです」と彼は言う。

 Amazon SageMakerに似ていることを彼も認めているが、同社は、すべての主要なクラウドに対応させることを長期目標にしている。SageMakerは、当然のことながらAmazonのクラウドでしか使えない。それに対してCortexは、事実上すべてのクラウドで使える。実際、この点において、最も多い機能上の要求が、Google Cloudへの対応だとスプリンガー氏は言う。またロードマップには、Microsoft Azureへの対応もあると彼は話していた。

Cortexの創設者たちは、2018年にEngineering Capitalから調達したシードラウンドの88万8888ドル(約9700万円)のおかげで、製品化までの間、なんとか生き延びてきた。この半端な数字が気になる方のために説明しておくと、ひとつには、スプリンガー氏の誕生日が8月8日であるという内輪のジョークから、もうひとつは、評価額が有効になるのがこの数字だったという理由からだ。

現在、同社はオープンソースのツールを提供し、開発者とデータ科学者のコミュニティづくりを進めている。ゆくゆくは、クラスターの管理をしたくない企業のためにクラウドサービスを構築して収益化を計る考えだが、それはずっと先のことだとスプリンガー氏は話していた。

画像クレジット:Usis / Getty Images

[原文へ]
(翻訳:金井哲夫)

Googleがインド第3位キャリアAirtelと組んで、AWSとAzureを追撃

AWSやMicrosoftにとってクラウドサービスの新たな主戦場になりつつある成長著しい海外市場。Googleは、同社クラウドサービスの顧客ベースを拡大すべく、インド第三位の通信事業者であるAirtelとパートナーシップを結んだ。

Google Cloudによる米国時間1月20日の発表によると、このパートナーシップは即日発効し、Airtelは中小企業に対して、同社ICTポートフォリオの一環としてG Suiteを提供できるようになる。

Airtelはインドに3億2500万あまりの契約ユーザーを持ち、2500社の大企業と50万あまりの中小企業やスタートアップにサービスを提供している。両社はこのパートナーシップの財務的詳細を明かしていない。

Google CloudのCEOであるThomas Kurian(トーマス・キュリアン)氏は、「G Suiteのコラボレーションと生産性ツールをAirtelの企業向けデジタルサービスと組み合わせれば、多くのインド企業のデジタルイノベーションを加速するだろう」という。

2019年8月にはインド最大の通信事業者、Reliance Jioが同様の契約をMicrosoftと結び、中小企業にクラウドサービスを販売していくことになった。この10年契約では、数百万の顧客にサービスを提供する、となっている。

クラウド市場のマーケットリーダーであるAWSは、通信事業者とのこのような契約を以前は交わしていたが、現在は結んでいない。10年前にはきわめて一般的に行われていたキャリアとの契約は、大手テクノロジー企業がインドで新規ユーザーを獲得するための常套手段だった。それはインドおける、クラウド採用の歩みの1つの段階を表している。

インドでは、過去10年間で5億人がネットを利用するようになった。また中小企業や商店経営者もデジタルツールやストレージサービスを使い、オンライン決済を利用するようになっている。ロビー集団、Nasscomによると、インドのクラウド市場の規模は3年後の2023年には70億ドルになるそうだ。

AmazonとMicrosoftとGoogleは、他の多くの市場と同様、インドでもクラウドの顧客獲得をめぐり激しく争っている。業界筋によると、お互いに機能面において傑出した違いがないため、見込み客の契約残高や決済残高をクラウドベンダーが肩代わりすることで顧客として取り込もうとしている。

そして最近では3社ともに、中小の商店主がWeb上で存在感を出せるようになるためのツールや教育訓練を提供している。Amazonは先週、インドにある約1000万の商店のオンライン化を助けるために10億ドルを投資する、と発表した

[原文へ]
(翻訳:iwatani、a.k.a. hiwa

AWS、カスタム推論チップのInferentiaを発表

AWSは米国時間123日にre:InventのカンファレンスにてInferentiaチップのローンチを発表した。この新しいチップは、その存在自体は昨年発表されていたもので、推論、すなわち前もって訓練された機械学習モデルを使用して、非常に高速かつ費用効果の高い推論を行うことができるのが特徴だ。

AWSCEOことAndy Jassy(アンディ・ジャシー)氏は、多くの企業がモデルを訓練するためのカスタムチップに注力していると述べている(ただしGoogleをはじめとする企業は、この意見に反対するだろう)。推論は通常のCPUでもうまくいく傾向があるが、カスタムチップの方が明らかに高速だ。AWSInfiretiaは、EC4上の通常のG4インスタンスにおいてレイテンシが低く、またスループットあたりのコストも40%削減できる。

新しいInf1インスタンスは最大2,000TOPSを達成し、TensorFlowPyTorchMXNetONNXフォーマットといったフレームワーク間でのモデルを移動の統合を特徴とする。今のところはEC2サービスでしか利用できないが、近くAWSのコンテナサービスと機械学習サービスのSageMakerにも提供される予定だ。

[原文へ]

(翻訳:塚本直樹 Twitter

NFLとAWSが機械学習の活用で頭部のケガを減らす取り組みを開始

米国ラスベガスで開催されたAWS re:Inventで、NFLのRoger Goodell(ロジャー・グッデル)コミッショナーはAWSのAndy Jassy(アンディ・ジャシー)CEOとともに登壇し、今後両者は機械学習を活用して頭部のケガの減少に取り組むことで協力していくと発表した。

画像:Ron Miller/TechCrunch

ジャシー氏はこの発表について「新たな戦略的パートナーシップを発表でき、たいへん嬉しく思う。このパートナーシップは、クラウドコンピューティング、機械学習、データサイエンスを組み合わせて、選手の健康と安全に寄与するものだ」と述べた。

NFLフットボールは大柄な選手たちがプレイする、スピードがあり危険なスポーツだ。ケガは日常茶飯事だが、NFLは特に大きな問題である頭部のケガを減らしたいと考えている。2017年の研究で、死亡した111人のNFLプレイヤー経験者のうち110人は慢性外傷性脳症(CTE)と診断されていたことがわかっている。

NFLにはプレイヤーに関する膨大なデータがあり、機械学習を行いやすい。数十年分のプレイを収めたビデオもあり、頭部を守るヘルメットの設計に役立つ有意義なシミュレーションができるだろう。また、アメフトにつきものである脳しんとうのリスクを減らせるようにルールの変更も進められる。

グッデル氏は、NFLにはデータは十分にあるがそれを生かす専門知識が不足していると認めている。そこでこのパートナーシップの出番だ。同氏は「パートナーとNFLとでゲームを変えていくような関係を結べることはほとんどない。このパートナーシップにとても期待している」と語る。

NFLの健康・安全イノベーション担当エグゼクティブVPのJeff Miller(ジェフ・ミラー)氏は、NFLはここ数年、試合中の頭部のケガを減らすさまざまな取り組みをしており、このパートナーシップはそのひとつだと語る。ミラー氏は今回の発表に関して「およそ3年半前、NFLは『エンジニアリング・ロードマップ』というプロジェクトを始めた。これはオーナーたちから数十億ドルの支援を受けて、フィールドで起こる脳しんとうの影響を研究し、頭部のケガを減らしたり、ヘルメット業界を進化させたりする取り組みだ」と述べた。

NFLエンジニアリング委員会のJeff Crandall(ジェフ・クランドル)委員長は、この取り組みには3つの柱があると述べている。1つ目は、フィールドで何が起きるのか、とりわけ誰がなぜケガをするかを把握すること。2つ目はそのデータをヘルメット業界と共有して、より安全性の高いヘルメットを作ること。そして3つ目はヘルメット業界に安全性の高いヘルメットを作るよう奨励することで、そのためにNFLは300万ドル(約3億2600万円)のヘルメットチャレンジ賞金を設けた。

AWSは、機械学習のツールセットとNFLが持つデータを連携させることで協力していく。AWSのAI担当バイスプレジデントであるMatt Wood(マット・ウッド)氏は、データがそろっていることは大きなアドバンテージであり、これらをデータレイクに入れAWS SageMakerのツールセットを使うことで、NFLが持つデータが理解でき、安全策を生み出せると語る。

頭部のケガがどのように発生するのか、激しい競技で可能な限りケガを防ぐにはどうすればいいのかを知ることに加えて、すべてのケガを減らせる安全性の高い器具をデザインし、ルールを変えるのが狙いだ。データを活用し機械学習のツールと組み合わせることで、こうした狙いを実現できるかもしれない。

[原文へ]

(翻訳:Kaori Koyama)

ベライゾンとAWSが5G Edgeコンピューティングで提携

Qualcomm(クアルコム)が今後数年間の5Gプランを強調し始めたのと同じくして、Verizon(ベライゾン)のCEOことHans Vestberg(ハンス・ベストバーグ)はAWS re:Inventのステージに登壇し、同社のチームがクラウドコンピューティング分野の巨人と協力することについて語った。

ベライゾンは今後、5Gエッジコンピューティングへの注力の一環として、新たに発表されたAWS Wavelengthを最初に利用することになる。同プラットフォームは、開発者が5Gデバイス向けの超低レイテンシのアプリを開発できるように、設計されている。

現在AWS Wavelengthは、FalloutとElder Scrollsの開発元であるNFLやBethesdaを含むいくつかの大手パートナーとともに、シカゴで試験運用されている。具体的なアプリケーションについての詳細はまだ不明だが(当然、リモートゲーミングやライブストリーミングが該当するだろう)、将来的にはスマートカー、IoTデバイス、AR/VRなどでも利用される可能性がある。

AWSのCEOことAndy Jassy(アンディ・ジャシー)氏は壇上で、「AWS Wavelengthは5Gネットワークの現場で利用されているのと同じAWS環境(API、管理コンソール、ツール)を提供する」と語った。「米国内のベライゾンの5Gネットワーク拠点を皮切りに、顧客はアプリケーションのレイテンシの影響を受けやすい部分をエッジに配置し、モバイルおよび接続デバイスに1桁ミリ秒の低レイテンシを提供することができる」

ベライゾンのCEOとCNO(最高ネットワーク責任者)のNicki Palmer(ニッキー・パーマー)はハワイにてクアルコムのイベントに参加し、次世代のmmWave(ミリ波)へのアプローチについて語った。この技術は、サービスエリアに関していくつかの疑問が存在する。ベライゾンはBoingoなどのサードパーティーと提携して、この問題にある程度対処してきた。

AWSは年末までに、米国の30都市でサービスを開始する予定だ。なお、現在は18都市にて提供されている。

【Japan編集部注】TechCrunchはVerizonのメディア部門に属している。
[原文へ]

(翻訳:塚本直樹 Twitter

AWSがUltraWarmティアをAmazon Elasticsearch Service向けに発表

AWSはAmazon Elasticsearch Service向けの新ティア(プラン)を発表した。これは、コスト削減につながる可能性があり、プレビューも公開されている。現在、Amazon Elasticsearch ServiceにはhotとUltraWarmの2つのストレージティアがある。

hotはパフォーマンスを重視する場合に、最も効果的なティアだ。hotではインデックス作成や、データへの高速アクセスが必要なすべての処理に使用できる。

UltraWarmでは最大900TBのストレージが利用でき、既存のオプションと比較して最大90%のコスト削減が可能だ。UltraWarmでは、Amazon Elasticsearch Serviceがデータブロックを調べ、そのブロックが頻繁にアクセスされているかどうかを判断する。アクセス頻度の低いデータはS3に移動され、コスト削減につながる。

興味深いことに、hotとUltraWarmの両方にわたってElasticsearchデータを照会し、表示できる。UltraWarmティアにてに保存されるデータは同じAPIを使用するため、すでに使用しているツールを使用できる。またこれまでのように、保存中および実行中の暗号化、統合されたアラート、SQLクエリーを有効にもできる。

UltraWarmティアではAWS Nitro Systemを利用して、データのキャッシュとクエリを実行する。顧客はアメリカ東部(北バージニア)および西部(オレゴン)地域からプレビューにアクセスできる。

[原文へ]

(翻訳:塚本直樹 Twitter

Amazon EKS on AWS Fargateが公開された

米国時間12月3日、ラスベガスで開催されているAWS re:Inventカンファレンスで、AWS FargateでEKS(Elastic Kubernetes Service)を利用できるようになったことが発表された。

画像:Ron Miller

EKSは、Amazonが提供するKubernetesのフレーバーだ。Fargateは2017年に公開されたサービスで、基盤インフラストラクチャを気にせずにコンテナアプリケーションを起動できる。

同社はこの新機能について発表するブログで「今日からAmazon EKSを使ってAWS FargateでKubernetesのPodを実行できる。Amazon EKSとFargateにより、Podのためのプロビジョニングやインフラストラクチャの管理は必要なくなり、AWS上でKubernetesベースのアプリケーションを簡単に実行できるようになる」と述べている。

Podは同一のKubernetesクラスタ上で起動されるコンテナの集まりだ。KubernetesではPodを自動で起動できることから、Podを自動で実行させるために必要な基盤インフラストラクチャをプロビジョニングすることにも意味がある。

同社はブログで「AWS Fargateにかかる費用は、Podを実行するのに必要なvCPUとメモリのリソースの分だけだ。これにはPodが要求するリソースと、Podとともに動作するKubernetesのコンポーネントを実行するために必要な少量のメモリが含まれる。Fargateで動作するPodは、既存の価格モデルに従う」と述べている。

つまり開発者は、オーバープロビジョニングを心配する必要はない。Fargateは、その時点でPodが動作するために必要なリソースだけを実行する仕組みになっているからだ。

この機能は同日から、米国東部(バージニア北部)、米国東部(オハイオ)、ヨーロッパ(アイルランド)、アジア太平洋(東京)で公開されている。

[原文へ]

(翻訳:Kaori Koyama)

Amazon Redshiftのクエリを10倍速くするAQUA

米国時間12月3日、AWSのre:InventカンファレンスでCEOのAndy Jassy(アンディ・ジャシー)氏は、同社のデータウェアハウスサービスであるAmazon Redshif向けのAQUA(Advanced Query Accelerator)を発表した。ジャシー氏が基調講演で述べたように、データを分析する際にデータウェアハウスをスケールすることは難しい。データウェアハウスやデータレイクが大きくなると、現在の高速ネットワークや高速チップをもってしても、ある時点でデータはネットワークや利用可能なコンピューティングを圧迫し始める。AQUAはこれに対処するためのもので、基本的にはハードウェアアクセラレーションキャッシュであり、クエリのパフォーマンスはクラウドベースのデータウェアハウスのコンピューティングに比べて10倍速くなるという。

同氏は「コンピューティングのためにどれほどのデータがネットワーク上で移動しなくてはならないかを考えてみてほしい。今はこのことが問題になっていない企業でも、生成されるデータの量を考えれば、すぐに問題になるだろう」と述べた。

ジャシー氏は「AQUAは求められるコンピューティングのパワーをストレージレイヤーに直接もたらす。Amazonの標準的なS3サービスの上位にキャッシュが置かれるため、必要な数のノードに必要なだけスケールできる」と説明した。

AWSは、このサービスを実現し、データ圧縮と暗号化をオンザフライで高速化するために、独自の分析プロセッサを設計した。当然、このサービスはRedshiftの現在のバージョンと100%互換性がある。

同日、AWSはさらに、Redshiftの次世代のコンピューティングインスタンス、RA3インスタンスも発表した。48個のvCPU、384ギビバイトのメモリ、最大64テラバイトのストレージを備える。これを利用して最大128インスタンスのクラスタを構築することができる。

[原文へ]

(翻訳:Kaori Koyama)