コンピュートリソースをエンドユーザーの近くに置くAWS Local Zonesが2022年から新たに30以上立ち上げ

2021年のre:InventカンファレンスでAWSは、30を超える新しいAWS Local Zonesを世界の主要都市に立ち上げると発表した。これらの新しいAWS Local Zonesは、2022年以降、21カ国(アルゼンチン、オーストラリア、オーストリア、ベルギー、ブラジル、カナダ、チリ、コロンビア、チェコ共和国、デンマーク、フィンランド、ドイツ、ギリシア、インド、ケニア、オランダ、ノルウェー、フィリピン、ポーランド、ポルトガル、南アフリカ)で利用できるようになる。

なお、AWS Local ZonesはAWSのインフラストラクチャのデプロイのタイプで、エンドユーザーやオンプレミスのインストレーションへの、AWS上のアプリケーションのレイテンシーが一桁のミリ秒以下という厳しい要求に応じるために、コンピュートとストレージとその他の選ばれたサービスを顧客の至近に置く。

画像クレジット:AWS

AmazonのCTO、Werner Vogels(ワーナー・ヴォゲルス)氏は、会場で「ローカルゾーンを、ヨーロッパと南アメリカ、アフリカ、アジア、オーストラリアなど世界全体で国際的に拡張するという発表を申し上げることに、私自身、心から感動しています。私の故郷であるアムステルダムも含まれるのです」と述べた。

AWSによると、これらの新しい場所には米国の16のLocal Zonesが含まれ、これらを合わせて世界中のエンドユーザーに、同社の顧客がさらに低いレイテンシーを提供できるようにする。現在のLocal Zonesがある米国の都市はボストン、シカゴ、ダラス、デンバー、ヒューストン、カンサスシティ、ラスベガス、ロサンゼルス、マイアミ、ミネアポリス、ニューヨーク市、フィラデルフィア、ポートランドだ。

画像クレジット:AWS

原文へ

(文:Aisha Malik、翻訳:Hiroshi Iwatani)

AWS、ローコードのアプリ開発ツール「Amplify Studio」を発表

2021年のre:InventカンファレンスでAWSは米国時間12月2日、Figmaに接続されるノーコード / ローコードサービスで、これによりデベロッパーはクラウドに接続されたアプリケーションを迅速に開発することができるAmplify Studio発表した。Amplify Studioは既存のAWS Amplifyサービスの拡張で、ウェブアプリケーションやモバイルアプリを作れるという基本機能は同じだが、Amplify Studioはドラッグ&ドロップのインターフェースなので使いやすい。

AWSは、Studioを人気のあるユーザーインターフェースデザインツールFigmaに接続するという、おもしろいことをしている。これによりデザイナーはインターフェースをFigmaで作り、そのあとデベロッパーがそれを自分のバックエンドデータに接続してStudioの中でアプリケーションのロジックを作る。そのためAWSが自分のツールを作る必要がなく、Amplify StudioがFigmaのデザインをReact UIのコンポーネントのコードに翻訳する。

画像クレジット:AWS

AWSのRene Brandel(ルネ・ブランデル)氏は、声明で「Studioの新しい『UI Library』(プレビュー)で、FigmaとAmplify Studioのコンポーネントを同期できます。またAmplifyには便利なFigmaファイルがあるため、仕事の開始が早い。AmplifyのFigmaファイルには、UIのプリミティブと既成のコンポーネントの両方があります。さらにStudioは、Figmaで作られた新しいコンポーネントも同期できます」。

画像クレジット:AWS

AmazonのWerner Vogels(ワーナー・ヴォゲルス)CTOによると、同社はこれを今でもデベロッパーファーストのサービスと見なしており、特にフロントエンドのエンジニアが対象だ。つまり、まだあちこちにコードを少し書かなければならないということだが、それによりデベロッパーは自分のアプリケーションを既存のDevOpsのパイプラインにエクスポートすることが容易にできる。

Amplify Studioでは、必要なら一部の既成コンポーネントを、AWS Cloud Development Kitを使って、デベロッパーがAmplify Studioの中でオーバライドしてもよい。AWSによると、これのおかげでデベロッパーは、ニーズや成長に応じてアプリケーションをスケールできないといった壁にぶつかることがない。

画像クレジット:AWS

原文へ

(文:Frederic Lardinois、翻訳:Hiroshi Iwatani)

AWSがコミュニティが主導する新Q&Aサービス「re:Post」を発表

AWSが2021年のre:Inventカンファレンスで、コミュニティが運営していくQ&Aサービス「re:Post」を発表した。この、技術的な障壁を取り除くことを目的とするサービスは、AWS Free Tier(AWS無料利用枠)に含まれ、AWSの顧客やパートナーや従業員が維持し運用する。

「AWS re:PostはAWSが管理するQ&Aであり、以前のAWS Forumsに代わって、AWSに関する技術的疑問や質問に対し、クラウドソースでエキスパートが評価した答えを提供する。コミュニティのメンバーは良い答えを提供したり、他のユーザーからの答えに対して議論することによって、評判点を稼ぎ「コミュニティエキスパート」のステータスを得ていく。それにより、すべてのAWSサービスで利用できる公開的知識が継続的に拡大していく」とブログで述べられている。

画像クレジット:AWS

同社によると、顧客は、AWSを使ってアプリケーションを作っている際、AWSのサービスやベストプラクティスに関する疑問を抱いたら、re:Postがそのための理想的なリソースになるだろうという。また顧客が、AWSの資格認定に備えるなどのために勉強しているときも助けてくれる。さらにre:Postは、顧客のチームがAWS上の設計やオペレーションに関して議論しているときにも役に立つ。しかもAWSに関する専門的知識や技能をコミュニティにシェアしていけば、あなた自身の評価も高まるとのこと。

re:Postは、内容を閲覧するだけなら登録は不要だ。登録した人は、プロフィールを作り、質問や答えを投稿して他の人たちとコミュニケーションをとることができる。プロフィールを作るとユーザーは自分のAWS証明をCredly(のバッジ)にリンクしてAWSの特定の技術やサービスへの関心を表現できる。AWS re:Postは新しい質問を自動的に、その内容や分野に適したコミュニティエキスパートに共有する。

画像クレジット:Ron Miller

原文へ

(文:Aisha Malik、翻訳:Hiroshi Iwatani)

アマゾンが地理的に複雑な環境をクラウドにつなぐ「AWS Cloud WAN」を発表

クラウドへ移行しようとする企業はあらゆる課題に直面する。地理的に複雑で広く分散している企業は、ネットワークの管理がいっそう困難だ。この問題を解決するために、Amazon(アマゾン)はAWS Cloud WANを発表し、AWSにソフトウェアで定義された広域ネットワーキングをもたらす。

Amazonの最高技術責任者であるWerner Vogels(ワーナー・ボーゲルズ)氏は、同社の提供サービスが増えるにつれ、全世界ネットワークを管理する複雑性が高まってきたことを説明した。「当社の一連のコンポーネントをもってしても、グローバルネットワークを構築して何百というオフィスをクラウドにつなげることは未だに大きなチャレンジです」とボーゲルズ氏が米国時間12月2日午前にラスベガスのAWS re:Inventで話した。

ボーゲルズ氏は、AWSユーザーのためにどうやって問題を解決できるか検討し始めた時のことを話した。「そこで私たちは、非常に広く分散したネットワークをクラウドに繋ぐために必要なあらゆる重労働を、どうすればお客様に乗り越えてもらえるかを考え始めました。そして本日、AWS Cloud WANを発表できることを大変喜んでいます。AWSを使って広域ネットワークを構築し、グローバル・トラフィックの管理、監視を行うことができます」。

使いたいリージョンを選び、繋ぎたいオフィスや施設を選択する。「一度定義すれば、すべてのリモートユーザーとサイトとデータセンターが自動的に地理的に最も近い設備にVPN経由または直接接続され、巨大なAWSバックボーンを使って数分のうちに、高信頼性、高可用性なソフトウェア定義広域ネットワークをAWSインフラの上で動かすことができます」と彼は言った。

この新機能のプレビュー版は、世界の複数のリージョンで利用できる。

画像クレジット:Amazon

原文へ

(文:Ron Miller、翻訳:Nob Takahashi / facebook

アマゾンが地理的に複雑な環境をクラウドにつなぐ「AWS Cloud WAN」を発表

クラウドへ移行しようとする企業はあらゆる課題に直面する。地理的に複雑で広く分散している企業は、ネットワークの管理がいっそう困難だ。この問題を解決するために、Amazon(アマゾン)はAWS Cloud WANを発表し、AWSにソフトウェアで定義された広域ネットワーキングをもたらす。

Amazonの最高技術責任者であるWerner Vogels(ワーナー・ボーゲルズ)氏は、同社の提供サービスが増えるにつれ、全世界ネットワークを管理する複雑性が高まってきたことを説明した。「当社の一連のコンポーネントをもってしても、グローバルネットワークを構築して何百というオフィスをクラウドにつなげることは未だに大きなチャレンジです」とボーゲルズ氏が米国時間12月2日午前にラスベガスのAWS re:Inventで話した。

ボーゲルズ氏は、AWSユーザーのためにどうやって問題を解決できるか検討し始めた時のことを話した。「そこで私たちは、非常に広く分散したネットワークをクラウドに繋ぐために必要なあらゆる重労働を、どうすればお客様に乗り越えてもらえるかを考え始めました。そして本日、AWS Cloud WANを発表できることを大変喜んでいます。AWSを使って広域ネットワークを構築し、グローバル・トラフィックの管理、監視を行うことができます」。

使いたいリージョンを選び、繋ぎたいオフィスや施設を選択する。「一度定義すれば、すべてのリモートユーザーとサイトとデータセンターが自動的に地理的に最も近い設備にVPN経由または直接接続され、巨大なAWSバックボーンを使って数分のうちに、高信頼性、高可用性なソフトウェア定義広域ネットワークをAWSインフラの上で動かすことができます」と彼は言った。

この新機能のプレビュー版は、世界の複数のリージョンで利用できる。

画像クレジット:Amazon

原文へ

(文:Ron Miller、翻訳:Nob Takahashi / facebook

AWSが新たにM1搭載Mac miniをクラウド化

米国時間12月2日に行われた「AWS re:Invent」カンファレンスの基調講演で、アマゾンのWerner Vogels(ワーナー・ヴォゲルス)CTO兼副社長は、AWSがEC2コンピュートサービスの一部としてM1 Mac miniを提供することを発表した。

AWSが初めてMac miniを同社のクラウドに導入したのは、2020年のことだった。これらのminiは、Thunderboltポートを使ってAWS Nitro Systemに接続され、他のインスタンスと同様にEC2クラウドで利用できるようになる。ここで使用されているミニは、標準的なM1チップ8コアマシンで、16GiBのメモリを搭載している。

新しいインスタンスは、2つのリージョン(米国西部のオレゴン州、米国東部のバージニア州北部)で、1時間あたり0.6498ドル(約73.51円)で提供され、AWSのSavings Planによる割引もサポートされる。AWSは、これらの新しいマシンが「iPhoneおよびMacアプリ構築のワークロードにおいて、x86ベースのEC2 Macインスタンスと比較して、価格パフォーマンスが60%向上している」と約束している。

画像クレジット:AWS

これらのマシンのユースケースは、今回のローンチでも変わらない。初代のMacインスタンスと同様に、ここでのアイデアは、デベロッパーがMac OSやiOS用アプリケーションをビルドしてテストするためのハードウェアを提供することだ。

最初のMacインスタンスが発売されたときには、すでにM1 Mac miniが展開されていたことを考えると、今回の発表はほとんどの人にとって驚きではないだろう。当時、AWSはM1マシンが「2021年初頭」に登場すると述べていたが、展開するには少し時間がかかったようだ。

画像クレジット:AWS

原文へ

(文:Frederic Lardinois、翻訳:Aya Nakazato)

AWSが機械学習をより簡単に拡張できるSageMakerの新機能をリリース

米国時間12月1日、AWSは毎年恒例のre:Inventカンファレンスで、機械学習(ML)モデルを構築、トレーニング、デプロイするマネージドサービスSageMakerに対する多数の新機能を発表した。Amazon(アマゾン)の機械学習担当副社長であるSwami Sivasubramanian(スワミ・シバスブラマニアン)氏は、今回の新機能は、ユーザーが組織内で機械学習を簡単に拡張できるようにすることを目的としていると述べている。

まず第一にAWSは、専門家を使って高品質のトレーニングデータセットをより迅速に提供する新しいSageMaker Ground TruthPlus(セージメイカー・グラウンド・トゥルースプラス)サービスを開始した。SageMaker Ground Truth Plusは、アクティブラーニング、事前ラベリング、機械検証のための機械学習技術などのラベリングワークフローを使用する。同社によれば、この新しいサービスはコストを最大40%削減し、ユーザーが機械学習に関する深い専門知識を持っている必要はないという。このサービスにより、ユーザーはラベリングアプリケーションを構築しなくてもトレーニングデータセットを作成できるようになる。SageMaker Ground Truth Plusは現在、Northern Virginia(バージニア北部)リージョンで利用できる。

同社はまた、ユーザーが最適なパフォーマンスとコストで機械学習モデルをデプロイするために、利用可能な最適なコンピューティングインスタンスを選択することを助ける新しいSageMaker Inference Recommender(セージメイカー・インファレンス・レコメンダー)ツールを開始した。AWSによると、このツールは適切なコンピューティングインスタンスのタイプ、インスタンスカウント、コンテナパラメーター、モデルの最適化を自動的に選択するという。Amazon SageMaker Inference Recommenderは、AWS China(AWSチャイナ)リージョンを除く、SageMakerが利用可能なすべてのリージョンで利用可能だ。

さらにAWSは、新しいSageMaker Serverless Interface(セージメイカー・サーバーレス・インターフェース)オプションのプレビューをリリースした。これによって、ユーザーは基盤となるインフラストラクチャを構成または管理しなくても、推論のための機械学習モデルを簡単にデプロイすることができる。この新しいオプションはNorthern Virginia、Ohio(オハイオ)、Oregon(オレゴン)、Ireland(アイルランド)、Tokyo(東京)、Sydney(シドニー)の各リージョンで利用可能だ。

画像クレジット:TechCrunch

AWSはまた、GPUインスタンスをより効率的に使用することで、ディープラーニングモデルのトレーニングを最大50%高速化できる新機能SageMaker Training Compiler(セージメイカー・トレーニング・コンパイラー)をリリースした。この機能は、高級言語表現からハードウェアに最適化された命令に至る、ディープラーニングモデルをカバーしている。この新機能は、Northern Virginia、Ohio、Oregon、Irelandで利用できる。

最後にAWSは、Amazon Elastic MapReduce(EMR、アマゾン・エラスティック・マップレデュース)で実行されているApache Spark(アパッチ・スパーク)ジョブを、SageMaker Studio(セージメイカー・スタジオ)ノートブックからユーザーがクリックするだけで、直接監視およびデバッグできるようになったと発表した。同社は、EMRクラスターをSageMaker Studioから直接発見、接続、作成、終了、および管理できるようになったと述べている。

「したがって、EMRとの統合が組み込まれたことで、単一のユニバーサルSageMaker Studioノートブック内から、ペタバイトスケールでインタラクティブなデータ準備と機械学習を行うことができるのです」とAWSはブログ投稿の中で説明している。

このSageMaker Studioの新機能はNorthern Virginia、Ohio、Northern California(カリフォリニア州北部)、 Oregon、 central Canada(カナダ中央)、 Frankfurt(フランクフルト)、 Ireland、 Stockholm(ストックホルム)、 Paris(パリ)、 London(ロンドン)、 Mumbai(ムンバイ)、 Seoul(ソウル)、 Singapore(シンガポール)、 Sydney(シドニー)、 Tokyo(東京)、Sao Paolo(サンパウロ)の各リージョンで利用できる。

これに関連したノートの中で、AWSは開発者が機械学習技術を学び、その技術を実験することを支援する無料サービスであるSageMaker Studio Labを立ち上げたことを発表した。また米国時間11月30日には、AWSはAmazon SageMaker Canvasと呼ばれる新しい機械学習サービスを発表した。新しいサービスによって、ユーザーはポイントアンドクリックインターフェイスを使って、機械学習予測モデルを構築できるようになる。

関連記事:AWSがノーコードのMLサービス「Amazon SageMaker Canvas」を発表

画像クレジット:AWS

原文へ

(文: Aisha Malik、翻訳:sako)

AWSが機械学習を学ぶための無料ツール「SageMaker Studio Lab」を発表、奨学制度も立ち上げ

AWSは米国時間12月1日のre:Inventカンファレンスで、SageMaker Studio Labを発表した。デベロッパーは、この無料サービスを利用して機械学習の技術を学び、実験をすることができる。Studio Labはユーザーに、最初に必要な基礎をすべて、JupyterLab IDE、CPU上とGPU上のモデルの訓練、そして15GBの永続的ストレージを提供する

またAmazonは同時に、AWS AI & ML Scholarship Program(AIとMLの奨学事業)を立ち上げた。1000万ドル(約11億3000万円)の奨学金をAmazonが提供し、授業はIntelとUdacityの協同で行われる。それにより2000名の生徒がUdacity Nanodegree(得られる奨学金をもらい、またAmazonとIntelの社員たちがメンター役を引き受ける。

AWSの機械学習担当副社長であるSwami Sivasubramanian(スワミ・シバスブラマニアン)氏は次のように述べている。「本日発表した2つの企画は、機械学習を学ぶための教育機会を大きく開き、この技術に関心のある人なら誰でも勉強できるようになります。機械学習はこの世代にとって、最高に重要な変革的技術の1つです。この技術のポテンシャルを全開にできれば、世界の困難な問題の一部も解決できます。そのためには、あらゆるバックグラウンドの体験知識と人生経験を持つ、最良の心の持ち主たちに参入して欲しい。私たちはこの奨学制度によって多様な未来のワークフォースに閃きを与え、心を動かしていただきたい。多くの人の機械学習の開始を妨げていた費用という壁は壊れるでしょう」。

画像クレジット:AWS

Studio Labで勉強を始めるためには、登録をして無料のアカウントを取得しなければならい(2000名という制限がある)。ただし、アクセスのためのその他の要件はまだ不明だ。

AWSのAntje Barth(アンティエ・バース)氏が、発表で次のように述べている。「AWSでの私たちのミッションは、機械学習を誰にでもアクセスできるものにすることです。過去数年間のいろいろな会話から、MLの初心者が直面する壁がわかってきました。現在のMLの環境は初心者にとって難しすぎるものが多く、また制約が多くて現代的なMLの実験をサポートできません。また初心者たちは、今すぐにでも勉強を始めたいと思っており、インフラストラクチャや、サービスの構成、予算超過を防ぐための警告的請求などと関わりたくありません。登録の際に要求される請求やクレジットカード関連の情報提示もまた、険しい壁の1つです」。

画像クレジット:TechCrunch

原文へ

(文:Frederic Lardinois、翻訳:Hiroshi Iwatani)

AWSがチャットボット設計の作業時間を大幅短縮できる新機能を発表

ラスベガスで米国時間12月1日に開催されたAWS re:Inventにおいて、AWSは自動化によってチャットボットのトレーニングとデザインのプロセスを簡略化する新機能、Amazon Lex自動化チャットボットデザイナーのプレビュー版を発表した。

Amazon AIの副社長Swami Sivasubramanian(スワミ・シバスブラマニアン)氏は、同日のAIと機械学習のキーノートで「数週間かかっていたボットの設計を数時間に短縮する新機能、Amazon Lex自動化チャットボットデザイナーを発表できることをうれしく思います」と述べた。

これは、深層学習技術を用いた高度な自然言語理解を活用することで実現している。実際、開発者は過去の通話トランスクリプトを使って設計された基礎的なチャットボットを、わずか数クリックで作成できる、とシバスブラマニアン氏は語った。

「Amazon Lexの自動化されたチャットボットデザイナーは、通常、数時間で1万行のトランスクリプトを分析し、『新しい請求をする』や『請求状況を確認する』などの意図を特定することができます。これらの意図がしっかりと分離されていて、重複していないことを確認してくれるので、試行錯誤する必要がありません」。

この自動化がなければ、非常に手作業的で面倒な開発者の仕事になってしまう、と同氏は指摘する。「チャットボットの組織設計は非常に複雑で、手作業であり、エラーが発生しやすいものです。話し言葉のニュアンスや人間同士のやりとりを理解する必要があり、このような特別な専門知識がないと、開発者はよくあるユーザーの要望や、この問題を解決するために必要な情報などを見つけるために、過去の通話トランスクリプトをすべて念入りに調べるのに何百時間も費やすことになります」。

AIの一般的なユースケースを考えると、確かにチャットボットが思い浮かぶ。新しいコンピューターの注文方法や、生まれたばかりの子どもを会社の健康保険に加入させる方法などの質問に答えるといった、社内用に設計されている場合もあれば、重要な情報を収集して簡単な質問に答え、複雑な質問は人間のカスタマーサービス担当者につなげる顧客サービスのフロントエンドとして機能する場合もある。

より精度の高いチャットボットを簡単に作れるようにするために、多くのスタートアップが取り組んでいるが、Amazonのような企業にとっては、顧客が他のAIや機械学習プロジェクトと合うプラットフォーム上のソリューションを求めているかもしれず、敷居の低いものとなっている。

Amazon Lexの自動化されたチャットビルダーは、本日からプレビューで利用できる。開発者は、プレビュー段階ではこの機能を無料で使用することができるが、一般提供が始まると、ツールがトランスクリプトを分析して意図を特定するのにかかる時間に応じて課金される。

画像クレジット:Amazon

原文へ

(文:Ron Miller、翻訳:Nariko Mizoguchi

AWSのデータベース移行サービス「Fleet Advisor」はDB移転作業を数週間から数時間に短縮

2年前のAWS re:Inventで、そのときAWSのCEOだったAndy Jassy(アンディ・ジャシー)氏が、クラウドへの移行のペースが遅いのにはうんざりとぶちまけ、移行をもっと早くする方法を見つけたいと語った。ところが新CEO、Adam Selipsky(アダム・セリプスキー)氏は米国時間11月30日の開会のキーノートで、その移行がまだ相当に遅く、現時点でクラウドに移行したワークロードは全体の5〜15%にすぎないと述べた。

ペースが遅い原因の一部は、クラウドへ移行すればいいことはわかっていても、データをオンプレミスからクラウドへ引っ越す作業が大変すぎることだ。しかもそれはデータの物理的な移動であるだけでなく、データをオンプレミスのレガシーなデータベースから、クラウド上の最新データベースへ構成し直さなければならないためだ。

複数のタイプのデータベースを使っている企業は、クラウドへの移行のためにそれらに完全にマッチした正しいデータベースを見つけることが、これまた大変だ。そこで、そのような問題を熟知しているAmazonは、顧客のクラウドへの移行をもっと簡単にしたいと考えた。

米国時間12月1日、同社が導入したAWS Database Migration Service(DMS) Fleet Advisorはそのためのツールで、データのクラウドへの移転を容易かつ迅速にし、それを正しいデータベースサービスにマッチさせる。

Amazon AIの副社長Swami Sivasubramanian(スワミ・シバスブラマニアン)氏は、12月1日のAIと機械学習に関するキーノートで次のように語っている。「DMS Fleet Advisorは、あなたのオンプレミスのデータベースとアナリティクスサービスの内容を、オンプレミスからAmazon S3へのデータのストリーミングによって自動的に構築します。そしてそこから先は、私たちの仕事になります。私たちはデータを分析、AWS Datastoreに合った大きさにマッチさせ、それから現状に合ったマイグレーションプランを提供します。これまで数週間から数カ月かかったこの作業が、数時間で終わります」。

シバスブラマニアン氏が指摘するのは、このアプローチが速いだけでなく、データの移動をサードパーティのコンサルタントに頼ることがないため安価でもあることだ。「これによりデータインフラストラクチャのモダナイズが極めて容易になり、目的に適った強力なリレーショナルデータベースが得られます」と氏は語った。

画像クレジット:AWS

原文へ

(文:Ron Miller、翻訳:Hiroshi Iwatani)

【コラム】「本を売ることと何の関係があるのですか?」その頃、誰もAWSの価値をわかっていなかった

米国時間11月30日午前、Adam Selipsky(アダム・セリプスキー)は2021年にAndy Jassy(アンディ・ジャシー)氏からCEOを引き継いで以来、初めてAWS re:Inventカンファレンスの基調講演を行った。重責をともなう任務だったが、それはセリプスキー氏がAWSチームをまったく知らなかったという意味ではない。事実、彼はごく初期からこの部門に関わり、ジャシー氏を助けてAWSを巨大ビジネスに育てた後、2016年に退社してTableau(タブロー)のCEOになった。

初日は歴史を学ぶことから始めたが、背景を知るために誰か頼る必要はなかった。なにしろかつてシアトルでウェブサービスを売るという得体のしれないアイデアの扉を開いた時、彼はそこにいたのだから。

セリプスキー氏が初期の潜在顧客にクラウドインフラストラクチャーのコンセプトのプレゼンテーションをした時、誰も理解できなかった。「これが本を売ること何の関係があるのですか?」と繰り返し聞かれた。

なんと答えたのかを同氏は明かさなかったが、私の予想は「何の関係もありません。すべてに関係があるのです」だ。数年前、Amazon CTOのWerner Vogels(ワーナー・ボーゲルズ)氏と一緒の講演で、セリプスキー氏は似たような話をした。当時同氏は、Amazonが何かを売ることを目的にしたことはないといった。目的は大規模なウェブビジネスを構築することだ。

現在のクラウドインフラストラクチャーベンダーのトップ3、Amazon、Microsoft(マイクロソフト)、Google(グーグル)を見てみると、いずれもビジネスを大規模に展開することが非常に得意であり、データセンターの運営が主要な位置を占めている。今振り返れば、ブックセラーがインフラストラクチャー・サービスを売るアイデアを思いつくことは、ほとんど論理的に思えるが、もちろん当時はそうではなかった。

2005年、クラウドとは何かを本当にわかっている人はいなかったし、いたとしてもそれは広く理解されているコンセプトではなかった。私が初めてこの用語を聞いたのは、ボストンでWeb 2.0カンファレンスが行われた2008年頃だった。そこでは、Amazon、GoogleとSalesforce(セールスフォース)の担当者が、クラウドは何であるか、なぜ重要なのかを話していた。

多くのIT関係者がマイクの前に並んで質問とコメントを浴びせ、反発を露にしていたことを覚えている。彼らに会社のデータを本屋に預けるつもりがなかったことは間違いない。そうするまでは。

セリプスキー氏自身でさえ、参加した当初は完全には理解していなかった。最近Bloomberg(ブルームバーグ)のEmily Chang(エミリー・チャン)氏のインタビューで彼はこう話した。「受けた電話はこんな風でした、『このプロジェクトはAmazonの根幹を引っ張り出して、世間にさらけ出すことです』。そしてそれは興味をそそりましたが、一体なんのことなのか完全にはわかっていなかったことを白状します」。

アンディ・ジャシー氏はアイデアの起源について2016年のTechCrunch記事で説明している。それは2003年の幹部たちによる社外でのブレインストームミーティングのときだった。

ジャシー氏はこう振り返る。仕事を進めていくつれ、チームは自分たちがコンピュート(計算)、ストレージ、データベースなどのインフラストラクチャーサービスの運用がかなり得意になっていることに気づいた。さらに重要なのは、信頼性の高い、スケール可能でコスト効果の高いデータセンターを運営することに関する高いスキルを、彼らが必要に迫られて身に着けていたことだった。Amazonのような薄利のビジネスでは、できる限り無駄を減らし効率を上げる必要があった。

その時だった。完全に言葉にすることさえなく、後にAWSとなるアイデアをみんなで練り始め、デベロッパーにインフラストラクチャー・サービスを提供する新ビジネスを始めたらどうだろうかと考え始めた。

そしてついに、彼らは2005年にセリプスキー氏を採用する時に説明したことを成し遂げた。書籍販売ウェブサイトの中心部をさらけ出し、顧客に販売した。それは本を売ることとはあまり関係なかったが、すべてに関係があった。そして今そのアイデアは600億ドル(約6兆7840億円)のビジネスになっている。

画像クレジット:Amazon

原文へ

(文:Ron Miller、翻訳:Nob Takahashi / facebook

AWSがクラウド上のデータベースの問題を診断・修正する新ツールを発表

米国時間12月1日、AWSがユーザーがリレーショナル・データベース(関係データベース)の問題を容易に検出、診断、そして解決できるためのサービスを発表した。「DevOps Guru for RDS」というサービスは、AWSの完全な管理をともなうマネージド関係データベースプラットフォームであり、2020年、機械学習サービスの問題を検出するためにローンチしたDevOps Guru系列の一環だ。

Amazon AIの副社長であるSwami Sivasubramanian(スワミナ・サンシバスブラマニアン)氏が発表で、は多くの企業にとってデータベースの管理が優れていることが差別化要因にならないため、クラウドのマネージドサービスに下駄を預ける企業が多くなっていると述べた。しかしながら、そうであっても顧客たちはこれらのサービスを管理するためのより多くの自動化ツールを依然として求めている。特に要望が多いのは、パフォーマンスの診断の部分だとサンシバスブラマニアン氏はいう。

画像クレジット:TechCrunch

「いっそのこと、データベースに問題が起きたらアラートが鳴り、明確なガイダンスがもらえるようにしたらどうだろう?このままだとデータベースがロックしてユーザーのeコマースサイトが遅くなるという警告がもらえたらよいのではないか?原因となっている不正なSQLの文を教えてくれたら?」とサンシバスブラマニアン氏はいう。

DevOps Guru for RDSはそんなユーザーを助けて、彼らが、何らかの理由でパフォーマンスメトリクスがスパイクしたときの問題を検出できるようにする。このサービスは、データベースの中で生じているアクティビティを見て、異常を警告する。そしておそらくもっとも重要なのは、原因を分析して、変更方針を推奨してくれることだ。今後は、可能な場合には自動的に問題を修復してくれるだろう。

関連記事:AWSが運用上の問題を自動的に発見するDevOps Guruを発表

画像クレジット:TechCrunch

原文へ

(文:Frederic Lardinois、翻訳:Hiroshi Iwatani)

AWSが新インスタンス用「Graviton 3」プロセッサーを発表、高速化と低電力消費を両立

米国時間11月30日、re:InventカンファレンスでAWSが、ArmベースのGravitonプロセッサーの新世代モデル、Graviton 3を発表した。この新しいチップは前世代機より25%速く、浮動小数点演算は2倍速く、機械学習のワークロードが3倍速いと約束されている。AWSはさらに、この新しいチップの電力消費量は前世代機より60%少ないと保証している。

この新しいチップは、AWSクラウドののEC2 C7gインスタンスを動かす。この新しいインスタンスはDDR5メモリーを初めて使うインスタンスでもあるため、これもこのインスタンスの電力消費量が少ない理由の1つだ。このメモリーは、前世代のGravitonチップが使っていたDDR4メモリーよりも50%高い帯域を提供する。

AWSのJeff Barr(ジェフ・バー)氏は発表で述べているように、新しいチップとインスタンスは「コンピュート集約的なHPC(high-performance computing)」「バッチ処理」「電子機器設計自動化(electronic design automation、EDA)」「メディアエンコーディング」「広告サービング」「分散アナリティクス」「CPUベースの機械学習の推論」といったさまざまなワークロードに適しているという。

現在のところ、この新チップはプレビューのみで提供される。


画像クレジット:Ron Miller

原文へ

(文:Frederic Lardinois、翻訳:Hiroshi Iwatani)

AWSが自動車業界向けの新サービス「AWS FleetWise」と「AWS Automotive」を発表

AWSは米国時間11月30日、年次カンファレンス「re:Invent」において、自動車業界向けの2つの新しいイニシアティブを発表した。1つは新製品の「AWS FleetWise」で、自動車メーカーが保有する車両フリートからセンサーやテレメトリデータを簡単に収集・取得できるようにする新サービスだ。もう1つは、AWS for IndustrialなどのAWSの他の業界向けソリューションと同様に、同社の様々な製品を1つの傘の下にまとめた、より広範で業界に特化した取り組みである「AWS Automotive」だ。

センサーデータを収集することは、自動車メーカーにとって必ずしも新しいことではない。しかし、FleetWiseは、自動車メーカーに多くの柔軟性を与えるエンドツーエンドのソリューションを提供することを約束する。企業によって、クラウドに転送するデータ量を減らすために、車上でデータをスマートにフィルタリングしたり、エンジン温度などの特定のセンサーからのデータだけを取り込んだり、あるいは、本当にすべてのデータを取得したいのかもしれない。どのようなデータが必要かは、各自動車メーカーの判断に委ねられる。

画像クレジット:AWS

AWSのオートモーティブIoT部門のゼネラルマネージャーであるMike Tzamaloukas(マイク・ツァマロウカス)氏によると、どのようなデータを使用するにしても、FleetWiseを使い始めるためには、メーカーはまず、多くの自動車メーカーがすでに採用しているオープンソースのVehicle Signal Specification(VSS)を使用して、車両とそのセンサーを記述し、モデル化する必要があるという。

その後AWSは、FleetWiseと連携してデータを収集するためのソースコードを自動車メーカーに提供する。自動車メーカーの開発者は、このコードを必要に応じて変更し、車両ゲートウェイに組み込むことができる。また、メーカーのエンジニアは、実際の車両からデータを収集するためのデータ収集キャンペーンを開始することができる。

「データ収集キャンペーンの可能性は無限大です。当社は、データ収集キャンペーンを単なる時間ベース、イベントベースではなく、フリート全体でのインテリジェントなデータフィルタリングにするという点で、限界に挑戦しています」とツァマロウカス氏は説明している。「これにより、自動車メーカーに対して、あらゆる種類の車両から生成されるテラバイト級のデータを、より高いS/N比で取り込む能力を提供したいと考えています」。

ツァマロウカス氏は、FleetWiseが2022年に一般発売され、2024年頃にはFleetWiseを搭載した車が販売されるようになると予想している。これらのデータの多くは自動車メーカーのバックエンドに残るかもしれないが、その一部をドライバーにも提供できるようにし、より詳細な月次の車両ヘルスレポートの形で提供できるようになるかもしれないと、同氏は述べている。

AWS for Automotiveについては、同イニシアティブの責任者であるDean Phillips(ディーン・フィリップス)氏が、自動車業界向けにAWSの機能を明確にするための手段と考えていると話してくれた。「AWS for Automotiveには非常に期待しています。なぜならば、AWSが提供する様々なソリューションをお客様に明確に伝える助けになるからです」と彼は語った。これらのソリューションには、自動車メーカーが必要に応じて採用できる様々なソリューション領域が含まれており、最先端の自律型モビリティサービスから、製品エンジニアリングサポート、サプライチェーントラッキング、デジタルカスタマーエンゲージメントソリューションまで多岐にわたっている。

画像クレジット:TechCrunch

原文へ

(文:Frederic Lardinois、翻訳:Aya Nakazato)

AWSがデータ管理の改善を目的とした4つの新たなストレージサービスを発表

AWSは年次カンファレンス「re:Invent」で、より多くの選択肢の提供、コスト削減、顧客のデータ保護強化を目的とした4つの新しいストレージサービスおよび機能を発表した

1つ目のサービスは、Amazon S3 Glacierという新しいストレージクラスで、アーカイブデータにミリ秒単位でアクセスできるように設計されている。AWSによれば、このストレージクラスを利用することで、顧客は長期保存されていてほとんどアクセスされることはないが、要求があればすぐに取り出す必要があるデータに対して、クラウド上で最も低コストのストレージを実現することができる。

AWSはまた、新しいAmazon FSx for OpenZFSサービスを開始した。これは、オンプレミスのコモディティファイルサービスに保存されているデータを、アプリケーションコードを変更することなく、簡単にAWSに移行できるようにするものだ。AWSによると、この新サービスを利用することで、長大な認証を行ったり、既存のツールを変更したりする必要がなくなる。Amazon FSx for OpenZFSは、数百マイクロ秒のレイテンシーで最大100万IOPSの性能を発揮するという。

スナップショットのアーカイブにかかるコスト対応としては、AWSは新たにAmazon EBS Snapshots Archiveを立ち上げた。これは、1カ月から数年にわたって保持する必要のあるAmazon EBSスナップショットのコストを最大75%削減する新しいストレージだ。顧客は単一のアプリケーションプログラミングインターフェースでスナップショットをEBS Snapshots Archiveに移行できる、とAWSは説明する。

最後に、Amazon S3とVMwareのワークロードをサポートすることで、AWS Backupの機能をより多くのクラウドとオンプレミスのワークロードに拡張している。S3に対するAWS Backupのサポートにより、ユーザーはアプリケーション全体のバックアップを集中管理するために使用していたカスタムスクリプトを置き換えることができるようになった。また、VMwareワークロードに対するAWS Backupのサポートにより、オンプレミスでもVMware Cloud on AWSでも、顧客はVMwareワークロードを保護することができる。

「今日のすべてのビジネスは、データビジネスです。企業にとって最も重要な決断の1つは、データをどこに保存するかということです」とAWSのブロックおよびオブジェクトストレージ担当副社長のMai-Lan Tomsen Bukovec(マイラン・トムセン・ブコヴェック)氏は声明で述べた。

AWSは、これらの新しいストレージサービスにより、顧客のストレージ管理方法の柔軟性が向上するとしている。また、新しいオプションは、データの管理および保護機能の向上を目的としている。

画像クレジット:Chesnot / Contributor / Getty Images

原文へ

(文:Aisha Malik、翻訳:Nariko Mizoguchi

AWS、4つのクラウドベースのアナリティクスサービスがサーバーレス化

re:Inventカンファレンスにおいて、AWSは米国時間11月30日、同社の4つのクラウドベースのアナリティクスサービス「Amazon Redshift」「Amazon EMR」「Amazon MSK」「Amazon Kinesis」をサーバーレスとオンデマンドサービスで利用できると発表した。AWSのCEO、Adam Selipsky(アダム・セリプスキー)氏のキーノートによれば、それはAWSの顧客の要望だったという。これらの新サービスは本日から、公開プレビューで利用できる。

セリプスキー氏の主張によると、AWSと競合する企業の一部は、1つのデータベースで何でもできると主張するが、正しくはワークロードの性質によって正しいデータベースを選ぶべきである。そして、アナリティクスのサービスについても、同じことがいえる。ただし顧客はまたこれらのサービスの利用にともなう、インフラストラクチャの(構成などの)違いに煩わされたくない。クラスターの管理を自分でやらなくてもよくなったように、ユーザーは自分が使うリソースだけにお金を払いたい。たとえばRedshiftでは、データウェアハウスを使っているときだけ払いたい、アイドル状態に対して払う必要はないだろう。

「Amazon Redshift Serverlessは、開始するのに適したコンピュートリソースを自動的にプロビジョニングします。より多くの同時接続ユーザーや新しいワークロードによって需要が進化すると、データウェアハウスはシームレスかつ自動的にスケールして変化に対応します。オプションでデータウェアハウスの基本サイズを指定することで、コストやアプリケーション固有のSLAをさらにコントロールすることができます」とAWSのDanilo Poccia(ダニロ・ポッチャ)氏は、本日の発表で述べている。

同様に、データのストリーミングを扱うAWSのサービスであるKinesisは、今では完全な管理をともなうオンデマンドモードを提供している。これの新しいキャパシティモードでは、データのトラフィックに応じて自動的にスケールする。

本日の発表は、AWSが市場の声に応えていることの明らかな証拠だ。サーバーレスのアナリティクスは、すでに多くの競合他者や資金力のあるスタートアップが提供している。

画像クレジット:Ron Miller

原文へ

(文:Frederic Lardinois、翻訳:Hiroshi Iwatani)

AWSがノーコードのMLサービス「Amazon SageMaker Canvas」を発表

AWSは米国時間11月30日、新しい機械学習(ML)サービス「Amazon SageMaker Canvas」を発表した。新サービスは既存の機械学習サービスとは異なり、高度な技術を持つデータサイエンティストやエンジニアではなく、企業内のあらゆるエンジニアやビジネスユーザーをターゲットオーディエンスにしている。SageMaker Canvasは、ポイント&クリックインタフェースを使って、誰でも機械学習の予測モデルを構築できることを約束している。

この謳い文句に聞き覚えがあるとすれば、それはAzureなどが同様のツールを提供しているからかもしれないが、それでもAWSには、多くの企業がすでにすべてのデータをAWSに保存しているという利点があるかもしれない。

画像クレジット:Amazon

「SageMaker Canvasは、Amazon SageMakerと同じ技術を活用し、データを自動的にクリーンアップして結合し、何百ものモデルを内部的に作成し、最もパフォーマンスの高いモデルを選択して、新しい個別予測またはバッチ予測を生成します」とAWSのAlex Casalboni(アレックス・カザルボーニ)氏は今回の発表で書いている。「二値分類、多クラス分類、数値回帰、時系列予測など、複数の問題タイプをサポートしています。これらの問題タイプにより、コードを1行も書かずに、不正行為の検知、解約の削減、在庫の最適化などのビジネスクリティカルなユースケースに対応することができます」とも。

当然のことながらこのサービスは、AWSのフルマネージド機械学習サービスであるSageMakerに支えられている。

ここでの基本的なアイデアは、ベーシックなCSVファイルに至るまで、ユーザーはあらゆるデータセットを使用することができ、そのデータセットのどの列をCanvasが予測すべきかをユーザーが決めるということだ。しかし、従来のMLツールに比べてはるかに簡単なユーザーエクスペリエンスではあるが、ドラッグ&ドロップとまではいかないのが現状だ。結局のところ、AWSだからだ。全体としては、最新のノーコードアプリケーションというよりも、AWSコンソールでの作業に近いものとなっている。

画像クレジット:Ron Miller

原文へ

(文:Frederic Lardinois、翻訳:Aya Nakazato)

AWS第3のカスタムチップ「Trn1」は機械学習モデルのトレーニングを高速化

顧客のワークロードのパフォーマンスを上げるためにカスタムチップに頼る企業が増えているが、Amazonもその例外ではない。同社は2019年に、機械学習の推論学習を高速化するためにInferentiaチップを導入した。その後、同社は2020年に機械学習のモデルの学習専用である第2のTrainiumチップをローンチした。そして本日、AWSはこれまでの流れの続きとして、最新の機械学習チップ「Trn1」を発表した。

関連記事
AWSがカスタム推論チップのInferentiaを発表
AWSが機械学習トレーニング用の新カスタムチップTrainiumを発表

初めてAWS re:Inventのキーノートを担当するAdam Selipsky(アダム・セリプスキー)氏は米国時間11月30日、最新のチップに関する発表を行った。

「Trainiumからパワーをもらっている新しいチップ、Trm1を発表できることに、私はワクワクしています。Trm1はクラウドでディープラーニングモデルをトレーニングするための最高のコストパフォーマンスと、EC2での最速のパフォーマンスを提供してくれるでしょう」とセリプスキー氏は語った。

続けて「Trn1はEC2のインスタンスとしては初めて、最大で毎秒800ギガバイトの帯域を提供します。そのため、大規模なマルチノード分散型トレーニングのユースケースには絶対に最適です」という。これは画像認識、自然言語処理、不正検知、予測などのユースケースに有効なはずだとのことだ。

さらに、これらのチップをネットワーク化して「ウルトラクラスター」とすることで、より強力なパフォーマンスを発揮することができる。

「これらを一緒にネットワーク化して、何万もの訓練アクセラレーターがペタバイト規模のネットワーキングへ相互接続した状態を、私たちは『ウルトラクラスター』と呼んでいます。そうしたウルトラクラスターの訓練を、強力な機械学習スーパーコンピューターが行い、パラメータが何兆個もあるような複雑な深層学習のモデルでも快速で訓練できます」とセリプスキー氏はいう。

セリプスキー氏によると、同社はSAPなどと協力して、この新しい処理能力の利用を追究していく計画だとのことだ。

画像クレジット:Ron Miller

原文へ

(文:Ron Miller、翻訳:Hiroshi Iwatani)

AWSがKubernetesクラスタを自動的にスケーリングするオープンソースツール「Karpenter」を公開

米国時間11月30日、Amazonはラスベガスで開催されている同社の顧客向けカンファレンスAWS re:Inventで、オープンソースの新しいKubernetesクラスタスケーリングツールであるKarpenter(カーペンター)を発表した。

クラウドコンピューティングの利点の1つは、必要なリソース要求に合わせて自動的にスケーリングできること、と少なくとも理論的にはいわれている。しかし現実には、Kubernetesクラスタの管理担当者は、サービス停止を防ぐために適切な量のリソースがあるかどうを注意深く監視していなければならない。

Karpenterは、そのクラウドコンピューティングの理想を現実にするために開発された。その利点について、AWSのChanny Yun(チャニー・ユン、尹 錫璨)氏は、新機能を紹介するブログを書いている。

「Karpenterは、変化するアプリケーション負荷に応じて適切なサイズのコンピュートリソースを割り当てることで、お客様のアプリケーション利用率とクラスタ効率を改善します。Karpenterは、アプリケーションのニーズを満たすリソースをジャスト・イン・タイムで計算する機能を提供しており、近々クラスタのコンピュートリソースを自動的に最適化してコスト削減、性能改善ができるようになります」とユン氏は述べている。

Karpenterは、Kubernetesの負荷を分析し、リソース制限のために開始できないポッドが必要としているリソースを特定する。次に、クラウドプロバイダーに情報を送り、それに基づいてコンピュートを追加あるいは削除してもらう。

ここで重要なのは、オープンソースツールであるため、KarpenterはAWSクラウドリソースに特化して作られているのではなく、あらゆるクラウドプロバイダーに対して内在するKubernetesクラスタに関する情報を送るのに使えることだ。Karpenterは、Kubernetesの負荷を判定するために、KubernetesのパッケージマネージャーであるHelm(ヘルム)を利用している。Karpenterが対象のプロバイダーでコンピュートリソースを自動的に設定するための許可も必要になる。

Karpenterは、Apache 2.0ライセンスの下で提供されるオープンソースツールで、すでに利用可能だ。

画像クレジット:Ron Miller / TechCrunch

原文へ

(文:Ron Miller、翻訳:Nob Takahashi / facebook

AWS、モノや環境のデジタルツインが簡単に作れる新サービス「IoT TwinMaker」を発表

米国時間11月30日、AWSのre:Inventカンファレンスにおいて同社はAWS IoT TwinMakerを発表した。この新サービスを使うと、現実世界のシステムのデジタルツインの作成と利用が容易にできるようになる。

デジタルツインとは、例えば建物、工場、生産ライン、設備などを仮想的に表現したもので、実世界のデータを定期的に更新することで、表現したシステムの動作を模倣するものだ。

この新サービスにより、ユーザーはビデオフィードやアプリケーションなどのソースからデータを接続することで、単一のリポジトリにデータを移動させることなく、デジタルツインを作成することができると同社はいう。

「次のAWSサービスの内蔵データコネクタを使用できます。機器や時系列のセンサーデータ用のAWS IoT SiteWise、ビデオデータ用のAmazon Kinesis Video Streams、ビジュアルリソース(例えばCADファイル)やビジネスアプリケーションからのデータの保存用のAmazon Simple Storage Service(S3)です。また、AWS IoT TwinMakerは、他のデータソース(SnowflakeやSiemens MindSphereなど)と併用する独自のデータコネクタを作成するためのフレームワークも提供しています」と、AWSは新サービスに関するブログ記事で説明している。

同社は、デジタルツイングラフが作成されると、ユーザーは物理的環境のコンテキストでデータを可視化したいと考える可能性が高いと指摘している。これに対応するため、AWS IoT TwinMakerは、ユーザーの物理システムの仮想表現と接続されたデータソースの関係を組み合わせたデジタルツイングラフを作成する。これにより、ユーザーは実世界の環境を正確にモデル化することができる。また、ユーザーは既存の3Dモデルをインポートして、工場などの物理的空間の3Dシーンをアレンジすることができる。そこから、接続された機械学習サービスからのインサイトとともに、インタラクティブなビデオやセンサーデータのオーバーレイを追加することもできる。

AWSは、このサービスには、Grafana Labsが提供するオープンなダッシュボードおよび可視化プラットフォームのマネージドサービスである「Amazon Managed Grafana」のプラグインが付属していると指摘する。

AWS IoT TwinMakerは、バージニア州北部、オレゴン州、アイルランド、シンガポールでプレビュー版が提供されており、今後、他のAWSリージョンでも提供される予定だ。

画像クレジット:AWS

原文へ

(文:Aisha Malik、翻訳:Hiroshi Iwatani)