AWSがBackupをローンチ、完全な管理を伴うバックアップサービスだ

AmazonのクラウドコンピューティングサービスAWSが今日(米国時間1/16)、AWSのサービスからはもちろんオンプレミスのアプリケーションからも容易にデータをバックアップできるツールBackupをローンチした。それは今すでにAWSのユーザーなら誰もが利用でき、最初はバックアップのポリシーをセットアップする。それらはたとえば、Amazon EBSのボリュームやRDSデータベース、DynamoDBのテーブル、EFSファイルシステム、AWS Storage Gatewayのボリュームなどのためのポリシーだ。これら以外のそのほかのサービスも今後サポートされる。オンプレミスのデータをバックアップするためには、AWS Storage Gatewayを使用する。

このサービスによりユーザーは、さまざまなバックアップポリシーやリテンションポリシーを定義できる。たとえば、(EFSなどの)バックアップをコールドストレージに移せるようにするのか、一定の時間後に完全に削除するのか、など。デフォルトでは、データはAmazon S3のバケットに保存される。

サポートされているサービスの多くは、EFSファイルシステムを除き、すでにスナップショットを作る機能がある。基本的にBackupのやることは、その工程の自動化であり、またそのためのルールを設けることだ。というわけでBackupの利用料金は、スナップショット機能の使用料と同じだ(ファイルシステムのバックアップのみGB単位の課金となる)。なお、EFSファイルシステムや、DynamoDBのバックアップからのデータのリストアも、GB単位の課金だ。

現在、BackupはAWSのひとつのリージョンに限定されているが、同社によると年内には複数のリージョンにまたがるバックアップもできるようにする。

AWSでストレージとオートメーションと管理サービスを担当しているVP Bill Vassはこう言う: “クラウドは今や、どんな規模の企業でもデフォルトだから、二つの異なるタイプのビルダーを惹きつけている。ひとつは“いじくり屋”(tinkerers)で、AWSのサービスの全体をいじくり微調整して求めるアーキテクチャを実現する。もうひとつは、やはりAWSの機能性の幅広さと深さに惹かれるのだが、サービスの粒度の一部を犠牲にして、より高い抽象化層でスタートする。それによりビルドがもっと速くなることすらある。AWSのBackupは、後者のタイプのビルダーが対象であり、かねてから彼らは、個々のサービスごとにバックアップをするのではなく、一箇所でバックアップしたい、という要望を寄せていた”。

AWS BackupのアーリーアドプターはState Street Corporation, Smile Brands, そしてRackspaceだが、アドミンの仕事を楽にしてくれるから、ユーザーはとても多くなるだろう。しかしAWSにはバックアップやストレージ関連のパートナーがかなりいるから、AWSのこの市場への進出を喜ばない人たちもいるはずだ。彼らには、AWSのBackupよりも幅広い機能性(クロスリージョンやオフサイトバックアップなど)があることが多いのだから。

画像クレジット: TechCrunch

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

GoogleがG Suiteを値上げ

Googleが今日(米国時間1/16)、G Suiteの料金を初めて値上げし、G Suite BasicとG Suite Businessの各エディションはユーザー一人あたりの月額使用料がそれぞれ1ドルおよび2ドル高くなる。各国の料金は、その国の通貨単位での値上げになる。G Suite Enterpriseの料金は変らない。

新料金が有効になるのは4月2日からで、年契約のユーザーはこの日以降の最初の契約更改で新料金になる。

1ドル2ドルはささやかな額だが、GoogleがG Suiteを値上げするのは今回が初めてだ。同社の言い分は、2006年の立ち上げ以降今日まで、新しい機能をたくさん加えてきたこと:

  • ビデオ会議(Hangouts Meet)
  • チームメッセージング(Hangouts Chat)
  • ストレージ割当の増
  • 新しいセキュリティサービス
  • 新しい生産性ツール

それもわかるけどしかし、小企業にとって20%の値上げは痛いのではないか。しかもG Suiteは今やGoogleのビッグビジネスで、400万社あまりが利用している。そのごく一部は個別の折衝で料金が決まるEnterpriseプランだと思うが、圧倒的多数がBasicまたはBusinessの月額や年額のユーザーだろう。

画像クレジット: Chris Ratcliffe/Bloomberg / Getty Images

〔参考: Microsoft Office 365

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

AWSが早くも今年ニつ目の買収、今度はクラウドリソース最適化のTSO Logic

AWSは新年早々から買い物マニアだ。まず先週はイスラエルのディザスタリカバリ(クラウドの災害復旧)屋さんCloudEndureを買い、そして今週は、クラウドのリソースの有効利用を企業に教えるバンクーバーのTSO Logicだ。

両社とも、買収価額は明かさない。

Amazonはこの買収をメールで確認し、TSO LogicのWebサイトにあるCEO Aaron Ralloの声明を読め、と言っている。Ralloはそこで、“TSO LogicがAWSの家族に加わることはとても嬉しい”、と述べている。

同社はワークロードやアプリケーションに関するデータを分析し、リソースのニーズ優先かコスト優先かなどの要求を勘案しながら、それらを動かすためのもっとも効率の良い場所や、ニーズとコストの正しいバランスを見つける。

ワークロードのバランスは、クラウドのパブリックvs.プライベートにおいても重要だ。11月にAWSのre:Inventで発表されたAmazonのOutpostsは、ワークロードの載せ方をオンプレミスとクラウドとの間でバランスするためのツールだ。同社はそれを便利に利用する。

関連記事: AWSのクラウドをそのままオンプレミスのデータセンターに持ち込むAWS Outposts

TSO Logicは成長しているスタートアップの体の一部になって、クラウドのワークロードを最適化する方法を見つける。そしてときにはスポットインスタンスすら使ってワークロードを安いクラウドオプションへ移し、顧客のお金を節約する。

企業がますます多くのワークロードをクラウドに移していくと、そのコスト管理が難しくなる。そこでTSO Logicのようなツールが、クラウドリソースのより効率的な利用法を知るための手助けをする。

Microsoftgが2017年に買ったCloudynも、これと同様のサービスだ。大手クラウドベンダーたちが好位置を取ろうとして頑張ると、こんなサービスが常備薬になる。高いお薬でも、MicrosoftやAmazonにはお金がたくさんある。

Amazonのスポークスパーソンによると、同社はバンクーバーで操業を続け、社員たち全員にAmazonの職階が与えられる。

関連記事: Update: Amazon has acquired Israeli disaster recovery service CloudEndure for around $200M…Amazonが CloudEndureを買収(未訳)

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Baidu Cloudがエッジコンピューティングのためのプラットホームをオープンソースで立ち上げ

中国のテクノロジー大手BaiduがCESで、オープンソースのエッジコンピューティングプラットホームOpenEdgeを発表した。それは同社の既存の商用プロダクトBaidu Intelligent Edge(BIE)のローカルパッケージ部位で、当然ながらそのサービス部位との相性は良く、共にエッジのノードやアプリケーションの管理を行なう。

これは言うまでもなくデベロッパー向けの発表だから、Baiduがそのリリースの場として、消費者製品の大会であるCESを選んだ理由はよく分からないが、でも中国のテクノロジー大企業が今やオープンソースの手練になってることは、疑う余地がない。それらBaidu, Alibaba, Tencentなどの企業はLinux Foundationの会員であることも多く、多くの堅固なプロジェクトを育てている。また主要なオープンソース企業たちも、今では中国を成長市場と見なしている。だからその中国で今、自分のプロジェクトをオープンソースにする企業が増えているのも、自然な成り行きなのだ。

Baidu CloudのVPでGMのWatson Yinは次のように述べる: “エッジコンピューティングはBaiduのABC(AI, Big Data, Cloud Computing)の重要な部位である。コンピュートをデータソースの近くに移すことによって、レイテンシーを大幅に減らし、帯域の無駄遣いもなくなり、エンドユーザーにリアルタイムで没入的な体験を届けることができる。またそれをオープンソースのプラットホームにすれば、デベロッパーが自分独自のエッジコンピューティングアプリケーションを作る過程が、大幅に単純化される”。

また同社のスポークスパーソンによると、そのオープンソースプラットホームにはデータ収集、メッセージ配布、AIの推論などの機能が含まれ、クラウドとシンクするためのツールもある。

Baiduは今日(米国時間1/9)さらに、同社がIntelとパートナーしてBIE-AI-Boxをローンチ、またNXP SemiconductorsとパートナーしてBIE-AI-Boardをローンチすることを発表した。Boxは車載ビデオの分析用、一方Boardはカメラやドローン、ロボットなどのアプリケーションで使える小型のボードだ。

CES 2019 coverage - TechCrunch

画像クレジット: Tomohiro Ohsumi/Bloomberg

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

GoogleのCloud Spannerデータベースに新しい機能とリージョンが加わる

Googleのグローバルな分散リレーショナルデータベースCloud Spannerが今日(米国時間12/19)、新しいリージョンと、複数のリージョンにまたがる構成をセットアップする方法により、さらにその分散性を高めた。またデベロッパーがリソースをもっとも消費するクエリを調べる方法も、加わった。

このアップデートでCloud Spannerの最新のデータセンターとしてHong Kong(asia-east2)が加わる。これによりCloud Spannerを、Google Cloud Platform(GCP)の18のリージョンのうち14で使えるようになる。そのうち7つは、今年加えたリージョンだ。今後の新しいGCPのリージョンでも、それらがオンラインになり次第、Cloud Spannerを可利用にしていく予定だ。

リージョンに関連したそのほかのニュースとして、マルチリージョンをカバーするための二つの新しい構成がある。ひとつはeur3と呼ばれ、欧州連合(European Union, EU)を対象とする。言うまでもなくこの地域の顧客にサービスを提供するユーザーが対象だ。もうひとつはnam6と呼ばれ、北米(North America)が対象で、データセンターはオレゴン、ロサンゼルス、サウスカロライナ、アイオワに置かれる。これまでのマルチリージョン構成は、三つのリージョンにまたがる北米地区と、北米、ヨーロッパ、アジアにまたがるグローバルな構成だけだった。

Cloud Spannerはもちろんグローバルなデプロイメントを想定しているが、これらの新たな構成により、特定の市場だけを対象とするサービス用にも利用できる

クエリに関する新しい機能としては、Cloud Spannerはデベロッパーがクエリを見る、調べる、そしてデバッグできるようになる。その目的は主に、デベロッパーが頻度の高い高価なクエリ詳しく調べられるようになることだ。その結果、それらをもっと安価なクエリに変えられるかもしれない。

Cloud Spanner以外のニュースでは、Google Cloudは今日、Cloud Dataproc Hadoop とSparkサービスが新たにR言語をサポートすることを発表した。ほかにはApp Engineが前から、Python 3.7をサポートしている。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Cloud Native Computing Foundationが抱えるオープンソースプロジェクトにetcdが加わった

KubernetesVitessなど、クラウドに関連したオープンソースプロジェクトが身を寄せる事務管理団体Cloud Native Computing Foundation(CNCF)が今日、その技術委員会が新しいプロジェクトの入会を認める票決を行った、と発表した。そのプロジェクトetcdは、CoreOSで開発されたキー-ヴァリューストアで、今回Red HatがこのプロジェクトをCNCFに寄贈した。CoreOSはかつてRed Hatが買収、そしてそのRed Hatは近くIBMがオーナーになる、という関係だ。

etcdはGoで書かれていて、すでに多くのKubernetesデプロイメントの主要な部位のひとつだ。そこではetcdが、他と重複しない唯一の真実の情報源として機能し、クラスターのコーディネーションやシステムのステートの管理に使用される。同じくオープンソースのCloud Foundryもetcdを使い、Alibaba, ING, Pinterest, Uber, The New York Times, Nordstromなどの企業はプロダクション(本番稼働)でetcdを使っている。

CNCFのCOO Chris Aniszczykが、今日の発表声明で言っている: “KubernetesやCloud Foundryなど多くのプロジェクトが、信頼できるデータストレージをetcdに依存している。etcdがインキュベーションプロジェクトとしてCNCFに加わったことは喜ばしいし、今後はドキュメンテーションやガバナンスなどなどの改良によりコミュニティをさらに育成していきたい。etcdがわれわれのプロジェクトのコミュニティに加わったことは、本当にすばらしい”。

今日、etcdには450名を超えるコントリビューターと、8社からの9名から成るメンテナーがいる。すでにKubernetesをホストしているCNCFに身を寄せたことは、きわめてロジカルだ。これでCNCFがホストするプロジェクトは17になり、それらが同団体の“育成技術”の傘下に入る。それらはetcdのほかに、OpenTracing, Fluentd, Linkerd, gRPC, CoreDNS, containerd, rkt, CNI, Jaeger, Notary, TUF, Vitess, NATS Helm, Rook, そしてHarborだ。Kubernetes, Prometheus, そしてEnvoyは、すでに育成段階を卒業している。

ひとつのファウンデーションが管理するプロジェクトにしては多いが、しかしCNCFのコミュニティ自体が相当大きい。今週だけでも、シアトルで開かれた同団体最大のカンファレンスKubeCon/CloudNativeConに8000名のデベロッパーが集まり、コンテナに関するありとあらゆることを議論しあるいは講演した。AWS, Microsoft, Google, IBM, Oracleといった大物が参加してコラボレーションしていることの意義も大きい。OpenStackプロジェクトのように、成長後期に手を広げすぎて焦点がぼやける危険性もあるが、そうならないための、同団体の今後の管理の手腕を見守りたい。たぶん次にCNCFに加わるのは、ますます人気急増中のサービスメッシュIstioだろう。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

GoogleがIstioをGKEに統合、いよいよスタンダードツールの仲間入り

Googleが今日(米国時間12/11)、GKE、Google Kubernetes Engineのアップデートを発表し、それによりこのサービスに、Istioサービスメッシュのサポートが統合される。Istioのサポートは、現在ベータである。

Istioはまだ、Kubernetesが近年そうなったような高い知名度の用語ではないが、多くのエンタープライズにとって、クラウドネイティブなプラットホームを構築するための重要なビルディングブロックになっている。

Istioの中核的な機能は、Kubernetesをはじめさまざまなプラットホーム上で複数のマイクロサービスを互いに接続し、モニタし、セキュリティを図るためのオープンソースのサービスメッシュ〔mesh, 網の目〕だ。IstioとそのEnvoyプロキシなどのサブコンポーネントは、複数のマイクロサービスを統合し、それらのセキュリティを図り、ログデータを集積し、それらにより、Kubernetesのようなオーケストレーションのレイヤ(層)の上に新たな抽象化レイヤを提供する。

Google CloudのChen GoldbergとJennifer Linが、今日の発表でこう述べている: “Istioはマイクロサービスをもっとも有効に利用するための重要な役割を担う、と堅く信じている。そのためのIstioのやり方は、優れた可視性とセキュリティを提供することによって、コンテナ化されたワークロードをより容易に扱えるようにすることだ。このたびIstioがGKEに統合されたことによって、われわれはメジャーなクラウドプロバイダーとしては初めて、Kubernetesサービスとのダイレクトな統合を提供し、コンテナのライフサイクル管理を単純化した”。

GoldbergとLinはさらに強調して、Istioによってデベロッパーとオペレーターはアプリケーションをサービスとして管理でき、大量のさまざまなインフラストラクチャレベルの部位を見る・扱う必要がなくなる、という。また彼らによると、Istioを使うとネットワークトラフィックのすべてを暗号化できる。当然のようにGKE上のIstioには、Google CloudのモニタリングとロギングサービスStackdriverが統合されている。

Istioは、2017年の半ばにローンチした。そのプロジェクトは、GoogleとIBMとLyftのコラボレーションの産物だ。今夏7月にバージョン1.0に達し、Datadog, SolarWindsなどの企業がその後、自分たちのサービスにそれを統合するためのプラグインを作った。Cloud Foundryプロジェクトも、それをその、新しいトラフィックルーティングスタックのコアとして使い、Istioをサービスの中核としている。

関連記事: マイクロサービスの集まり(単一/複数アプリケーション)を安全に管理するプラットホームIstioをGoogleとIBMとLyftが共同で立ち上げ

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

PivotalのサーバーレスパッケージPivotal Function Serviceはマルチクラウド+オンプレミスのハイブリッド対応

Pivotalはエンタープライズのデベロッパーのためにオープンソースのツールを作る企業だが、これまではなぜかサーバーレス方面の部位が欠けていた。しかし本日(米国時間12/7)からそれが変わり、Pivotal Function Serviceと呼ばれるプロダクトがアルファでローンチした。

Pivotal Function Service”は、Kubernetesベースの、マルチクラウドのファンクションサービスだ。この新しいサービスを発表するブログ記事によるとそれは、「あらゆるクラウド上のすべてのワークロードを単一のプラットホームで支える」というPivotalのビジョンの一翼を担うことになる。

Pivotalのサーバーレスで、オープンソースであること以外におもしろいのは、クラウドネイティブでオンプレミスでもクラウドでも使えることだ。そのためのKubernetesベースでもある。しかしそれは、控えめに言っても、ふつうではない。

これまでのやり方では、AmazonやGoogle、Microsoftなどの大手クラウドプロバイダーが、あなたが必要とするインフラストラクチャを尋ね、そしてその会話が終われば、あなたはその後インフラストラクチャのことをまったく考えなくてよい。計算とストレージとメモリに関することはクラウドプロバイダーが扱い、あなたはファンクションを動かすだけで、ほかにやることはない。

Pivotalはこれと同じことを、どのクラウドサービスでもできるようにする。またそれを、オンプレミスでもできるようにする。奇妙に感じる人もいるかもしれないが、PivotalのOnsi Fakhouriによれば、顧客はオンプレミスでもクラウドでも同じ能力を求めている。“サーバーレスの重要な価値として、インフラ(サーバーなど)の稼働状況を気にすることがゼロになる、とよく言われるが、でもオンプレミスでサーバーレスプログラミングをいろいろ探求してみたいという顧客も、ときどきいる”、と彼は言う。ただしもちろん、サーバーレスのプログラムでそんなことをやりたければ、十分なリソースを確保しなければならない。

この新しいパッケージには、ファンクションを作ってデプロイして管理するための重要な部位がいくつか揃っている。ネイティブなイベント機能により、リッチなイベントトリガーを構築でき、必要な機能を何でも呼び出せる。しかもそれらの機能が、Kubernetesベースの環境に収まっている。企業がハイブリッド方式を選んで、オンプレミスとクラウドの両方にまたがるイベントをシームレスに管理できるためには、このことがとりわけ重要だ。

Pivotalのやり方のアドバンテージは、それがどんなクラウドでもオープンなプロダクトとして動くことだ。これに対してAmazonやGoogle、Microsoftなどのサービスは、それぞれ彼らのクラウドでしか動かない。オープンソースのFunction as a ServiceをやるのはPivotalが初めてではないが、同社はそれを、もっと使いやすい形で提供しようとしている。

サーバーレスは、仕事をするサーバーがないという意味ではない。むしろそれは、デベロッパーがサーバーを特定しなくてもよい、必要なインフラを整えるのはクラウドプロバイダーがやる、という意味だ。しかしオンプレミスのシナリオでは、ITがそれらのリソースを揃えなければならない。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

AWSがマネージドKafkaサービスをローンチ、難しいセットアップや管理からデベロッパーを解放

Kafka(Apache Kafka)は、データストリームの入力を〔緩衝バッファ的に〕扱うオープンソースのツールだ。しかし強力なツールだけに、そのセットアップや管理は難しい。そこでAmazonのAWSは、Kafkaの難易度を下げるために、管理をAWSが担当するクラウドサービスとしてのKafka、Amazon Managed Streaming for Kafkaをローンチした。長い名前だけどこれは、AWS上で完全に管理される可用性の高いサービスだ。今それは、公開プレビューで提供されている。

AWSのCTO Werner VogelsはAWS re:Inventのキーノートで、従来のKafkaユーザーはクラスターをAWS上にセットアップするために重労働をし、またスケーラビリティもエラー処理も自分で面倒見なければならなかった、と述べた。“失敗するたびにクラスターとメインノードのすべてをリスタートするのは悪夢だった。そんな重労働を、AWSなら肩代わりできる”、と彼は言う。

AWSには、Kafkaと似たようなストリーミングデータの入力ツールKinesisがある。しかし現状では、Kafkaを使っているアプリケーションの方が圧倒的に多い。そういうデベロッパーをAWSがユーザーとして維持しあるいは取り込むためには、マネージドKafkaが絶好の誘導路だ。

例によってAWSのサービスは料金体系が複雑だが、Kafkaのベーシックなインスタンスは1時間21セントからスタートする。しかしインスタンスが一つだけという使い方はあまりないので、たとえばKafkaブローカーが三つで大きなストレージなどが付くと、月額500ドルはゆうに超えるだろう。

more AWS re:Invent 2018 coverage

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

AWSがサーバーレスLambdaの機能を多様化、複数のプログラミング言語をサポート

AWSは2015年にLambdaをローンチし、それによってサーバーレスコンピューティングが広く利用されるようになった。ユーザーはイベントトリガーとなるコードを書き、それを動かすための計算処理やメモリ、ストレージなどの手配はすべてAWSが担当する。今日(米国時間11/29)ラスベガスで行われたAWS re:Inventで同社は、Lambdaをもっとデベロッパーフレンドリーにするいくつかの新しい機能を発表した。サーバーレスは複雑性を減らしてくれるが、でもそれが成熟するためにはより高度なツールが必要なのだ。

デベロッパーは、コードは書くけどその実行に必要なサーバーの心配はしない。だからサーバーレスと呼ばれる。すべての面倒をクラウドベンダーが見てくれて、イベントの実行に必要なリソースの手配をすべて行なう。デベロッパーは、インフラストラクチャまわりのコードを書く必要がなくなり、アプリケーションが仕事をするために必要なコードだけを書けばよい。

AWSのやり方は、とにかく最初に何かをベースサービスとしてリリースし、顧客の利用とともに要求が増えてくると、サービスの機能を増やしていく。AmazonのCTO Werner Vogelsが木曜日(米国時間11/29)のキーノートで指摘したように、デベロッパーたちはツールについてよく議論をするが、それを聞いていると、誰もが自分の仕事のためにほしいツールのアイデアを持っていることが分かる。

そこで最初に同社は言語に着目して、新しい言語のサポートを導入した。たとえばRubyを使っているデベロッパーは、これからはRuby Support for AWS Lambdaを使って、“LambdaのファンクションをRubyに合ったコードで書き、それらをAWSの上で実行できる。Ruby用のSDKはLambdaの実行環境にデフォルトで含まれている”、とAWSのChris Munnsが、この新しい言語サポートを紹介するブログ記事で述べている。

C++派の人たちのためには、C++ Lambda Runtimeが発表された。また、これら以外の言語のためには、Lambda Runtime APIが新たに用意された。AWSのDanilo Pocciaはブログ記事でこれを、“ファンクションの開発に、さまざまなプログラミング言語やその特定のバージョンを使えるための、シンプルなインタフェイスだ”、と説明している。

またIDEに関しては、PyCharm, IntelliJ, そしてVisual StudioのサポートがLambdaに導入された(現状はプレビュー)。

AWSは、言語とIDEのサポートだけで満足していない。たしかにLambdaは(一般的にサーバーレスは)デベロッパーのためにあるレベルまでの複雑性を取り去ってくれるが、でもサーバーレスのアプリケーションは簡単なイベントトリガーだけではない。より高度なサーバーレスアプリケーションでは、システムレベルの要素を持ち込んだり、複数の部位をまとめたりしなければならない。Vogelは今日のキーノートで、このことを指摘した。

そこで複雑高度なサーバーレスアプリケーションのためにAWSが導入したのが、Lambda Layersだ。それは、彼らの説明によると、“複数のファンクションが共有するコードとデータを管理する方法”だ。それは複数のファンクションが使用するカスタムコードでもよいし、ビジネスロジックを単純化するためのコードを共有するような場合でもよい。

Lambdaの成熟と共に、デベロッパーの要求もうるさくなる。今回のさまざまな発表は、それらのニーズに応える努力の一環だ。

more AWS re:Invent 2018 coverage

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

ユーザーが自分のクラウドの正しい使い方をチェックできるAWS Well Architectedツール

2015年からAWSは、システム設計のチームを顧客元へ派遣して、彼らのAWSの使い方の正否をチェックしてきた。今日(米国時間11/29)同社が発表したツールWell Architectedを使うと、顧客はそのチェックを、自動化された方法で自分でできるようになり、人間コンサルタントの助力が要らなくなる。

AmazonのCTO Werner Vogelsがラスベガスで行われたAWS re:Inventのキーノートで述べたように、同社社内の人間チームが何千もの顧客のニーズに対応して、彼らのAWSベストプラクティスをチェックすることは困難である。資格を与えた複数のパートナーの起用も試みたが、それでも需要の大きさには対応できなかった。

そこで、いかにもAWS的なやり方として同社は、顧客が自分で、オペレーションやセキュリティ、信頼性、費用の最適化、性能効率などを測定できるサービスを作ることにした。顧客はこのツールを自分が使っているAWSサービスに対して動かし、上記5つのチェック項目に関する完全な測定レポートを得ることができる。

AWSのチーフエヴァンジェリストJeff Barが、このサービスを紹介するブログ記事でこう言っている: “これは、あなたがクラウドを確実に正しく、そして上手に使うためのツールだ”。

人間がユーザーのシステムを分析するのではなく、ユーザーが一連の質問に答えていくと、その答に基づいてレポートが生成される。そのPDFのレポートには、ユーザーの現状に応じた勧奨事項がすべて書かれている。

画像提供: AWS

人間コンサルタントとの会話に比べるときめ細かさに欠けるのでは、という疑念もあるが、これをもっと詳細な問題解決に向けてのスタートラインと考えてもよい。サービスは無料だから、ユーザーが費用的に失うものはないはずだ。

more AWS re:Invent 2018 coverage

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

紙の帳票のデジタル化に今でも使われているOCRをやや賢くするAmazon Textract

ほとんどの企業が困ってることのひとつが、各種の伝票をはじめ、いろんな書式(フォーム, form)をデジタル情報に変えて、保存したりソフトウェアで処理したりすることだ。よくあるやり方は、人間の事務職員がコンピューターにデータ入力すること。最新技術を使う方法としては、OCRに書式を自動的に読ませるやり方がある。

しかしAWSのCEO Andy Jassyに言わせると、OCRは要するに無能な読み取り機にすぎない。それはテキストのタイプなどを認識しない。それを変えたいAmazonは今日(米国時間11/28)、Amazon Textractという、ややお利口なOCRツールを発表した。これなら書式上のデータを、もっと使いやすい形でデジタル化してくれそうだ。

Jassyが例として見せたのは、表のある書式だ。通常のOCRは表を認識しないから、表の各欄の枠を超えて、ひとつのテキストとして読み出す。Textractは、表などの、よく使われる成分を認識して、妥当な形でデータを取り出す。

Jassyによると、書式はよく形が変わるので、OCRの無能を補うためにテンプレートを使っていても、形が変わるとテンプレートは役に立たない。一方Textractは、よく使われるデータタイプ、たとえば社会保障番号、誕生日、住所などなどを知っているので、それらがどんな形で収まっていても正しく解釈できる。

“Textractには、この形の文字集合なら誕生日、これなら社会保障番号、等々と教えてあるので、書式が変わってもそれらを見逃さない”、とJassyは説明した。

more AWS re:Invent 2018 coverage

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

推論過程をGPUで加速するAmazon Elastic Inferenceはディープラーニングのコストを75%削減する

Amazon Web Servicesが今日、Amazon EC2のどんなインスタンスでもGPUによる推論の加速ができるサービスAmazon Elastic Inferenceを発表した。これにより、ディープラーニングのコストが最大75%削減できるという。

AWSのCEO Andy Jassyは、今朝のAWS re:Inventのステージでこう述べた: “従来のP3インスタンス(GPU常備のインスタンス)では通常、GPUの利用率がせいぜい10%から30%ぐらいで、エラスティックな推論用としては無駄が多い。それだけの費用やGPUを、無駄に使うべきではない。Amazon Elastic Inferenceでは、もっと費用効率の良い方法で推論エンジンを動かせるから、きわめて画期的なサービスだ”。

Amazon Elastic Inferenceは、モデルの作成/学習ツールAmazon SageMakerのノートブックインスタンスとエンドポイント用にも利用でき、“内蔵アルゴリズムとディープラーニングの環境を加速できる”、と同社はブログ記事で言っている。機械学習のフレームワークは、TensorFlow, Apache MXNet, そしてONNXをサポートしている。

[顧客の皆様には、仕事の性質に合った正しいツールを使っていただきたい。このたび発表するAmazon Elastic Inferenceを使うと、エラスティックな(伸縮性のある)GPUサポートを加えて、どんなEC2インスタンスの上でもスケーラブルな推論ができ、大幅な経費節約が可能だ。]

三つのサイズが提供されている:
(混合精度, mixed-precision, FP16とFP32の併用使い分け)

  • eia1.medium: 8 TeraFLOPsの混合精度パフォーマンス
  • eia1.large: 16 TeraFLOPsの混合精度パフォーマンス
  • eia1.xlarge: 32 TeraFLOPsの混合精度パフォーマンス

この新しいサービスを詳しく知りたい方は、こちらへ

more AWS re:Invent 2018 coverage

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Amazon Forecastは時系列データから予測を作りだす機械学習ツール

AmazonのAWSが今日(米国時間11/28)、時系列データに基づいて予測を生成する機械学習ツールAmazon Forecastをローンチした。予測は機械学習のかなりふつうの使い方だが、そのスキルのないデベロッパーが一からそれを作るのは難しい。しかしAmazonは当然ながら、自社のニーズのためにすでに多くのモデルを作っているので、今回はそれらをデベロッパー向けのプロダクトにまとめたのだ。

AWSのCEO Andy Jassyが今日のAWS re:Inventのキーノートでこう述べた: “わずか三クリックで、このツールにデータを与え、予測を得ることができる。超簡単でしかも、非公開ベータでベンチマークした結果としては、正確度は人びとがふつうにやるよりも50%高い。また費用は、どこかからソフトウェアを買う場合の1/10程度だ”。

Amazonはそのリテールビジネスの中で、自社のデータを扱うモデルをたくさん作ってきた。それは、Amazonがそのリテールサイトの需要予測に使ったりするものと基本的には同じ技術だ。ユーザーは同社に、彼らのサプライチェーンのデータのすべてを提供し、それによりそのサービスに、予測に影響を及ぼす変数を与える。

その楽屋裏では、AWSがそのデータとシグナルを見て、あらかじめ構築されている8種のアルゴリズムからどれかを選び、モデルを訓練し、それを微調整して予測を提供する。

AWSのこのサービスは、SAPやOracleのサプライチェーンツールと容易に統合できるし、Amazonの新しいデータベースサービスTimestreamのデータも使える。

このサービスは必ずしも安くはないが、デベロッパーの時間を大幅に節約できるだろう。

more AWS re:Invent 2018 coverage

画像クレジット: Ron Miller

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

AWSのクラウドをそのままオンプレミスのデータセンターに持ち込むAWS Outposts

AWSはつねに純粋なクラウドベンダーだったが、ときにはハイブリッドにも目を向け、そしてこれからはそれを全面的にサポートする気だ。今日同社はVMwareと共に、AWSをデータセンターに持ち込むためのオプションを発表した。

えっ?企業のデータセンターにAWS?…そう、そのとおり。これからは、あなたの会社のデータセンターにAWSを置ける。AWSのハードウェアを使用し、設計もAmazon本体のAWSとまったく同じになる。そのために、AWS Outpostsの二つのプロダクトを利用する。

二つとは、「VMware Cloud on AWS Outposts」と「AWS Outposts」だ。最初のは、VMwareのコントロールパネルを使う。そして後者は、AWSのクラウドで使われているのと同じAWS APIを使って計算処理やストレージをオンプレミスで動かす。

実際にre:InventのステージにはVMwareのCEO Pat GelsingerとAWSのCEO Andy Jassyが一緒に立って、共同発表を行った。両社はかなり前から協働して、AWSのクラウドへVMwareを持ち込む作業を続けていた。しかし今回の発表ではそれが逆になり、AWSのクラウドをオンプレミスに持ち込んでVMwareと併用する。どちらの場合も、AWSはそのハードウェアをユーザーに売り、お望みならインストールもするし、メンテナンスも担当する。

これは、クラウドのビジョンをひたすら追うAWSにとって、後れていた分野だ。データセンターに戻るなんて! でも近年の暗黙の了解としては、近未来の顧客は両方の場所での運用を望むのだ。

この発表は、同社のクラウドネイティブ的ビジョンを拡張するものでもある。月曜日(米国時間11/26)に同社は、Transit Gatewaysを発表したが、それは、クラウドやオンプレミスなど、いろんなところにあるネットワークリソースを一元的に管理する仕組みだ。

そして今回AWSは、そのクラウドをオンプレミスに持ち込む。それは、MicrosoftやCanonical、Oracleなどなどが前からやっていたことだ。

なお、今日の発表は公開プレビューであり、本番のリリースは来年後半になるようだ。

more AWS re:Invent 2018 coverage

〔outpost, 前進基地。Amazonにとっての前進基地だ。〕

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

AWS Transit Gatewayは多種多様なリソースを単一のネットワークトポロジーの下に収めてアクセスと管理を容易化

AWSのデベロッパーカンファレンスre:Inventで今夜(米国時間11/26)、AWS Transit Gatewayと呼ばれるツールが発表された。それはユーザーがAWSの中にネットワークトポロジーを構築して複数のアカウントのリソース共有し、オンプレミスとクラウドのリソースを単一のネットワークトポロジーの中へ一元化する。

Amazonにはすでに、Amazon Virtual Private Cloud(VPC)と呼ばれる人気のプロダクトがある。顧客はこれを使って、自分のアプリケーションのプライベートなインスタンスを作れる。一方Transit Gatewayでは、複数のVPCs間の接続を構築できる。それはこれまで、相当面倒な作業だった。

AWSのグローバルインフラストラクチャとカスタマーサポート担当VP Peter DeSantisの説明によると、ユーザーはAWS Transit Gatewayにより中央集権的に管理されるゲートウェイに接続でき、その単一のコントロール集合を駆使して、ネットワークを容易にそして迅速に成長させられる。

図表提供: AWS

DeSantisによると、このツールはAWSとオンプレミスの両ネットワークを横断する能力をユーザーに与える。“ゲートウェイはイノベーションの一つの方法であり、それにより顧客は、安全で管理しやすい単一のネットワーキングをオンプレミスとAWSクラウドの両方にまたがって持つことになる”、と彼は説明する。

さまざまなリソースが標準的な種類のネットワークトポロジー上にあるかぎり、それらのリソースがどこにあろうとも、AWS Transit Gatewayによりそれらに一つのネットワークとして接続できる。“AWS Transit Gatewayを使ってハブ-アンド-スポーク型(車輪の中心とそこから放射状に張り出されたスポーク)のネットワークを構築できる。そこには、既存のVPCsやデータセンター、リモートオフィスなど何でも接続できて、そのネットワークルーティングやセキュリティを完全にコントロールできる。そのVPCsやActive Directories、共有サービス、そのほかのリソースなどが、複数のAWSアカウントに広がっていてもよい”。AmazonのJeff Barrが、この機能を発表するブログ記事にこう書いている。

長年、AWSといえばクラウドであり、ユーザーのクラウドリソースを管理するサービスを提供してきた。それはAWSのようなクラウドだけの企業にとっては十分だが、顧客は多種多様であり、インフラストラクチャやソフトウェアがオンプレミスやクラウドなど、いろんなところに散在している企業も少なくない。それらを、仮想的に単一のネットワークトポロジーとして扱えるようにするのが、AWS Transit Gatewayだ。

more AWS re:Invent 2018 coverage

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Red Hatがハイブリッドクラウドのデータ管理サービスNooBaaを買収

Red Hatは今、340億ドルという巨額でIBMに買収されようとしているが、それが完了していない現時点でRed Hatは、独立企業としての買収を行っている。同社の今日(米国時間11/27)の発表によると、買収したのはテルアビブの初期段階のスタートアップNooBaaで、ここはエンタープライズのデータ管理を助け、単一のAPIによりさまざまなデータプロバイダーに容易にアクセスできるようにする。

最近のRed Hatは、エンタープライズによるハイブリッドクラウドおよびマルチクラウドの管理の支援を強調しているから、NooBaaの技術はその指向性によく合っていると言える。NooBaaの中核的なサービスはさまざまなデータサイロの一元化なので、Red Hatのポートフォリオの一員として適している。OpenShiftとOpenShift Container Platform、およびストレージサービスCeph Storageを抱えるRed Hatは、今すでに、幅広いハイブリッドクラウドツールを提供している。

Red Hatでストレージとハイパーコンバージドインフラストラクチャのゼネラルマネージャーを担当しているVP Ranga Rangachariが、今日の発表でこう述べている: “NooBaaの技術はわれわれのポートフォリオを拡張し、今日のハイブリッドおよびマルチクラウドの世界でデベロッパーのニーズを満たすわれわれの能力を強化する。同社の9名の技術チームをRed Hatにお迎えすることは大きな喜びであり、今後は共に、オープンなハイブリッドクラウド技術の指導的プロバイダーとしてのRed Hatを、より強固にすることに取り組んでいきたい”。

Red Hatの技術は、そのほとんどが実質的にオープンソースだが、NooBaaのコードは違う。しかしNoo Baaの計画では、しかるべきときに同社の技術をオープンソースにする予定だ。ただしその明確な日程等は、まだ未定だ。

NooBaaは、2013年に創業された。同社はこれまで、Jerusalem Venture PartnersやOurCrowdからある程度のベンチャー資金を調達しており、またAkamai Capitalからの戦略的投資も得ている。そのラウンドの規模は公表されていないし、また今回の買収の価額等も非公開だ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

AWSのGlobal Acceleratorはアプリケーショントラフィックのグローバルネットワーク上の最適ルートを見つける

AWSの顧客は、さまざまな理由で複数のゾーンでアプリケーションを動かさなければならない場合が多い。理由としては、パフォーマンスの要求もあるだろうし、各国の規制の問題や、フェイルオーバーの管理もあるだろう。その理由が何であれ、AWS今夜(米国時間11/26)、顧客が複数のリージョンにまたがってトラフィックを容易にルートできるためのツールGlobal Acceleratorを発表した。

AWSのグローバルインフラストラクチャとカスタマーサポート担当VP Peter DeSantisが月曜の夜AWS Re:Inventで説明したところによると、AWSの顧客のトラフィックはすでにAWSの大きなネットワーク上を流れており、顧客はAWSのDirect Connectを使ってアプリケーションのパフォーマンスを一定に保ち、AWSの複数のリージョン間で移動する場合もネットワークの変動がないようにしている。しかし彼によると、これまで欠けていたのは、AWSのグローバルなネットワークを使って彼らのアプリケーションを最適化する方法だ。

DeSantisはre:Inventの聴衆に向かってこう述べた: “今夜、AWS Global Acceleratorをみなさまに発表できることを嬉しく思っております。AWS Global Acceleratorによりみなさまは、AWSのグローバルなネットワークを利用してアプリケーションのパフォーマンスと可用性を容易に向上できます”。

説明図提供: AWS

DeSantisは曰く: “;みなさまの顧客のトラフィックはエンドユーザーから最寄りのAWSエッジロケーションへルートされ、そこから、渋滞のない、冗長性のある、可用性の高いAWSグローバルネットワークを渡っていきます。そのときAWS Global Acceleratorはパフォーマンスを上げるだけでなく、エラー隔離機能によりネットワークの健康状態やみなさまのアプリケーションの構成の異変に直ちに反応します”。

そのときネットワークのアドミニストレーターは、健康状態や地理的要件などのポリシーに基づいてトラフィックをルートでき、トラフィックはそれらのポリシーに基づいて行き先のゾーンへと自動的に移動していく。

AWSの計画では、課金は顧客が作るアクセラレータの数に基づいて行われる。“アクセラレータはAWSのグローバルネットワーク上でトラフィックを最適のエンドポイントへと差し向けるために作るリソースだ。通常は一つのアプリケーションにつき一つのアクセラレータをセットアップするが、複雑なアプリケーションが複数のアクセラレータを必要とする場合もある”、とAWSのShaun Rayが、この新しい機能を発表するブログ記事に書いている。

AWS Global Acceleratorは今日から、アメリカとヨーロッパとアジアのいくつかのリージョンで利用できる。

画像クレジット: Ron Miller

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Amazon Comprehendでは機械学習の技術とは無縁なデベロッパーでも専門用語で自然言語処理モデルを訓練できる

昨年Amazonは、自然言語処理のツールComprehendを発表した。それは情報のコーパスから、よく使われている語や語句を取り出し、ドキュメントを分類する。今日Amazonは同社のデベロッパーカンファレンスRe:inventに一週間先駆けて、Comprehendの機能向上を発表した。それにより機械学習の専門知識のないデベロッパーでも、専門用語や語句のリストを作るだけで機械学習のモデルを構築できる。

その機能アップを発表するブログ記事で、AmazonのディープラーニングとAIのゼネラルマネージャーMatt Woodがこう書いている: “本日Comprehendに新しいカスタム化機能を導入することを嬉しく思う。これによってデベロッパーは、Comprehendを拡張して自然言語で書かれている用語を見つけ、チームや企業や業界にとって専門的なテキストを分類できる”。

重要なのは、すべての複雑な処理をAmazonが面倒見るので、機械学習や自然言語処理の素養のないデベロッパーでも言葉のリストをシステムに与えるだけで、テキストからそれらの語を検出/取り出しできるようになることだ。Woodは書いている: “カスタマイズされた機械学習のモデルを構築、訓練、そしてホストする重労働はすべてComprehendが行い、これらのモデルをプライベートなAPIでデベロッパーが利用できるようにする”。

これには、二つの部分がある。まず、デベロッパーは専門用語などのリストを作る。それは、たとえば法律事務所なら法律用語、自動車会社なら部品番号のリストだったりするだろう。デベロッパーがすることは、これらの用語のリストを公開するだけだ。Comprehendがカスタマイズされた言葉を見つけることを学習し、そのリストに基づくプライベートでカスタマイズされたモデルを作る。

第二の部分は、分類のカスタマイズだ。言葉のリストを作ったら、次は、それらの用語が現れる論理(ロジック)のリストを作る。それについてWoodは、こう書いている:

“言葉の用例がわずか50件でも、Comprehendはカスタムの分類モデルを自動的に訓練し、それを使ってユーザーのドキュメントを各カテゴリーに分類する。たとえばカスタマーサポートのメールを、担当部門ごとにグループ化したり、ソーシャルメディアのポストを製品別に分類、あるいはアナリストの報告書を事業部別に分類したりできるだろう”。

これらの雑多で大量のドキュメントは、カテゴリー分けして初めて役に立つし、適切な担当者にそれを渡したり、あるいはアプリケーションがプログラムの一環として利用したりできるようになる。

Comprehendはユーザーに、カスタマイズされた機械学習のモデルを作る方法を、上述のようなごく単純な方法として提供し、楽屋裏の細部は自分でやる。一般的に言っても、クラウド企業は複雑難解なものを単純化して、専門的な知識や技能のないデベロッパーでも一連のサービスを利用できるようにする。Comprehendの場合は、機械学習の知識のない者がカスタマイズされたモデルを作れる方法を提供する。

Comprehendのこの新しい機能は、今日(米国時間11/19)から利用できる。

〔参考記事
Amazon Comprehend日本語ドキュメンテーション(1)
Amazon Comprehend日本語ドキュメンテーション(2)
Amazon Comprehend用例解説(1)
Amazon Comprehend用例解説(2)
「amazon comprehend 日本語」でググると、さまざまな日本語ドキュメンテーションが出てきます。〕

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

MicrosoftはOffice 365をクラウド上の仮想デスクトップから提供、そのためにFSLogixを買収

9月にMicrosoftは、ユーザーがOffice365とその下のWindows 10オペレーティングシステムをクラウドで動かす仮想デスクトップを発表した。そのとき、それを支えるいくつかのパートナーも発表されたが、その一つ、ジョージア州アトランタの仮想デスクトップ企業FSLogixだ。今日(米国時間11/19)Microsoftは、FSLogixの買収を発表したが、買収価額は共有しなかった。

Microsoft Office 365の企業担当VP Brad Andersonと、Microsoft Azureの企業担当VP Julia Whiteが、今日のブログ記事でこう述べている: “FSLogixは次世代のアプリケーションプロビジョニングプラットホームであり、仮想化のサポートに必要なリソースと時間と労力を節約できる”。

9月に仮想デスクトップを発表したときMicrosoftが挙げたパートナーは、Citrix, CloudJumper, Lakeside Software, Liquidware, People Tech Group, ThinPrint, そしてFSLogixだった。どうやら同社は、その一つは同社自身による保有が必要と考えて、FSLogixを買収したのだ。

Microsoftは、FSLogixのソリューションを自社のサービスにすることによって、より良い仮想デスクトップ体験を顧客に提供でき、とくに Office 365 ProPlusの顧客には高いパフォーマンスと速いロード・タイムが可能になる、と考えている。

FSLogixのファウンダーでCTOのRandy Cookは、Microsoftとはすでに長年、良好に協働してきたから、この買収は有意義だ、と言う。Cookは、買収を発表するブログ記事でこう述べている: “Microsoftのいくつかのチームと協働を開始したが、最初の時点から、両者のミッションが完全にかみ合ってことを認識した。FSLogixとMicrosoftは共に、仮想デスクトップをデプロイすることによって企業に絶対的に最良の体験を提供することに、献身している”。

今では多くの企業が社員たちに、完全なスタンドアロンのPCではなく、ダムターミナルを与え、社員たちが必要とするツールだけを動かしている。Citrixは、そういうサービスを企業に提供している。社員たちは朝仕事を始めるときに、自分の認証情報でサインインし、仕事のために必要なツールを動かす仮想デスクトップを得る。そのMicrosoftバージョンでは、社員たちが得るのは、Azureの上で動くOffice 365とWindows 10だ。

FSLogixは2013年に創業され、Crunchbaseによればこれまで1000万ドルを調達している。Microsoftによると、今日の買収はすでに完了しており、先週のXoxcoの買収の発表に次ぐ発表だ。Xoxcoは、AIを利用する会話型ボットを作っていたオースチンのデベロッパーショップだ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa