AWSのデータベースサービスAuroraにアンドゥ機能が誕生、72時間の遡及可能

AWSの‘マネージドMySQL/PostgreSQL’データベースサービスに、アンドゥ機能がつく。今日の同社の発表によると、そのAurora Backtrack機能により、ユーザーは“時間を逆行できる”。今それはMySQLのみだが、この機能を有効にするとそれ以降新たに作られるデータベースクラスターとバックアップからリストアされたクラスターに対し、アンドゥができるようになる。それまであったデータベースは、ノーだ。

この機能を有効にすると、AWSは最大72時間ぶんのトランザクションのログを取る。本番のデータベースに不正なテーブルを入れた、などの間違いに気づいたら、アプリケーションをポーズして、どこまで戻りたいか、時間(時刻)を指定する。するとAuroraはデータベースもポーズして、開いているすべての接続を閉じ、まだコミットしてないものをすべて落としてから、指定された時点までロールバックする。

もちろん、トランザクションの逆行はAWSが初めてではない。MySQLも含め、多くのデータベースシステムが、すでに何らかの形で実装している。ただしそれらの多くは、今日AWSが発表したものに比べると範囲が狭い。

AWSのチーフエヴァンジェリスト(Chief Evangelist) Jeff Barrが今日の発表で言っているが、それは災害復旧だけが目的ではない。彼はこう書いている: “あなたも、このクールな新しい機能の、クリエイティブで奇抜な使い方を、きっと思いつくだろう。たとえば、本番データベースでいろんなテストをして、そのテストの痕跡をすべて掃除することもできる。復旧の指示は、APIまたはCLI(コマンドライン)からできるから、この機能を既存のテストフレームワークに統合するのも容易だ”。

Aurora Backtrackは今、すべてのデベロッパーが使える。料金は、アメリカリージョンではレコードの書き換え100万文字につき約0.012ドルだ。ヨーロッパとアジアでは、やや高くなる。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

GoogleのAdvanced Protection ProgramでAppleのiOSアプリが利用可能に

昨年10月、Googleは高度なセキュリティー保護サービス、Advanced Protection Programを提供開始した。Gmail、Google Calendar、Google Drive等のサービスに保存したデータを最高水準で保護することを保証するしくみだ。このプログラムを利用するユーザーは、2段階認証のためにセキュリティーキーを利用しなければならないことに加え、Googleデータをアクセスするためには、Google自身のウェブまたはモバイルアプリを使う必要があった。


このたびGoogleはこの最後の制約を少々緩和して、Appleのメール、カレンダー、及び連絡先のiOSネイティブアプリからも利用できるようにした。Advanced Protection Programを利用しているユーザーは、これらのアプリにもアクセスを許可できるようになった。

「われわれのゴールは、オンライン攻撃を受けるリスクのあるユーザーが誰でもAdvanced Protection Programに参加できるようにすること」とGoogleでこのサービスのプロダクトマネージャーを務めるDario Saliceが言う。「本日われわれは、iOSユーザーのプログラム参加を容易にした。今後も世界中のユーザーにとって使いやすいプログラムになるよう努力を続ける」

プログラムの目的は従来通り、高度な攻撃の被害者になりやすいジャーナリスト、活動家、政治家、ビジネスリーダー等の人々を守ることにある。Appleの純正アプリに対応することで、同サービスがいっそう多くの人たちにとって魅力的になるだろう。要するに、なぜか誰もがGoogle製モバイルアプリを気に入っているわけではない、ということだ。

原文へ
 
(翻訳:Nob Takahashi / facebook

クラウドホスティングのDigitalOceanもついにコンテナプラットホームを提供

誰もが気軽に使えるクラウドホスティングサービスDigitalOceanが、そのメニューにコンテナサービスを載せた。同社は今でも、安価な仮想プライベートサーバーのホスティングサービスとしていちばんよく知られているが、同社自身はそのうち、クラウドコンピューティングの世界でメジャーになるつもりだ。ホスティングは、そのプランの最初の部分にすぎない。たとえば同社のストレージサービスSpacesは、同社の夢が本気であることを示す一例だ。

しかし今や、コンテナを避けて通れない世の中になっているので、同社が今日(米国時間5/2)、Kubernetesベースのコンテナサービスを立ち上げたのも、もはや意外ではないだろう。

このサービスはまだ初期のプレビュー段階で、ここからサインアップできるが、一般公開は今年の終わりごろだ。

DigitalOceanのプロダクト担当VP Shiven Ramjiはこう述べている: “私たちはいつも、デベロッパーのためのシンプルなソリューションに専心してきた。その最初のプロダクトが、クラウドサーバーDropletsだった。今度のプロダクトも、その例外ではない。デベロッパーは自分のアプリケーションを完成させることに専念でき、複数のアプリケーションにまたがるスケーラビリティの高い安全なクラスターを作って動かすことに伴う、複雑な作業は免除されるのだ”。

そのサービスはDigitalOcean Kubernetesと名付けられ、それによりデベロッパーは、自分のコンテナワークロードをDigitalOceanのプラットホームでデプロイし管理できる。大手のクラウドコンピューティングプロバイダーのほとんどすべてが提供している競合製品と同様に、DigitalOceanのプロダクトも、Kubernetesを動かすことに伴う複雑性の大部分を、抽象化してデベロッパーからは見えなくする。しかし必要ならユーザーは、KubernetesのAPIにフルアクセスして、独自の隔離されたKubernetesクラスターを作れる。

このサービスは同社の既存のサービス、ストレージやファイヤーウォールツールなどを統合している。デベロッパーは自分のコンテナを、DigitalOceanの標準のノードで動かすか、あるいはより強力で計算能力の高いノードで動かすかを、選択できる。また“teams”という機能で、アクセスコントロールができる。さらに、こういうサービスの通例として、通常のパフォーマンスアナリティクスやロギングの機能もある。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Google、NvidiaのTesla V100 GPUをクラウドで提供開始

Google は今日(米国時間4/30)、Nvidiaの高性能GPU Tesla V100がCompute EngineおよびKubernetes Engineで利用可能になったことを発表した。現在はまだ公開ベータだが、GPU作業でGoogleの完全サポートを必要とする利用者には、やや性能の低いNvidia P100 GPUがベータを終え一般公開された。

V100 GPUは、今もNvidiaの高性能コンピューティングのラインアップの中で最も強力なチップだ。登場からしばらく時間がたっており、Googleはやや遅れた参入となった。AWSIBMはすでにV100を顧客に提供しており、Azureではプライベートプレビューを行っている。

GoogleはNvidiaのマルチGPUプロセッシングのための高速インターフェースであるNVLinkも使用していることを強調しているが、ライバル各社もすでにこれを使っていることは指摘しておくべきだろう。NVLinkはGPU-to-GPUのバンド幅を従来のPCIe接続より9倍速くすることで作業によっては40%性能が高くなるとGoogleは約束している。

もちろん性能のためにはお金が必要だ。V100の使用料は1時間につき2.48ドル、P100が1.46ドルだ(これは標準価格であり、Preemptible仮想マシンは半額で利用できる)。これ以外に通常の仮想マシンまたはコンテナを動かすための料金を払う必要がある。

現在V100マシンは、1 GPUまたは8 GPUの2種類の構成で利用可能で、将来は2または4 GPUの構成も加わる予定。P100には、1、2、または4GPUが用意されている。

[原文へ]

(翻訳:Nob Takahashi / facebook

Google Cloudのマネージドデータベースサービスがクラウドサービスとしての機能を充実

Googleがクラウドから提供しているデータベースが今日(米国時間4/25)、アップデートされた。画期的な新製品に生まれ変わったわけではないけど、それらのアップデートはすべて、企業がクラウドへ移行するときに経験するさまざまな痛点に対処している。

Googleのプロダクト管理のディレクターDominic Preussによると、Googleは長年、データベースの世界における思想のリーダーを自負している。思想のリーダーとは言ってもこれまでは、Bigtableに関するペーパーなどが主で、実際の製品で示す思想ではなかった。しかし最近では、グローバル分散データベースCloud Spannerが示すように、市場でもその姿が目立つようになった。

Preussによると、Googleのエンタープライズユーザーは彼らの既存のワークロードをクラウドへ移すことから始めるところが多い。しかしそれが一巡したら、新しいアプリケーションをクラウドに載せようとする。そしてそのとき求めるのが、クラウドのプロバイダーがアプリケーションやインフラの管理を肩代わりしてくれる、いわゆるマネージドサービスだ。

今日の発表も、エンタープライズに、彼らが求めるある種のマネージドデータベースサービスを提供していくことがメインのテーマだ。

まずそれは、ベータでローンチされるCloud Memorystore for Redisだ。これは完全に管理されるインメモリのデータストアで、大きなバッファリングをインメモリのキャッシュでやりたい、などのニーズに応える。

ビッグデータワークロード用のNoSQLデータベースサービスCloud Bigtableに、新しい機能が加わった。その、いずれregional replication(リージョナルレプリケーション)という正式名で呼ばれることになる機能は、オンプレミスのワークロードにApache Cassandraを使っていたエンタープライズに、Google Cloudにおけるその代替系を与える。そして、この、異なるゾーンにまたがるレプリケーションにより、Google Cloudに保存するデータの可用性と耐久性が高くなる。

今回のアップデートには、Cloud SQL for PostgreSQLのSLAにおける可用性を99.95%にすることも含まれる。またCloud Spannerには、コミットのタイムスタンプがつく。

Googleのクラウドデータベース周辺には、今後どんな新メンバーが登場するのか。Preussはその答を言わないが、今同社はエンタープライズができるだけ多くのワークロードをクラウドへ移行できるようにしたい、と考えているそうだ。つまり、マネージドサービスが今後も増える、ということだろう。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Spotifyの無料版はApple Musicと戦う主要兵器だ

マンハッタンで行われるSpotifyのビッグイベントの噂は何週間も続いた。しかし招待状が発送されたときから、この大イベントの目的がただひとつであることはわかっていた。それは、無料だ。

この機能はレコード会社にとってもアーティストにとっても悩みの種だあるという噂が前々から絶えなかった。つまるところ無料サービスは直接的な収入を生まない —— かわりにSpotifyにとって最高の勧誘ツールとして存在している。タダで音楽が聞けるという話に乗せられて、最終的にはプレミアム版の便利さのために毎月10ドル払うようになる。無料ユーザー9000万人に対して7000万人の有料ユーザーをもつ同社では、たしかにこの方法はうまくいっているように見える。

この数字はApple Musicの3800万よりはるかに多い。もちろんAppleは急成長を続けており、それは音楽界の大物とのつながりやiTunes/iOSエコシステムとの密接な統合のおかげでもある。AppleによるShazam買収が一層拍車をかけることも間違いない。同社はこの人気の曲名判別アプリを新規購読者獲得に利用しようとしている

しかし、Appleには無料コースがない。Spotifyがこのこの機能を生かすべく、プレミアム版と無料版の境界をさらに曖昧にしようとするのは理にかなっている

「なぜ、これを無料で配るのかとみなさんは聞きたいかもしれない。研究開発部門責任者のGustav Söderströmが今日(米国時間4/24)グラマシーパークシアターの聴衆に向かって大げさに尋ねた。「このプランのファンを何十億人も集めるという私たちの目標を達成するためには、それが唯一の方法だと知っているからだ」。

それは、Spotifyがこの戦いで中心に据えるのは無料プランであることを認める明確な証だ。おそらく同社はレコード会社に対して、さらに良い無料版を出すことが、最終的には利益を生むと説得に回ったのだろう。Spotifyにとってはありがたいことに無料版は受け入れられ、スタート当初からSpotify体験にとって欠くことのできない部分となっている。

もちろん、Spotifyは無料サービスの強化が、有料版を食うことがないという確信をもっているが、レコード会社は無料とプレミアムの按配を慎重に見守っている。もし、有料購読者の成長が止まるようなら、Spotifyは多くの怒れる支持者たちと直面しなくてはならなくなる。

[原文へ]

(翻訳:Nob Takahashi / facebook

HeptioがKubernetesとOpenStack用のロードバランサーをオープンソースでローンチ

Heptioは、コンテナのエコシステムの中でおもしろい企業のひとつだ。まず同社は、Kubernetesを作った三人の技術者のうちの二人、Craig McLuckieとJoe Bedaが作った企業だ。しかしそれだけでなく、同社が開発している技術と、これまで調達した巨額の資金も、注目に値する。

同社の今日(米国時間4/23)の発表によれば、2018年第一四半期の売上は前四半期比で140%増加した。さらにまた、社員数は2017年の初めに比べて4倍に増加した。元の数の発表がないから、これらが実際にどれだけすごいことかよく分からないが、なにしろ同社が好調で、今急成長中のKubernetesのエコシステムに自分の足場をしっかり築きつつあることは分かる。

これらの数字の発表と並んで同社は今日、新しいオープンソースプロジェクトのローンチを発表した。それは、クラスターリカバリツールArkや、KubernetesのクラスターモニタリングツールSonobuoyなど、同社の既存のツール集合に、新たに加わるものだ。

そのHeptio Gimbalと呼ばれる新しいツールは、そのユースケースが非常に特殊で、少数のユーザーにしか関心がないと思われるが、でも彼らにとってはライフラインだ。GimbalはYahoo Japaの子会社Actapioとの共同開発で、エンタープライズがトラフィックをKubernetesのクラスターやOpenStackのデプロイへルートするタスクを助ける。多くのエンタープライズが今ではこれらの技術を並列で動かしていて、一部はOpenStackを超えてもっとKubernetes中心のアーキテクチャへ移行しつつあるが、でもOpenStackへのこれまでの投資の成果を今すぐ完全に捨て去る気はない。

ActapioのCEO Norifumi Matsuyaはこう述べている: “われわれがHeptioにアプローチしたのは、OpenStackなどのバックエンドシステムへのこれまでの投資を無駄にすることなく、自分たちのインフラストラクチャをKubernetesで現代化したかったからだ。アプリケーションを大きなスケールでデリバリすることが、うちのビジネスにとってもっとも重要だ。そのためには、より高速なサービスディスカバリーと、即時のロールバックとパフォーマンスの測定を可能とするカナリア分析を伴う、デプロイメント能力が必要だった。Gimbalはわが社のデベロッパーたちに、これらのチャレンジへの対応能力を与え、彼らの生産性を上げるとともに、システムのパフォーマンスを最適化する”。

GimbalはHeptioの既存のオープンソースツールの多くを利用し、またCloud Native Computing Foundationのクラウドネイティブプロジェクト群の一つであるEnvoyプロキシも使っている。今のところGimbalは、OpenStackの2016年のMitakaリリースのみサポートしているが、今後はVMwareやEC2もサポートしていく予定だ。

〔・Heptio関連記事:
Kubernetesによるコンテナクラスターのプロダクションレベルのデプロイを「安全化」するHeptioのオープンソースプロジェクト
Kubernetes展開お助けサービスで起業したHeptioが創立1年足らずでシリーズB $25Mを調達
オープンソースのライセンスをレビューするOpen Source InitiativeにMicrosoftが参加
HeptioとMicrosoftが共同でKubernetesのバックアップ/災害復旧ソリューションに取り組む

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Pivotal Software、IPO初日は5%高、5.55億ドルを調達

株式市場の投資家たちは、金曜日(米国時間4/20)にデビューを飾ったPivotalSoftwareに対してどっちつかずの反応を示した。IPO価格15ドルでスタートした同社は15.73ドルで引けた。

実際新たな投資家にとっての急騰は起こらず、提示された価格幅の中間程度の株価でPivotal調達した金額は5.55億ドルだった。同社の時価総額は30億ドルを超えた。

大企業向けクラウドサービスを提供する同社は、その過半数をDellが所有している。これは2016年にDellがEMCを買収した結果だ。Pivotalは2012年にEMCとVMWareからスピンオフした。

その後、17億ドルの資金をMicrosoft, FordおよびGeneral Electric

から調達した。

S-1申請書には同社の事業が以下のように記載されている。

Pivotalは「最高水準のクラウドネイティブなプラットフォームを提供し、当社顧客のソフトウェア開発とIT運用に戦略的優位性を与える」ことを目標としている。当社のクラウドネイティブプラットフォームである Pivotal Cloud Foundry (‘PCF’)は、新しいクラウドネイティブアプリケーションあるいは既存アプリケーションの改訂にともなう開発、運営の複雑さを減らすことで、ソフトウェア開発を加速させる。

申請書類によると、Pivotは2月締めの会計年度で売上5億940万ドルだった。これは前年の4億1630万ドル、前々年の2億8090万ドルから上昇している。

しかし同社は未だに大きな損失を出している。2018年度の損失は1億6350万ドルで、2017年の2億3250万ドル、2016年の2億8250万ドル、から改善されている。

「多くの損失があり、安定した利益を維持するのに十分な売上は得られないかもしれない」と、 IPO申請の必須項目である「リスク因子」の項目で同社は警告している。

Pivotalは、IBM、Oracleといったインフラストラクチャーおよびミドルウェアの伝統的ベンダーと競合することも認めている。さらに、RedHatなどの企業が提供する「オープンソースに基づく製品」とも競合すると同社は書いている。そのほかPivotalは、SAP Clude Platform、Amazon Web ServiceおよびMicrosoft Azureなどのからの挑戦も受ける。

Pivotalは、強力なセキュリティーと使いやすいプラットフォームで差別化すると信じている。また、ブランド認知度が高く評判も良いとも言っている。同社は米国特許を118件所有、73件出願中であり、革新的な企業であり続けると断言する。

Morgan StanleyとGoldman Sachsが引受会社となり、Davis PolkおよびFenwick & Westが法律顧問を務めた。

同社はニュヨーク証券取引所に上場され、銘柄記号は “PVTL” となる。

低調だった冬のあと、この春はIT企業のIPOが盛んだった。Dropbox、Spotify、およびZuoraがここ数週間で上場した。DocuSign、Smartsheet、Carbon Black、およびPluralsightの各社は来月中にデビューが予定されている。

[原文へ]

(翻訳:Nob Takahashi / facebook

KubernetesをCloud Foundryが本格採用して両社の仲がより密接に

コンテナがソフトウェアの世界を食べている。そしてKubernetesがコンテナの王様だ。そこで、大きなソフトウェアプロジェクトに、とくに企業で関わる人は、いずれこの王様とお近づきになる。今ボストンで、半年に一度のデベロッパーカンファレンスをやっているCloud Foundryも、その興味深い例のひとつだ。

エンタープライズデベロッパーの世界の外にいる人にとっては、Cloud Foundryは馴染みのない名前だが、今ではFortune 500社の約半数がユーザーだ(スタートアップのユーザーはあまりいない)。Cloud Foundryをよく知らない人は、Herokuに似ている、と思ってもよい。ただしそれは商用ユーザーの大きなエコシステムのあるオープンソースのプロジェクトで、そのどんなクラウドやオンプレミス上のインストールでも、そしてどんなに大きなスケールでも、動かすことができる。デベロッパーは自分のコードを(Twelve-Factorの方法論–日本語–に従って)書き、実行に必要なものを定義すると、それが動くためのインフラや、必要なスケーリングについては、すべてCloud Foundryが面倒見てくれる。デベロッパーは自分のアプリケーションをどこで動かすか、どうやってもっと効率的に動かすかなどを、考えなくてよい。

それだけのことを可能にするためにCloud Foundryは、Dockerなどがまだ存在しない、きわめて初期のころからコンテナを導入した。そのころKubernetesはまだなかったので、Cloud Foundryに関わっているさまざまな企業が一緒になって、独自のコンテナオーケストレーションシステムを作った。それは今日のサービスでも利用されている。しかし、コンテナベースの開発が普及するに伴い、Cloud Foundryのエコシステムでも、Kubernetesをサポートせよ、という声が高くなった。昨年Foundationはその方向への第一歩を踏み出し、コンテナを管理するための、KubernetesベースのContainer Runtimeをローンチした。それが、これまでのApplication Runtimeの隣に座る。これによってデベロッパーは、Cloud Foundryを使って、彼らが開発する新しいサービスと並列に、彼らの新旧の一枚岩的なアプリケーションを動かし管理することもできる。

でも、Cloud FoundryではApplication Runtimeのための同団体独自のコンテナサービスをなぜ使い続けるのだろうか? 今ではKubernetesやそのほかの各種プロジェクトが出揃ってきて、それらがコンテナを扱うためのデフォルトになっているから、そんなことをする理由はないはずだ。そこで、当然とはいえ、今では、古いコンテナ管理システムをなくして、それらをKubernetesで置き換えていくCloud Foundryのプロジェクトがある。今やコンテナ管理の部分は、Cloud Foundryの差別化要因ではない。むしろ、Cloud Foundryの最大の差別化要因はデベロッパー体験であり、Cloud Foundryのそもそも中心的メリットは、デベロッパーがインフラストラクチャの内部構造をまったく気にする必要がない、という点にある。

Cloud FoundryのエコシステムがKubernetesに傾くことには、もうひとつの側面がある。Cloud Foundryも同じくソフトウェアだから、それをKubernetesの上で動かして悪い理由はない。だから、SUSEやIBMなど、Cloud Foundryの最大のベンダーたちの一部も、まさにそうしている。

Cloud Foundryの公認ディストリビューションであるSUSE Cloud Application Platformは、どのパブリッククラウドのKubernetesインフラストラクチャの上でも動く。それにはMicrosoftのAzure Container Serviceも含まれる。SUSEのチームによると、その方がデプロイが容易であるだけでなく、リソースの節約にもなる(アプリケーションがより少ないリソースで動く)。

同じくIBMも、今では顧客にKubernetesの上でCloud Foundryを提供している。ただしそれはまだ、実験段階だそうだ。IBMのCloud Developer ServicesのゼネラルマネージャーDon Bouliaが強調するのは、IBMの顧客の多くは自分たちのワークロードを、IBMのそのほかの顧客に共有されない隔離された環境で動かしたがることだ。

Bouliaによれば、多くの顧客に、KubernetesかCloud Foundryか、という視点はない。彼の顧客の多くにとっては、Kubernetesを使うことが即、自分たちの既存のアプリケーションをクラウドへ移すことだ。そして新しいアプリケーションに関しては、Cloud Foundryを動かすことを選ぶ。

SUSEのチームも、同じことを強調している。SUSEの顧客のひとつのパターンとして、彼らはコンテナ環境をセットアップしたくてSUSEにやってくるが、しかしその商談の過程で、Cloud Foundryを実装することを決心するのだ。

というわけで、今週のイベントのメッセージはまさに、KubernetesとCloud Foundryが互いに補完的な技術だ、ということだ。そのイベントのパネルディスカッションで、GoogleのContainer EngineとKubernetes担当技術部長Chen Goldbergも、その点を強調した。

Cloud Foundry Foundationと、KubernetesのホームCloud Native Computing Foundation(CNCF)は共に、Linux Foundationの傘下にある。しかしCloud FoundryはCNCFに比べて圧倒的にエンタープライズユーザーの比重が大きい。そこには何らかの政治が絡んでいるのかもしれないが、でも両団体は互いに十分に友好的で、メンバーも相当重複している。PivotalのCEO Rob Meeは、本誌のRon Millerの取材に対してこう述べた: “うちは半分CNCFで半分Cloud Foundryだ。二つのコミュニティはますますいろんな技術を共有し合っているし、共に進化している。完全に独立でもないし、競争関係もない。関係はもっといろいろ複雑で微妙だ。CNCFとCloud Foundryはどちらも、大きなエコシステムの部分であり、互いに補完し、収束している”。

つまりCNCFとCloud Foundryの技術共有と、もしかしてコラボレーションは、今後も増えるということだろう。CNCFはクラウドネイティブなアプリケーションを作るための、とてもおもしろいいろんなプロジェクトのホームであり、そしてそれらのユースケースの多くはCloud Foundryにもある。

関連記事: Cloud Foundry財団、Alibabaがゴールド会員に――中国のクラウドのオープンソース化加速へ

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

cloud.govの公式参加でアメリカ政府省庁のCloud Foundryの採用が容易になった

ボストンで行われたCloud Foundry Summitで、アメリカ政府のアプリケーションプラットホームcloud.govCloud Foundryの公認プラットホームになり、そのほかの公認プロバイダー、IBM, Pivotal, SAP, そして今日からはSUSEなどとの互換性が保証される、と発表された。これによりcloud.govは、初めてのCloud Foundry公認政府機関になる。

この認定により、Cloud Foundryをサポートするさまざまなプラットホームのすべてが、お互いの互換性を確実に保証される。政府という文脈ではこれは、省庁が容易に彼らのワークロードを複数のクラウド間で移動できることを意味する(それらのクラウドがすべてに政府の証明があるとして)。しかしさらに重要と思われるのは、スキルのポータビリティが確実になることだ。それにより、コントラクター(政府下請)の起用や選択も容易になる。オープンソースのCloud Foundryは民間セクターでも広く採用され、Fortune 500社の半分は利用しているから、アプリケーションを構築するプラットホームを決めるときも、そのことが重要な要素になる場合が多い。

cloud.govは、General Services Administration(米国総務庁)の18階オフィス(18F)が、アメリカ政府の公開Webサイトやアプリケーションを改良するために立ち上げたサイトで、最初からCloud Foundryの上に構築されている。オーストラリアとイギリスの類似省庁も、同じ決定によりCloud Foundryプラットホームに標準化している。Cloud Foundryが認定事業を始めたのは数年前だが、昨年は個々のデベロッパーのスキルを認定するための事業を立ち上げた。

政府のワークロードを動かせるためには、そのクラウドプラットホームは一定のセキュリティ要件を満たす必要がある。Cloud Foundry FoundationのCTO Chip Childersによると、18Fがcloud.govのためにFedRAMPの認可でやった仕事が、アップストリームのプロジェクトのより良いコントロールに役立っている。そして彼は、このプラットホームを採用した政府のすべてが、そのすべてのプロジェクトに貢献してきた、と強調した。

〔参考: Cloud Foundry Wikipedia日本語Wikipedia)〕

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Cloud Foundry財団、Alibabaがゴールド会員に――中国のクラウドのオープンソース化加速へ

Cloud Foundryはエンタープライズ分野でもっとも成功しているオープンソースプロジェクトだろう。これはクラウドの種類を選ばずソフトウェアを動作させるPaaS(Platform-as-a-Service)だ。これにより企業はソフトウェアの開発と運用が大きく効率化される。多数の大企業でアプリケーション開発の標準となっている。事実、Fortune 500にリストアップされた大企業の半数はなんらかの形でCloud Foundryを使っている。

このプロジェクトの生みの親であり、現在も運営に中心的な役割を果たしているPivotal近々上場を実施することもあり、 Cloud Foundryは現在のコアなユーザーグループの外に飛躍しようとしている。現在Cloud FoundryはCisco、IBM、SAP、SUSE、Google、Microsoft、Ford、Volkswagen、Huawei、NTT Communications、Fujitsuなどが支援している。

ここで今日(米国時間4/18)、中国の巨人、Alibabaグループ Cloud Foundry 財団にゴールド会員として参加した。AWS、Azure、Google Cloudなどに比べれば、Alibaba Cloudのメディアへの露出は少なかったが、世界的にみても大規模なクラウド・サービスの一つだ。今日から、Cloud FoundryはAlibaba Cloudで作動するようになった。Cloud Foundryのアプリケーションとコンテナのランタイムがサポートされる。

Cloud FoundryのCTO、 Chip Childersは私の取材に対して「Alibabaはオープンソース・コミュニティーで積極的な活動をしていくものと期待している」と述べた。またChildersによれば、Cloud Foundryは中国で急速に成長中だという。私の経験からも中国ではOpenStackなどの大型のオープンソースプロジェクトの成長が著しいようだ。

中国でオープンソースが普及するにつれ、企業はこうしたプロジェクトに効果的に貢献する方法を模索している。Coud Foundry財団に加入するのは最初の一歩だろう。Childersはまた伝統的な中国の大企業の多くがデジタル化による変身を図っていると語った。これがまた中国におけるクラウドやオープンソースツールの需要を高めているのだろう。

[原文へ]

(翻訳:滑川海彦@Facebook Google+

アプリケーションにチャット(会話)機能をつけるAPI、Dialogflow Enterprise EditionをGoogle Cloudが一般公開

会話ができるための入出力インタフェイスを作ることは、デベロッパーにとって新しい挑戦分野だ。チャットボットはWebサイトやアプリにおけるトラブルを減らし、会話ができるという構造の中では、企業はよく聞かれる質問に簡単迅速に答えることができる。そこで今日(米国時間4/17)Googleは、これまでベータだったDialogflow Enterprise Editionを一般公開した。

この技術は、2016年におけるAPI.AIの買収の成果だ。Googleは賢明にもツールの名前を変え、それが実際にすることにマッチした名前にした。同社によると、現在すでに、数十万のデベロッパーがこのツールを使って会話のためのインタフェイスを構築している。

これは必ずしもGoogleオンリーのツールではなく、Google AssistantやAmazon Alexa、Facebook Messengerなどの音声インタフェイスでも使えるから、デベロッパーが一度チャットアプリを作ったら、それらを、コードを大幅に変えなくてもさまざまなデバイスで使えるようになる。

さらに今日のリリースでは、機能を増やすとともに、エンタープライズエディションへの移行を容易にした。

GoogleのCloud AIのプロダクトマネージャーDan Aharonが、このツールを発表するブログ記事で、こう述べている: “今日からは、一つのAPI呼び出しで複数のAPI呼び出しが必要になるような、バッチ的な処理ができるようになり、コードの行数を減らして開発時間を短縮できる。Dialogflow API V2は今や、すべての新しいエージェントのデフォルトであり、Google Cloud Speech-to-Textを統合、APIからのエージェントの管理が可能になり、gRPCをサポート、そしてコードのマイグレーション不要でEnterprise Editionに容易に移行できる”。

同社は、Dialogflowを使って顧客のためのチャットインタフェイスを構築した企業の例として、KLM Royal Dutch AirlinesやDomino’s、Ticketmasterなどを挙げた。

この新しいツールは今日(米国時間4/17)から可利用になり、30以上の言語をサポートする。一般公開されたエンタープライズプロダクトには、サポートパッケージとサービスレベルアグリーメント(SLA)がつく。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

AdobeがボイスインターフェースのSayspringを買収

本日(米国時間4/17)Adobeは、 Sayspring買収したことを発表した。SayspringはAmazon AlexaとGoogle Assistant向けアプリのボイスインターフェースのプロトタイピンクと開発を支援するスタートアップだ。Sayspring のチームは明日Adobeに合流し、両者の技術の統合を開始するとAdobeは言った。

現在Sayspringのサービスはすべて無料で提供されている —— ただし、サインアップするためには招待状が必要だ。今後招待枠を徐々に増やしていくとSayspringは言っている。

Adobeといえば、クリエイティブツールのPhotoshopやPremiere Proを思い浮かべるのが普通だろう。音声インターフェースを統合するサービスとしてはあまりピンとこないかもしれないが、AdobeのAIへの取組みのなかには、マーケティング事業とDocument Cloudも含まれていることを思い出してほしい。つまり、AdobeがSayspringの技術を利用してDocument CloudやAdobe Stockの音声検索を強化することは容易に想像できる。クリエイターがPhotoshopの基本作業に音声を利用することもあるかもしれない。Adobe自身はまだ何も言っていないので、今は自由に憶測されたい。

「私たちがデバイスと接する方法は、今重大な転換点を迎えている」とAdobeの執行副社長兼CTOのAbhay Parasnisが今日の発表で語った。「私たちはキーボードやマウス、さらにはタッチスクリーンも超えるもっと自然な方法 —— 自分の声 —— を使ってテクノロジーとやりとりする方向へと進みつつある。音声技術は急速に成長しており、今後Adobeの主力製品の重要な要素になると信じている。SayspringをAdobeに迎えることを大変喜んでいる。今後、より多くの人たちが次世代の音声インターフェースを作るためのテクノロジーを提供していくことを楽しみにしている」

[原文へ]

(翻訳:Nob Takahashi / facebook

Microsoftが新しいIoTサービスのために独自のLinuxカーネルを作った

今日(米国時間4/16)サンフランシスコで行われた小規模なプレスイベントでMicrosoft は、マイコンを使用するデバイスを対象とする、安全なエンドツーエンドIoTプロダクトのローンチを発表した。それらは、小型で消費電力の少ないマイコン(micro control unit, MCU)を使って最小限のコントロールやネットへの接続を行うデバイスだ。そのようなデバイスは、玩具や家庭用品、産業向けアプリケーションなど、さまざまなところで使われているが、頻繁なアップデートは行われず、セキュリティに不安のあるものが多い。

今回のAzure Sphereと呼ばれるプロダクトは、機能性能等が一定の基準を満たす一連の証明済みのMCUsを対象とする。そしてMicrosoftの法務部門のトップBrad Smithが今日の発表で強調しているのは、チップに対するAzure Sphereの認定ライセンスを無料にして、そのエコシステムの立ち上げに勢いをつける、という点だ。

アップデートや遠隔測定が困難なデバイスはセキュリティも困難だから、まずそれがインターネット接続機能を内蔵していることが重要だ。そしてその接続機能により、Azure Sphereのクラウド上のセキュリティサービスにもアクセスする。

ということは、それらのデバイスではWindowsが動くのだろうか? いや、違う。Microsoftはこのプロダクトで初めて、独自のLinuxカーネルとディストリビューションを立ち上げる。そのAzure Sphere OSと呼ばれるオペレーティングシステムは、今日のMCUsの多くが使っているリアルタイムオペレーティングシステムの、Microsoft独自のアップデートだ。

Windowsのエンタープライズとセキュリティのためのパートナー担当部長Rob Leffertsは、今日の記者発表でこう述べた: “Azure SphereでMicrosoftはまったく新しい種類のIoTデバイス、すなわちMCUに対応する。Windows IoTはMCUの少なくとも100倍のパワーのあるマイクロプロセッサーユニット(microprocessor units, MPUs)〔通常のCPU〕の上で動くが、Azure Sphere IoT OSに使われているMicrosoftがセキュリティを強化したLinuxカーネルでは、OSSのライセンスのもとにチップレベルのパートナーたちが迅速に新しいイノベーションを実現できる”。

そしてそれらのパートナーたちも、オープンソースのリリースを自分たちの製品に組み込めるので、とても気が楽である。

このプロジェクトで最初にスタートを切るのが。MediaTekの一連のMCU新製品群だ。これらは、低電力消費シングルコアのARM-A7システムで、スピードは500MHz、Wi-Fi接続機能と、そのほかいくつかのI/Oオプションを備える。

オープンなエコシステム、という点では、Smithによると、それらのデバイスはAWSやAlibaba Cloudなど、そのほかのどんなクラウドの上で動くサービスからも使用できる。

実はAmazonのAWSも昨年のre:Inventデベロッパーカンファレンスで類似のプロジェクトを発表している。デバイスが特定のクラウドに縛られず、しかしクラウドサービスと組み合わさってこそ真価を発揮するのだから、これら大手のクラウドプロバイダーたちがMCUsに関心を寄せるのも当然だ。たとえば新しいデバイスの認証や、オペレーティングシステムのアップデート、それらデバイス上で動くソフトウェアの管理、などでAzure以外のクラウドが利用されることを、彼らは期待するだろう。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

FargateによってAWSはコンテナをもっとクラウドネイティブにしたい(Kubernetesなどのインフラを完全抽象化)

AWSのデベロッパーカンファレンスre:Inventは、たくさんの発表があるので、同社自身の重要な新製品の、影が薄くなってしまうこともある。同社の待望のElastic Container Service for Kubernetesはかなり大きく報道されたが、より斬新なコンテナサービスであるFargateローンチは今もまだ、あまり知られていない。

今週たまたま会う機会があったAmazonのCTOでAWS担当VP(そしてEDMの熱心なファン) Werner Vogelsも、それを認める。彼曰く、“Fargateはそのほかの発表の下に埋もれてしまったようだ。しかしそれは、コンテナをもっとクラウドネイティブにするための重要なステップだと思うし、すでにかなりの数の顧客がFargateを採用している。”

Fargateは、AWSのコンテナサービス、Elastic Container Service(ECS)やElastic Kubernetes Service(EKS)のために、コンテナを動かすためのインフラストラクチャを抽象化する技術だ。ユーザーはコンテナオーケストレーションエンジンを指定するだけで、あとのことはこのサービスがやってくれる。個々のサーバーやクラスターをユーザーが管理する必要はない。むしろユーザーは単純に、ECSやEKSに、Fargateでコンテナをローンチすると告げ、そのアプリケーションのCPUとメモリの要求を定義し、あとはサービスにまかせる。

Fargateに関する長いブログ記事を今日(米国時間4/11)発表したVogelsにとってこのサービスは、デベロッパーが、インフラを気にせずに自分のアプリケーションだけに集中できるようにするというAWSのミッションの一環だ。彼曰く“クラウドの初期のころを、よく思い出す。AWSが登場するまでは、クラウドから仮想マシンを提供するサービスしかなかったんだ。多くの企業がそれを利用してビジネスを築き成功させてきたが、でも仮想マシンを動かすときには、依然としてハードウェアを管理しなければならない。[…] われわれがAWSのクラウドコンピューティングサービスの中核であるECSをかつて導入したときに起きたことの一つは、いろんなものをハードウェアから切り離してしまったことだ。[…]それによってデベロッパーの生産性は、ものすごく上がったと思うね”。

しかしAWSやECSの上でコンテナを動かそうとすると、初期のコンテナツールでは、コンテナを実際に動かすこととは無関係な多くのことを、やらなければならなかった。“それは、クラウドの初期と同じだ”、とVogelsは語る。“仮想マシンがコンテナにとってのハードウェアになってしまっている。デベロッパーはコンテナのオーケストレーションのために、VMを相手に大量の作業をしなければならない”。

しかしAmazonの顧客が求めるのは単純に自分のコンテナを動かすことだけだ。Vogelsの言う“ハードウェアに直接触(さわ)るような管理作業”なんか、やりたくない。“それはまるで、クラウド以前の時代に戻ったみたいだ”、とVogelsは述べ、そして今日のブログ記事では、“コンテナのオーケストレーションは、あまりクラウドネイティブではない、といつも感じていた”、と言っている。

Vogelsは、インフラストラクチャを気にしなければならないならそれはクラウドネイティブではない、と考えているようだ。彼によると、AWSの最初の約束は、インフラストラクチャに関してはAWSが面倒見るからデベロッパーはビジネスにとって重要なことだけに専念すればよい、というものだった。その哲学をさらに徹底したサービスがFargateであり、Lambdaだろう。

ECSやEKSのようなクラウドサービスがあっても、クラスターはまだ完全に自動的に動くわけではなくて、つねに必要とはしない能力や容量でも、ユーザー自身が確保(プロビジョニング)しなければならない。Fargateの約束は、そのようなスケーリングを自動化し、ユーザーは実際に必要とする能力と容量だけに支払えばよい、という状態にすることだ。

Vogelsはこう言う: “顧客は、ソフトウェアを作りたいだけだし、自分のアプリケーションを作りたいだけだ。このコンテナをどの仮想マシンに置くか、なんてことで悩みたくはない。でも今は、デベロッパーがそれをやっている。Fargateがあれば、ユーザーはタスクに対するCPUのタイプを指定するだけで、スケーリングは自動的に行われる。実際に使う能力容量に対してだけ、支払えばよいのだ”。

インフラの抽象化という点では、Fargateはコンテナのためにそれをやるのだが、AWS Lambdaのようなプロダクトはもっと徹底している。それは Vogelsにとってはひとつの連続体であり、顧客の要望が生んだものだ。今のAWSはコンテナをきわめて重視しているが、彼の現実的な見方によれば、近未来がコンテナ一色に塗りつぶされてしまうわけではなくて、VMを必要とする開発ニーズも残る、VMはなくならない、という。

Lambdaのようなサーバーレスのプロダクトでは、インフラストラクチャのことをまったく考える必要がない。コンテナのことすらも。ユーザーはただ単に、やりたい処理を指定するだけだ。そしてそのコードの実行に対して支払う。しかもVogelsの視界の中では、VMとコンテナとサーバーレスは一つの連続体の各部だ。顧客は、そのどれからどれへ移行してもよい。彼によると、今ではコンテナを完全に飛び越えて、何もかもサーバーレスで行くエンタープライズも見かけるようになった、という。

〔関連記事: 昨年のre:InventにおけるFargateの発表

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Googleのスプレッドシートにマクロが来た――G Suiteツールにメジャーアップデート

今日(米国時間4/11)Googleはスプレッドシートに大きなアップデートを行いマクロのサポートを開始したと発表した。発明されて以来40年も経つスプレッドシートだが、いまだにビジネスでも日常生活でも広く用いられている。これはG Suiteのスプレッドシート利用者の生活を少し楽にし、Microsoft Excelからの乗り換えを少し加速するかもしれない。

今回のアップデートでGoogleの表計算アプリでとうとうマクロの記録が可能になった。他の生産性ツールではほぼ100%マクロ機能があるのに、Googleスプレッドシートにだけはなく、大きな弱点となっていた。

ツール・メニューに加えられた「マクロ記録」機能を選択すると、その名称のとおり、スプレッドシートに対して加えた操作が逐一記録される。記録を開始したら普段どおり作業を行えばよい。以降、マクロを実行するだけで正確に同じ動作が繰り返される。新しいシートを作るたびに表示形式を設定するなどのわずらわしい操作をする必要がなくなる。空いた時間で犬と遊ぶもよし、別の仕事にとりかかるもよし、だ。

GoogleスプレッドシートはバックグラウンドでマクロをApps Scriptのコードに変換する。つまりGoogleのスクリプトについて知識があれば、スクリプトを編集して動作を変えることができる。

今回のアップデートではマクロのサポート以外にも重要な新機能が追加された。改ページ(大きなスプレッドシートをプリントアウトする際に便利だ)、カスタム用紙サイズ、行とカラムのグループ化、セルのチェックボックス化などだ。行、カラムのグループ化は生産性向上に大きな影響があるだろう。また時系列(週、月、年など)でピボットテーブルを作成できるようになった。

〔日本版〕 マクロ機能はG Suiteに対するもので一般向け無料版のGoogleスプレッドシートではまだサポートされていない(スクリプトは以前からサポートされている)。

[原文へ]

(翻訳:滑川海彦@Facebook Google+

SalesforceのBenioffが語る:シリコンバレーのすべてのVCが私たちを追い返した

先月行われた、Business InsiderのJulie Bortとのインタビューの中で、Parker HarrisとMarc Benioffは、初めて会社を立ち上げたとき、彼らがどのようにお金を稼ぐ努力をして、それにも関わらず一銭も手に入れることができなかったかを語った。Benioffは、シリコンバレーのあらゆるベンチャーキャピタルに行ったものの、毎回拒否されて終わったのだ。

これはビジョンを持ちながら、通常のやり方でアイデアに対する資金調達を行うことができない、スタートアップたちのための教訓となるだろう。Salesforceは資金を調達できたが、それは伝統的なVCルートではなく、投資家たちと1対1での資金調達だった。

同社はBenioffが借りていたアパートで起業したことは有名だが、同社の最初のコンピュータを購入するために、彼は自分のポケットマネーを供出した。それから、街に出てVCにお金を頼む段階となったが、それはうまくいかなかった。

「まるでハイテク乞食のように、私は帽子を手にして、資金調達のためにシリコンバレーに行きました…そして、私はベンチャーキャピタリスト、次のベンチャーキャピタリスト、また別のベンチャーキャピタリストと訪ね歩きました。多くは私の友人たちで、一緒にランチに行きました。でもことごとく全員がNOと言ったのです」とBenioffは語る。「Salesforceはベンチャーキャピタリストから1ドルたりとも調達することはできなかったのです」と彼は付け加えた。

彼はそれには多くの理由があったことを示唆した。その中には、彼とのミーティングの後に相手に電話を掛けて意図的に妨害した競合相手の存在や、単純にクラウドがソフトウェアの未来だと信じない人びとなども含まれている。

その理由が何であれ、結局Salesforceは2004年に株式公開を果すまでに、個人投資家たちから6000万ドルを調達することができた。現在のようなベンチャーキャピタル環境の中では、Benioffのような人物が、ただ1社の引受先も見つけられないなどとは想像しにくい。特に彼が全く未知数の人間ではないと考えられている場合にはなおさらである。それでも当時彼に小切手を渡すVCは誰もいなかったのだ。

しかし、当時は今とは違っていた。それは1990年代後半で、クラウドコンピューティングについて考えている者はなく、インターネット上のソフトウェアという発想はまだはるかに遠いものだった。Benioffは全く違うものを想像していたものの、何が来ようとしているのかを見極めるビジョンをもつVCはいなかったのだ。いまやSalesforceは100億ドル企業であり、それを追い返した人びとは、その時自分たちが一体何を考えていたのかを振り返る必要がある。

「Salesforceのようなものを始めるときには、自分を信じてくれている人たちや、自分が成功すると思ってくれている人たちに囲まれていたいものです。なにしろ、いやでもお前は成功しないという大勢の人間に囲まれることになるのですから」とBenioffは語った。

すべての起業家が心に留めておくべきことだろう。

[原文へ]
(翻訳:Sako)

Googleのテキスト音声変換APIにメジャー・アップデート――音声認識も改善

今日(米国時間4/9)、Googleは数週間前に公開したクラウド・テキスト音声変換サービスのAPIにメジャーアップデートを行ったことをを発表した。Googleは同時に逆方向のサービスである音声テキスト変換のクラウド音声認識APIにも大きな改善を行った。Googleのテストによれば、新しいAPIは認識エラーを全体で54%減らしたという。ただし一部のケースでは改善はこれをはるかに上回った。

アップデートされた音声テキスト変換APIを利用するとデベロッパーは 複数のユースケースをベースにした機械学習モデルから適したものを選ぶことができる。新APIは現在4つのモデルを提供している。そのひとつは検索と命令のための短い発話だ。また電話の音声認識、ビデオファイルの音声認識も提供されており、Googleがすべてのデベロッパーにデフォールトとして推薦するのが4番めの新しいモデルだ。

こうした新しい音声テキスト変換モデルに加え、Googleはパンクチュエーション(句読法)のモデルをアップデートした。Googleの開発チーム自身も認めているとおり、音声認識でこれまで最大の問題となってきたのは正しいパンクチュエーションの生成だった。ことに話者が通常と異なる発話の癖を持っている場合、パンクチュエーションを含めたテキスト起こしはきわめて困難になる

これはトランプ大統領の発言をパンクチュエーションを含めてテキスト起こししようと試みたデベロッパーなら同意するだろう。アップデートされたモデルははるかに読みやすいテキストを生成できるという。センテンスの切れ目を認識することに失敗するケースが減少し、ピリオド、コンマ、クエスチョンマークなどを正しく挿入できるとGoogleは述べている。

今回のAPIのアップデートにより、デベロッパーはテキスト起こしを行うことにより、音声ファイルないしビデオファイルにタグ付けなど基本的なメタデータを付与できるようになった。Googleではユーザーの各種機能の利用状況を総合的に勘案して、次のアップデート開発の優先順位を決めていくという。

Googleはサービスの料金体系も多少変更した。従来どおり、音声ファイルのテキスト変換は15秒ごとに0.006ドルで、ビデオはその2倍の15秒ごとに0.012ドルとなる。ただし5月31日まで新モデルの利用料金は15秒ごとに$0.006ドルに抑えられる。

〔日本版〕上にエンベッドされた例ではセンテンスの切れ目が正しく認識されピリオドが挿入されている。No、That’sなどの冒頭が赤文字で強調表示されている。

[原文へ]

(翻訳:滑川海彦@Facebook Google+

Google Cloudがユーザーのネットワークを最適化できるための詳細分析情報を提供

Google Cloudが今日(米国時間4/5)ローンチする新しい機能でユーザーは、Google Cloud上のユーザーのサーバー群とGoogleのそのほかのサービスやオンプレミスのデプロイメント、そしてそのほかのありとあらゆるインターネットのエンドポイントとの間のデータフローをモニタし、最適化できる。名前が示すように、そのVPC Flow Logsと呼ばれる機能は、GoogleのVirtual Private Cloud機能(仮想プライベートクラウド, VPC)を使って自分たちのリソースを他のユーザーから隔離している企業が利用する。

VPC Flow Logsは、VPC内の仮想マシンが送受するすべてのネットワークフロー(UDPとTCPの両方)をモニタしログする。それには、Google Cloudの複数のリージョン間のトラフィックも含まれる。そのデータをGoogle Cloudに保存したければ、すべてのデータをStackdriver LoggingやBigQueryへエクスポートできる。後述のように、そのほかのリアルタイムアナリティクスやセキュリティプラットホームにエクスポートするには、Cloud Pub/Subを使える。データは5秒おきにアップデートされるが、このサービスの利用がユーザーがデプロイしているアプリケーションのパフォーマンスに影響を与えないことを、Googleは約束している。

今日の発表におけるGoogleの注記によると、これによりネットワークの運用者はGoogleのネットワークのパフォーマンスを詳細に知ることができ、ネットワークのトラブルシューティングも可能になる。またユーザーのグローバルなトラフィックに関するさまざまな情報が得られるので、ネットワークの使い方や費用を最適化できるようになる。

そのデータはすべて、不審者がユーザーのネットワークに入り込んでいたときなどの捜査にも役に立つ。ただしそのためには、データを、SplunkやArcSightのようなセキュリティ情報とイベント管理(security information and event management, SIEM)の専門企業へエクスポートした方がよいだろう。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

AWSのDynamoDBが継続的自動バックアップと事故時の即時リカバリを提供

クラウドコンピューティングはいろいろ便利だが、データの扱いもクラウドのベンダーがやってくれるのがありがたい。でもそれは、ソフトウェアをアップデートしてくれるとか、ハードウェアのスケールアップ/ダウンを勝手にやってくれる、ぐらいのことだった。しかし今日(米国時間4/4)AWSはそれを一歩進めて、Amazon DynamoDB Continuous BackupsおよびPoint-In-Time Recovery(PITR)〔継続的自動化バックアップと即時リカバリ〕なるものを発表した

この新しいサービスでは、ユーザーがバックアップツールを有効にしておくと、バックアップが自動的に行われる。あとのことはすべてAmazonが面倒を見て、ユーザーのDynamoDBデータベースにあるすべてのデータを継続的にバックアップする。

しかもそれだけではなく、バックアップシステムは記録もつける。つまり、そのおかげで、過去35日以内ならデータの“巻き戻し”ができて、その粒度は秒単位だ。しかもそのツールにはユーザーがAWS Management Consoleからアクセスでき、AWS Command Line Interface(CLI)でAPIを呼び出せる。

スクリーンショット提供: Amazon

この新しい機能を発表するブログ記事でAmazonのRandall Huntが書いている: “この機能を作ったのは、事故的な上書きや削除からユーザーとデータを守るためだ。デベロッパーがステージングではなくプロダクションに対してスクリプトを動かしたとか、どこかのファットフィンガー(fat-finger, 指が太すぎるやつ)が間違ってDeleteItemボタンを押してしまったときには、PITRが助ける。また、ユーザーにとって予想外の事態にも対応できる”。

35日のリミットが気になる人は、通常の定期的なオンデマンドのバックアップならいくらでも長期保存できることを、おぼえておこう。

AmazonのCTO Werner Vogelsが、今日サンフランシスコで行われたAWS Summitでこの新しいサービスを紹介した。そして、どれだけ大量のデータがあっても平気だ、と言った。つまりこれらの新しいサービスは、データ量がテラバイト級でも使える。“これはAWSの本当に強力な仕組みなんだ”、とVogelsは自画自賛した。

この新しいサービスは今日からいくつかのリージョンで可利用になる。それらがどことどこか知りたい人は、このページを見てみよう。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa