Googleが差分プライバシーライブラリのオープンソースバージョンをローンチ

Google(グーグル)は米国時間9月4日、同社の主要プロダクトで使っている差分プライバシーライブラリ(参考:日本語ブログ記事)のオープンソースバージョンをリリースした。デベロッパーはこのライブラリを使って独自のツールを作り、社内社外に個人を特定できる情報を明かすことなく、集積されたデータを利用できる。

同社のプライバシーとデータ保護部門のプロダクトマネージャーであるMiguel Guevara(ミゲル・ゲネヴァラ)氏は「あなたが、都市計画のプランナーや、中小企業の経営者、ソフトウェアデベロッパーなど、どんなお仕事をしていても、データから有益な知見が得られれば仕事の質を向上し、重要な疑問に答えが得られるようになる。しかし強力なプライバシー保護がないと、あなたは一般市民や顧客、そしてユーザーの信頼を失うリスクを負う。差分プライバシーによるデータの分析は道義にかなったアプローチであり、企業などの組織が多くのデータから学べると同時に、それらの結果から絶対に個人のデータが識別されたり、特定されないようにする」とコメントしている。

Googleの注記によると、このApacheライセンスによるC++ライブラリは、スクラッチから作ることが通常は困難な機能にフォーカスし、デベロッパーが必要とする標準的な統計関数が多く含まれている(計数、和、平均、分散、などなど)。さらに同社は、このライブラリに「厳密なテスト」のための補足的ライブラリが含まれていることを強調している。差分プライバシーを正しく得ることは、難しいからだ。その他PostgreSQLエクステンションやデベロッパーの仕事をサポートするレシピ集なども含まれている。

最近では、同じ文の中に「Google」と「プライバシー」があると、思わず注目してしまう。それも当然だ。Googleの社内にはこの問題をめぐって相当な軋轢があるのだろうけど、でも今回のオープンソース提供は疑問の余地なくデベロッパーの役に立つし、デベロッパーもユーザーも、人びとのプライバシーを侵す心配なく、彼らが作るツールでデータを分析できるようになる。差分プライバシーはかなり専門知識を要する技術だから、これまでは手を出さないデベロッパーが多かった。でもこのようなライブラリがあれば、差分プライバシーを実装しない言い訳がなくなる。

画像クレジット: Bloomberg/Getty Images

関連記事:Appleは差分プライバシー技術を利用して個人データに触らずにSafariの閲覧データを収集
参考記事:一般人が差分プライバシーを理解するためのスライド

[原文へ]

(翻訳:iwatani、a.k.a. hiwa

APIの良質な文書を作るReadMeがログ利用でサービスを高度化

ソフトウェアにAPIがあると、さまざまなツールがお互いにコミュニケーションでき、デベロッパーは自分でコードを書かなくても便利なサービスにアクセスでき、そのソフトウェアをプラットホームとしても運用できるようになる。でも、APIを上手に使うためにはしっかりとしたドキュメンテーション(文書)が必要だ。APIのドキュメンテーションの制作を助けるその名もReadMeが、AccelがリードしY Combinatorが賛助するシリーズAのラウンドで900万ドル(約9530億円)を調達した。同社は、2015年冬季にY Combinatorを受講している。

今日の投資の発表前には、同社は2014年に120万ドルのシード資金を獲得しただけだ。それが今では3000社の有料顧客がいて過去7年黒字という、珍しいほどの好成績を収めている。しかし成功に酔うことのないCEOのGregory Koberger(グレゴリー・コーベルガー)氏は、今後は大型顧客の獲得に努め、より高度な要求にも応じるために今回のラウンドに至った、と控えめに言う。

しかも同社は近年、企業のAPIのログを分析して各種の情況に応じたドキュメンテーションを制作でき、またAPIの使い方がわかると、ユーザーが抱えるいろんな情況のカスタマーサポートにも応じられるようになった。でも、よその会社のAPIログを見るのだからデータのセキュリティが重要だ。今回の資金は主に、その方面に投資される。

コーベルガー氏は「当たり前のように、技術者を増やしサポートやデザイナーも増やす必要がある。しかしそれは何のためかというと、もっと大きな企業を相手にし、そのためにデータのセキュリティを強化するためだ。それを正しくやるためには、お金がたくさん必要だ」と語る。

Screenshot 2019 08 28 10.55.38

画像提供: ReadMe

彼によると、各企業のAPIログを利用できるようになってから、いろんな可能性が一挙に開けた。なぜなら、データが人びとのAPIの使い方を知るための貴重な窓になるからだ。彼は「サーバーのログからいろんなことがわかるから、すごい。誰かがAPIで問題を抱えていたら、ログを見て問題の様相がわかるのでデバッグができる。サポートチームにも、ログから顧客のAPIの使い方に関するいろんなことが分かる」と語る。

今回の投資をリードしたAccelのDan Levine(ダン・レーヴィン)氏によると、APIの成否の鍵を握るのは、良質なドキュメンテーションがあるかないかだ。「APIは技術的な統合を作り出すためにあるだけでなく、そのサービスを軸とするエコシステムを作り、企業間のパートナーシップの強力な糊にもなって、数十億ドルの価値を生み出す。だからReadMeは企業にとって、サービスである以上に戦略だ。クリーンで対話的でデータドリブンなAPIのドキュメンテーションがあれば、デベロッパーはそれで仕事をすることが好きになり、それは100社や1000社のパートナーシップにも値する」とレーヴィン氏。

ReadMeは2014年に創業された。今サンフランシスコのオフィスには社員が22名いるが、今回の投資で当然増えるだろう。

[原文へ]

(翻訳:iwatani、a.k.a. hiwa

サーバーレスで関数に限定されない利用をもたらすCloudState

サーバーレスの技術はデベロッパーに、プログラムを動かすために必要なインフラストラクチャの資源について考えなくてもよい開発方法を提供するが、これまでは多くの場合、関数を利用するプログラミングに限られていた。そこでLightbendの新しいオープンソースプロジェクトCloudStateは、関数を超えることによってこの状況を変えようとする。

LightbendのCTOであるJonas Bonér(ジョナス・ボネル)氏によると、インフラストラクチャを抽象化してしまうサーバーレスの基本的な能力は、関数に限定されないはずであり、もっと広範囲な開発体験に応用できる。Bonér氏はこう語る。「今は、サーバーレスとFunction as a Serviceを混同している人が多いのではないか。それでは、技術を十分に利用していないことになる。サーバーレスの真のメリットは関数云々ではなくて、できるかぎり多くを自動化することによって得られるまったく新しいデベロッパー体験とオペレーション体験なのだ」。

彼によると、Lightbendの顧客であるデベロッパーたちは、プログラムのあらゆる部分を含むもっと完全なサーバーレスの開発体験に憧れている。Bonér氏は言う。「サーバーレスとFunction as a Serviceの現在の実装は確かに素晴らしいけれど、でもアプリケーションのそのほかの部分はそのレベルで動いていない、と訴えるデベロッパーがとても多い」。それこそまさに、CloudStateが解決しようとする問題だ。

Bonér氏は、関数で動かすプログラミングを全廃するわけではない、と念を押す。むしろ、それを補強し拡大するのだ。CloudStateは、いくつかの既存の技術を利用する。まず、サーバーレスとコンテナ化を統合するGoogleのオープンソースプロジェクトKNative、さらにgRPC、Akka Cluster、GraalVM on Kubernetesなどだ。

CloudStateはまだ開発途上のプロジェクトだが、基本的なビルディングブロックはすでにあり、Bonér氏はユーザーもこのオープンソースプロジェクトを初期の段階から使って、その成長に貢献してくれることを期待している。今あるのは、プロジェクトの目標を示す仕様書や、実装のためのプロトコル、そしてテストキットなどだ。

関数にとらわれない、サーバーレスのもっと広い意味とビジョンを実現することが、このプロジェクトの目標だ。そこではデベロッパーが書いたいろいろなコードが、下層のインフラストラクチャを気にする必要なく動く。大胆なアプローチではあるけどBonér氏曰く、まだ初期段階なのでプロジェクトの成熟のためには時間とコミュニティの貢献が必要だ。

関連記事: サーバーレスとコンテナは両者を一緒に使うのがベストプラクティスだ

[原文へ]

(翻訳:iwatani、a.k.a. hiwa

バックアップした写真の中から目的の顔を見つけ出せる顔認識APIをIDriveがローンチ

この発表を初めて見たときには、思わず二度見してしまった。クラウド上でストレージとバックアップのサービスを提供しているIDriveは米国時間8月23日、AWSRekognitionなどと競合する顔認識APIを立ち上げた。

しかし、バックアップサービスと顔認識なんて、どんな関係があるのだろうか。実際のところ、IDriveはここしばらく顔認識技術に首を突っ込んでいた。昨年同社はIDrive Peopleというサービスを立ち上げており、バックアップしている写真に写っている自分や友人の顔をユーザーが見つけられるようにした。しかし今回のサービスでIDriveは、APIビジネスという新しいビジネスの分野に踏み込んだ。

そのAPIサービスはIDrive Faceと呼ばれ、静止画像の中に複数の顔を見つけたり分析したりする標準的なツールが含まれている。顔認識APIなら必ずあるような機能だ。そのためにAPIは、通常のバウンディングボックス(境界ボックス)とすべての顔のメタデータを提供している。また顔や性や年齢や顔に表れている気分などで人を特定するための、比較や検証の機能もある。気分の検出は、このAPIの独自の機能だ。APIへのリクエストはすべて暗号化され、またAPIの使い方はかなり単純明快なようだ。

IDriveは、そのツールの精度と性能がAWS Rekognition並みであるが安くなると約束している。料金はデベロッパープランでは月額49.5ドル。1トランザクションあたり0.0001ドル、最大毎分75トランザクションまで、ストレージ容量は無制限だ。ビジネスプランは月額124.5ドル。1トランザクションあたり0.0001ドル最大毎分500トランザクションまでだ。オーダー規格のエンタープライズプランもあり、また無料で試用もできる。

AWSの料金体系は例によって複雑だが、月額料金はない。また、人の顔しか認識できないIDriveと違って、テキストやオブジェクト、風景、セレブの人たちなど、いろんなものを認識するRekognitionのほうを、高くても使うユーザーもいるだろう。

GenderAge Detection

[原文へ]

(翻訳:iwatani、a.k.a. hiwa

DigitalOceanがPostgreSQLに続いてMySQLとRedisのマネージドデータベースサービスをローンチ

半年前にPostgreSQLのマネージドサービスをローンチしたばかりの、新進のホスティングおよびクラウドサービスプラットホームDigitalOceanは米国時間8月20日、MySQLとRedisのマネージドデータベースサービスのローンチを発表した

これも含め同社の最近のリリースは、低価格なホスティングサービスというルーツを脱して本格的なクラウドプロバイダーになろうとするDigitalOceanの意欲の表れだ。データベースのマネージドサービスと同社のコアであるホスティングおよびインフラストラクチャに加えて、今や同社はオブジェクトとブロック単位のストレージとKubernetesエンジンも提供しており、とくに後者は今日の現代的なクラウドインフラストラクチャならどれの上でも利用ができ、動かせる。ハイパークラウドと呼ばれる連中に追いつくのはまだかなり先だと思われるが、市場の競争がより激しくなるのは良いことだ。

DigitalOceanのプロダクト担当上級副社長Shiven Ramji(シヴァン・ラムジ)氏は、次のように述べている。「MySQLとRedisを加えたことによって、DigitalOceanは今やもっとも要望の多い3つのデータベースをサポートしている。しかもデベロッパーは、それらの面倒な管理で悩むことなく、アプリケーションを構築し動かすことができる。デベロッパーはDigitalOceanのDNAであるだけでなく、その成功の大きな要因でもある。私たちはこの成功を足がかりとしてさらにデベロッパーのサポートを拡充し、彼らのよりシンプルなアプリケーション開発を可能にしていかなければならない」。

マネージドデータベースサービスの料金体系は、どれを選んでも前と同じだ。

2019 08 19 1553

新しいマネージドデータベースサービスは当面、同社のニューヨークとフランクフルト、サンフランシスコのデータセンターで提供される。そのほかのデータベースエンジンのサポートも、目下開発中だ。2番目3番目としてMySQLとRedisを選んだのはデベロッパーの要望が多いからだが、そのほかのエンジンについても、同じくデベロッパーの要望の多さが選択のベースになるだろう。ただしDigitalOceanの2019年のロードマップに載っているデータベースはMySQLとRedisだけだから、年内に次のサポートが発表されることはないだろう。

関連記事:DigitalOcean launches its managed database service(DigitalOceanがマネージドデータベースサービスをローンチ、未訳)

[原文へ]

(翻訳:iwatani、a.k.a. hiwa

MicrosoftがJavaアプリケーションのパフォーマンスを上げるサービスjClarityを買収

Microsoft(マイクロソフト)は米国時間8月19日、、Javaアプリケーションのパフォーマンスを上げるサービスであるjClarityの買収を発表した。今後そのサービスはAzureの上で行われることになり、また独自のJDKとしてAdoptOpenJDKが提供される。それはいわばOracle Javaの無料バージョンだそうだ。なお、買収の価額などは公表されていない。

Microsoftは買収を発表するブログ記事で、最近はAzure上のJavaの大規模なインストールがMinecraftのようなプラットホームを使う内部的なものと、DaimlerやAdobeなど外部の大型顧客の両方で増えている、と言っている。

そこで同社の考え方としては、jClarityのチームとそのツールセットが加われば、そういったJavaを使う顧客へのサービスを充実できる。ブログ記事には「Javaの優秀な使い手とデータサイエンティストたちから成るjClarityのチームは、JVMのデータドリブンな最適化でその専門的能力を実証しており、Microsoftのいろいろなチームを助けてJavaプラットホームの最近の進歩を有効利用できるようにするだろう」と書かれている。

AdoptOpenJDKはMicrosoftもそのプロジェクトに参加しており、そのほかに、Amazon、IBM、Pivotal、Red Hat、SAPといったそうそうたるプロジェクトメンバーがいる。

jClarityの共同創業者でCEOのMartijn Verburg(マーティン・フェルブルフ)氏は同社のブログ記事で今回の買収を発表し、当然ながらそれを極めて前向きに捉えている。彼はMicrosoftのことをデベロッパーとそのコミュニティの支援におけるリーダーと呼び、Javaのエコシステムを支えていく情熱と専門的能力において他と比べてまったく見劣りがしないと褒めちぎっている。そのため今回の買収に関する話し合いも、非常に円滑に進んだそうだ。

フェルブルフ氏はjClarityというオープンソースのプロジェクトをこれまでサポートしてくれた社員、顧客、そしてコミュニティに謝意を述べている。彼のMicrosoftにおける役職は、Java担当エンジニアリンググループの主席マネージャーになるらしい。

しかし、もしもAdoptOpenJDKがMicrosoftの所有物になってしまうのであれば、コミュニティはどう反応するだろうか。そしてまたプロジェクトに参加していたほかの大企業は、今後どういう態度をとるのか。それともMicrosoftは、AdoptOpenJDKに関しそのオープンソース性を維持するのか。

【編集部注】jClarityのプロダクトはすべてオープンソースだが、同社が顧客企業に提供するパフォーマンス向上サービスは有料サービスである。

[原文へ]

(翻訳:iwatani、a.k.a. hiwa

CircleCIの継続的インテグレーションをMicrosoftのプログラマーが初めて採用

CircleCIはかなり前からLinuxやMacのプログラマー向けに継続的インテグレーションのサービスを提供しているが、しかしこれまで、Microsoftのデベロッパーは蚊帳の外だった。しかし米国時間8月7日から同社は、Windows Server 2019を使っているMicrosoftのデベロッパーをサポートすることになった。

先月5600万ドル(約59億4500万円)のシリーズDを発表したCircleCIは当然、そのマーケットリーチを拡張する道を常時探しているはずだが、Microsoftのプログラマーをサポートすることになったのは、背後の市場が大きいという意味で同社にとって幸先がいい。

CircleCIのWindows担当プロダクトマネージャーであるAlexey Klochay(アレクセイ・クロチャイ)氏は「Windowsのサポートを発表できることは、とても嬉しい。顧客も、それを求めていた。Stack Overflowの今年初めの調査によると、ソフトウェア開発市場の40%をWindowsが占めているんだ」と述べている。

Microsoftのプログラマーたちは、これまでもCircleCIのような専門サービスに頼らずに継続的インテグレーションをやっていたが、それは相当困難だった。同氏によると、CircleCIならもっと総合的なソリューションを提供できる。まず、デベロッパーはエンジニアの助けを借りずに自力でCI/CDの流れを運用できる。「デベロッパーが自力で、自分たちのペースで、やりたいことができる。何かに縛られることもない。うちのサービスはとても使いやすいし、メンテナンスも楽だ」と彼は説明する。

CircleCIは、開発チームの全体に大きな可視性を提供する。「誰が今何をやっているのか、各人がシステムと今どんな対話をしているのか、それを一望にできる」とクロチャイ氏は語る。

その使いやすさには、昨年リリースされたWindows Server 2019のさまざまな改良も大きく貢献している。「最新のWindows Serverに導入された変化によって、1年前だったらありえなかったほど、円滑な仕事ができるようになった」とクロチャイ氏。

CircleCIのNathan Dintenfass(ネイサン・ディンテンファス)氏によると、一般的にMicrosoftの最近のエコシステムは、CircleCIがデベロッパーに提供しているアプローチを歓迎するような方向性に変わってきた。「我々はWindowsのエコシステムの成熟を目撃し、ソフトウェアのデリバリの自動化とスループットの向上に投資している彼らのチームに、前よりも引かれている。またそれと同時に、Windowsを提供している彼らのクラウドインフラストラクチャも成熟してきたから、我々のオペレーションも相当楽になっている」と同氏は語る。

関連記事
CircleCI closes $56M Series D investment as market for continuous delivery expands(継続的デリバリのCircleCIがシリーズDで5600万ドルを調達、未訳)
デベロッパーがデプロイの面倒から解放されるソフトウェア開発モデル(CircleCIのデベロッパーが関与)

[原文へ]

(翻訳:iwatani、a.k.a. hiwa

サーバーレスやコンテナなど多様な実行環境でライブデバッグを提供するRookout

サーバーレスコンテナなど、さまざまな環境のためにデバッグサービスを提供しているRookoutは米国時間8月7日、シリーズAで800万ドル(約8億5000万円)の資金を獲得したと発表した。その資金は、デバッグ以外の新しい分野の開拓に当てられる予定だ。

このラウンドはCisco Investmentsがリードし、従来の投資家TLV PartnersとEmergeが参加した。またGitHubのCEOであるNat Friedman(ナット・フリードマン)氏やLaunchDarklyのCTOで共同創業者のJohn Kodumal(ジョン・コデュマル)氏、Codecovの収益担当副社長であるRaymond Colletti(レイモンド・コレッティー)氏らも参加した。

Rookoutの共同創業者でCEOのOr Weis(オー・ウェイス)氏は「Rookoutは創業の時点から、すべてのプラットホームにプロダクションレベルのデバッグサービスを提供している」と語る。そして彼の言うすべてのプラットホームとは、AWS Lambdaのようなサーバーレスの環境やコンテナとKubernetesの環境、Google App EngineやAWSのElastic BeanstalkのようなPaaS環境などのことだ。

同社は単純にデバッグサービスを提供するだけでなく、バグが起きているプラットホーム内部への可視性も提供する。バグは基本的に短命な現象だから、その可視化はかなり難しい技術だ。声明でウェイス氏は「昨年我々は、顧客がRookoutのコードレベルのデータ収集機能のまったく新しい利用方法を見つけていることを発見した。そこで我々は、弊社のコードレベルの観察機能とパイプラインの多様な使われ方に対応し、それらをサポートし、強化する必要性に迫られた」とコメントしている。

ここで特に印象的なのは、Ciscoのような古参のベテラン企業がRookoutへの投資に積極的に関わっていることだ。Ciscoのグローバル企業開発担当副社長であるRob Salvagno(ロブ・サルヴァグノ)氏はRookoutのデベロッパーフォーカスを賞賛して声明中で「デベロッパーはエンタープライズのIT関連支出の鍵を握っている。Rookoutを利用すると再デプロイせずにオンデマンドでデータを収集できるから、同社のそのようなデベロッパー中心型のソフトウェアはプロダクションレベルの面倒なデバッグを単純化し、デベロッパーの効率性を増し、そしてITのOpsとDevの間に存在する軋轢を軽減する」と述べている。

2017年にローンチしたRookoutはサンフランシスコとテルアビブにオフィスがあり、社員数は20名だ。これまでに1200万ドルあまりを調達している。

関連記事:AWS LambdaのサーバーレスのコードをライブでデバッグできるRookoutのデバッグツール

[原文へ]

(翻訳:iwatani、a.k.a. hiwa

巨額買収を完了したIBMはRed Hatの翼で飛翔する

IBMの340億ドル(約3.6兆円)という巨額なRed Hatの買収は数週間前に完了し、米国時間8月1日に両社はその最初の成果を発表した。今日の発表の大部分は、あらゆるパブリックおよびプライベートクラウドにプロダクトを持ち込みたいとするIBMの野心の拡大の表れだ。そもそもIBMがRed Hatを買った理由がそれだから何も意外ではないが、多くの業界ウォッチャーにとって意外だったのはその実現の早さだ。

具体的には、IBMはそのソフトウェアポートフォリオをRed Hat OpenShiftに持ち込む。それはRed HatのKubernetesをベースとするコンテナプラットホームで、顧客がRed Hat Enterprise Linuxを使用するかぎりどんなクラウドでもそれを使える。

IBMはすでに100製品を超えるプロダクトをOpenShift向けに最適化し、それらを同社がCloud Paksと呼んでいるものにバンドルした。そのPaksなるものは現在5つあり、それらはCloud Pak for Data、Cloud Pak for Application、Cloud Pak for Integration、Cloud Pak for Automation、そしてCloud Pak for Multicloud Managerだ。これらの技術をIBMの顧客は、AWS、Azure、Google Cloud Platform、そしてほかでもないIBM自身のクラウドで利用でき、そこにはDB2やWebSphere、API Connect、Watson Studio、 Cognos Analyticsなどが含まれている。

今日の発表声明でRed HatのCEO Jim Whitehurst(ジム・ホワイトハースト)氏は「Red HatはコンテナやKubernetesなども含むLinuxベースの技術でイノベーションを駆動しており、それはハイブリッドクラウド環境の基盤的ビルディングブロックになっている。ハイブリッドクラウドのためのこのオープンな基盤により、「any app, anywhere, anytime」(どのアプリケーションもどこでもいつでも動く)というビジョンが実現可能になる。それがIBMの強力な専門的能力と結びつき、意欲的なデベロッパーやパートナーから成る巨大なエコシステムにサポートされれば、顧客は自ら選んだ技術で現代的なアプリケーションを作り、オンプレミスでも複数のパブリッククラウドにまたがるものでも、そのアプリケーションにとって最良の環境でデプロイする柔軟性を持つことができる」と述べている。

IBMは、クラウド上の初期のイノベーションの多くは現代的で顧客志向のアプリケーションを市場化することにあり、主にベーシックなクラウドインフラストラクチャにフォーカスしていた、と主張している。しかしながら今日では、エンタープライズは自分たちのミッションクリティカルなアプリケーションをクラウドで動かすことにも関心がある。そのために彼らは、複数のクラウドにまたがって使えるオープンなスタックを求めているのだ。

さらにIBMは今日、完全な管理を伴うマネージドなRed Hat OpenShiftサービスを自身のパブリッククラウド上でローンチする、と発表した。そのほかに同時に、IBM ZやLinuxONEメインフレームなどIBM Systems上のOpenShiftと、Red Hatに関するコンサルティングおよび技術的サービスの立ち上げも発表された。

関連記事: With $34B Red Hat deal closed, IBM needs to execute now(IBMが340億ドルのRed Hat買収を完了し次は執行だ、未訳)

[原文へ]

(翻訳:iwatani、a.k.a. hiwa

AWSのテキスト音声変換エンジンはニュースキャスターのような話し方をする

最新の機械学習技術のおかげで、テキスト音声変換エンジンはこの数年間で大きく進歩した。以前はコンピューターがテキストを読んでることがすぐ分かったが、最近はそれも変わりつつある。Amazon(アマゾン)のクラウドコンピューティング部門AWSは今日(米国時間7/30)、テキスト音声変換を行うニューラルネットワーク用のモデルをいくつかローンチし、その中にはテレビのニュースキャスターの喋りを真似るものもある。

同社の発表声明はこう言っている。「音声のクォリティーは確かに重要だが、もっと人間的にリアルな合成音声を作ることが、これまでは忘れられていた。たとえば、話し方のスタイル。人間なら、ニュースキャスターとスポーツキャスターと大学の先生の話し方スタイルを聞き分けることができる。またほとんどの人間が、状況に応じて話し方を変える。メッセージがいちばんよく伝わるような、話し方を選ぶのだ」。

ニュースキャスターふうの話し方スタイルは、Joanna(ジョアンナ)とMatthew(マシュー)という名前までついた二人のアメリカ人の声で提供され、USA TodayとカナダのThe Globe and Mailの協力により、実際にニュース原稿の読み上げに使われている。

それは、こんな喋り方だ:


このニュース読み上げ用テキスト音声変換サービスはAmazon Polly Newscasterと名付けられ、AWSの長年のテキスト音声変化に関する研究の成果だ。AWSはそのエンジン本体をNeural Text-to-Speech Engineとして提供している。このエンジンはGoogleのWaveNetなどと変わっているものではなく、今11の音声を提供している。イギリス英語が3人、アメリカ英語が8人だ。

たとえばこれは、女性(女声)のアメリカ英語の例だ:

今のフェイクニュースの時代においては、ここまで本物の人間のようなロボットの音声がニュースキャスターのように喋ったりすると、賛辞よりもむしろ問題を感じてしまうかもしれない。ただしほとんどの場合は、ニュースを人間が読もうとロボットが読もうと大差ないだろう。ユースケースはニュース以外にもいろいろありそうだ。それにAWSが提供したサンプルを聞いたかぎりでは、以前の、長く聞いていると気分が悪くなりそうなロボット音声よりも、ずっと長く聞いていられる。

[原文へ]

(翻訳:iwatani、a.k.a. hiwa

デベロッパーがデプロイの面倒から解放されるソフトウェア開発モデル

2年間文字どおりダークだった(ステルス状態だった)Darkは、同社が「デプロイレス」と呼ぶユニークなソフトウェア開発プラットホームを構築した。Darkのエディターを使ってDarkの言語でアプリケーションを書けば、そのご褒美としてアプリケーションのデプロイはGoogle Cloud Platformの上で自動的に行われる。ソフトウェアのデプロイに伴うすべての苦難から、デベロッパーは解放される。

今日ステルスを脱した同社は、実は2017年に350万ドル(約3億8000万円)のシード資金を獲得している。そしてその後の2年間、彼らはそのかなり複雑なプラットホームを構築してきた。

同社の共同創業者の一人でCEOであるEllen Chisa(エレン・チサ)氏は、Darkのツールセットの使い方を勉強する必要はあるが、それだけの価値はあると主張する。複数のツールが連携して動くよう、細心の設計をしているからだそうだ。

彼女は次のように語る。「Darkの最大の問題は新しい言語を学習して、たぶん使い慣れたエディターとは違うエディターを使うことだと思うけど、Darkと言語とエディターの三者が協働すると、とても大きな利点が生まれる」。

「Darkでは、エディターが言語をよく知ってるので極めて適切なオートコンプリートが得られる。そして、どんなコードでもコードを書いたらすぐにインフラストラクチャがそれ用にセットアップされる。何が必要かDark自身が知ってるから」。

確かにそそられる話だが、でもチサ氏は今後の啓蒙活動が重要と言う。プログラマーたちは今現在、何らかのツールを使ってプログラムを書いているからだ。彼女が主張する最大のセールスポイントは、いろんなタスクを統合した自動化のおかげで、デプロイメントの周辺に存在する大量の複雑性を取り除いたことだ。

彼女によると、Darkの3大ベネフィットとは、

  1. インフラストラクチャのセットアップの自動化
  2. デベロッパーがデプロイで悩まなくていいこと(デベロッパーはアプリケーションのコードを書くだけでいい、書き終わったコードはすでにホストされている)
  3. コードを書くことと並行してトレーシングが行われる

ということだ。「Darkのエディターがトレーシングの能力を持っているからコードを書けばすぐにトレースされる」と彼女は言う。

もう一人の共同創業者でCTOのPaul Biggar(ポール・ビガー)氏は、初期のCI/CDツールであるCircleCIを作ったデベロッパーの1人だから、デプロイについてはよく知っている。

350万ドルのシードラウンドをリードしたのはCervin Ventures、これにBoldstart、Data Collective、Harrison Metal, Xfactor、GitHubのCOO Erica Brescia氏、Backstage、Nextview、Promus、Correlation、122 West、そしてYubariが参加した。

[原文へ]

(翻訳:iwatani、a.k.a. hiwa

グーグルがコンタクトセンターの音声技術をアップデート

昨年6月にGoogle(グーグル)は、企業が自社のコンタクトセンターをもっと有効利用できるためのAI製品「Contact Center AI」を発表した。Contact Center AIはGoogleのさまざまな機械学習ツールを使って仮想エージェントを作り、エージェントの仕事を助ける。米国時間7月24日に、同社はこのツールのアップデートをいくつかローンチし、その中には特に音声認識機能の改良がある。

Googleによると、同社の自動化音声認識サポートは精度がとても高く、市販製品を導入した顧客がよく不平を言うノイズの多い電話でも正しく解釈する。その精度をさらに上げるために今回のアップデートで、「Auto Speech Adaptation in Dialogflow」(Dialogflowにおける自動音声適応)という機能をローンチした。Dialogflowは、ユーザーが顧客との会話型製品を作るための機械学習を利用したツールだ。今回のこのアップデートで、音声認識ツールは会話のコンテキストを捉えることができ、精度は40%向上したとGoogleはコメントしている。

Speech Recognition Accuracy

また、電話用の新しい機械学習モデルにより、米国英語の場合、短い発言の理解度が従来より15%向上した。またそのほかのアップデートとして、書き起こしの精度向上、訓練プロセスを容易化、エンドレスのオーディオストリーミングに「Cloud Speech-to-Text API」が対応、などがある。後者はこれまで、5分という制限があった。

Googleは、これらのオーディオのMP3を提供しているから、ダウンロードしてCDに焼くといいかも。

dialogflow virtual agent.max 1100x1100[原文へ]

(翻訳:iwatani、a.k.a. hiwa

AWSがEC2のリソースの無駄遣い指摘ツールを立ち上げ

AWSのEC2のユーザーに、ちょっと便利なアップデートが登場した。米国時間7月24日、AWSはEC2 Resource Optimization Recommendations(EC2のリソース最適化の推奨)と呼ばれる新しい機能を立ち上げた。その名のとおり、ユーザーにリソースの最適利用に関する推奨を行う。派手に目立つような機能ではないが、ユーザーのお金を相当節約してくれるだろう。ついでに、担当者であるあなたの昇進もあるかもしれない。

このリソース最適化ツールはユーザーのEC2の使い方を見て無駄な部分を見つけ、その状況に合った推奨をする。そのためにユーザーのリソース使用履歴やCloudWatchの測定値、そしてユーザーの現在の予約量などを調べる。

Screen Shot 2019 07 10 at 11.20.43 AM 1024x426

そして遊んでいるインスタンス(CPUの利用率1%未満)を見つけたら、ユーザーにシャットダウンを推奨する。それは、まあ当たり前だ。利用率の低いインスタンスに関しては、3つの新しいサイズを提案し、その中から利用目的にいちばん合ったものを選ばせる。

なお、この機能が提供されるのは標準的なEC2インスタンスのみで、GPUインスタンスには適用されない。

この新しい機能はAWSの全ユーザーが利用できる。窓口はAWSのコスト管理スイートで、そこで既存の予算管理ツールの仲間入りをする。AWSの料金体系を単純明快と褒める人は一人もいないから、一見小さな機能でも相当大きな節約効果を生むこともある。

Screen Shot 2019 07 10 at 11.27.06 AM 1 1024x701

画像クレジット: Ron Miller/TechCrunch

[原文へ]

(翻訳:iwatani、a.k.a. hiwa

AdobeのプロトタイピングツールXDがAlexaを統合

このところ人気が増しているプロトタイピングとデザインのツールAdobe XDに、Echo DotやEcho Showなどの上のAmazon Alexaによる音声体験をテストする機能が加わった。そのサポートは昨年10月に発表されたXDの音声プロトタイピングツールをベースとし、Adobeの初めてのAlexaスキル、すなわち制作中のプロトタイプをテストするためのスキルもある。

音声テクノロジーに関するAdobeの最近の調査によると、ユーザーは確かに音声テクノロジーを使うことに関心があるが、しかしこれまでのXDはWebやモバイルが中心だった。しかしAdobe自身も、最近の数か月で音声アプリの構築にいくつかの投資をした。また長年通常のアプリを作り慣れているデザイナーやデベロッパーも、音声アプリを任されることが多くなっている。そこで彼らのためには、使い慣れたツールで新しい音声アプリのテストができたほうがいい。

今回の統合に含まれるのは、上述のテスト用のAlexaスキルのほかに、音声プロトタイプをAlexaへエキスポートしプレビューするためのXDのAlexaプラグインだ。Adobeの音声UI/UX担当ディレクターMark Webster(マーク・ウェブスター)氏は「自分が作っているプロトタイプを実機の上で体験すると、投資家などがデザイナーやデベロッパーの意図をよく理解できる。それだけでなく、EchoなどのAlexaデバイスの上で音声プロトタイプを体験できれば、デザインについてより具体的な議論ができるようになる。そして部分的手直しも、製品開発のサイクルを一からやり直さずにできる」とコメントしている。

XDの音声サポートの初期的な段階はとても素朴で、単語を理解したら、それに対応して話をするだけだ。初歩的な機能をデモするにはこれでよくても、本物のデバイスでスキルをテストすることの代わりにはなりえない。

でも今後は、ほかの音声アシスタントもサポートされるのではないだろうか。当面は、Alexaだけだが。

XD Amazon Alexa Plugin 01

関連記事: Adobe XD now lets you prototype voice apps (Adobe XDで音声アプリをプロトタイピングできる、未訳)

[原文へ]

(翻訳:iwatani、a.k.a. hiwa

Google Cloudが継続的デリバリサービスSpinnakerを正式にサポート

Google Cloudは米国時間7月21日、Spinnaker for Google Cloud Platform発表した。その名のとおり、継続的デリバリ(Continuous Delivery、CD)サービスSpinnakerをGoogleのクラウド上で容易に使えるようになる。

Spinnakerは最初Netflixが社内用に作り、それを今ではNetflixとGoogleが共同開発している。Netflixはそれを2015年にオープンソースにし、その後はオープンソースのCDプラットホームとしていちばん多く使われるようになった。今では、AdobeやBox、Cisco、Daimler、Samsung(サムスン)などもSpinnakeを使って開発工程を高速化している。

Spinnaker for Google Cloud Platformは、GoogleのKubernetes Engine上で動き、サービスのインストールはほんの数クリックで済む。インストールされたSpinnakerには、必要なツールすべてと、サービスのユーザーインタフェイスDeckが含まれている。ユーザーはGoogle Kubernetes EngineやCloud Memorystore for Redis、Google Cloud Load BalancingなどがGoogle Cloud上で使用するリソースの料金を払うことになる。

could spinnker.max 1100x1100

同社はGoogle Kubernetes EngineやCompute Engine、App EngineなどでコードのテストやデプロイができるようSpinnakerを事前に構成しているが、そのほかのどんなパブリッククラウドやオンプレミスクラウド上でも使用できる。Googleが最近ローンチした継続的インテグレーション(CI)サービスCloud Buildを統合し、バックアップの自動化や監査の統合、GoogleのStackdriverによるモニタリングなどもサポートしている。

GoogleでSpinnakerの開発を指揮しているMatt Duftler(マット・ダフトラー)氏が本日の発表声明で「このソリューションはデベロッパーだけでなくDevOpsやSREの人たちにも役に立つようにしたい。デベロッパーは最小のオーバヘッドで速く仕事がしたいと願っている。プラットホームのチームは、彼らが推奨するやり方をSpinnakernの中へエンコードして、それらを安全に使用できるようにする。Spinnaker for Google Cloud Platformを最初から使っていくと、社内の開発チームによるプロジェクトの着手と進行がより速くなるだろう」と述べている。

[原文へ]

(翻訳:iwatani、a.k.a. hiwa

フランスのクラウドプラットホームもGPUインスタンスでデータ指向ユーザー狙う

フランスのClever Cloudは、PaaS(Platform as a Service)タイプのクラウドホスティングサービスだ。同社は米国時間7月4日、機械学習のためのGPUインスタンスをローンチし、それをClever Gridという新しいブランド名で提供することになった。。

同社が使用するGPUはNvidiaのGeForce GTX 1070、分単位で課金される。最もベーシックなインスタンスが1時間0.42ユーロ(約51円)、1日10ユーロ(約1200円)、1か月300ユーロ(約36500円)だ。このお値段でメモリー6GB、8コアCPU、1GPU、ストレージ250GBを使える。

もちろん仕様アップは可能で、GPUインスタンスの最大仕様はメモリー60GB、32コアCPU、4GPUとなる。その料金は、月額1200ユーロ(約14万6000円)だ。

Screen Shot 2019 07 04 at 6.59.39 PM

クラウドインフラストラクチャについてあまりよく知らない、データサイエンティストなどのユーザーのためにClever Cloudは、インフラストラクチャの管理をできるだけ抽象化している。ユーザーは自分のPythonコードをWebインタフェイスから自分のクラウドインスタンスの上で直接実行できる。

GPUインスタンスはTensorflowやscikit-learn、CUDA、Keras、pytorchなどをサポートしている。GPUインスタンスの上でDockerのコンテナを動かせる。

Clever CloudはGitHubのリポジトリを直接統合しているから便利だ。自分のGitHubアカウントにコネクトして、そのリポジトリでクラウドのインスタンスをスタートできる。するとユーザーのコードがサーバー上でデプロイし実行される。

そんなシームレスなデプロイに加えて、Clever Cloudにはモニタリングやバックアップ、セキュリティアップデートなど、ユーザーのサービスが円滑に動くための、ユーザー環境の脇を固める機能がいろいろある。

Clever Cloudのクライアントには、Airbus(エアバス)、MAIF、Compte Nickel、Sogeti、South African Ministry of Health(南アフリカ保健省)などが名を連ねる。

Clever Grid

[原文へ]

(翻訳:iwatani、a.k.a. hiwa

Visual Studio CodeでJava開発がしやすくなるJDKインストーラー

マイクロソフト(Microsoft)の無料のVisual Studio Codeは、わずか数年で市場で人気最大のコードエディターになった。Visual Studio Codeのアドバンテージのひとつが、柔軟性だ。しかしその柔軟性は、複雑なセットアップに苦労してやっと得られるものだった。そこで米国時間6月14日、同社は、Visual Studio Codeで相当容易にJavaのコードを記述可能にするための新しいプロジェクトをローンチした。

最近、マイクロソフトのスポークスパーソンが本誌に語ったところによると、学生や新人プログラマーなど一部のデベロッパーにとってはJavaの開発環境をセットアップすることが依然として難しい。通常それは、いくつかのバイナリやVisual Studio Codeのエクステンションをインストールするなど、かなり面倒なプロセスであるという。

そんなデベロッパーを助けるためにマイクロソフトは本日、それらの面倒を一手に引き受けるインストーラーをローンチした。それはまず最初に、JDKがすでにインストールされているか調べる。インストールされていなければ、マイクロソフトがスポンサーでもあるAdoptOpenJDKからバイナリをインストールする。必要ならVS CodeとJava Extension Packもインストールする。AdoptOpenJDKは、Oracle JDKのベンダーニュートラルな代替製品であり、マイクロソフトもVisual Studio CodeのJavaエクステンションをインストールしているユーザーには、このJavaディストリビューションを推奨している。

現在のところ、インストーラーはWindows用のみだが、コミュニティの関心が高ければその可利用性を拡張する計画だ。

画像クレジット: JASON REDMOND/AFP/Getty Images

[原文へ]

(翻訳:iwatani、a.k.a. hiwa

イスラエルのセキュリティスタートアップがシード段階で7億円超調達

クラウド上のセキュリティサービスを提供するイスラエルのOrca Securityが、YL Venturesがリードするラウンドで大金650万ドル(約7億500万円)を調達した。このイスラエルのVCは、主にセキュリティ専門のスタートアップへの投資に力を注いでいる。

大金と書いたのは、これがシードラウンドだからだ。しかしCheck Point Securityの役員だった二人が創業した同社は、クラウドに置かれたアプリケーションを、エージェントを使わずにセキュリティを確保するという困難な問題に挑戦している。

同社の共同創設者でCEOであるAvi Shua氏は次のように説明する。「Orcaはクラウドネイティブのセキュリティプラットホームだが、顧客のクラウドネイティブアプリケーションと、クラウドへ移行させたレガシーアプリケーションの両方の安全をエージェントを必要とせずに護る。そのために用いる「SideScanning」というコンセプトは、デプロイされているソフトウェアスタックの全体を(深海調査のサイドスキャンソナーのように)漏れなく調べ、脆弱性や非推奨またはバージョンの古いソフトウェア、構成の間違いなどのリスクを見つける」。

このアプローチは、デベロッパーがコンテナに収めたアプリケーションをKubernetesを使ってクラウドでローンチする場合にはうまくいく。まさに、エージェント不使用のアプローチだからだ。

Orcaのダッシュボードのスクリーンショット

競合する既存のセキュリティベンダーにはRapid7やTenableなどがいるが、Orcaはもっと現代的なアプローチでクラウドのセキュリティの構築に努める。それはクラウドネイティブのために完全に新しく作られたセキュリティサービスだ。Shua氏はこう語る。「うちはデータセンター用の既存のセキュリティソフトウェアの転用はしない。だからうちでは顧客自身のクラウドネイティブのワークロードの分析とセキュリティ確保ができるだけでなく、クラウドへ移行されたレガシーのワークロードや、両者のハイブリッド環境でも十分に扱える」。

同社の場合、創業は2019年だからシード資金の獲得としても相当に早い。現在社員は15名で、ベータの顧客が数社いる。プロダクトを完成し、顧客の現代的なソフトウェア方式が抱えるセキュリティ問題の解決に本格的に寄与貢献していきたいと同社は願っている。本日の資金調達は、それに向かっての歩みを助けるだろう。

[原文へ]
(翻訳:iwatani、a.k.a. hiwa

AIや機械学習の企業導入を助けるスタートアップがエリック・シュミットなどから5.7億円調達

RealityEngines.AIは、525万ドル(約5.7億円)のシードラウンドを発表した。同社は、不完全なデータしかなくても、企業がAIをうまく使えるように手助けするスタートアップ。

このラウンドをリードしたのは、Googleの元CEOで会長だったEric Schmidt(エリック・シュミット)氏と、Googleの創設メンバーの一人であるRam Shriram(ラム・シュリラム)氏だ。ほかにKhosla Ventures、Paul Buchheit(ポール・ブックハイト)氏、Deepchand Nishar(ディープチャンド・ニシャー)氏、Elad Gil(エラッド・ギル)氏、Keval Desai(ケヴァル・デサイ)氏、Don Burnette(ドン・ブレネット)氏などがこのラウンドに参加した。

これだけ多くの著名な人々やVC企業がシードに参加したのは、彼らが同社のコンセプトに強く惹かれたからだ。サービスなどのプロダクトがまだ1つもない同社はその特技を、小さくてノイズの多いデータでも有効に利用して、顧客企業がすぐにでも製造に持ち込める、高度な機械学習とAIを提供することと定義している。そのシステムが行う予測にはさまざまなバイアスがなく、しかもその予測に至った理由や背景を顧客に説明できる。ブラックボックスであるAIやMLでは、内部動作の説明はとても難しいことだ。

RealityEnginesのCEOであるBindu Reddy氏は、それまでGoogle Appsのプロダクトマネージメントのトップで、今回の資金は研究開発チームの育成にあてると言った。結局のところ同社は、現在の機械学習の最も基本的で難しい問題に取り組んでいる。例えば、データセットが小さい場合には、Generative Adversarial Networksのような、既存のデータセットを拡張するソリューションがあるが、RealityEnginesそれらをさらに強力にすることを狙っている。

またReddy氏によれば、Reinforcement Learningも同社の中核的機械学習技術のひとつとして重視している。

プロダクトが完成したら、同社はそれを即時払いで従量制のマネージドサービスとして提供していく。ユーザー企業はそれにより、機械学習をより容易に実用化できる。大企業だけでなく中小企業も、このやり方で念願のAI/MLを導入し、競争力を強化できるだろう。

[原文へ]

(翻訳:iwatani、a.k.a. hiwa

Google Cloudでリソースの容量能力を予約でき確約利用割引の対象を拡大

Google Cloudが2つの重要な料金改定を行った。ただし残念ながらそれは、よくあるコンピュートとストレージの値下げではなくて、最初のは確約利用割引の拡大だ。GPUsや、Cloud TPU Pods、ローカルSSDなどを一定量、1〜3年契約で利用しているユーザーは、その長期的ロックインの代償として料金がオンデマンド料金の55%引きになる。

もうひとつはCompute Engineの(VMの)容量予約システムで、ユーザーが特定のゾーンにリソースを予約しておくと、あとで本当に必要になったときに確実にそれを使える。

一見すると、容量予約はクラウドらしくないコンセプトだ。なぜならリソースの縮小拡大はランタイムに必要に応じて自動的に為されるはずであり、その可用性をユーザーがいちいち気にするするべきものではない。

では一体、予約システムは何のためにあるのか?Googleの上級プロダクトマネージャーであるManish Dalwadi氏はこう語る。「想定ユースケースは災害復旧やそんなときのための安心感だが、ブラックフライデーやサイバーマンデーのような一時的で特殊な特売イベントのサポートも対象になる」。

つまり、その日には絶対的に必要なリソースが確実に利用できる、ということ。Googleのようなクラウドサービスの大手なら仮想マシンはいくらでもある、と思いがちだが、しかし一部のマシンタイプは特定の可用性ゾーンでないと使えないこともある。仮想マシンというリソースは、その点がその他のリソースとは異なる。

ユーザーは予約をいつでも作ったり取り消したりできるし、既存の割引が自動的に適用される(継続利用割引と確約利用割引)。

確約利用割引に関しては、かなりの柔軟性がある。たとえばユーザーは特定のマシンタイプを3年確約するのではなくて、CPUコアやメモリーなどの数量を確約すればいい。

GoogleのプロダクトディレクターPaul Nash氏は「顧客たちからよく聞くのは、他社の確約モデルには柔軟性がないことと、利用率が60%、70%ととても低いことだ。だからうちの確約割引の設計目標は、自分たちの容量計画を参考にして、ユーザーに十分なお得感があるような割引率にした。気楽に利用できて厳密な管理が要らないことも、目標とした」と説明する。

確約利用割引の拡大と、新たなCompute Engineの容量予約システムは、どちらもGoogle Cloud上ですでに利用できる。

[原文へ]

(翻訳:iwatani、a.k.a. hiwa