サーバーレスとコンテナは両者を一緒に使うのがベストプラクティスだ

コンテナに収めたソフトウェアを継続的デリバリ方式で使用するクラウドネイティブモデルは、ランタイムにクラウドベンダーがワークロードを動かすために必要なだけの量のリソースを生成するサーバーレスコンピューティングを利用すると、なお一層有利だ。大手のクラウドベンダーはこのことを知っていて、すでにそのインフラストラクチャを抽象化して隠すプロダクトを作っているが、利点はあるにもかかわらず、どんな状況でも有効とは言えないようだ。

クラウドネイティブは、簡単に言うと、コンテナ化したアプリケーションとKubernetesを使って、ソフトウェアをマイクロサービスと呼ばれる小さなパッケージで配布する。これによってデベロッパーは、継続的デリバリ方式により、ソフトウェアを迅速かつ効率的に配布できる。クラウドネイティブの世界では、コードを開発するのは一度だけ、そしてそれを、オンプレミスでも、どんなパブリッククラウドでもそのまま動かせることが理想だ。

一方サーバーレスは、やや間違った名前だ。このモデルでもコードはサーバーが動かすが、しかしそれは専用の仮想マシンではなく、クラウドのベンダーがワークロードを動かすためにつねに適正な量と時間だけ提供するコンピューティングリソースだ。

万能の完全解はない

このような方式は継続的デリバリモデルによく合ってるようだし、ベンダーもそのことを知っているが、しかしあるエンジニアの言葉を借りれば、そのプロセスは相当複雑であり、また、すべての状況に通用する1つの完全なソリューションはない。

Googleでプロダクト管理を担当しているArpana Sinha氏によれば、Kubernetesのコミュニティはサーバーレスという考え方を本当は歓迎しているのだが、その現在の実装形式に制約がある。つまりAWS LambdaやGoogle Cloud Functions、MicrosoftのAzure Functionsなど現在のの実装形式はいずれも、ファンクションという形式だ。

「ファンクションというコンセプトは制約のあるコンセプトだ。サーバーレスといえばファンクションしか連想しない今の状況は、不幸だ」、と彼女は言う。

彼女によると、Googleはその定義の拡張をトライした。「デベロッパーにとってサーバーレスとは、コーディングからデプロイまでを彼らがシームレスに行い、それ以降のことはすべてインフラストラクチャが面倒見てくれること。黙っていても自分のコードが、インフラストラクチャの適切でもっとも自己回復力のある部分へ確実にデプロイされることだ。必要なリソースは自動的に確保されるからスケーリングも自動化され、スケールダウンも必要に応じて自動的に行われるから無駄な出費がない」と彼女は説明した。

しかしAtlassianのKubernetesチームの上級エンジニアであるMatt Whittington氏に言わせると、理論的にはそれで良くても、実際には完全に自動化されたインフラストラクチャでは現実に合わない場合がある。「デベロッパーがコーディングだけに集中できるからサーバーレスはある種のワークロードにとっては理想的だが、でも完全なソリューションではない。インフラを自分でチューニングしなければならない場合もある」、と彼は言う。

彼によると、ベンダーに完全に任せっきりにできるのは、各コンテナの要求をベンダーに対して指定する方法があるときのみだ。たとえば、コンテナのロードタイムの上限下限をベンダーに指定できるだろうか。ある種のコンテナは時間を食うし、また特定の位置へのデリバリが必要かもしれない。彼によると、実際には完全な自動化はできないし、とくにデベロッパーが設定をいじくって過不足のないリソースが得られるようにしたいときは、自動ではなく手作業になる。

ベンダーも新たな解を提供

これらの問題ではベンダーもツールの提供を始めている。例えばGoogleが先月のGoogle Cloud Nextで発表したサービスGoogle Cloud Runは、オープンソースのKnativeプロジェクトをベースとし、コンテナを動かしているデベロッパーにサーバーレスの長所を結びつける。これと同様のサービスに、AWS FargateAzure Container Instancesがあり、どちらもやはり2つの技術を1つのパッケージにまとめようとしている。

というかMicrosoftのパートナー事業マネージャーのGabe Monroy氏によると、Azure Container Instancesは、この問題をファンクション型のプログラミング方式に依存せずに解決することが狙いだ。「Azure Container Instancesを使うと、コンテナをAzureのコンピュートファブリックの上で直接動かせる。仮想マシンや、ハイパーバイザーによる隔離、秒単位の課金などはない。私たちはそれをサーバーレスコンテナと呼んでいる」と彼は語る。

サーバーレスとコンテナは相性がとても良いように思えるが、でもMonroy氏が指摘するのは、クラウドネイティブの技術には、すべてに通用する唯一の方式はない、ということだ。AWS LambdaやAzure Functionsのようなファンクション型のサーバーレスを今後も使い続けたい人もいれば、コンテナに移行して二つの技術を一体化したい者もいる。しかしいずれにしても、デベロッパーのニーズが変わっていくにつれて、オープンソースのコミュニティとベンダーの両方が、それらのニーズを助けるツールを提供していかなければならない。サーバーレスとコンテナの一体化も、そんな例のひとつだ。

関連記事: いまさら聞けないコンテナ入門

画像クレジット: Ron Miller/TechCrunch

[原文へ]
(翻訳:iwatani、a.k.a. hiwa

GitHubのSponsors機能はオープンソースにお金で支援参加できる新たな寄付形式

GitHub(ギットハブ)は米国時間5月22日、オープンソースのデベロッパーに誰でも経済的な支援ができるツールSponsorsを立ち上げた。デベロッパーは自分のGitHubリポジトリにある「Sponsor me」ボタンを押し、オープンソースプロジェクトへの支援モデルを選ぶ。それはデベロッパーへの個人的な支援でもいいし、あるいはPatreonやTidelift、Ko-fi、Open Collectiveなどを利用するかたちでもいい。

GitHubの言うそのミッションは「オープンソースへの参加や構築の機会を拡張すること」だ。お金を出すことも参加と見なす。

一部のオープンソースデベロッパーは、金で人の仕事を左右されるのは嫌だとか言うだろう。それに、金のことなど考えずに自分にとって面白い、やりがいのあるプロジェクトをやっていたデベロッパーが、経済的な支援を得やすいプロジェクトに乗り換えたりすることがあるかもしれない。この件をGitHubに聞いてみたが、まだ確答は得られていない。

この支援事業はオープンソースのデベロッパーだけが対象だ。デベロッパーがこの制度に参加してから最初の1年は、GitHubと親会社のMicrosoft(マイクロソフト)も最大5000ドルを寄付する。さらに次の1年を過ぎるとGitHubは手数料を課金する。

支払いはGitHub自身がビジネスをしている国ならどこでも得られる。「そのチームに参加する機会を増やすことが中心的な目的だから、世界中のデベロッパーがこのツールを利用できるようにしたことを、誇らしく思う」と同社は言っている。

なお支援対象はコードとデベロッパーだけでなく、オープンソースへのいろんなコントリビューター、たとえばドキュメンテーションを書いたり、新人デベロッパーの指導やメンター役をしたりする人たちも含まれる。それらの人たちもGitHubのプロフィールがあれば、支援対象になる。

支援を受けやすくするためにGitHubは、「Community Contributors」と名付けた浮遊カードで、例えばあなたが使っているアプリケーションが依存しているコードを書いた人(デベロッパー)をハイライトする。

さて、コミュニティはこのSponsorsツールにどんな反応を示すだろうか。このアイデアは完全に新しいわけでもないし、すでにGitHubはBeerpayのような寄付アプリケーションを統合している。でもオープンソースがお金を得られる従来のルートは、プロジェクトに協賛するであろう企業に正社員またはパートタイムで就職することだった。

Sponsorsのほかに、GitHubは新しいセキュリティ機能をいくつか導入した。まず、今日買収を発表したDependabotは、プロジェクトがつねに最新のライブラリを使ってるようにするツールだ。GitHub Enterpriseは監査機能を改善して一般公開、またメンテナーはGitHubの中のプライベートスペースという機能のベータにアクセスできる。

これはハッカーに知られたくないセキュリティの話題などを議論できるスペースだ。トークンスキャンニングも一般公開された。これはデベロッパーがうっかり自分の認証情報を、Alibaba CloudやAmazon Web Services、Microsoft Azure、Google Cloud、Mailgun、Slack、Stripe、などのサービスからリークするのを防ぐ。

GitHubのエンタープライズエディションも、パーミッションの細粒度化とその一般公開(脱ベータ)などいくつかのアップデートが行われた。Enterpriseアカウントも一般的に供用化、そして内部的リポジトリや組織のインサイトは今回ベータ入りした。

[原文へ]

(翻訳:iwatani、a.k.a. hiwa

ZenHubのWorkspacesはGitHubのリポジトリに複数のチーム別ワークスペースを作れる

GitHub用のプロジェクト管理ツールZenHubは、米国時間5月21日、そのサービスをチームで使いやすくするための機能としてWorkspacesのローンチを発表した。それはZenHubのサービスをチームのニーズに合わせてカスタマイズでき、それでも仕事の基盤としてはGitHubを使用するというものだ。

Workspacesはその名のように、チームがGitHubのリポジトリの中に複数のワークスペースを作れる(ZenHubはそのためにChromeのエクステンションを使う)。それによって、あるデベロッパーチームは、すべての問題の詳細なビューを得られ、そのほかのチームは自分たちに関係のあるものだけが見える。このことによってさまざまなチームが、ScrumやKanbanなどなど、それぞれ独自のワークスタイルを採用できる。

ZenHubのファウンダーでCEOのAaron Upright氏はこう語る。「この機能によって各チームが独自の方法で仕事ができ、そのやり方に応じた独自のユニークなワークフローを作れる。例えば、フロントエンドのチームはGitHubの彼ら独自の問題を抱えていて、それらはKanbanスタイルのワークフローになるだろう。またバックエンドのチームなら、独自のScrumスタイルのワークフローになるかもしれない」。

問題は全チームで共有され、どのチームが今何をやってるかもわかる。つまり、社内の透明性が確保される。

画像クレジット: masahiro Makino/Getty Images

[原文へ]

(翻訳:iwatani、a.k.a. hiwa

GitHubがパッケージレジストリを提供、主要なパッケージマネージャーと互換性あり

GitHubは米国時間5月10日、GitHub Package Registryを非公開ベータでローンチした。このパッケージ管理サービスによりデベロッパーは、ソースコードと並んでパッケージをパブリックまたはプライベートで発行できる。

ただしそれはnpmやRubyGemsなどのツールと競合するものではない。GitHubのパッケージレジストリサービスはこれらのツールと互換性があり、デベロッパーは自分のパッケージを、コードのときと同じGitHubのインターフェイスを使って発行したり見つけたりできる。このサービスは現在、JavaScript(npm)、Java(Maven)、Ruby(RubyGems)、.NET(NuGet)、およびDockerイメージと互換性があり、他の言語やツールも今後サポートされる。

GitHubのプロダクト管理部長Simina Pasat氏はこう語る。「GitHub Package Registryは広く使われているさまざまなパッケージ管理クライアントと互換性があるので、自分が選んだツールでパッケージを発行できる。タイプの異なる複数のパッケージを、ひとつのレポジトリーに収めることもできる。そしてウェブフックやGitHub Actionsを利用すれば、パッケージの発行と発行後のワークフローを完全にカスタマイズできる」。

企業は社員たちに単一の認証情報を提供して、彼らのコードとパッケージの両方を管理させられる。そしてこの新しい機能により、承認済みのパッケージセットを容易に作れる。また、利用統計をダウンロードでき、GitHub上のパッケージ操作の完全な履歴にもアクセスできる。

オープンソースのパッケージの多くが、すでにGitHubを使ってコードを開発し、その後それをパブリックなレジストリへ発行している。GitHubの主張によると、そんなデベロッパーたちもこれからはGitHub Package Registryを使って、リリース前のバージョンを発表できる。

また、すでにGitHubを利用してプライベートなリポジトリをホストしているデベロッパーも少なくない。要するに、パッケージとコードは同じ場所にあったほうが便利だ。GitHubが今回行ったことは、そのような慣行を公式化してひとつのプロダクトに仕立てたものとも言える。

[原文へ]

(翻訳:iwatani、a.k.a. hiwa

会話型アプリケーション開発のためのAIプラットホームをCiscoがオープンソース化

通信機器大手のCisco(シスコ)は米国時間5月9日、会話型のAIプラットホームのMindMeldをApache 2.0のライセンスにより、誰もが自由に利用できるように一般公開すると発表した。

MindMeldは、Ciscoが2017年に買収した会話型AIの企業だ。同社はその年の終わりごろに、その技術をCisco Spark Assistantに使用して、ミーティング用ハードウェアで音声コマンドが使えるようにした。当時それは、生まれたばかりの新しい技術だった。

現在、エンタープライズのいろんなユースケースに音声を持ち込む取り組みが至るところで行われており、CiscoはMindMeldのツールセットでデベロッパーにそのための方法を提供している。Ciscoで機械学習のチームを率いているKarthik Raghunathan氏が、ブログでこう書いている。「本日Ciscoは、MindMeld Conversational AI Platformをオープンソースにすることによって、会話型アプリケーションを構築するための総合的で実践的なツールでデベロッパーの能力を高めるための、大きな一歩を踏み出す」。

同時に同社は、デベロッパーにとってそのプラットホームが使いやすくなるための教本、Conversational AI Playbookをリリースする。このステップ・バイ・ステップのガイドブックによりデベロッパーは、会話駆動型アプリケーション開発の、第一歩を踏み出すことができる。Ciscoによると、デベロッパーに力をつけることが最大の目的とのこと。

しかしもちろん、Ciscoの外にいるデベロッパーがこのツールセットを使ってくれることが、同社の最大の関心だ。オープンソースにすれば、Ciscoの顧客やそのほかの企業にいるデベロッパーのコミュニティが、このツールを使ったり、試したり、改良したりしてくれるだろう。それによってプラットホームの開発が早くなり、より広範囲に行われるようになる。Ciscoのような大企業では、全社的な浸透も可能になるだろう。

もちろん、オープンソースにしたらいきなりコミュニティができるわけではない。しかし、音声対応のアプリケーションやシステム製品はその人気が急速に成長しているから、このプラットホームを試してみるデベロッパーが増えることは確実だ。どれだけの人に、より深い関心を持ってもらえるか、それは今後のCiscoの努力次第だ。

Ciscoはこのプラットホームのすべてを、同社のデベロッパーネットワークDevNet上で今日から提供開始する。

関連記事: 音声インターフェースがビジネス向けに進出中

[原文へ]

(翻訳:iwatani、a.k.a. hiwa

サーバーレスをモニタするEpsagonがAWS Lambdaオンリーを脱して多極化

イスラエルのEpsagonが昨秋ローンチしたときは、サーバーレスのアーキテクチャの中でも特にAWS Lambdaをモニタする意向だった。しかし自分のレパートリーを狭くすることを嫌った同社は米国時間5月7日、もっと多様なマイクロサービス開発方式をモニタしていくと発表した。

CEOで共同ファウンダーのNitzan Shapira氏によると、ローンチしたときはサーバーレスを対象とし、中でもLambdaが最有力のツールと思えた。彼はこう語る。「当時の弊社のプロダクトはLambdaのエコシステムのためにトレーシングやトラブルシューティング、そしてモニタリングを自動化するツールだった。しかしその後、Lambdaに限定されない大きな変化が市場に生じた」。

その変化は、この種のデプロイメントのもっと幅広い視野への移行で、マイクロサービスが関与する一連の現代的なアプリケーションのすべてをカバーするものだ。デベロッパーがそのような現代的で多極的なアプローチに移行すると、単純なエージェントではモニタリングができない。そしてそれでもデベロッパーは、そんなアプリケーションの内部への可視性を必要とする。

Shapira氏によると、そこで同社はこのタイプのモニタリングツールとしては初めて、トレーシングとロギングを一体化したツールをローンチした。彼曰く、「今日では、エンジニアリングとDevOpsがかつてないほど密接に協働している。そこで、マイクロサービスアプリケーションのトレースの自動化をエージェントを使わずに行い、ひとつのプラットホームでトレーシングとロギングを結びつけることが、極めて重要になってきた」。

彼によると、今後の同社の計画は、このようなオープンなトレーシングが複数のツールや複数のフレームワークに対してデフォルトでできるようになることだ。「今はますます、いろんなフレームワークが使われるから、Lambdaだけでなくそれらをすべてサポートすることが必要なんだ」、と彼は言う。

関連記事: Serverless computing could unleash a new startup ecosystem(新しいスタートアップエコシステムを育てるサーバーレスコンピューティング、未訳)

サーバーレスという言葉は、やや誤称だ。サーバーは依然としてあるけど、デベロッパーがそのサーバー上で起動するプログラムを書くのではなくて、クラウドインフラストラクチャのベンダーが、デベロッパーがコードを動かすために必要とするインフラストラクチャリソースを必要なときに、自動的に提供する。

マイクロサービスはこの考え方を利用して、一枚岩的なアプリケーションを構築する代わりに、アプリケーションを一連の小さなサービスに分割し、通常はそれらをコンテナに収めてローンチする。そしてそれらのコンテナをKubernetesのようなツールがオーケストレーションする。

同社は10月にステルスを脱したばかりでまだ新人だが、すでに米国に営業オフィスを置いて4名が常駐している。技術チームはイスラエルにいる。今社員数は、20名に近い。

Shapira氏は顧客数を公表しないが、今のユーザー数は数百社で、有料ユーザーは毎月倍増しているそうだ。

関連記事: サーバーレスのインフラをモニタするEpsagonがステルスを脱して正式ローンチ

[原文へ]

(翻訳:iwatani、a.k.a. hiwa

GoogleのCloud TPU Podsの最新世代はMLモデルの訓練を短時間化

Googleは米国時間5月7日、Cloud TPU Podsの第2世代と第3世代を発表した。このクラウドベースのスケーラブルなスーパーコンピューターは、最大1000基の同社特製のプロセッサ、Tensor Processing UnitsTPU)を使用する。それを本日からは公開ベータで一般に利用できる。

最新世代のv3は特に強力で、プロセッサーは水冷されている。一つ一つのポッドが最大で100ペタFLOPSの演算能力を持ち、Googleによれば、世界のスーパーコンピューターの5位以内に入るそうだ。ただし、このTPUポッドはあまり高い演算精度を望めないだろう。

TPU Podは、その全体を使わなくてもいい。Googleはこれらのマシンのスライスをレンタルで提供している。しかし、いずれにしても極めて強力なマシンであり、ResNet-50の標準的な画像分類モデルをImageNetの(100万を超える)画像データセットで訓練する処理を2分で終える。

TPU v2のポッドはコア数が最大512で、v3よりやや遅い。例えば、265基のTPUを使用した場合、v2のポッドはResNet-50のモデルを11.3分で訓練するが、v3ならわずか7.1分だ。ちなみにTPUを1個だけ使うと302分かかるだろう。

当然だが、Googleによればポッドは(料金がどんなに高くても)モデルを早く訓練したいときや、ラベル付きの標本が数百万という大きなデータセットで高い正確性が必要、あるいは新しいモデルのプロトタイプを素早く作りたい、といったユースケースに向いている。

[原文へ]

(翻訳:iwatani、a.k.a. hiwa

Androidアプリはアップデートを各ユーザーに強制できる

半年前のAndroid Dev SummitでGoogleは、アプリのデベロッパーがユーザーに、新しい機能や重要なバグフィックスなどのアップデートを強制する方法を発表した。でも、その機能をデベロッパーが実際に利用できるのは、なんと米国時間5月7日のGoogle I/Oからだ。これまではGoogleのごく一部のパートナーが使えるだけだった。

さらにまた、Googleの動的アップデート機能も本日でベータを終える。この機能を使うと、アプリを構成する一部のモジュールを後からプッシュできるので、最初のインストール時のファイルサイズを小さくできる。

Androidのチーフアドボケイト(Chief Advocate)であるChet Haase氏はこう語る。「これまでは、自動更新を利用したり、ユーザーがPlay Storeにわざわざ行ってアップデートを確認したり、デベロッパーがユーザーに通知したり、という方法しかなかった。しかし、セキュリティや決済などの問題ですべてのユーザーに早急にアップデートしてほしいときは、どうするか?」。

今度の新しい機能はInline Updatesと呼ばれ、デベロッパーが新しいAPIにアクセスしてユーザーにアップデートを強制する。強制の方法は、ユーザーが今やってることをブロックする全画面のメッセージを出したり、バックグラウンドでアップデートを強制インストールしたり、ダウンロードが完了したらそのアプリをリスタートしたり、デベロッパーが独自に作ったカスタムのアップデートフローを使ったりする。

関連記事: Android developers can now force users to update their apps(Androidデベロッパーはアプリのアップデートをユーザーに強制できる、未訳)

画像クレジット: TechCrunch

[原文へ]

(翻訳:iwatani、a.k.a. hiwa

GoogleはKotlinをAndroidアプリ開発の推奨言語に格上げ

Googleは米国時間5月7日、プログラミング言語Kotlin(コトリン)をAndroidアプリデベロッパーの推奨言語にすると発表した。

Googleの本日の発表によると「Android上の開発は、今後ますますKotlinファーストになっていく。Jetpackの新しいAPIや機能も、最初はKotlinで提供される。新しいプロジェクトを始めるときは、それをKotlinで書くべきだ。Kotlinで書くとコードの量が相当少なくなり、コードをタイプし、テストし、メンテナンスする量が軽減される」とのこと。

わずか2年前のGoogle I/O 2017でGoogleは、Android Studio IDEでKotlinをサポートすることを発表した。Androidアプリの開発では長年Javaが推奨言語だったから、それはやや意外だったが、その年のGoogle I/Oでは最大の喝采を浴びた発表だった。その後の2年間で、Kotlinの人気は高まる一方だった。Googleによると、今ではプロのAndroidデベロッパーの50%以上がこの言語でアプリを開発しているとのこと。そしてStack Overflowが最近行ったアンケート調査では、Kotlinが4番人気のプログラミング言語だった。

というわけで、GoogleがKotlinのサポートを強調するのも当然だ。Androidのチーフアドボケイト(Chief Sdvocate)のChet Haase氏は「次の大きな一歩は、全面的にKotlinファーストにしていくことだ」とコメントした。

さらに続けて「現状はまだ、全員がKotlinではないけど、そのうち誰もがKotlinファーストになるだろう。いまC++やJavaを使っている人にはそれなりの正当な理由があるから、それらの言語が消えていくことはないけどね」。

関連記事: Google、KotlinをAndroidアプリ開発言語に選定―I/O会場から大喝采

[原文へ]

(翻訳:iwatani、a.k.a. hiwa

マイクロソフトがドラッグ&ドロップの機械学習ツールをローンチ、ユーザーはデータを用意するだけ

Microsoft(マイクロソフト)は米国時間5月2日、機械学習のプロセスを単純化するための3つのサービスを発表した。それらは、(1)モデルの作成を完全に自動化するツールへの新しいインターフェイス、(2)モデルの構築と訓練とデプロイをデベロッパー自身が行うためのコード不要のヴィジュアルなインターフェイス、そして(3)高度なユーザー向けにホストされるJupyter様式のノートブックだ。

機械学習を始めることは難しい。とても簡単な実験ですら、相当な専門知識が要る。Microsoftの新しいツールは、コードを隠したり、あるいは自分でコードを書きたい人向けにはあらかじめ構成されたプラットホームを提供して、そのプロセスを大幅に単純化する。

Azureの自動化機械学習ツールへの新しいインターフェイスは、モデルの作成をデータをインポートしてどの値を予測するのかをサービスに告げるだけ、という簡単な作業にする。ユーザーはコードを1行も書かないが、バックエンドでは多くの新しいアルゴリズムと最適化技術により、より正確なモデルを作る。その過程のほとんどは自動化されるが、Microsoftは、このサービスが「アルゴリズムへの完全な透明性を提供するので、デベロッパーやデータサイエンティストはプロセスを手作業でオーバライドしたりコントロールできる」と強調している。

またMicrosoftは同日、最初から自分でコントロールしたいというユーザーのために、Azure Machine Learningサービスのヴィジュアルインターフェイスをプレビューでローンチした。これによりデベロッパーは、コードに触ることなく機械学習のモデルを構築、学習、そしてデプロイできる。

このAzure Machine Learningヴィジュアルインターフェイスと呼ばれるツールは、Microsoftの最初のヴィジュアルな機械学習ツールであるAzure ML Studioに酷似している。というか、2つのサービスは同一であるようにも見える。でもMicrosoftはML Studioを積極的に推していないし、初心者向けには便利なツールのように思えたにもかかわらず、今では忘れてしまったかのようだ。

Microsoftによると、今回の新しいバージョンはAzure ML StudioのいいところとAzure Machine Learningを結びつけている。つまり、インターフェイスはほとんど同一でも、Azure Machine LearningヴィジュアルインターフェイスはAzure Machine LearningサービスのおかげでML Studioにできたことを大幅に拡張し、さらにセキュリティとデプロイメントとライフサイクル管理を加えた、ということのようだ。

このサービスは今や、データのごみ掃除やさまざまなアルゴリズムによるモデルの訓練、それらの評価、そして最終的にプロダクションへの導入を、シンプルなインターフェイスでできるようにしている。

上記、モデル作成の完全自動化と、デベロッパーが関与できるインターフェイス、これら2つのサービスは明らかに初心者向けだが、Azure Machine Learningでホストされるノートブックは、明らかに機械学習の経験者向けだ。ノートブックにはAzure Machine Learning Python SDKのサポートがあらかじめ組み込まれ、同社によると「安全でエンタープライズ級の環境」で利用できる。ノートブックの利用は簡単とは言えないにせよ、でもデベロッパー自身が開発環境やクラウド環境を自力ですべてセットアップすることに比べれば、はるかに仕事の着手が早いと言えるだろう。

[原文へ]

(翻訳:iwatani、a.k.a. hiwa

マイクロソフトが発表したHoloLens 2 Development Editionは約39万円

Microsoft(マイクロソフト)は米国時間5月2日の午後というやや奇妙な時間帯に、Buildデベロッパーカンファレンスの予告記者発表を行った。

そしてその中には、HoloLens 2 Development Editionの発表もあった。同社は、大幅に改良されたHoloLens 2を2月のMWCバルセロナで発表したが、まだデベロッパーの手には渡っていない。今のところ最短で今年後半と言われているが、Development Editionは通常のHoloLens 2と同時ローンチになるようだ。

Development Editionは、買えば3500ドル(約39万円)、借りれば月額99ドル(約1.1万円)だ。いずれも本体のみだが500ドル(約5.6万万円)のAzureクレジットがつき、Unity ProUnity PiXYZ pluginの3カ月無料試用もある。ゆえに開発時のレンダリングはUnityを使える。

Development Editionを入手したい人は、Microsoft Mixed Reality Developer Programに参加しなければならない。標準エディションを予約した人も、今年後半になればオーダーを変えられる。

HoloLensのニュースにしては、ちょいとわびしいね。Azureのクレジットは誰でももらえる(通常は200ドル)し、Unity Proの無料試用も30日までなら誰でもできる。

おかしなことに、通常のHoloLens 2も3500ドルになるらしい。通常版がもっと安くなるのか、クレジットなしで同額か、そもそもなぜMicrosoftはそんなことをするのか、全然わからない。これを特別に「Development Edition」と呼ぶこと自体、マーケティングの小細工と思えてくる。今日の発表をHoloLensバイザーの未来的な魔力で盛り上げたいのかもしれない。

でも、Unityの連中は大喜びだ。Unityの業務部門のゼネラルマネジャーであるTim McDonough氏が、今日の声明でこう言っている。「HoloLens 2とUnityのリアルタイム3D開発プラットホームがペアを組めば、企業はイノベーションを加速でき、没入的な体験を作り、産業界の顧客をもっと対話的なやり方で取り込める。Unity ProとPiXYZ PluginがHoloLens 2のDevelopment Editionに加われば、企業はリアルタイムの2Dや3D、VR、ARなどの対話的な体験をすぐに作れるようになり、デザインデータをインポートして準備するだけでリアルタイムの体験を作れる」。

Microsoftは今日の話の中で、Unreal Engine 4のHoloLens 2サポートは5月末に利用可能になると述べた。

[原文へ]

(翻訳:iwatani、a.k.a. hiwa

AIモデルの最適化を単純にするAxとBoTorchをFacebookがオープンソース化

Facebookは5月1日に、同社のデベロッパーカンファレンスF8で、新しいオープンソースのAIツールとしてAxとBoTorchの2つをローンチした。

BoTorchは、その名前からもわかるようにFacebookの機械学習フレームワークPyTorchをベースとするベイズ最適化(Bayesian Optimization)のためのライブラリで、かなり特殊なツールだ。一方のAxはもっと興味深く、AIの実験を管理、デプロイ、そして自動化するための汎用プラットホームとなっている。

どちらのツールもFacebookにおける同じ全体的なワークの一部であり、それはFacebookが「適応的実験」(Adaptive Experimentation)と呼んでいるものにフォーカスしている。実際にAxはBoTorchとつながり、そして内部的にFacebookはこの2つのツールを、Instagramのバックエンドのインフラストラクチャの最適化やユーザーアンケートの応答率の向上など、さまざまなタスクに利用している。

基本的に、BoTorchないし一般的にベイズ最適化なるものは、モデルの最適化を容易かつ迅速にしてデータサイエンティストがなるべく早くプロダクション級のモデルを得られるようにする処理だ。通常は大量の試行錯誤を要し、サイエンスというよりアートだと言われることも多い。Facebook AIでPyTorchを担当しているプロダクトマネージャーのJoe Spisak氏は「アートを取り去り自動化する。目標は最新の研究成果をフルに活用することだ」と言う(ベイズ最適化の日本語参考ページ)。

ベイズ最適化ツールはBoTorchが初めてではないが、Facebookによると既存のライブラリは拡張もカスタマイズも困難で、しかもFacebookのニーズに合わない。

上図のようにAxがまず仕事を引き受け、BoTorchのモデルの最適構成を見つける能力を管理していく。そして、デベロッパーがプロダクション級のサービスを得られるようにする。例えばFacebookでは、AxがA/Bテストやシミュレーションツールと連携する。ツールの目的はあくまでもシステムを自動的に最適化することだから、ユーザーが関与する必要性はほとんどない。Axは実験を行うとき、最良の最適化戦略を自動的に拾い上げる。それは、ベイズ最適化かもしれないし、古典的なバンディット最適化かもしれない、あるいはもっとほかのアルゴリズムかもしれない。重要なのはAxがフレームワークと特定しないことだ。BoTorchを使っていても、研究者はPyTorchやNumPyを介したサービスを使って自分独自のコードをプラグインできる。

Facebookでツールをオープンソースにすることは、現時点ではかなりスタンダードな行為になっている。PyTochはその好例だ。Spisak氏によれば、BoTorchもこの分野の優れた研究者たちの協力が得たいからやはりオープンソースにする。そもそも、最初のリリースでもコーネル大学の協力を得ている。「コラボレーションもオープンなコミュニティ作りも、クローズドソースではできない。オープンソースだからこそできる」と彼は言う。

関連記事: F8におけるPyTorchのアップデート(未訳)

[原文へ]

(翻訳:iwatani、a.k.a. hiwa

AWSがクラウドのインフラストラクチャをさらに拡張、AMD EPYCを使うT3aインスタンスを供用開始

Amazonは常に、AWSを使っているデベロッパーに提供するオプションを増やそうとしている。そして米国時間4月25日、同社はそのためにAMD EPYCプロセッサーによるT3aインスタンスを数多く発表した。これらは最初、昨年のデベロッパーカンファレンスre:Inventで発表された。

しかし今日のは、その一般供用の開始を告げる発表だ。それらはバーストのある特殊なタイプのワークロードに適したインスタンスで、ユーザーの通常の計算力のニーズはそんなに、バースト時ほど高くはないというものだ。

AWSのJeff Barr氏がブログにこう書いている。「これらのインスタンスはバーストに対応できる費用効率のいいパフォーマンスを提供し、常時維持されるコンピュートパワーとしてはそれほど高いパワーを必要としないが、使用時に一時的なスパイクがあるワークロードに適している。そのため、十分に余裕のある、確実に保証されたベースラインの処理能力を提供するとともに、さらなる処理能力が必要なときには、必要十分な時間、完全なコアパフォーマンスにまで透明にスケールアップする能力がある」。

これらのインスタンスは、Amazonが数年かけて開発した特製のネットワーキングインタフェイスハードウェアAWS Nitro Systemを使用する。このシステムの主要な部位は、Nitro Card I/O Acceleration、Nitro Security Chip、そしてNitro Hypervisorだ。

今日のリリースの前身として、昨年発表されたArmベースのAWS Graviton Processorsを使用するEC2インスタンスがある。これもまた、スケールアウトするワークロードのためのソリューションを探しているデベロッパー向けのオプションだ。

さらにこの直前の先月には、低コストのAMDチップを使用するM5およびR5インスタンスが発表された。これらもやはり、Nitro Systemを基盤としている。

EPCYプロセッサーは今日から7つのサイズで可利用になり、必要に応じ、ユーザーが選んだスポットインスタンスやリザーブドインスタンス、あるいはオンデマンドインスタンスで提供される。可利用域はUS East(Northern Virginia)、US West(Oregon)、EU(Ireland)、US East(Ohio)、そしてAsia-Pacific(Singapore)だ。

画像クレジット: Thomas Cloer/Flickr CC BY-SA 2.0のライセンスによる

関連記事: AWSはアグレッシブに世界制覇を目指す――エンタープライズ・コンピューティングで全方位路線

[原文へ]

(翻訳:iwatani、a.k.a. hiwa

GoogleがGKE Advancedでコンテナサービスをエンタープライズ向けに拡充

Google Cloudは長年、Kubernetes Engine(GKE)でそのプラットホーム上でコンテナを動かすためのマネージドサービスを提供してきた。Kubernetesユーザーのニーズはさまざまだが、でもこれまでのところGoogleはGKEの単一のティアのみを提供し、それは必ずしも、同社が顧客として捉えようとしているハイエンドのエンタープライズユーザーには向いていなかった。しかしながら米国時間4月16日に同社は、新しい機能を数多く備え、SLAに経済的条件を導入し、セキュリティと自動化の機能を高めた、より高度なエディションのGKEであるGKE Advancedを発表した。GKE Advancedはいわば、GKEのエンタープライズバージョンだ。

この新しいサービスは本年の第2四半期にローンチするが、料金はまだ発表されていない。通常のバージョンのGKEは、GKE Standardと呼ばれる。Googleによるとこのサービスは、社内的に何年間も複雑なコンテナインフラストラクチャを動かしてきた経験から学んだことが、ベースになっている。

エンタープライズの顧客にとっては、SLAに経済的条件(SLOが達成されないときの返金制)が盛られていることが嬉しいボーナスだ。ここでの基本的な約束は、リージョナルクラスターの保証可用性(SLO)が99.95%であることだ。

マネージドなKubernetes環境を選んだユーザーの多くは、クラスターを自分で管理する面倒を避けたいからそうしている。しかしGKE Standardでは、クラスターのスケーリングに関してユーザーが一部の作業をしなければならない。そこでGKE AdvancedではVertical Pod Autoscalerと呼ばれるツールがリソースの使用状況をたえずウォッチし、必要に応じてリソースの伸縮を図る。またNode Auto Provisioningツールは、GKE Standardにあるクラスターオートスケーリングの高性能バージョンだ。

GKE Advancedは本体のこれらの機能だけでなく、GKE Sandboxのようなセキュリティ機能も加えている。このサンドボックスは目下ベータだが、GKE Advancedだけにしかない機能になる。そして、コンテナ環境では署名があって検証されたイメージだけしか使われないように強制する。

このサンドボックスは、GoogleのコンテナサンドボックスランタイムgVisorを用いる。これによってどのサンドボックスも自分だけ用のユーザースペースカーネルを取得し、セキュリティの層がひとつ増える。またBinary AuthorizationによってGKE Advancedのユーザーは、すべてのコンテナイメージが信頼された機関によって署名されてからでないとプロダクションに入れられないようにできる。コンテナに悪意あるコードを潜ませることは論理的には可能だが、コンテナのリリースにこのプロセスが課せられることによって、検定され認可されたコンテナのみがその環境で動けるようになる。

GKE AdvancedにはGKEの利用計測機能があるので、社内での利用状況に応じて各部門に課金の適性な分担を求めることもできる。これもやはり、GKE Advancedのみの機能だ。

[原文へ]

(翻訳:iwatani、a.k.a. hiwa

API管理サービスのApigeeもハイブリッドのバスに乗り込んできた

今年のGoogle Cloud Nextは、ハイブリッド環境のサポートが大きなテーマだった。だから、同社が2016年に2億6500万ドルで買収したAPI企業Apigeeもまさに、その機に乗ろうとしている。米国時間4月9日、Apigeeはハイブリッド環境向けのプロダクトApigee Hybridのベータを発表した。

長年Oracleにいて最近Google Cloudに来たAmit Zavery氏とNandan Sridhar氏が、共著のブログ記事でこの新製品を説明している。「それはAPI管理プラットホームであるApigeeの新たなデプロイメントオプションであり、それによりユーザーはランタイムをどこででもホストできる。自分のデータセンターでもよいし、あるいはパブリックなクラウドのどれかでもいい」。

今朝Googleが発表したハイブリッド環境管理サービスAnthosと同様に、こちらはAPIをどこで動かしても単一の方法で管理しよう、というものだ(Anthos参考記事12)。

Zavery氏らのブログ記事は、次のように述べている。「Apigee Hybridによって、すべての環境にまたがる単一のそして完全なAPI管理ソリューションが得られる。ユーザーはAPIとそれらが露出するデータをコントロールでき、企業内のすべてのAPIに対する統一的な戦略を確保できる」。

この発表は、多様な環境から成る顧客のコンピューティングシステムをひとつの全体としてサポートしようとするGoogleの全体的な戦略の一環だ。そういう混成環境のことを、昨今はハイブリッドクラウドと呼ぶことが多い。今日のクラウドネイティブの世界では、この考え方は、ユーザーのデプロイメントをそれらがある場所にとらわれずに管理するための、単一のファブリックを提供することに通ずる。

このApigee Hybridも、そんな考え方の延長であり、しかもそれは今やコンテナ化とクラウドネイティブコンピューティングの最前線に位置するオープンソースツールのKubernetesを開発したGoogleにふさわしいやり方だ。ハイブリッドだから純粋にクラウドネイティブではないが、その精神は引き継いでおり、コンピューティング全般に対するGoogle Cloudのアプローチの視界にはしっかりと含まれている。だからこそ、それは、今年このカンファレンスで定義されようとしているのだ。

関連記事: GoogleAPI開発の上場企業、Apigee62500万ドルで買収へ

[原文へ]

(翻訳:iwatani、a.k.a. hiwa

メールAPIのMailgunが過半数株をThoma Bravoに売却して再びオーナーチェンジ

メールのAPIを提供しているMailgunが、株式の過半数をプライベート・エクイティ企業Thoma Bravoに売却すると発表した。同社はその条件を公表していないが、これは同社の8年の歴史の中で二度目のオーナーチェンジになる。

Mailgunは、デベロッパーが自分のアプリケーションにメールの機能を組み込むためのAPIを提供している。同社のデータによると、そのAPIを使っている顧客は15万社あまりいる。

投資を発表するブログ記事の中でCEOのWilliam Conwayは、これにより同社はその能力を拡大し、製品開発のスケジュールを早めることができる、と言っている。買収される企業がよく言う言葉だ。

そのブログ記事でConwayはこう述べている。「数百万ドルを製品開発に投じてユーザーの能力を高め、メールに関する多くの知見が得られるようにし、顧客に他に類のない体験を提供できるようにする。またユーザーがアプリケーションに組み込んだメール機能のスケーラビリティを高め、強力で安定的な通信機能をアプリケーションに賦与する」。

同社は2010年に操業し、2011年のY Combinator冬季を受講したが、その後の履歴が複雑だ。2012年にはRackspaceに買収され、2017年には単独の非上場企業に戻った。そのときは、別のプライベート・エクイティ企業Turn/Riverが同社に5000万ドルを投資した。今日の株式売却で、Turn/RiverはMailgunの少数株主として残ることになる。

Mailgunの主な競合他社はMailchimpやSendGridなどだ。Thoma Bravoには、これまで主にエンタープライズソフトウェアの企業を買ってきた履歴がある。いちばん最近では、同社はApttusの過半数株を買った。そのほか同社は、SolarWinds、SailPoint、Blue Point Systemsなどにも投資している。

Thoma Bravoは現時点でコメントの求めに応じていない。

関連記事: Email delivery service Mailgun spins out of Rackspace and raises $50M…MailgunがRackspaceからスピンアウトし5000万ドルを調達(未訳)

[原文へ]

(翻訳:iwatani、a.k.a. hiwa

ML/AIプラットホームのVizion.aiがマネージドElasticsearchサービスを立ち上げ

オープンソースの分散検索エンジンのElasticsearchは、今や大小さまざまな多くの企業が自社の分散検索とアナリティクスを実装するために利用している。そのセットアップはそれほど困難ではないが、難しいのはリソースの最適プロビジョニングだ。特にユーザーの要求にスパイクがあるアプリケーションでは無駄のないリソース確保が難しい。そこで、Elasticsearchを管理を伴うクラウドサービスElasticsearch Serviceとして提供するVizion.aiは、その心配を解消し、ユーザーが実際に使ったインフラストラクチャにのみ課金する。

Vizion.aiのサービスは、必要に応じて自動的にスケールアップ・ダウンする。そのマネージドサービスとして提供されるSaaSプラットホームはプライベートとパブリック両様のクラウドデプロイをサポートし、Elasticの標準的スタックとの完全なAPI互換性がある。また標準のツールとして、データ視覚化のKibanaや、データをサービスに送るBeats、入力データを変換してデータパイプラインをセットアップするLogstashなど、Elasticsearchの標準のツールも含まれている。例えばーザーは、テスト用や開発用に複数のスタックを容易に作ることができる。

Vizion.aiのGeoff Tudor氏

Vision.aiのバイスプレジデントでゼネラルマネージャーのGeoff Tudor氏は、次のように語る。「AWSのElacticsearchサービスを使おうとすると、選択肢の数が多すぎて途方に暮れてしまう。インスタンスのサイズはどれにするか?、インスタンスはいくつ必要か?、地理的冗長性は必要か?、どんなネットワーキングを使うのか?、セキュリティはどうか?、などなど。選択を間違えると全体的なパフォーマンスに影響が及ぶ。弊社では、インフラストラクチャのレイヤの背後でリソースの均衡化を動的に行う」。

そのためにこのサービスはユーザーの利用パターンを見て、そのユースケースに合った最適なリソース割り当てを行う。実はVizion.aiの親会社Panzuraはエンタープライズ向けのマルチクラウドストレージサービスで、データのキャッシングに関する多くのパテントを持っている。今度の新しいElasticsearchサービスは、それらの技術を利用してリソースの最適割り当てを行う。

Tudor氏も認めるように、Elasticsearchの商用サービスはほかにもある。それらと、Vizion.aiの新しいサービスとの差別化要因は、事前にメタデータ用のストレージのサイズを決めなくてもよいこと、そして高価なSSDを大量に使わないことだ。PanzuraのIPを利用できるVision.aiは、最近のデータだけをSSDにキャッシュし、そのほかは安価なオブジェクトストレージのプールに収める。

さらに彼によると、Vizion.aiはAIやMLのワークロードを動かす総合的なサービスであり、Elasticsearchサービスはその構成成分のひとつだ。TensorFlowやPredictionIOのサポートも、目下準備中だ。とくにPredictionIOは、Elasticsearchと併用しやすい。「今後これを、マルチクラウドによる使いやすいサーバーレスのML/AIサービスにしていきたい。しかもうちでは、提供するのはコンピュート(計算処理)だけではなく、レコードのストレージも非常に高いコスパで利用できる」。

[原文へ]

(翻訳:iwatani、a.k.a. hiwa

Webアプリのエラーの原因を早く見つけるLogRocketが12.2億円超を調達

Webサイトで訪問者がトラブルを体験するたびに、その企業の印象が悪くなる。だから、問題はできるだけ早急に解決すべきだ。そのための情報をWebサイトの開発チームに提供する、マサチューセッツ州ケンブリッジのLogRocketは米国時間3月21日、シリーズAで1100万ドル(約12.2億円)を調達したことを発表した。

このラウンドをリードしたのはBattery Venturesで、これにシード投資家のMatrix Partnersが参加した。未発表の400万ドルのシードラウンドを合わせると、同社の調達総額は1500万ドルになる。

創業者のMatthew Arbesfeld氏とBen Edelstein氏は幼なじみで、ともにボストンの郊外で育った。大学はMITとコロンビア大学に分かれたが、その後二人はサンフランシスコに移り、主にフロントエンド専門のエンジニアとして働いた。

LogRocket社のアイデアは、Webアプリケーションのエラーを調べるときの、彼ら自身のフラストレーションから生まれた。問題を見つけるために、手作業による調査をたくさんしなければならない。時間がかかりすぎる。そこから起業のアイデアが生まれた。

Arbesfeld氏はこう説明する: 「LogRocketは、ユーザーのすべてのアクティビティをリアルタイムで記録し、デベロッパーがトラブルシューティングをするとき、それらを正確に再現できるようにする。すると、どこで問題が起きたのかが早くわかるし、対策もしやすい」。

スクリーンショット提供: LogRocket

彼らのツールは、問題を起こしているアクティビティのHTMLとCSSのコードを捕捉し、その部分の操作のビデオも撮る。そしてエラーや問題が生じるとエンジニアはそのビデオを調べて、エラーが生じたとき彼または彼女が何をやっていたのかを見る。このやり方だと、問題の発見と解決がとても早い。

Arbesfeld氏によると、ユーザー体験の全体ではなく問題に関連したコードを捕捉するから、ビデオは本当は必要ない。「ユーザーがトラブった瞬間のコードを見つけて、問題領域にフォーカスできる」と彼は説明する。

ユーザーはそのデータに、LogRocketのダッシュボードからアクセスできる。また、Zendeskのようなヘルプデスクソフトウェアに統合してもよい。同社は今急成長中で、立ち上げから18か月で社員数25名、顧客数500社に成長した。顧客企業の中には、RedditやIkea、Bloombergなどがいる。

今回の資金調達は、彼らにとっては長旅の始まりだ。「顧客層をもっと広げる必要があるし、そのためには有能な営業とマーケティングの組織が必要だ」とArbesfeld氏は語る。「これまでのデータを活用すれば、トラブルが実際に起きてからではなく、前もって問題が起きそうな部分を見つけることもできる」と彼は言う。

[原文へ]

(翻訳:iwatani、a.k.a. hiwa

アサシンクリードをChrome上でプレイできるGoogleストリーミングゲーム環境

Googleがサンフランシスコで行われているゲームデベロッパーカンファレンス(Game Developers Conference)でプレスイベントを行った。その開始時間は、太平洋時間3月19日の午前10時、東部時間午後1時、ロンドン午後5時、パリ午後6時、日本では3月20日午前2時だ。

ゲーム企業の多くがサーバーとインフラストラクチャのニーズをGoogle Cloud Platformに依存しているが、今日のカンファレンスは違う。

Googleはこれまで半年あまり「Project Stream」というものを開発してきた。その最初の技術テストでは、WebブラウザーChromeの中で「Assassin’s Creed Odyssey」(アサシンクリードオデッセイ)をプレイできる(日本語サイト)。ゲームはユーザーの近くのデータセンターで動き、ユーザーはそのビデオストリームをブラウザーで見ながら自分のコンピューターでキャラクターと対話する。

Googleは、クラウドゲーミングサービスを本当に自社で立ち上げるらしい。そのサービスをどうやって売るのか、最初に揃っているゲームは何々か、楽しみだね。

[原文へ]

(翻訳:iwatani、a.k.a. hiwa

Google CloudのスピーチAPIが安くなりサポート言語も21に増えた

Googleが今日、Google Cloud上のSpeech-to-TextText-to-SpeechAPIをアップデートし、主にエンタープライズユーザーにとって関心があると思われるいくつかの新たな機能を導入するとともに、サポートする言語を拡大し、そして料金を下げた。〔正式名は、Cloud Speech-to-Text API、および、Cloud Text-to-Speech API。〕

力点はSpeech-to-Textの方に置かれているが、Text-to-Speechの方も31の新しいWaveNetと24の新しい標準音声が加わるなど、メジャーなアップデートであることに変わりはない。またサポートする言語は、以下の7つが増えた: デンマーク語、ポルトガル語、ロシア語、ポーランド語、スロバキア語、ウクライナ語、そしてノルウェーのブークモール。これらはまだベータだが、これでサポート言語は計21になる。

オーディオの再生をデバイスの特性に合わせて最適化する機能もある。ささいな改良かもしれないが、音声で対話的に応答するコールセンターや、ヘッドセットを使うアプリケーションではありがたいだろう。

Cloud Speech-to-Textの方は、デベロッパーが複数のチャネル上のユーザーをサポートしなければならない状況(電話会議など)向けに、使いやすさが向上した。そのために同社は昨年、マルチチャネルの音声認識をベータで導入、そして今回それが、一般供用となった。

また、ビデオや高性能電話用のプレミアムのAIモデルも昨年ベータでローンチし、主に短いクエリや音声コマンド用のスタンダードモデルよりも書き起こしエラーが少なくなる、と約束された。この高性能AIモデルもやはり今回、一般供用となった。

新しい機能だけでなく、今回のアップデートではSpeech-to-Textの料金が値下げされた。Googleのdata-logging programに参加しているユーザーなら、ビデオを書き起こしするためのスタンダードとプレミアムのモデルの利用料が33%安くなる。ただしこの事業に参加すると、ユーザーデータがGoogleのモデルの訓練のために使われる。そのデータにアクセスするのは特定の社員のみで、プロダクトの訓練や改良以外の目的には使わない、とGoogleは約束しているが、どんなに安く使えてもそんなのは気持ち悪い、と思うユーザーもいるだろう。

でも、通常のプレミアムビデオモデルは、データロギングに参加しなくても今度から25%安くなる。前と同じく、最初の60分はやはり無料だ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa