Netflix「今際の国のアリス」とエナジードリンク「ZONe」がOpenAI利用のブラウザーゲーム公開

Netflix「今際の国のアリス」とエナジードリンク「ZONe」がOpenAI利用のブラウザーゲーム公開

Netflixとエナジードリンクブランド「ZONe」(ゾーン)は12月10日、Netflixオリジナルシリーズ「今際の国のアリス」開始を記念しコラボレーションしたブラウザーゲーム「今際の国のアナタ」を公開した。ZONeコラボ缶についている二次元バーコードをスマホで読み取り、ブラウザーを介してのみアクセスできる。Android 8以上のChrome、iOS 12以上のSafari/Chromeに対応。

ゲーム内容は、「『今際の国のアリス』の作品の中で行われる生死をかけた『げぇむ』に、もしも自分が参加することになったら」という想像の世界を、AIを使用してリアルに再現したというもの。

プレイヤーが自分で操作するのではなく、ゲーム開始直後に受ける質問の診断結果をもとに、プレイヤーの性格診断を反映し生成した分身にあたるAIが試行錯誤しながら物語を進行させる。

またこの性格診断には、汎用AI研究機関OpenAIが提供する強化学習型AIエンジンの技術を利用。プレイヤーが自分で操作するより自分らしい行動をシミュレーションし、個性に応じて試行錯誤を繰り返し、行動を決定していくため、プレイヤーによって選択や結果が異なるとしている。

Netflix「今際の国のアリス」とエナジードリンク「ZONe」がOpenAI利用のブラウザーゲーム公開©麻生羽呂・小学館/ROBOT ©ZONe All rights reserved.

カテゴリー:ゲーム / eSports
タグ:Netflix / ネットフリックス(企業・サービス)ZONeOpenAI日本(国・地域)

LINEがOpenAI「GPT」・Google「T5」同様の超巨大汎用言語モデルをNAVERと共同開発、世界初の日本語特化

LINEがOpenAI「GPT」・Google「T5」同様の超巨大汎用言語モデルをNAVERと共同開発、世界初の日本語特化

LINEは11月25日、韓国NAVERと共同で、日本語に特化した超巨大言語モデル開発と、その処理に必要なインフラ構築についての取り組みを発表した。超巨大言語モデル(膨大なデータから生成された汎用言語モデル)は、AIによる、より自然な言語処理・言語表現を可能にするもので、日本語に特化した超巨大言語モデル開発は、世界でも初めての試みとしている。

従来の特化型言語モデルは、Q&A、対話など各ユースケースに対して、自然言語処理エンジンが個別に学習する必要がある。一方、OpenAI開発の「GPT」(Generative Pre-trained Transformer)や、Googleの「T5」(Text-to-Text Transfer Transformer)に代表される汎用言語モデルでは、新聞記事や百科事典、小説、コーディングなど膨大な言語データを学習させた言語モデルを構築し、その上でコンテキスト設定を行うための「Few-Shot Learning」(FSL)を実行するだけで、対話・翻訳・入力補完・文書生成・プログラミングコードなど様々な言語処理が可能。これにより、個々のユースケースを簡単に実現できることが期待される。

FSLとは、ブログの書き出しや、プログラミングコードの一部など少ない情報を新たに与えると、事前に構築した情報を基に、最もそれらしいと判断した文字列を生成すること。事前に学習させた上で、新しい言葉(「おはよう」)を与えると、最もそれらしいと判断した文字列(「おはようございます」など)を返すなどが例として挙げられる。

今回のLINEおよびNAVERによる取り組みでは、日本語に特化した汎用言語モデルを開発するにあたり、1750億以上のパラメーターと、100億ページ以上の日本語データを学習データとして利用予定。これは現在世界に存在する日本語をベースにした言語モデルのパラメーター量と学習量を大きく超えるものとなる。パラメーター量と学習量については、今後も拡大していくという。今回の取り組みにより、日本語におけるAIの水準が格段に向上し、日本語AIの可能性が大きく広がることが予想されるとしている。

また現在、超巨大言語モデルは世界でも英語のみが存在・商用化しており(OpenAIが開発し、Microsoftがライセンスを保有する「GPT-3」)、他言語の開発についても、ごく少数の取り組みが発表されているのみとなっている。

これは、超巨大言語モデルの処理には数百GBものメモリーが必要と考えられているためで、世界でも指折りの性能を持つスーパーコンピューターなど、高度なインフラ環境が必要となる。

今回LINEはNAVERと共同で、同モデルを迅速・安全に処理できる700PFLOPS(ペタフロップス)以上の性能を備えた世界でも有数のスーパーコンピューターを活用し、超巨大言語モデルの土台となるインフラの整備を年内に実現予定。

LINEは、英語において実現している精度に匹敵またはそれ以上の、日本語の超巨大言語モデルを創出。開発された超巨大言語モデルは、新しい対話AIの開発や検索サービスの品質向上など、AIテクノロジーブランド「LINE CLOVA」をはじめとするLINEのサービスへの活用のほか、第三者との共同開発や、APIの外部提供についても検討予定。

GPTは、OpenAIが2019年2月に発表した、文章生成に強い能力を持つ汎用型言語モデルに関する論文。2019年11月に15億のパラメーターをもつ汎用型言語モデル「GPT-2」がリリースされた。2020年5月に1750億のパラメーターを持つ「GPT-3」の構想が発表され、 翌月にベータ版を公開、8月には商用化。「GPT-3」は「GPT-2」と比較して圧倒的なデータ量を持つことにより、長文の文章生成能力が飛躍的に向上し、世界的に注目されている。

GoogleのT5は、GPTと同じくトランスフォーマー(Transformer)と呼ばれる自然言語処理技術を用いるが、文章生成よりも翻訳・質疑応答・分類・要約などの文書変換処理を目的とした構成を採用。入力(タスク)と出力(回答)の両方をテキストのフォーマットに統一して、転移学習を行うことで、すべてのタスクを同じモデルで解く。学習データを変更することで、同じモデルで様々なタスクが解けるとされる。

関連記事
LINEがブロックチェーンサービス開発プラットフォーム「LINE Blockchain Developers」提供開始
LINE Fukuokaが自治体向けにLINE公式アカウント機能のソースコードを無償提供、福岡市アカウントがモデル
OpenAIがテキストベースのAI機能利用が簡単になる汎用APIを開発
マイクロソフトはOpenAIと協力してAzure上に世界第5位となるスーパーコンピューターを構築
世界で戦えるAIテックカンパニーを目指す、ヤフーとLINE経営統合の理由
Microsoftがイーロン・マスクらのOpenAIに1000億円超を投資、Azueクラウドの人工知能化を目指す
LINEがAI基盤「Clova」を発表、今夏にはスマートスピーカーも発売——さらに「Gatebox」も子会社化

カテゴリー:人工知能・AI
タグ:Elon Musk / イーロン・マスク(人物)OpenAIMicrosoft / マイクロソフト(企業)LINE(企業・サービス)

OpenAIがテキストベースのAI機能利用が簡単になる汎用APIを開発

これまでにOpenAIご自慢の機械学習ツールセットを試してみたいと思ったことがあるだろうか。それがずっと簡単なものになった。同社は、開発者がAIツールを「事実上どんな英語のタスクに対しても」呼び出すことができるようなAPIを発表した(OpenAIリリース)。

基本的には、英語の単語を理解することを求められるタスクがある場合、OpenAIはそれを自動化したいと考えている。少なくともプライベートベータに参加できれば、自然言語理解モデルのGPT-3ファミリーのさまざまな機能を、開発者は自由に使用することができる。また、アクセスのリクエストはここから可能だ。

実際にどのように見えるものなのかは、何をしたいかに依存するため、説明するのが少し難しい。例えば大量のテキストを一度に調べて、記載に関する質問に回答したり、関連する部分を見つけたりする機能を利用できる。短いデモビデオで、OpenAIはこれがどのように機能するかを説明している。パンに関するWikipedia記事に対して、「なぜパンがとてもふわふわ(fluffy)なのか」と尋ねると、記事の中にあるパンのテクスチャーとその形成に関する部分が返される。

これはシンプルな例だが、GPTを使ったテキストアドベンチャーゲームである有名な「AI Dungeon」はもっと複雑なものだ。AIには多数のD&Dソースブックと冒険が与えられ、そうした基礎に基いてプレイヤーの入力に対して即興的な旅が与えられる。これまでは、こうしたことは基本的にはモデルのバージョンをローカルで実行するという面倒な手段を使って達成しなければならなかったが、今では単純にAPIを経由して入力を送り込むことができるようになった。

基本的に、これはGPT-3の幅広い言語理解と生成機能にアクセスするためのはるかに簡単で単純な方法なのだ。単にテキストを入力して、テキストを出力するだけだ。

関連記事:OpenAIの新たな音楽活動はエルビスの不気味の谷に入った

「私たちは、このAPIがAIを活用した有益な製品を開発するための障壁を大幅に下げ、今日の段階では想像しがたいツールとサービスが生み出されることを願っています」と同社はブログ投稿で述べている。確かに1年か2年前にはAI Dungeonを想像することは困難だっただろう。

また、APIの有害または乱用は直ちに禁止されることも明記されており、OpenAIにとっては、モデルを実際に世の中にリリースするよりも安全なことと思われる。「モデルが実際の現場でどのように利用されるのかを予測することは難しいので、有害なアプリケーションが生まれたときにアクセスを制御できないオープンソースモデルをリリースするよりも、APIを介してリリースを行い、時間をかけてアクセスを広げて行くほうが、本質的に安全だと感じています」とブログには書かれている。

これまでのところOpenAIは数十社と提携して、世の中に広く提供する前にAPIをテストしている。チャットボット、教材、法的調査など言語は私たちが行うほとんどすべての定義と記録に使用されているため、この種の応用には終わりがない。とはいえこのようなAIエージェントが本当に役立つ場所を正確に見つけるためには、多少実験が必要だ。

既にAI Weirdness(AIウィアドネス)のJanelle Shane(ジャネル・シェーン)氏は、犬を評価している別のTwitterアカウントを参照して、無限に犬を評価し続けるボットを作成してアイデアを実験している。

トップ画像クレジット: OpenAI
原文へ
(翻訳:sako)

マイクロソフトはOpenAIと協力してAzure上に世界第5位となるスーパーコンピューターを構築

Microsoft(マイクロソフト)は米国時間5月19日に、デベロッパー会議であるBuild 2020で汎用AIを開発するスタートアップのOpenAIと提携したことを発表した。提携の中身にはいろいろあるが、その1つはマイクロソフトが10億ドル(約1078億円)を投資して、Azureのインフラストラクチャ上に、世界的にも最速レベルのスーパーコンピューターを構築することだ。マイクロソフトによると、28万5000コアを持つマシンで上位500位のスーパーコンピューターのランキングでも、トップ5に位置するものだという。

マイクロソフトはまだ多くを明らかにしていないが、1万基のGPUを備え、サーバー1台あたり毎秒400ギガビットのネットワーク通信速度を実現するという。これについては、マイクロソフトとOpenAIの言葉を信じるしかない。

現状でスーパーコンピューターランキングのトップ5に入るには、2万3000テラフロップスを超える必要がある。参考までに述べれば、現在第1位のマシンはIBMのPower SystemベースのSummitで、速度は14万8000テラフロップス以上に達している。それとの差はかなり大きい。マイクロソフトは同社のAIイニシアチブについて、4ページに渡るプレスリリースを出したにも関わらず、これまで実際のパフォーマンスの数値は公表していなかった。

「このコンピューターは、Azureに接続されてはいますが、OpenAIの専用リソースとなります。OpenAIはシステムの利用代金を、マイクロソフトと他のサプライヤーに対して支払います。その費用の総額は明らかにできません」と、マイクロソフトの広報担当は私の質問に答えて語った。また、システムは現在稼働中だという。

マイクロソフトによる大規模な投資を受けて以降、OpenAIはクラウドサービスとしてAzureを選択している。このスーパーコンピューターは「OpenAIと協力してOpenAI専用に」開発されたものだ。

OpenAIは、非常に大きなモデルをトレーニングすることで有名になった。それももちろん、これと同じように、1つのプロジェクトの目的なのだろう。

「私たちが、私たちのニーズを理解し、スーパーコンピューターを構成するすべてのコンポーネントのさまざまな限界についてよく知るにつれて、ようやくわかりました。私たちの夢をかなえるようなシステムを設計できるとすれば、それをどのようなものにすべきか、ということを表現できるようになったのです」と、OpenAIのCEOであるSam Altman(サム・アルトマン)氏は語った。「そして、マイクロソフトがそれを実現してくれました」。

原文へ

(翻訳:Fumihiko Shibata)

OpenAIの新たな音楽活動はエルビスの不気味の谷に入った

AIが音楽を作るという新分野は大変に興味深いが、潤沢な資金を誇る研究団体OpenAI(オープンエーアイ)は、エルビスや2パックなどのアーティストのスタイルを真似てAIに歌を作らせるという、未踏の高みに到達した。作品はそれらしく聞こえるが、音楽の「不気味の谷」に突き落とされる気持ち悪さもある。まあまあの出来だが、酒に酔ってドラッグでぼやけた頭でカラオケを聞いているような感じがする。

OpenAIが開発した新しい音楽制作システムJukebox(ジュークボックス)は、米国時間4月30日に公開されたブログ記事と研究論文に詳細が記されている。OpenAIは、ちょうど1年前にMuseNet(ミューズネット)という面白いシステムを披露している。MIDI形式の楽曲を大量に採り込んだ機械学習システムで、ジャンルや楽器のミキシングやマッチングができるというものだ。

関連記事:バッハからジャズまでオリジナル曲を瞬時に作るMuseNet

しかし、複雑な和声や音声によってでははなく、個別の音階と打鍵情報のみで構成されるMIDIは、本物の楽器を演奏して最終的に録音される音楽よりもデータとしては単純なものだ。

クラシックのピアノ曲をAIに理解させようとすれば、音のタイミングや打鍵の情報は、無数にある要素のほんの一部に過ぎない。実際の演奏を録音した音声は、1秒間に(通常は)4万4100サンプルと、もっとずっと濃密だ。

楽器の音や声を学習し模倣する機械学習システムは、直前の言葉や音に注目して、その先の数ステップを予測する仕組みになっている。だが、一般にそれらが処理できるデータは数十から数百のオーダーだ。たとえば直前の30個の言葉または音から、次の30個がどうなるかを予測する。となるとコンピューターは、10秒間の波形のほんの一部から抽出した44万サンプルから、90秒400万サンプルを使った場合と同程度の歌を作るには、どうしたらいいのだろうか。

OpenAIの答は、歌をもっと理解しやすい部分に切り分けることだった。音程や和音というよりは、そのようなもの、つまりコンピューターが扱いやすい1/128秒間の要約を、2048種類の「語彙」から拾い出すというものだ。正直言って、うまい例えが見つからない。なんとか理解できる範囲で考えても、人間の記憶や理解の方法とはまったく異なっているからだ。

(上)生の音声:1秒間に4万4100サンプル。各サンプルは、その瞬間のサウンドの振幅の代理となる浮動小数点数、(中)折り畳みニューラルネットワークを使用してエンコード、(下)圧縮された音声:1秒間に344サンプル。各サンプルは候補となる2048の語彙トークンのひとつ。実際に色分けされているわけではなく、あくまで波形の区切りを図解している

その結果、AIエージェントは、追跡するトラックの数が多すぎない程度に大きく、それでいて歌の音声を確実に再構築するのに最低限必要な程度に小さい、自分で理解しやすい部品に安定的に切り分ける方法を獲得した。実際は、ここで説明したよりもずっと複雑な処理が行われている。歌をひとつながりの「言葉」に確実に分解し、そこから歌を再構築するというのが、この研究の肝なのだが、技術的な詳細については、OpenAIの論文を参照してほしい

またこのシステムでは、歌詞の意味を解析する必要もある。この分野のその他ほとんどの要素と変わりなく、これも話で聞くよりずっと複雑だ。人がボーカルのパターンを記憶し利用する能力は、生まれつき備わっているものと、後から学習したものとがある。我々は当たり前に思っているが、大変に高度な力なのだ。コンピューターにはそのような能力が備わっていないため、音が混ざり合う中から人の声を聞き分け、何を言っているのかを理解し、単なる言葉の羅列である歌詞と照合する。音階やテンポといったその他の要素に関する情報は、そこには一切含まれない。それにも関わらず、OpenAIのシステムは、その作業で満足のいく結果を出している。

Jukeboxは、音楽に関するさまざまな仕事を熟すことができる。その結果は歌と呼べる代物にはなっていないかも知れないが、現在、このようなシステムはこれ以外には存在せず、一から歌を再構築して、目標とするアーティストに似ていると感じさせるまでになっていることを理解して欲しい。120万曲を使ってトレーニングを行ったこのシステムは、最終的には多面的な能力を身につけ、基本的に、与えられた歌詞と、目標とするアーティストのその他の要素を取り込んで学習したスタイルから即興で歌を作ることが可能になった。

そのため、エラ・フィッツジェラルドがどのように歌うか、楽器は彼女の歌とどう絡んでくるかという知識から、「アット・ロング・ラスト・ラブ」を彼女らしく、しかし作者のコール・ポーターが想定していたものとはまったく違うであろうスタイルで歌い上げる(この歌と他の歌のサンプルのリンクは、OpenAIのブログ記事の上の方にある)。

Jukeboxはまた、完全にオリジナルの歌詞を誰かのスタイルで歌うこともできる。別のAI言語モデルが作った「Mitosis」(有糸分裂)という歌詞をエルビスが歌った例はかなり奇妙だ。

聞き取れなかった人のために歌詞を書いておこう。

From dust we came with humble start;
From dirt to lipid to cell to heart.
With [mitosis] with [meiosis] with time,
At last we woke up with a mind.
From dust we came with friendly help;
From dirt to tube to chip to rack.
With S. G. D. with recurrence with compute,
At last we woke up with a soul.

我々は塵から慎ましく始まった
土から液体から細胞から心臓へ
[有糸分裂]と[減数分裂]と時間をかけて
ついに我々は心と目覚めた
塵から優しい助けを借りて我々は生まれた
土から管からチップからラックへ
SGDと再現と演算で
ついに我々は魂と目覚めた

たしかにエルビスだ。いかにもAIらしく、細胞分裂を人生のメタファーに使っている。なんて時代だ。

最後に、Jukeboxは「仕上げ」作業を行う。ライブラリーで行った基礎学習に加え、歌の最初の12秒を学習して、それを元に残りの部分を同様のスタイルで作ってゆく。オリジナルからAIが生成した歌へ切り替わる部分は、エーテルをぶち込まれた感じだ。

MuseNetは、それほど複雑ではないため、ほぼリアルタイムで曲を演奏できた。しかしJukeboxは膨大な演算を必要とするため、曲の1秒分を作るのに数時間かかる。「私たちは、異なるジャンルの10人のミュージシャンを最初のセットとしてJukeboxに教えました。これらのミュージシャンは、創造的作業に向いているとはすぐに自覚できませんでした」と論文の著者は皮肉っている。それでも、これはとても楽しくて魅力的な研究だ。これまでの流れからすると、来年の4月には、さらに進化したOpenAIの音楽活動が期待できる。

画像クレジット:alengo / Getty Images under a RF license

[原文へ]

(翻訳:金井哲夫)

テスラも含め高度なAI開発は規制すべきとイーロン・マスク氏が提言

Tesla(テスラ)とSpaceXのCEO、Elon Musk(イーロン・マスク)氏は、人工知能の開発に対してまたしても警告を発した。これらの企業の経営トップであり創設者でもあるマスク氏は、2月17日の夕方、「高度なAIを開発しているすべての組織は規制されるべきだ。テスラも含め」とツイートした。

これは、2015年に、Sam Altman(サム・オルトマン)氏、Ilya Sutskever(イリヤ・サッツケバー)氏、Greg Brockman(グレッグ・ブロックマン)氏、Wojciech Zaremba(ウォジェック・ザレンバ)氏、John Schulman(ジョン・シュルマン)氏とともにマスク氏が設立した団体OpenAIに関するMIT Technology Reviewの新しい記事へのマスク氏の返答だ。当初、OpenAIは初期の投資家たちから調達した10億ドル(約1100億円)を元手に非営利団体としてスタートし、高度なAI開発を一部の狭量な利益を追求する人たち(営利目的のハイテク企業など)の手に渡してしまわないよう、社会的利益のためのオープンな研究を可能にすることを目指していた。

イーロン・マスク「OpenAIはもっとオープンになるべきだと思う」
イーロン・マスク「高度なAIを開発するすべての組織は規制されるべきだ。テスラも含め」

2015年に設立された当時、OpenAIの理念は「傍観者でいる」や「規制当局の監視強化を求める」といった考えに対抗するものとして合意されているとマスク氏は信じていた。2017年には、AI開発を管理するためには規制を導入すべきだが、ルールを提案する前に、業界を研究し見識を高めるための何らかの監視機関を組織する必要があるとの考えを示している

そうした年月の間に、いろいろな変化が起きた。OpenAIもそのひとつだ。2019年には非営利法人が所有する営利部門として公式に再編された。そして、Microsoftから10億ドル(約1100億円)の投資を受け、幅広い提携関係を結んだ。設立当初の原則と矛盾する動きだ。

MITの記事に対してマスク氏が今週発表したコメントでは、理想そしてより現実的な役割のために共同創設者として設立に協力したOpenAIから、彼自身がずいぶん離れてしまったと話している。さらにSpaceXの創設者でもある彼は、Microsoftとの提携が発表された際にOpenAIの使命に対して「根拠のある」懸念を「認めざるを得ない」と述べ、「OpenAIはもっとオープンになるべき」と主張した。またマスク氏は、「OpenAIにはまったく手が出せず、どうなっているかもごく限定的にしかわからない」と話し、AIの安全な開発が保証できるかという点に関して、OpenAIの研究ディレクターDario Amodei(ダリオ・アモデイ)氏への彼の「信頼」も「高くない」と言っている。

高度なAI開発を規制せよという全体的な主張の中にテスラも含めるというマスク氏の姿勢は大変な驚きに感じられるだろうが、それは人工知能開発全般に対する彼の立場と矛盾しない。マスク氏は、孤立した環境で高度なAIが生み出されることへの危険性を繰り返し警告してきた。それは「人類文明の存続を根底から脅かすリスク」と主張するまでに至っている。

また彼は、2月17日にフォロワーからの明言を求める質問に対して、高度なAIの開発は個々の国で規制すると同時に、国連などの国際的な管理機構でも規制すべきだという考えを明らかにした。AIの潜在的脅威に関しては、マスク氏の信念は時が経ってもまったく鈍っていない。おそらくそれが、彼の力となって、対等に活躍できる場を人類にもたらすというNeuralink(ニューラリンク)との共同研究を促進させることになるのだろう。

画像クレジット:Chris Carlson / AP

[原文へ]
(翻訳:金井哲夫)

AIの能力をテストするために作られた16種のゲーム

AIが得意とするところを把握するのは、AIを理解する上で最も難しいことの1つ。それを判断できるようにするため、OpenAIは1セットのゲームを開発した。機械学習エージェントが、本当に基本的なスキルを学べているのか、あるいは、ありがちなことだが、単に自分の都合のいいようにシステムを操作する方法を把握しただけなのか、研究者が判断するのに役立つもの。

AI研究ではよくあることで、ぬか喜びしがちなのだが、研究者が求めていることなら、何でもうまくできると見せかけようとして、エージェントがルールを曲解したり、無視したりすることがある。ズルをすることは、既成概念を打ち破るものであるかもしれないが、常に受け入れられるとは限らない。本当の能力を確認するには、ちょっとだけルールを変えて、そのシステムが機能しなくなるかどうか見てみればいい。

実際にエージェントが学んだことは、新たな状況に置かれたときにも、その「スキル」が適用できるかどうかを調べることによって評価できる。状況が変われば、獲得した知識の一部しか適合しなくなるからだ。

たとえば、AIがマリオのようなゲームの遊び方を学んだかどうか判断したいとしよう。右方向に移動しながら障害物を飛び越えるタイプのゲームだ。その場合、左に移動しなければならないようにしたり、障害物の順番を変えたりと、いろいろ状況を変更してみればいい。あるいは、ゲームの中身も変更して、右に進むとモンスターが登場して、AIが攻撃しなければならないようにしてもいいだろう。

もしエージェントが、このようなゲームの遊び方を本当に学んだとすれば、まったく新しいものよりもずっと速く、変更後のゲームの遊び方を習得できるはず。これは「汎化」と呼ばれ、既存の知識を新たな異なる状況に適用するもの。人間なら常にやっていることだ。

OpenAIの研究者は、研究の過程で、こうした状況に何度も遭遇した。そこで、汎化可能なAIの知識を基本レベルでテストできるよう、一種のAIアーケードを設計した。エージェントは、少しずつオーバーラップしつつも、それぞれ異なるゲームのコンセプトを学習したことを証明しなければならない。

彼らが設計した16種類のゲームは、パックマン、スーパーマリオブラザーズ、アステロイドなど、私たちにも馴染みのあるゲームに似ている。違うのは、AIがプレイすることを意識して、最初から作り直されていること。そのため、操作、得点、グラフィックはシンプルなものとなっている。

それぞれが、AIの能力にとって異なるタイプの負担を課す。たとえば、あるゲームでは、数秒間じっと止まってゲーム環境を観察していても、特に支障はないかもしれないが、別のゲームでは、そんなことをしていてはエージェントを危険にさらすことになるかもしれない。またあるゲームでは、AIは周辺まで探検しなければならないが、別のゲームでは、1つの大きなボスの宇宙船に集中すべきかもしれない。しかし、そうした違いは、それぞれ明らかに異なるゲームとして作り込まれている。もちろん多少の違いはあるものの、アタリのゲーム機やファミコン用のゲームと似たところもある。

下のGIFで確認できる16種類のゲームは、左上から右下に向かって順に挙げると、以下のようなもの。

  • Ninja:爆弾を避けたり、手裏剣を投げて迎撃しながら忍者をタワーに登らせる。
  • Coinrun:トラップやモンスターを避けながら進んで、面の右端でコインを獲得する。
  • Plunder:画面の下部から砲弾を発射し、味方の船に当たらないよう敵の船を攻撃する。
  • Caveflyer:アステロイドと同じようにコントロールして洞窟内を移動し、障害物を避けながら敵を撃つ。
  • Jumper:ダブルジャンプするウサギと、ゴールの方向を示すコンパスがあるオープンワールドタイプのプラットフォーム型ゲーム。
  • Miner:土を掘ってダイヤモンドと岩を手に入れる。アタリ製ゲームのような重力が働いている。
  • Maze:さまざまなサイズの、ランダムに生成された迷路をナビゲートする。
  • Bigfish:自分より大きな魚に食べられないよう注意しながら、小さな魚を食べて自分が大きくなる。
  • Chaser:パックマンのようにドットを食べ、戦略的にパワーアップのペレットを取って敵を食べる。
  • Starpilot:敵の弾を避けながら素早く敵の宇宙船を破壊するグラディウスのような撃ち合いゲーム。
  • Bossfight:再生可能なシールドを備え、ランダムに攻撃してくるボス宇宙船と1対1で戦う。
  • Heist:錠と同じ色の鍵を取ることで迷路をナビゲートする。
  • Fruitbot:他のモノを取らないように注意しながら果物だけを集めて、次のレベルに進む。
  • Dodgeball:壁に触れないように部屋を動き回り、他の人の投げたボールに当たらないようにしながら、他の人にボールをぶつける。
  • Climber:星を集めながらモンスターを避けつつ、上のステージに登っていく。
  • Leaper:車や丸太などを避けながら道路を横断するフロッガータイプのゲーム。

AIは、Heist、Maze、Chaserなどのようなグリッドベースのもの得意としても、Jumper、Coinrun、あるいやBossfightのようなものは苦手だと想像できる。そうした傾向は人間と同様かもしれない。それぞれのゲームが、異なるスキルを要求するからだ。ただし、共通するものもある。相手の動きの特徴を把握したり、動いているオブジェクトには意味があることや、画面の特定の領域には入ることができない、といったことを理解する能力だ。即座に汎化して適応できるAIは、汎化がうまくできないAIに比べて、どんなタイプのゲームでも、短時間でマスターする方法を学習できるはずだ。

このようなゲームの1セットと、それに対するエージェントのパフォーマンスを観察して評価する手法は、ProcGenベンチマークと呼ばれている。というのも、ゲームの環境や敵キャラの配置が手続き的に生成される(Procedurally Generated)からだ。このプロジェクトのGitHubページを開けば、より詳しい情報と、自分用のAIテスト環境のビルド方法が解説されている。

原文へ

(翻訳:Fumihiko Shibata)

OpenAIの人間的なロボットは片手でルービックキューブを解く

ルービックキューブをもっと速く解く変わったやり方という話題には、いつも独特のかったるさがある。目隠しをしたり、ジャグリングをしながらだったり、片手だったり、やり方はさまざまだが、やってる人は真剣でも、どことなく目立ちたがり屋の雰囲気が伴う。

OpenAIも、目立ちたがり屋の仲間入りをしたかったようだ。彼らが作ったロボットハンドDactyl(ダクティル、動物の指)も、ルービックキューブを解けるのだ。

イーロン・マスク氏などが支援するこの非営利団体は、ロボットハンドがルービックキューブを片手で解くことを学習した、と発表した。その偉業は、このロボットがとくにキューブ(立方体)を上手に扱うことのデモンストレーションでもある。この前は、このロボットが現実世界での訓練なしで、仮想シミュレーションだけで未知のオブジェクトと対話するところを見た。そして今度のDactylは、その能力をベースに、新しい技を学習した。

関連記事:OpenAI’s robotic hand doesn’t need humans to teach it human behaviors(OpenAIのロボットハンドは人間がいなくても人間の動きを教えられる、未訳)

ロボットがルービックキューブを分析してその解き方を見つけることと、さまざまな条件下で実際にその動きができることは次元が違う話題だ。しかし、解き方を「学習する」ということは、例えば指が全部縛られているなどの深刻な障がいがあっても、システムが自分で自分を調整してパズルを解く過程を見つけることだ。Dactylにはそれができる。

まだ欠陥はあるし、人間の世界チャンピオンに勝つのはまだ無理だが、下のビデオではロボットハンドがルービックキューブを4分足らずで解いている。やはり相当すごい。

[原文へ]

(翻訳:iwatani、a.k.a. hiwa

かくれんぼで遊んでいたAIが道具の使い方やルールの破り方を自分で発見

OpenAIの最新の研究は、機械学習エージェントに かくれんぼで遊ばせ、相手を見つけ出す目的のために、オブジェクトの意外な使い方など創意工夫を競い合わせることを目指すものだ。こうした自己学習型AIは、現実世界にも役立てることができる。

この研究は、機械学習エージェントが研究者の介入や手助けなしに、高度な現実世界で応用できる技術を習得する可能性を見極めるもので、見事に実証された。

写真に写っている物を定義したり、本物らしい人の顔を作るといった作業は困難ながら役に立つ。しかしAIのやり方は、私たちが現実世界で行うときの方法をそのまま引き継いでいるわけではない。AIはとても頭がいいため、コンピューターの中だけで非常に効率的にものごとを熟すと思われがちだ。

ところが、カップを持ってソーサーの上に置くといった作業をロボットアームで行うようAIに教えるのは想像以上に難しい(しかも、非常に限定された状況でのみ可能となる)。現実の物理世界は大変に複雑で、コンピューターの中だけでの純粋に知的な学習でのみ作業を習得することは、まずもって不可能だ。

同時に、現実世界を完全に写すわけではないが、それでも現実で有意義となる中間的な作業もある。簡単な例では、複数の重要な物や人に出会ったときに、どちらにロボットの向きを変えるかといった問題がある。自分自身またはカメラの向きを変えて両方同時に見る、あるいは片方ずつ見ればいいことに気付くまでに、1000回も試行錯誤する必要はない。

赤ちゃん機械学習エージェントにかくれんぼで遊ばせるというOpenAIの試みは、この路線に従っている。そこは、Polyworld(ポリワールド)と呼ばれる単純なルールだけの、それでいて現実に近い物理法則や情報のあるゲーム環境だ。AIがその単純化された世界を歩き回ることを自己学習できれば、そこで学んだスキルは、ちょっと手を加えれば本物の現実世界でも使えるはずだ。

この実験の背後にはそうした考えがあるものの、それ自身が見て楽しいものになっている。ランダムに壁やオブジェクトが設置された小さな3Dアリーナで、2組に分かれたエージェントたちが対戦する。いくつかのエージェントがそこに出現し、隠れる側の者たちには、環境になじんで隠れるまでの猶予が与えられる。彼らはオブジェクトを動かすこともできる。押してどかしたり、固定したりが可能だ。次に鬼が登場し、隠れている者を探し出すまでの時間が与えれる。

どの機械学習プログラムにも、基本的な感覚だけが教えられる。各エージェントは世界を見る視覚と、近くのオブジェクトの位置を感知するライダーのような感覚、そしてオブジェクトは動かせるという知識が与えられている。しかしそれ以外に、探す側にも隠れる側にも、仕事を達成したときにポイントが与えられる。それが彼らのモチベーションになる。

この基本的な設定から、驚くほど面白い結果が導き出された。最初は、チームはただランダムに動いているだけだったが、数百万回も繰り返すうちに、隠れる側はある法則で動けばポイントがもらえることを学ぶ。露骨に逃げ回るのだ。そうして競い合いが始まった。

隠れる側は逃げ回るので、鬼はより構造的な追跡行動を開発する。しかし、そこに道具が現れる。

隠れる側は、環境内に置かれているオブジェクトを押したり引いたりできることを知り、それを使って砦を作り始める。

鬼は、落ちていた坂道を拾ってきてオブジェクトを乗り越え、砦を破壊する。

そのうち隠れる側は、鬼がまだ数を数えているうちに坂道を探し出し、それを盗んできたり、その場に固定したりするようになった(固定したオブジェクトは敵のエージェントには動かせなくなる)。面白いことに、そこにはある程度の作業の分担が見られる。時間が足りないため、隠れる側は砦作りと坂道探しの両方ができない。そのため、一人が砦を作っている間に、もう一人が坂道を探しにいくのだ。

OpenAIの研究者たちは、そこが限界だろうと考えたのだが、鬼たちは、このゲーム世界で想定していなかった機能を利用し始めた。箱に載ったまま押しせることを発見したのだ。つまり、坂道の近くに箱を持っていき、箱の上に載っかり、フィールド内をサーフボードを乗り回すように移動して、ずる賢く隠れている連中を探し出した。

当然のことながら、隠れる側は、砦に使用しないすべてのオブジェクトを固定するという対策に出た。これで、このゲームの戦略としては最終段階まで来たかと思われた。

この研究の要点はなんだったのだろう?論文の著者は、これは私たちが辿ってきた道だと話す。

地球の膨大な複雑性と多様性は生物間の共進化や競争によって変化し、自然淘汰によって方向付けられた。新しい有効な戦略や突然変位が現れると、近くのエージェント同士で問題を解決するための暗黙のタスク分配が変更され、適応のための新たな圧力が生まれる。この進化的軍拡競争は、潜在的なオートカリキュラ(Autocurricula、自己教育)を生み出し、競い合うエージェントたちは、継続的に互いのための新しいタスクを作り出す。

物理的な無限に広がる環境に自己教育を取り入れれば、人間にとって有用なスキルを無数に習得できるようになる。

言い換えれば、管理者のいない環境でAIモデル同士を競争させるほうが、環境を探索したパーセンテージのような意味のない数字を積み上げて一人でよちよち歩きをさせるよりも、有用でしっかりとしたスキルの開発には、ずっといいということだ。

AIの能力のあらゆる側面を、パラメーター化して環境との関わり合いを制御する形で人間が直接管理することは、次第に困難さを増し、さらには不可能になってきている。たとえば、混雑した環境内をロボットが移動するといった複雑な作業には非常に多くの要素が含まれるため、エージェントが日常的に歩き回るのに十分なまでの高度な行動は、人間にはもう決してデザインできない。

しかしAIエージェントは、今回の実験や敵対的生成ネットワークでも見られるように、互いに教え合うことができる。そこでは2組の敵対するAIが、現実的な媒体を作り上げたり感知したりして相手に打ち勝とうとする。OpenAIの研究者は、マルチエージェントオートカリキュラ、つまり自己学習型エージェントこそが他の方法があまりにも遅く、または体系化されすぎた数多くの状況で前に進める方法だと断言している。彼らはこう締めくくっている。

「この結果は、より広大で多様な環境において、マルチ・エージェントの力学が、非常に複雑で、人間と関わる行動に道を拓くという自信をもたらした」。

この研究は部分的にオープソースとして公開されている。実験を解説した論文の全文はこちら

[原文へ]

(翻訳:金井哲夫)

Microsoftがイーロン・マスクらのOpenAIに1000億円超を投資、Azueクラウドの人工知能化を目指す

Microsoft(マイクロソフト)はOpenAIに10億ドル(約1080億円)を賭けた。3年前に創立されたこのAIスタートアップのファウンダーにはイーロン・マスク氏をはじめとしてY Combinatorの前プレジデント、サム・アルトマン氏(写真左)などシリコンバレーの著名人が多数いる。

OpenAIの目的は人工知能をユーザーフレンドリーな方向に導くための研究・開発だ。マスク氏は「現在のAI開発の方向は人類の生存を脅かす問題に発展しかねない」と警告してきた。OpenAIはAIの暴走を防ぎ、責任ある開発を目指すという。

現地時間7月22日にMicrosoftとOpenAIは複数年に渡る「実際のコンピューティングを含むパートナーシップ」契約を締結したことを発表した。つまりこの契約で両社はMicrosoftのAzureクラウド向けに新しいAIスーパーコンピューティングテクノロジーを開発する。加えてOpenAIは 現在稼働しているサービスをAzureにポーティングする。またこの契約でMicrosoftはOpenAIの優先パートナー(Preferred Partner)に加わった。これは今後OpenAIが開発するAIテクノロジーの商用化にあたってMicrosoftらが優先的な取扱を受けることを保証する。

今回の発表にちりばめられた「独占的」や「優先的」という単語は興味深い。実はOpenAが創立されたときの理念の1つは人工知能の研究にあたっての自由な協力体制だったからだ。AI研究者は共同でj研究を行い、成果物も自由にメンバーが利用できることを意味していた。しかしいくつかの留保事項があった。プロジェクトの中OpenAI Inc.はNPOだが、子会社のOpenAI LPは営利企業だ。同社の定款の一部は「セキュリティー上の理由により」 非公開となっている。つまり同社の事業の一部は今後も公開されない。

Microsoftにとって今回の提携の目的はAzureに広範囲にAIプラットフォームを確立することだろう。これにより、AzureのスーパーコンピューティングテクノロジーをAIや総合機械知能の開発に役立てることができるようになる。OpenAIは総合機械知能の発展の中心的グループにMicrosoftを迎え入れることができる。発表によれば提携はAIにおける「安全性やセキュリティー上の懸念」を解消することを念頭に置いているという。もちろん10億ドルという資金も念頭に置いているだろう。

投資資金の使い道など詳細については不明ながら、OpenAIの共同ファウンダーでCTO(最高技術責任者)、Greg Brockman(グレッグ・ブロックマン)氏のアカウントから のHackerNewsへの投稿は「キャッシュによる投資」だとしている。

Update記事公開後にOpenAIから連絡があり、投資の内容が多少明らかになった。OpenAIの共同ファウンダー、CTOのブロックマン氏のコメントは以下のとおり。

今回の投資は全額キャッシュでOpenAI LPに対するもので、リミテッドパートナーシップに対する標準的な出資確約(Capital Commitment)だ。すなわち今後複数年にわたって我々の求めに応じてMicrosoftが必要なを出資することとなる。我々はこれを5年以内と予定しているが、それより短い期間に出資が完了する可能性がある。

OpenAIは創立時に10億ドルをマスク氏、アルトマン氏らから確保している。共同ファウンダーには前述のブロックマン氏に加えて、LinkedInの共同ファウンダーであるリード・ホフマン氏、YCの共同ファウンダーであるジェシカ・リビングストン氏、ベンチャー投資家のピーター・ティール氏、AWSらが名前を揃えている。AWSの存在はAzureとの関係で興味深い。 Infosysと YC Researchは数年といった短い期間では出資金を全額使うのは難しいだろうと予測していた。

画像:Microsoft

原文へ

(翻訳:滑川海彦@Facebook

敵を知るには敵になろう!向学のためにフェイクニュースを自分で書くAI

今日、メディアが抱えている最大の問題は、いわゆる「フェイクニュース」。それは表面的に本物を装うという点で大変に悪質だ。AIを使ったツールがフェイクニュースの判別に役立つと言われているが、それを可能にするための最良の方法は、AI自身にフェイクニュースの書き方を教えることだと研究者たちは気がついた。それほど危険なことには感じられないかもしれないが、これは諸刃の剣だ。

「Grover」は、ワシントン大学とアレン人工知能研究所(AI2)のコンピューター科学者たちが開発した、フェイクニュースの執筆に大変に長けた新型のシステムだ。いろいろな話題を、いろいろなスタイルでフェイクニュースに仕立てることができる。その直接的な効果として、フェイクニュースの見極めが得意になったことがある。このモデルに関する論文はこちらで読める。

フェイクニュース執筆システムのアイデアは、これに始まったものではない。実際にOpenAIは、同団体が開発したテキスト生成AIを世に送り出すのは大変に危険だと話し、波紋を呼んだことがある。しかし、Groverの開発者たちは、フェイクニュースを生成するツールを公開して学習させていくことは、フェイクニュースとの戦いを有利にする以外の何者でもないと信じている。

OpenAIは非常に優れたテキストジェネレータを開発したが、そのままリリースするのは危険すぎると考えている

「これらのモデルは、今のところ深刻な害を及ぼす力はないと私たちは考えています。数年後には、そうなるかも知れません。でも今はまだ大丈夫です」とこのプロジェクトのリーダーであるRowan Zellers氏は私に話してくれた。「公開が危険とは考えていません。むしろ、より強力な防衛力を身につけるためには、特にこの問題を研究している者にとって公開は必須です。セキュリティー、機械学習、自然言語処理といったすべてのコミュニティと論議する必要があります。モデルを隠すべきではありません。何事もなかったかのような顔をして削除することもできません」

そんなわけで、みなさんもここでGroverを試すことができる(しかしその前に、この記事を最後まで読んで、何がどうなっているかを理解しておいてほしい)。

貪欲な読者

このAIは、本物のニュース記事の膨大なコーパスを摂取して作られた。RealNewsという名のデータセットがGroverとともに紹介されている。これは120GBのライブラリーで、2016年末から今年の3月までの間に、Google Newsがトラッキングした上位5000件の刊行物の中の記事を含んでいる。

Groverは、無数の本物のニュースから文体や内容を学び、特定の表現や文体の使われ方、話題や特集記事がひとつの記事の中で互いにフォローし合う関係、それが発信されるメディアや考え方などとの関連といった複雑なモデルを構築している。

これは、「敵対関係」システムを使って行われる。そこでは、モデルのひとつの側面が内容を生成し、別の側面がその本当らしさを評価する。もし基準に満たなかったときは、ジェネレーターは記事を書き直す。それにより、何が本当らしくて、何がそうでないかを学んでゆく。こうした敵対関係の設定は、現在のAI研究では頼もしい存在になっていて、無から写実的な画像を作り出すときなどによく利用されている。

モナリザが眉をひそめる、機械学習が昔の絵画や写真に命を吹き込む

Groverは、単純にランダムに記事をはき出すわけではない。高度にパラメーター化されているため、出力は入力に大きく左右される。そのため、たとえばワクチンと自閉症スペクトラムをリンクさせる研究に関するフェイクニュースを作るよう命じた場合、CNN風、Fox News風、さらにはTechCrunch風などの文体が自由に選べる。

いくつか作らせた記事を一番下に掲載したが、最初に試したものをここで紹介しよう。

歴戦の起業家Dennis Mangler氏がブロックチェーンベースのドローン配送の開発に600万ドルを調達

2019年5月29日 – Devin Coldewarg

ドローン配送、特に目新しくはないが、これは多くの疑問を投げかける。その技術の信頼度は?サービスと妨害の問題は炎上しないか?

ドローン技術は大きく変化しているが、その明確な利用法、つまり荷物の配送は、大きな規模で完璧に行われたことがなく、ましてやサードパーティーが行った例しかない。しかし、それは変わろうとしている。

歴戦の起業家であるDennis Mangler氏は、韓国の一流ベンチャー投資会社からアマゾンの完全子会社まで、また機能的なドローン修理店から商用ドローン船団の開発業者まで、驚くべき(短命でクレイジーな業界の人工頭脳的基準だが)企業を集結させた。

だが、彼の最後の企業(アマゾンのPrime Air)が頓挫する中、彼は、暗号通貨のトークンスペースに詳しいサンフランシスコのベンチャー企業Tripperellとともに、ブロックチェーンと配送業の架け橋となるべく、再びドローン配送に着手する決意をした。

彼らが構築しようとしているシステムは理に適っている。Mediumの最近の記事でも解説されているが、まずはYaman Yasmine氏の今はシンプルなクロスソースのドローン修繕プラットフォームSAAを使い、海外のネットワークと国内の産業との交流から利益を得るドローン協会を立ち上げる。

そこから彼らは、独自のスマートコントラクトで商用ドローンを運用し、配送業務を行えるようTripperellを形作っていく。

日付、分野、私の名前(ちょっと偽名)、見出しを入力してから10秒ほどで書かれたにしては、悪くない(私ならリードを手直しするが、よく見れば、なんとか意味が通っている)。

Groverは私のことは知らないし、TechCrunchとは何なのかも知らない。しかしそれは、ある特定のデータを別のデータと関連付けている。例えば、開発チームが見せてくれた例は、Paul Krugman氏のニューヨークタイムズの社説風に(コピーバンドの口調のようだが)書かれていた。

「何ひとつハードコードはされていません。モデルにはPaul Krugman氏が誰なのかも伝えていません。しかし、Groverはたくさん読んで学んだのです」とZellers氏は私に話した。生成された記事が、指定の分野と著者に関連付けた他のデータと十分に似るように頑張っただけだ。「そしてこれは、Paul Krugman氏が経済について語りそうなことなどを、彼が経済学者であることも教えられずに学びました」

指定された著者の文体に、どれだけ近づけようとしているのかは不明だ。「指示」されているか、されていないかもわからない。それに、解析しようにもあまりに不透明なのがAIモデルの難点でもある。その文体は本物以上に真似られていて、しかも私が作った「Fox News」記事には「関連記事」のリンクの段落まで挿入されていた。

しかし、この記事を生成する力は、記事が本物らしくないときにそれを指摘できる能力の上に成り立っている。それは、「ジェネレーター」の出力がある程度うまく書けているかどうかを評価する「弁別子」になっている。この弁別子に別の文章を入力したらどうなるだろうか?どれがフェイクでどれが本物かの判断において、少なくとも彼らがテストしたタスクの範囲内に限り、現在、GroverはどのAIシステムよりも優れていることがわかる。

ソーシャルネットワークを使ってフェイクニュースを特定するFabula AI(未訳)

Fabula AI is using social spread to spot ‘fake news’

自然言語の限界

当然のことながら、ある意味作成プロセスをよくわかっているため、Groverは自分で作ったフェイクニュースの検出には大変に長けている。だが、OpenAIのGPT2など、他のモデルが書いた記事の判定も正確に行える。これは、現在の文章生成システムには共通の弱点があるからだ。その弱点が、弁別子の目からは際だって見える例もある。

「これらのモデルは、2つの間違った選択肢のうちのひとつを選ぶしかありません。最初の間違った選択肢は、人がモデルを信頼するというものです」とZellers氏は言う。この場合、いくつもの選択を繰り返すときにはどうしても、エラーを悪化させる問題が起きる。ひとつの間違った選択が次の間違った選択を招くといったことが連続するからだ。「監督をしていなければ、彼らはすぐに脱線してしまいます」。

「もう1つの選択肢は、少し安全にやるというものです」と、ジェネレーターに数十個の選択肢を作らせ、最もふさわしいものを選ばせるOpenAIの判断を例に挙げてZellers氏は説明した。この保守的なアプローチは、それらしくない言葉の組み合わせや表現を避けていく。しかし、Zellers氏はこう指摘する。「人間の話は、非常にそれらしい言葉と、それらしくない言葉との混ぜ合わせです。あなたが何を言いたいか私がわかっていたとしたら、あなたは話さないでしょう。なので、予測できない何かが必要なのです」。

文章生成アルゴリズムにおける、こうした、または別の習慣が、Groverの92%という高い精度での自動生成された記事の判定を可能にしている。

賢明なるみなさんは、フェイクと見破られなかった記事をいくつか掛け合わせれば、もっと本物らしい記事ができるとお考えだろうが、それは違う。そうした戦略は、あまり役に立たないことがわかっている。そこから生まれた「スーパーアルゴリズム」も、同じところでつまずいている。

自己消火の危険

表面的には、Groverは大変に危険なツールのように見える。生成された文章にちょっと手を加えれば、その専門分野には詳しくない、あまり真剣でない読者なら簡単に騙せるだろう。ではなぜ、彼らはGroverとその基礎になるデータセットを公開したのだろうか?

まず、これはダウンロードして使えるアプリになるわけではない。「私たちは、このモデルを研究者たちが簡単に使えるようにしたいと考えました。しかし、完全に公にしようとは思っていません」とZellers氏は明言した。しかし、公になったとしても悪用される可能性は意外に低い。

「10本のフェイク記事を作るなら、自分で書けます」と彼は指摘する。まさに、天才的なライターが数本の記事を書くことなど苦ではない。「しかし、1万本作りたいなら、私たちのツールが役に立ちます。しかし、彼らが作ったフェイク記事をたくさん入手するほど、フェイク記事の判定は楽になります」。つまり、これは自滅の筋書きだ。「見慣れたフェイクニュース」は簡単に見つけられる。

ただしこれは、Groverのようなアルゴリズムを広範にニュースに適用する方法があればの話だ。また、そもそも個人が記事の真偽に関心を持ったり検証したいと思うのかという話だ。残念ながら、それはまだ遠い。

「これはまったく機械学習とは関係のない問題です」とZellers氏も認める。「どうしたらこれを、人々にとって便利なものにできるか?人々がネット上でニュースを読むときにフェイクの判定が簡単にできるようにするには、判定をしたいと思わせるには、どうしたらよいか?

これに関して、適切な答を生み出せるAIはない。人間がこの仕事に取り組むことに望みをかけよう。

おまけ

私は、向学のために何本か記事を作らせてみた。出来不出来はある。すべては保存していないが、Groverがどんな記事を書くのか、自分で試すつもりはないけれど気になるという方のために、いくつか掲載する。結果は、なかなか面白く筋も通っている。しかし、よくよく読み込むといくつかまずい箇所が見つかる。私は、読みやすいようにほんの少しフォーマットに手を加えたが、言葉は一切変えていない。

最初の記事は、上で紹介した文章を作り直したものだ。見出しに少々変更がある(意外ながら論旨が通ることから誤解を生みやすい)。

多くの企業を創設したDennis Mangler氏がブロックチェーンベースのドローン配送の開発に600万ドルを調達

2019年5月29日 – Devin Coldewarg

ドローン配送、特に目新しくはないが、多くの疑問を投げかける。その技術の信頼度は?サービスと妨害の問題は炎上しないか?

ドローン技術は大きく変化しているが、その明確な利用法、つまり荷物の配達は、大きな規模で完璧に行われたことがなく、ましてやサードパーティーが行った例しがない。しかし、それは変わろうとしている。

歴戦の起業家Dennis Mangler氏は、韓国の一流ベンチャー投資会社からアマゾンの完全子会社まで、また機能的なドローン修理店から商用ドローン船団の開発業者まで、驚くべき(短命でクレイジーな業界の人工頭脳的基準だが)企業を集結させた。

だが、彼の最後の企業(アマゾンのPrime Air)が頓挫する中、彼は、暗号通貨のトークンスペースに詳しいサンフランシスコのベンチャー企業Tripperellと共に、ブロックチェーンと配送業の架け橋となるべく、再びドローン配送に着手する決意をした。

彼らが構築しようとしているシステムは理に適っている。Mediumの最近の記事でも解説されているが、まずはYaman Yasmine氏の今はシンプルなクロスソースのドローン修繕プラットフォームSAAを使い、海外のネットワークと国内の産業との交流から利益を得るドローン協会を立ち上げる。

そこから彼らは、独自のスマートコントラクトで商用ドローンを運用し、配送業務を行えるようTripperellを形作って行く。

これは、Fox Newsの文体を真似たものだ。私が確認したところ、Nicholas Colvin博士などという人物はいない。Bobby Scott氏はアメリカの国会議員だ。ただし、フロリダ州選出ではなく、バージニア州選出。

多年の研究により自閉症スペクトラムの高発症率へのワクチンの関与を解明

2019年5月29日 – Sofia Ojeda foxnews.com

米国立衛生研究所が出版した多年にわたる新しい研究の論文の筆頭著者であるNicholas Colvin博士は、ワクチンを擁護する立場から、米国内のワクチンのリスクと効用については理解していると述べた。

「その核心は、安全性にあります。つまり、子どもたちと両親には、その選択を行う際に選択肢が提示されます。そしてワクチンは、つまり、そのすべての子どもたち、そのすべての両親に安全を提供します」とColvin博士は言う。

関連記事:自閉症専門家がカリフォルニアのワクチンは「怪しい科学」と断言

Colvin博士とその同僚たちは、今世紀の最初の10年間で300万人以上の子どもたちの医療記録をすべて精査した。彼らは、ワクチンの有害な副作用に対して、女児のほうが男児よりも敏感である傾向を突き止めた。

「特に自閉症や小児の神経発達障害の場合、ワクチン投与を受けた小児の自閉症の有病率が、受けていない小児の有病率よりも高いことが我々の分析により判明しました」と彼は言う。

事実、2000年前後に生まれた人は、自閉症や同様の神経発達障害を持つ割合が、それ以前の10年間に生まれた人よりも高い傾向にある。

「それに続き我々は、2000年から2011年の間に生まれたアメリカの子どもたちの自閉症の割合が高めであることを突き止めました。またその割合は、女児によって高められています」とColvinは話す。

関連記事:トランプはフロリダ州選出Bobby Scott議員のワクチン法を支持

Colvin博士は、今回の発見は両親にワクチンの恐ろしさを伝えることが目的ではないと指摘している。

「人を怖がらせるつもりはありません。ただ、リスクがあることをご両親に知ってもらいたいだけです。これは現前たる事実であり、つまり、他の研究でも一致する内容です。しかし、命に危険があるという類の問題ではないことを言っておきます」とColvin博士は言う。

彼は、自閉症には不明の原因があることも指摘している。それだけに、疑わしい人、心配な人は医師に相談するよう進言している。

国立衛生研究所は、現時点で自閉症のためのワクチンはないと話している。Colvin博士は、不確かであるがゆえに誤解が生じ、ワクチンの摂取量が減っていると言っている。

最後は、混乱させてみたらどうなるかを知りたくて作った記事だ。

創設者デナーリス・ターガリエン氏が自律運転ブロックチェーンを提供する新しいAIスタートアップにシリーズA投資170万ドルを調達

2019年5月29日 – Kenneth Turan techcrunch.com

「ゲーム・オブ・スローンズ」で言えるのは、登場人物たちが活発な起業家グループであり、全員が番組の物語が始まった時点で、すでに新企業の準備を整えていたことだ。このドラマの作者であるDavid Benioff氏とD.B.Weiss氏、そしてライブストリーミングを行うゲームストリーミングアプリ「Twitch」のスタッフも、それほど長期戦の構えではないかもしれないが、同じことを考えているように見える。

実に良い行いだ。第一に、ラニスター家は「手」を手に入れた。エグゼクティブプロデューサーとしてHaylie Duff氏を迎え入れたのだ。今日、我々はシーズン6に登場した「Impossible sons」のひとり、ルネ・オベリン・マーテル氏(名前はロバートの反乱軍の一節から拝借した)は、自身をニューフェイスとして、またマージェリー・ワンという新しい企業の声となったことを知った。

マージェリーは分散型データマシンだ。実に彼女は、自称ネットワークの取締役会のキャプテンとして活躍し、主導権を握っている。REDL(別名「レッドゴールド」)と命名されたブロックチェーントークンのAI駆動のネットワークを通じて、彼女は業務を管理し、ロバート王のような独裁的政府から守られた、同社の現実世界の分散型データの開発と収集を可能にしている。

これはクールで洒落たコンセプトだ。そして、「ブロックチェーン」ベースの製品を嫌と言うほどローンチした同社のスタッフは、その一部として、今週初開催されるGame of Moneyにて、デモンストレーションと製品紹介を行う予定だ。これを書いている時点で、同社は270万REDL(ビットコインの形式からなるトークン)を達成した。これは160万ドル以上の価値に相当する。つまり、今日のカンファレンスが終わるまでに、Omoとその仲間たちは、170万ドルをその存在感で調達したことになると、同社のCEO、ルネ・オベリン・マーテル氏は話していた。

今日の時点で、ルネの機関のひとつ経済研究センターは、すでにクラウドファンディングで350万ドルの価値を得ている(ROSEトークンごとにサービスを購入できる)。

現実世界の事業面では、マーテル氏がGlitrex Logisticsを設立した。これは、エンジニアのJon Anderson氏と、同社のCOO、Lucas Pirkis氏との共同創設だ。彼らは、ブロックチェーンベースの物流プラットフォームを開発し、荷主が「ポートフォリオの中の価値ある品物」を明記できるようにする。さらに、品物の価格とともに、特定品質の品物や、食品や医薬品といった非従来型の品物の情報を得ることができる。

同社は、ROSEトークンをどう使うのか?当面の目標は、配送、市場への品物の投入方法を含む、影響力が及ぶ範囲の解体だ。そして、自己改善と成長のためのコミュニティを構築する。

これは、NBC Entertainment会長であるNeal Baer氏の未来の流通に関する意見を反映したものだ。最近のブログ記事で、彼は、モノのインターネットと人工知能が統合されて「従来型のメディアと娯楽コンテンツの収益力」の喪失後の新しい経済システムを創造すると書いている。そして、次なるイノベーションと流通は「モノのイターネットによるパワー」で推進されると業界のリーダーたちに説いている。

もしそうなら、そこには未来の娯楽の気配が感じられる。単に新たな収入源であるだけではなく、能力の王国であり、アルゴリズムベースのアルゴリズムの衝撃とは一線を画するものだ。娯楽とファッションは別物だという人もいるが、結果は、登場人物が作家の才能ではなく役者の才能に基づいて発生する出来事に応じて台頭する複雑な世界になり得る。

上でも述べたが、みなさんもGroverでフェイク記事を作成できる

[原文へ]

(翻訳:金井哲夫)

Y Combinator社長からAI研究組織CEOに転身したサム・アルトマンの挑戦

今年の初め、起業家で投資家のサム・アルトマン(Sam Altman)氏は、Y Combinatorの社長という注目される役職を離れOpenAIのCEOとなった。OpenAIは2015年の末にハイテク業界の最も著名な人たちによって設立されたAI研究組織である。この組織が目指すのは、創業者の1人であるイーロン・マスク(Elon Musk)氏がニューヨークタイムズへ回答したように、人工知能が「安全な方法で開発され、人類にとって有益なものであること」を確実にすることだ。

この動きは多くの意味で興味深いものである、なにしろ汎用人工知能(あるいは機械が人間に並べるくらい賢くなる能力)はまだ存在しておらず、AIのトップ研究者たちでさえ、それがいつになるのかについてはっきりとはとても言えないのだから。アルトマン氏のリーダーシップのもとで、もともとは非営利組織だったOpenAIは、「これからの数年のうちに大規模クラウドコンピューティング、才能ある人材の確保、そしてAIスーパーコンピューターの開発に対して数十億ドル規模の投資をする必要がある」というコメントを発しつつ、利益を目指す企業として組織変更を行った。

OpenAIが、それほどまでに多額の資金を集めることができるかどうかはまだわからないが、私たちはもしそれが実現されるとしたら、アルトマン氏自身の力によるものだろうと予想している。5月16日夜にステージ上で行われた、YCの進化からOpenAIでのアルトマン氏の現在の仕事までを網羅した拡大インタビューは、観衆をあっという間に魅了する力があった。

例えばYCでは、リーンネスと「ラーメン代がまかなえる利益率」が、一般的なアクセラレータープログラムの卒業生たちが目指すゴールだった時代もあったことを語り合った。しかし最近のゴールはすぐにでも数百万ドル、あるいは数千万ドルをベンチャーファンドから調達することになっているように思える。

「もし私が市場をコントロールすることができるなら、明らかに自由市場は勝手に進んで行きますが、私はYC企業たちには調達しようとしている金額や評価額を上げさせないでしょう」とアルトマン氏はこの小さな業界向けイベントの中で聴衆に語りかけた。「一般的に、それはスタートアップにとって良くないことだと思っているのです」。

アルトマン氏はまた、個人的だったり時に陳腐だったりする質問を投げかけられても率直に答えていた。さらには、このイベントのためにたまたま街にいた母親との、長期にわたる親密な関係についての話まで提供してくれた。彼は、彼女が「絶対に」信頼しているほんのひと握りの人々の一人だと語っただけでなく、その小さな輪の外の人々からの率直なフィードバックを得ることが、時間とともに難しくなっていることを認めた。「キャリアのある時点になると、人びとがあなたの気分を害したくないと思ったり、あなたが聞きたくないような話をしたくないと思ったりするようになります。もちろんこの時点で私が手にしているものは、フィルターがかけられ事前に計画されたものであることを、私ははっきりと意識しています」。

確かに、アルトマン氏は、多くの人たちよりは動き回れる範囲が大きい。このことはアルトマンがY Combinatorを5年にわたって運営したやり方(基本的に何度も規模を拡大した)から明らかなだけではなく、OpenAIについての彼の議論の仕方からも、彼の現在の思考が一層大胆なものであることは明白である。確かに、木曜日の夜にアルトマン氏が語ったことは、もし他の誰かが語ったならば、単なるたわごととみなされるようなものが多かった。アルトマン氏が語ることで、聞く者が驚かされることになるのだ。

例えば、OpenAIがどのように収益を上げることを計画しているのか(私たちは、成果の一部にライセンスを設定するのかを知りたいと思っていた)という質問に、アルトマン氏は「正直な答は『まだ何もない』ということです。私たちはいかなる収益も上げたことがありませんし、現段階では収益を上げる計画もありません。一体どうすれば、いつの日か収益を上げられるようになるのかがわからないのです」と答えている。

アルトマン氏は続けて、次のように述べた「私たちは投資家の皆さんに『もし汎用人工知能を開発できたら、それに対して投資家の皆さんにリターンを行う方法を考えて欲しいと依頼するつもりです』という、厳しくない約束をしているのです」。聴衆が爆笑したときに(なにしろ彼が真剣なのだとは思えなかったのだ)、アルトマン氏はこれはまるでドラマの「シリコンバレー」のエピソードのように聞こえるかもしれないと言いつつも「もちろん笑っていいんですよ。全然構いません。でも、それは本当に私が信じていることなのです」と付け加えた。

またアルトマン氏のリーダーシップの下で、OpenAIは投資家に最大100倍の利益を還元してから余剰利益を他に分配する、「上限利益」(capped profit)企業となったが、それは何を意味するのかという質問も行われた。私たちはその100倍という数字がとても高い目標であることに注目している。なにしろ旧来の営利企業に投資する投資家たちが、100倍近いリターンを得ることなどは滅多にないからだ。例えば、WhatsAppに対する唯一の機関投資家であるSequoia Capitalは、Facebookに220億ドルで売却したときに、同社が投資していた6000万ドルの50倍のリターンを得たと報じられた。素晴らしいリターンだ。

しかしアルトマン氏は、「上限利益」が、ちょっとしたマーケティング上の工夫であるという意見に反論し、なぜこれが理にかなっているのかについて改めて強調した。より具体的に言えば、彼は汎用人工知能がもたらす機会はとてつもなく巨大であり、もしOpenAIがなんとかこの扉をこじ開けられたとするならば、おそらく「光円錐内の宇宙の、すべての未来の価値を取り込むことができてしまいます。そうなったときに、特定の投資家のグループだけがその価値を独占することは正しいことではありません」と語った(光円錐というのは相対論の中に出てくる用語だがここでは「未来の人類に手の届く全宇宙」といった程度の意味)。

彼はまた、将来の投資家たちは、投資に対するリターンがさらに低く抑えられることになると語った。これは基本的に、リスクをとってくれた初期の投資家たちに、OpenAIが報いたいと思っているからだ。

インタビューを終える前に、私たちはアルトマン氏に対して、AI研究者たちによるさまざまな批判を投げかけてみた。これらの批判は今回のインタビューに先立って行われたもので、特にOpenAIは定性的なものへ注力しており、既に証明された成果の中での根本的な飛躍を目指しているものではないというもの、そしてその「安全」な汎用人工知能を発見するという使命は、不必要に警戒心を煽り、研究者たちの仕事をより難しくしてしまうというものだ。

アルトマン氏はそれぞれの点に対して熱心に回答した。彼はそれらの意見をまったく否定することはしなかった。例えば、OpenAIに対する最も人騒がせな意見に関しても「その中には共感できる部分もあります」と述べた。

それでもアルトマン氏は、たとえ不毛と思う人がいたとしても、人工知能の潜在的な社会的影響について考え、そしてメディアと話し合うために、よりよい議論がなされるべきだと主張した。「OpenAIは恐怖を煽って商売につなげていると言って批判している同じ人が、一方では『Facebookはこれをやらかす前に考えておくべきだったんじゃないか?』と言っています。何かをやってしまう前に、私たちも考えたいと思っているのです」。

インタビュー全体は以下から見ることができる。会話の前半は、主に(現在も会長を務める)YCでのアルトマン氏の経歴に集中している。OpenAIに関する詳細な話は26分付近から始まっている。

画像クレジット: Sara Kerr / StrictlyVC

[原文へ]

(翻訳:sako)

バッハからジャズまで、オリジナル曲を瞬時に作るMuseNet

これまでに、ケイティ・ペリーによる、モーツァルトスタイルのピアノとハープの協奏曲を聞きたいと思ったことはあるだろうか?試してみても良いはずだ。なぜなら、今やOpenAIの最新の成果であるMuseNetを使えば、それが可能になったからだ。幸いなことに今回の成果物は破滅的な可能性は秘めていない。

この機械学習モデルは、アーティストの知識に基づき、数小節を与えられることで、これまでになかった音楽を生み出すことができる。

これまでこうした例がなかったわけではない。コンピューターによって生成される音楽はすでに何十年前から存在している。しかしOpenAIのアプローチは柔軟性があってスケーラブルなもののように思える。様々なジャンルやアーティストの情報に基いた音楽を生成し、それらを自由な音のスタイルで組み合わせるのだ。このモデルは多くのDNAを、「公開するには危険すぎる」言語モデルGPTと共有しているが、無限に音楽を世界に流し続けることの脅威は、自動生成されたものと判定できないコンピューター生成テキストが流されることに比べれば、小さいように思える。

関連記事:OpenAIは非常に優れたテキストジェネレータを開発したが、そのままリリースするのは危険すぎると考えている

MuseNetは数十人のアーティストたちの作品によって訓練を受けている。使われたアーティストは、ショパンやバッハから(比較的)モダンなアーティストであるアデルやビートルズまで、そしてアフリカ、アラビア、そしてインドの作品も含まれている。その複雑な機械学習システムは「アテンション」に多くの労力を使っている。これはAIにおける専門用語で、基本的には、創作の次のステップに対してモデルが使うコンテキストの量を意味している。

たとえば、モーツァルトの作品を見てみよう。もしモデルが一度に数秒分しか学習しないとしたら、強弱に満ち、音調や楽器が切り替わって行くような、交響曲のより大きな音楽の構造を学習することはできないだろう。しかし、今回使われているモデルには、音を約4分間保持できるくらい十分な仮想脳空間が与えられている。これはゆっくりとしたスタートから壮大なフィニッシュまでや、基本的なヴァース・コーラス・ヴァース形式を取り込むのに十分な長さだ。

ハイドンがシャナイアに直接影響を及ぼしていないって?現実を見よう

まあもちろん理論的にはということだが。モデルは実際には音楽理論を理解してはいない。理解しているのは、この音があの音に続いていて、そのあとにはこの音が続き、そしてこんな種類のコードが続く傾向がある、というものだけだ。その作品は構造的には初歩的なものだが、取り込まれた楽曲が非常によく模倣されていることは、聞いたときに明らかにわかる。

印象的なのは、1つのモデルが、非常に多くの種類の音楽にわたって確実にこれを行うということだ。数週間前のBachの誕生日に公開された素晴らしいGoogle Doodleのように、特定のアーティストやジャンルに焦点を当てたAIは、これまでも作成されてきた。そしてまた別の比較のために、Generative.fmも挙げておきたい。これは私が仕事している際に聞きたい静かな環境音楽を生成してくれる(もし読者がこれを気に入ったなら、私のお気に入りの1つのレーベルであるSereinもチェックしてほしい)。しかし、これらのモデルはどちらも非常に厳しい制約を抱えている。一方MuseNetにはそうした制約はあまりない。

ブルーグラスやバロック様式のピアノ曲を無限に作り出すことに加えて、MuseNetは両方の特徴を組み合わせるために、スタイル転送プロセスを適用することができる。作品のさまざまな部分がさまざまな属性を持つことができる。絵を描く際に、構成、主題、色の選択およびブラシスタイルなどを選ぶようなものだ。ラファエル前派の主題と構成を、印象派の技法で描くことを想像してほしい。なんだか楽しそうじゃないか?AIモデルは、こうした異なる側面を分類していくことが得意なので、そういう生成作業はお手のものなのだ。音楽の場合でもそのパターンは変わらない。ポップソングの音階やリズム、その他のパターンを抽出し、その楽器編成とは別に利用することができる。ハープを使ってビーチ・ボーイズのハーモニーを楽しんでもいいはずだ。

とはいえ、アデレのような雰囲気のものを、彼女の特徴的な声なしに生み出すのは少し難しい。そしてチームが選択した比較的基本的な合成手法は全体的に効果を安っぽくしている。そして、チームがTwitch上で提供した「ライブコンサート」を聴いても、MuseNetが次のヒットを量産してくれるとは、私には思えなかった。だがその一方で、特に少々の調子外れが許容される、ジャズやクラシックの即興演奏では、素晴らしい進歩を着実に挙げている。

これは何のために使われるものだろう?そうした疑問はもっともだ。この分野はまったく新しいものである。MuseNetのプロジェクトリーダーであるクリスティーヌ・ペイン(Christine Payne)氏は、このモデルに満足していて、それを利用する人も既に見つけている。

クラッシック音楽の訓練を受けたピアニストとして、私はMuseNetがベートーベンやショパンの複雑な和声構造を理解できることに、とても興奮しています。私は現在、MuseNetを彼自身の作曲作業に統合することを計画している、ある作曲家と協力しています、人間とAIの共同作曲の未来が、私たちを連れて行く場所を目にすることにワクワクしています。

OpenAIの代表者の1人は、モデルが自分の作品をどのように解釈したり模倣するのかを知りたいと思っている現代の作曲家たちの作品を、チームが統合する作業も始まったと述べた。

MuseNetは5月中旬までプレイできるようになっている予定で、その後一度オフラインになり、ユーザーからのフィードバックに基づいて調整される。その後程なく(数週間だと思われるが)、少なくとも部分的にはオープンソースとなる予定だ。おそらく人気のある組み合わせや、人々がずっと耳を傾けている組み合わせが、調整によってもう少し重みを与えられることになるのだろうと想像している。彼らがMIDIの再生にもう少し表現力を追加してくれることを願っている。しばしば曲がロボットによって演奏されているように感じられるからだ。しかし、しばしばそのサウンドがとても素晴らしく聞こえることは、OpenAIの仕事の質の高さを証明している。

[原文へ]

(翻訳:sako)

Y CombinatorのSam Altman社長が会長へ、後継者の計画はなし

シリコンバレーの多産なアクセラレーターY Combinatorの、著名な社長Sam Altman氏(写真中央)が社長を退いたことを、同社が米国時間3月8日に公開したブログ記事が共有している。

Altman氏は会長職へ移行し、YCの他のパートナーたちが昇格して彼の日常業務を引き受けるとAxiosが報じている。情報筋によると、Altman氏の後継者を立てるは予定はない。YCの中核的な事業は目下、CEOのMichael Seibel氏が率いている。彼は2013年に非常勤のパートナーとしてYCに加わり、20016年にトップの座に着いた。

このニュースが流れた今同社は、一連の変革の真っ最中だ。しかももうすぐ、3月18日と19日にはサンフランシスコで、200あまりの企業から成る最新のバッチのデモが行われる。上述のブログ記事でYCは、本誌TechCrunchが今週初めに報じた本社のサンフランシスコ移転の件をはじめ、変化の一部について詳説している。

それによると、「YCをその都市〔サンフランシスコ〕へ移すことを検討しており、目下スペースを探している。最近の5年間で新しいスタートアップたちの重心が明らかに変わり、マウンテンビューのスペースに愛着はあるものの、そこに固執するロジスティクス上のトレードオフにそれだけの価値があるかを再考している。とりわけ、バレーは社員の通勤が難しい。また、ベイエリアの同窓生たちに近い場所にいたいのだが、その圧倒的多くがサンフランシスコで生活し仕事をしている」。

本社を北へ移すだけでなく、最近のYCは参加者が大幅に増えているので、次のデモデーではステージを2つ使う。そして、ポートフォリオ企業への初期投資の額も増やす

Altman氏は2011年にパートナーとしてYCに加わり、2014年に社長に指名された。今後の彼は、調査研究企業OpenAIの共同会長職など、他の努力に傾注する。AltmanはYCの共同ファウンダーPaul Graham氏を継ぐ、同社2代目の社長だった。Graham氏は今、YCのアドバイザーだ。

関連記事: The Silicon Valley exodus continues主要VCの脱シリコンバレー傾向(未訳)

[原文へ]

(翻訳:iwatani、a.k.a. hiwa

Microsoft、AI開発でイーロン・マスク、ピーター・ティールらが後援するOpenAIと提携

3D render of a robot trying to solve a wooden cube puzzle

OpenAIは 人工知能研究のための非営利会社で、Teslaのイーロン・マスク、Y Combinator のサム・アルトマン、ドナルド・トランプのファンとしても知られるピーター・ティールを始めとしてテクノロジー界の大企業、著名人がスポンサーとして加わっている。今日(米国時間11/15)、この急成長中のテクノロジーに力を入れ始めたMicrosoftがOpenAIに加わったことが発表された

OpenAIはまたMicrosoft Azureを推薦するクラウド・プラットフォームと決定した。その理由の一部は Open AIの既存の人口知能システムがAzure BatchとAzure Machine Learningを利用していることが挙げられる。また人工知能に関してCognitive Toolkitという新しい機械学習のブランドを立ち上げたMicrosoftの動きも一因だ。

Microsoftは強力なGPUベースのバーチャル・マシンに対してデベロッパーにアクセスを提供するとしている。膨大な計算処理の実行が必要な機械学習学習のデベロッパーには朗報だ。MicrosoftのNシリーズのマシンはまだベータ版だが、OpenAIは最初期からのベータ・テスターだった。MicrosoftによればNシリーズの一般公開は12月になるという。

Amazonはすでにこの種のGPUベースのバーチャル・マシンを提供している。奇妙なことに、Googleはこの動きに取り残されている。すくなくとも現在はそのようなサービスを公開していない。

「この提携により、MicrosoftとOpenAIはAIの民主化という共通の目標に向かって力を合わせていく。誰もが利益を受けることになるだろう」とMicrosoftの広報担当者は私に語った。また提携の内容に関して、「「Microsoft Researchの研究者はOpenAIの研究者と共同でAIを前進させる努力をする。OpenAIはMicrosoft AzureとMicrosoftの Nシリーズ・マシンを研究、開発に利用していく。またMicrosoftのCognitive Toolkitのようなツール類も利用するはずだ」と述べた。Microsoftはこの提携に財政面があるのかどうかについてはコメントを避けた。

OpenAIとの提携の他にMicrosoftは今日、Azure Bot Serviceのスタートも発表した。このサービスを利用するとデベロッパーは非常に容易、かつ低価格でボットをAzure上で稼働させることができる。新サービスはいわゆる「サーバーレス・アーキテクチャー」のAzure FunctionsとMicrosoft とBot Frameworkの上で作動する。Azure Functionsは従量制で、ホストされたボットが実際に稼働した分の料金だけを支払えばよい。

画像: mennovandijk/Getty Images

[原文へ]

(翻訳:滑川海彦@Facebook Google+

未来の高度な人工知能技術の私蔵化を防ぐ非営利団体OpenAIがそうそうたる創立メンバーでスタート

artificial-intelligence-503592_1920

今日(米国時間12/11)、非営利の人工知能研究団体OpenAIの創立が発表された。そのトップは、Googleの研究員Ilya Sutskeverだ。前日には、Facebookが同社のAIハードウェアをオープンソース化した。

その存在理由は、こう説明されている:

目標はデジタルインテリジェンスの高度化をできるかぎり人類全体の利益に資する形で推進すること。それが、経済的(financial)な利益目的に制約されないことだ。

グローバルな支払い決済サービスStripeのCTOだったGreg Brockmanが、OpenAIのCTOになる。このほか多くの著名人が名を連ねており、中でもY CombinatorのSam Altmanと
Tesla/SpaceXのElon Muskが共同で理事長になる:

この団体の創立メンバーは、世界のトップクラスのリサーチエンジニアとサイエンティストである: Trevor Blackwell, Vicki Cheung, Andrej Karpathy, Durk Kingma, John Schulman, Pamela Vagata, そしてWojciech Zaremba。Pieter Abbeel, Yoshua Bengio, Alan Kay, Sergey Levine, およびVishal Sikkaはアドバイザーとなる。OpenAIの共同理事長は、Sam AltmanとElon Muskだ。

資金提供者は、Altman, Brockman, Musk, Jessica Livingston, Peter Theil, Amazon Web Services, Infosysおよび YC Researchで、寄付額の合計は10億ドルだ。Muskが公共的なAI研究に出資するのは、AIがSkynetになってしまうのを防ぐため、といわれる。OpenAIへの出資や理事長就任も、そのねらいの延長だろう。

[原文へ]。
(翻訳:iwatani(a.k.a. hiwa)。