Google、Assistantの声にジョン・レジェンドを追加

AlexaとSiriの最近のアップデートに負けじと、今日(米国時間5/8)Googleは、Assistantプラットフォームに6種類の声を追加すると発表した。

同社は今日のI/Oカンファレンスで、もっと「人間の話し方に近い」自然なAI音声を開発中であることを発表した。一時停止を自然にするなどの細かい改善によって、Assistantと「より自然な会話」ができるようになるという

新バージョンのAssistantには男性女性両方の声が実装され、Wavenetという同社が1年半前から取り組んできた機械学習技術に基づいて作られている。Googleは、世界中の方言に対応するさらにカスタマイズされたバージョンを開発している

その一方で、Microsoftはちょっとしたビッグネームをスタジオに迎えて音声のパーソナリティーを付加する。はじめにミュージシャンのジョン・レジェンドが今年中にAssitantに加わり、AlexaのスーパーボウルCMを現実に変えつつある。Alexa、君の番だ。

[原文へ]

(翻訳:Nob Takahashi / facebook

死亡事故を起こしたUberの自動運転車は被害者を見たけど無視したらしい

Uberの自動運転車による死亡事故の原因は、ソフトウェアにあったようだ。それは具体的には、どのオブジェクトを無視しどれに対応するかを判断するファンクションだ、とThe Information誌が報じている。これで、責任はUberの玄関の真ん前に置かれることになるが、そもそも最初から、それ以外と考えられる余地はあまりなかった。

どの自動運転車でも、その視覚系とバックアップは多重化されているから、どれか一つのエラーが、ライダーと前面カメラの直前で道路を横切ろうとしたElaine Herzberg〔被害者〕の感知を妨げたことはありえないと思われる。それなのに車は、ブレーキに触れることも、警報を鳴らすこともしなかった。同乗していたセーフティドライバーの不注意も相まって、このエラーはHerzbergの死に結果した。

関連記事: Uberの自動運転車はこのようにして歩行者を検出するようだ(未訳)

だから、ありうる可能性は以下の二つしかない:

  • A:オブジェクト認識システムの欠陥。それが、Herzbergと彼女の自転車を歩行者と認識することに失敗した。自転車や人間はそのシステムがもっとも有能に識別できるべきものに属しているはずだから、これはありえないと思われる。
  • B: 車の上位ロジックの欠陥。それは、どのオブジェクトに注意を払い、それらに関して何をするかを決める。たとえば路肩に自転車が駐輪していたら、徐行する必要はない。しかし車の前面のレーンに自転車が入り込んできたら、車は直ちに反応するべきだ。これ〔このロジック〕は人間の注意力と意思決定を模倣して、車が新しいオブジェクトを検出したときうろたえないようにする。

The Informationが引用している情報筋は、UberはBが問題であったと判定した、と言っている。具体的には、そのシステムは、対応すべきだったオブジェクトを無視するようセットアップされていた。すなわちHerzbergは検出されたが、擬陽性と見なされたようだ。

それは、まずい。

自動運転車の感覚能力は人間を超えている。漆黒の闇の中でもライダーの視程は数百フィートにも及ぶ。オブジェクト認識系は一度に数十の車や歩行者の動きを追える。レーダーやそのほかのシステムは自分のまわりの道路をまばたきひとつせず監視する。

しかしわれわれ人間と同じく、これらの感覚はすべて、“脳”に従属する。中央処理装置がカメラやセンサーからの情報を取り込み、それらを組み合わせて自分のまわりの世界の意味ある像を作る。そしてその像に基づく決定をリアルタイムで行う。Uberの例が示すように、自動運転車の中で製作がずば抜けて難しいのが、この部分だ。

あなたの目がどれだけ優秀でも、あなたの脳に何を見ているのか分らなかったり、正しい反応や応答の仕方が分らなかったら、何の意味もない。

Update: Uberは次のような声明を発表したが、上記の諸点には言及していない:

われわれは国家運輸安全委員会の調査に積極的に協力している。その調査活動への配慮と両者間の信頼関係に基づき、事故の詳細には言及できない。その一方でわれわれは、弊社の自動運転車事業の安全性に対する徹底的な調査を開始し、国家運輸安全委員会前委員長Christopher Hartを、安全性に関する弊社の企業文化に対する、アドバイザーとして招聘した。われわれの調査は、システムの安全性から車両オペレーターの教育訓練に至るまでのすべての領域をカバーし、近く結果を発表できるものと期待している。

これは前例のない状況なので、国家運輸安全委員会等からのレポートも作成が困難で、発表も遅くなるだろう。公式の発表の前に多くの情報の開示をしないことは、企業の場合も個人の場合も異例ではない。

〔訳注: 原文のコメントには専門家からの見解もあります。〕
[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Kubernetesのための機械学習ツールKubeflowが発表から4か月で最初のバージョンをリリース

Googleが作ったオープンソースのコンテナオーケストレーションツールKubernetesは、おそらく同社が想像しなかったほど華々しく成長した。そしてその人気が増すとともに、多くの関連プログラムが生まれてきた。今日(米国時間5/4)はGoogleが、オープンソースのツールKubeflowのバージョン0.1のリリースを発表した。これは、Kubernetesのコンテナに機械学習をさせるためのツールだ。

Googleはかなり前にKubernetesをCloud Native Computing Foundationへ移したが、積極的な関与は継続し、今回のKubeflowもそのひとつだ。このプロジェクトは昨年末オースチンで行われたKubeconで発表されたばかりだが、早くもかなりの勢いがついている。

GoogleでKubeflowを運用しているDavid Aronchickは、その前の2年半、Kubernetesのチームを率いた。その彼の言うKubeflowの基本的な考え方とは、データサイエンティストたちが、Kubernetesのクラスターの上で機械学習のジョブを動かせるアドバンテージを享受できることだ。Kubeflowを使って機械学習のチームは、既存のジョブを簡単にクラスターに付けられる。

今日の発表でプロジェクトは前進を開始し、その節目を報告するブログ記事は、安定性のアップと、コミュニティの要望に応じて実装した多くの新機能を強調している。新機能には、機械学習のジョブをコラボレーションと対話により訓練するJupyter Hubや、Tensorflowの訓練とホスティングなどが含まれる。

Aronchickが強調するのは、このプロジェクトがオープンソースなので、いろんなツールを使えるということ。最初のバージョンがGoogleの機械学習ツールばかりサポートしていても、 Tensorflowに縛られることはない。今後のバージョンでは、そのほかのツールのサポートも期待できる。

最初の発表からわずか4か月あまりでコミュニティは急速に成長し、70名を超えるコントリビューターと20社あまりのコントリビューター企業がいて、15のレポジトリーに700以上のコミットが行われた。次のバージョン0.2は、夏になる。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Waymoのバンがアリゾナで大きな衝突事故に遭う、違反車ではなかったが

Waymo(元Googleの自動運転部門)の自動運転車が今日(米国時間5/4)の午後、アリゾナ州チャンドラーで大きな事故に遭った。地元警察によると、セダンが別の衝突を避けようとして正規のレーンを逸れたときにWaymoのバンにぶつかった、損害は軽微、とABC 15が報じている。今、チャンドラーの警察に詳細を問い合わせている。

アリゾナでセーフティドライバーのいない車をテストしている、とWaymoは言っていたが、これは違う。衝突のとき人間運転者が運転席にいたが、しかし車は自動運転モードだった、と警察は言っている。

上空からのビデオを見ると、これは軽い接触事故ではない。セダンの前方クランプルゾーン(衝撃吸収帯)は壊れ、ガラスは割れている。バンに大きな破損はないが、右前のタイヤはつぶれている。どちらもその後、牽引移動された。

報道では、東に向かっていたセダンが交差点で別の車を避けようとして西行きのレーンに侵入し、Waymoのバンに当たった。そのとき後者が衝突を避けようとして何をしたかは、まだ分かっていないが、同社の記録から明らかになるはずだ。今同社に問い合わせているので、情報が得られ次第この記事をアップデートしたい。

画像クレジット: ABC 15

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

ロボットサッカーの現状はこんな具合

基本的にスポーツは苦手だ。だから、というわけでもないのだが、ロボットがサッカーをプレイする未来を待望していたりする。というわけで、SPL(Standard Platform League)のGerman Openファイナルをご案内したい。対戦しているのはNao-Team HTWKとNao Devilsだ。人間がプレイする必要のないスポーツというのは、私のような人間にとっては「輝かしい未来」に思えるのだがどうだろうか。

プレイしているのは、ソフトバンクがStandard Platformリーグ用に開発したNaoだ。Naoはフィールドを走り回り(人間が走るのとは様子が違うけれど)、豪快なシュートを放ち(これも人間のシュートとはちょっと違う)、倒れたときにはもちろん自分で立ち上がってプレイに復帰する。試合の様子は見慣れたサッカーとは異なるものかもしれない。しかしシュートを決めようとボールを追いかけるロボットにはつい胸が熱くなってしまう。

人が手を(足を)煩わせることなく、サッカーが楽しめるというのは素晴らしいことだと思う。

原文へ

(翻訳:Maeda, H

機械学習研究者2000人が、Natureの新しい有料論文誌への投稿を拒否

世界一流の科学論文誌であるNatureは、Machine Intelligence(機械知能)の出版物を発行する計画を発表したが、研究者らは喜んでいない。この分野はオープン・アクセスの論文誌がうまく回っている ーー 何十年もの間誰もが避けようとしてきた有料アクセスモデルに今更かきまわされたくない。2000人以上の研究者が、投稿しないと宣言する書類に署名した。

今、学術出版業界は騒動の渦中にある。オープンアクセスの学術誌とその支持者たちは、Science、Natureといった名だたる守旧派や、Elsevier、Springerなどの有料サイトと戦っている。一方でSci-Hubなどのサイトは、有料雑誌のデータを解放するサービスを(もちろん違法に)提供し、今やなくてはならない存在となっている。

以下の声明文は、オレゴン州立大学名誉教授で、International Machine Learning Society(国際機械学習協会)の創立者・代表であるTom Dietterichから送られてきた。

「機械学習分野は無料でアクセス自由な研究環境の先端を走ってきた。将来の機械学習にとってクローズドなアクセスや著者手数料のかかる出版物の出番はない。この新しい雑誌を機械学習コミュニティーの記録保管場所として認めることは、後戻りだと私は信じている」

声明は同コミュニティーが過去にも有料論文誌に反対したことや、現在の主要論文誌が対価を請求していないという事実を挙げた。「以下のリストに載っている研究者は、この新しい雑誌に、投稿も査読も編集もしないことを宣言する」

現在世界中から2300件近い署名が集まっている。学生、教授、研究員、建築家、技術者らの名前が満載だ。Google、Intel,Amazon、Microsoft、IBMなど世界有数企業を代表する人たちの名前もある。

機械学習が本質的に有料アクセスと相容れないわけではない、とDiettrichがメールで言った。むしろ、注目されるようになったのがごく最近だったために、無料でオープンアクセスの雑誌が初めからより良い選択肢だったと言うべきだろう。

「われわれの研究コミュニティーは幸いにも無料かつオープンアクセスの学術出版への期待を確立することができたが、他の多くの科学、数学の分野も同じ方向に進んでいる」と彼は書いた。

Natureがこのようなやり方で関心を示したことはこの分野が有望であることを意味しているのかと尋ねたところ、「これはNature Publishing Grouptがこの比較的新しい研究分野が金になると信じしていることの兆候だ」と教授は答えた。

どうやら決意は広く支持されているようだ。「私の印象では、主要な大学や企業のほとんどから優秀な人たちが参加している」と彼は締めくくった。

それでもNatureは強い影響力を生かして論文を集めるかもしれないが、この分野のかなりの人数の研究者から無視されることになりそうだ。読者の中に賛同する人がいれば、リストに名前を追加されたい。

[原文へ]

(翻訳:Nob Takahashi / facebook

GoogleはGoogle Assistantのアプリケーション開発振興のためスタートアップを育てる投資育成事業を開始

Google Assistantのエコシステムをどうしても育てたいGoogleは、ついにそのために自腹を切ることになった。今日(米国時間5/2)の同社の発表によると、Assistantのアプリケーションを作る初期段階のスタートアップに、資金やそのほかのリソースを提供していく新しい事業をこれから立ち上げるようだ。

新製品に関してそのエコシステムを育てたい企業が、こんな事業を発表することはよくある。しかしGoogle Assistantの場合はすでにかなりの数のサービスが開発されているにもかかわらず、同社は“このクリエティビティをもっと鼓舞するために”、新しい事業を立ち上げるのだ、という。

Googleの、検索とGoogle Assistant担当VP Nick Foxも、こう言う: “Google Assistantでは、デベロッパーやデバイスのメーカーやコンテンツでのパートナーたちが新しいユーザー体験を作っていけるための、オープンなエコシステムの育成に力点を置きたい。Google Assistantに関してはすでにデベロッパーたちの多くのクリエティビティが見受けられるが、それをさらに促進するために、初期段階のスタートアップのための新たな投資事業を始める”。

投資だけでなくGoogleは、彼らスタートアップにメンターシップ(個人指導)や、技術者、プロダクトマネージャー、デザイナーなどからのアドバイスを提供する。そしてこの事業の対象になったスタートアップは新しい機能やツールにいち早くアクセスでき、またGoogle Cloud Platformとプロモーションの支援にもアクセスできる。これはまさに、アクセラレーターないしインキュベーターと呼びたいような事業だが、Googleはそう呼んでいない。

Foxによると、投資額に上限はない。“ふさわしいと思われる額を投資して、デジタルアシスタントのアプリケーション(ハードウェアもありうる)開発という、この新しい分野でスタートアップが成功できるように努めていく。しかも資金を提供するだけでなく、これらのスタートアップと積極的にパートナーして、彼らのプロダクトが市場で成功するよう、わが社の強みも生かしていく”。

この事業の対象となる最初のスタートアップGoMomentは、ホテルのためのコンシエルジュサービス、そしてEdwinは英語の個人教授、BotSocietyPulse Labsはデベロッパーツールだ。

これらのスタートアップは、Googleのねらいをよく表しているようだ。Foxによると、Googleが求めているスタートアップは、“旅行やゲームなど、Assistantをおもしろく活用できそうな特定業種をエンドユーザーとする”デベロッパーたちだ。Googleは一部のパートナーシップについてはその関わりをより深めると同時に、一方多くの場合は単純に、Assistantのような技術に関心のあるスタートアップを求めているのだ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Facebookのオープンソースの囲碁ボットはプロの棋士に勝つ

碁(囲碁)は機械学習の研究者の必須科目だ。GoogleのDeepMindはそのアルゴリズムを魅せつけて有名になり、そしてFacebookも最近、碁ボットを自分で作っていることを発表した。同社のデベロッパーカンファレンスF8で今日(米国時間5/2)行われたそのELF OpenGoボットの発表では、30名の人間棋士との計14試合に全勝し、プロの資格を獲得した、と宣言された。

FacebookのCTO Mike Schroepferはこう述べた: “DeepMindにいるお友だちの偉業には敬服するけど、でも、まだ答えられていない疑問があるのではないだろうか? これらのツールは、ほかにどんなことに利用できるのか?”。Facebookが今日のブログ記事で言っているのは、DeepMindのモデル本体は不透明な包装紙に包まれたままだ、ということ。対照的にFacebookは、そのボットをオープンソースにした

“これを再現可能にしてしかも世界中のAI研究者が利用できるようにするために、われわれはオープンソースの碁ボットを作り、ELF OpenGoと名付けた。これなら、DeepMindのAlphaGoが答えなかった重要な疑問にも十分、答えることができるだろう”、とチームは主張している。

チームが関心を持っているのは、碁だけではない。FacebookのAI研究グループは、StarCraftボットも作って、あのゲームの混沌とした世界にプレーヤーが対応できるようにした。これも、オープンソースにする予定だ。Facebookはまだ、訓練量が十分ならどんなゲームでも学習できるボットをローンチできるところまでは行ってないが、でもチームはそれに向かって相当前進していることは確かだ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

DeepCodeはAIの力でコードを洗う…未来のフロントエンドはプログラミングの自動化

チューリッヒのDeepCodeは — 基本的にはコードを分析して改良するためのツールだが — プログラマーのための文法チェッカー/文章改良ツールGrammarlyみたいだ。このシステムはユーザーのGitHub上のリポジトリを読み、25万のルールのコーパスを使って問題とその修復方法を教え、ただしそれによって互換性が壊れないように、そしてもっと良いプログラムになるようにする。

Veselin Raychevが創業し、アドバイザーとしてMartin VechevとBoris Paskalevが加わった同社のチームは、機械学習とAI研究の幅広い経験がある。このプロジェクトはスイスのチューリッヒ工科大学からスピンオフした独立の研究プロジェクトが、プログラミングのためのユーティリティになったものだ。

で、その実際の仕事ぶりはどうか? かなりよろしい。自分の公開リポジトリのひとつをこのシステムに通してみたが、449のファイルに対して49件の提案をもらった。その中には文字通りのコード書き換え — name: String,name: {type: String},に変える — もあるし、必要なファンクションコールがないようだ、という示唆もある。自分のコードに隠れているバグを見つけたいときには、なかなかおもしろいツールだ。このツールがくれるアドバイスは、驚くほど正確だ。それは、人間が見逃しがちな間違いのあるコードを大量に読んだ(学習した)結果作りだすリコメンデーションだからだ。

Paskalevは語る: “コードの意図を理解するプラットホームを作った。それは何百万ものリポジトリを自動的に理解し、デベロッパーがやろうとしている変更に注目する。そしてAIエンジンをそれらの変更で訓練し、プラットホームが分析するコードのすべての行に、ユニークな提案を提供する”。

“今は25万あまりのルールがあり、毎日増えている。競合システムはルールを手作業で作ってるから、最大のシステムでも、長年かけてやっと3000か4000のルールを作った程度だ”。

自己資本のみだった同社は最近、ドイツのbtov Partnersから110万ドルを調達した。ファウンダーたちはいずれも複数回の起業経験がある。PaskalevはVistaPrintとPPAGの創業に関わったし、Raychevは、プログラミング言語のセマンティクスの機械学習という分野の研究者だが、以前はGoogleで働いていた。

DeepCodeは単純なデバッガーではなく、コードを“読んで”それを他の実装と比較する。そしてそれにより、どの行も最高のパフォーマンスを発揮できるように、改良を示唆する。今チームは、多くのプログラマーがそれを使ってくれることを待っている。

“われわれのは、Grammarlyが書かれた言葉を理解するようにソフトウェアのコードを理解する、ユニークなプラットホームだ。その最初のサービスだけでも、ソフトウェア開発のコミュニティは数十億ドルを節約できるし、その次には業界をコードの完全な自動合成へと変身させるフロントエンドを提供できるだろう”、とPaskalevは述べている。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

音声認識とAIで会議のノートを取るVoiceraがモバイルの同業Wrappupを買収

Voiceraは、会議などで人間がノートを取ることを今後永遠に不要にしたいと考えている。同社のビジョンはAIによる音声認識システムが、ノートを取るだけでなく話者を認識し、会議の要点や行動案件を要約できることだ。今日(米国時間4/18)同社は、類似のスタートアップWrappupを買収したことを発表した。ここもAIによるノート取りアプリで、Voiceraのビジョンにぴったり符合している。

Wrappupのチームは直ちにVoiceraに加わる。買収価額などの条件は、公表されていない。

VoiceraのCEO Omar Tawakolも、声明文の中で、相性は良い、と見ている: “問題解決への両社のアプローチには、互いにシナジー効果がある。Wrappupはモバイルファーストで目の前の人が相手だから、会議電話が主体のVoiceraを補完する”。

Wrappupの長所は、モバイルのコンテキストでミーティングの重要箇所を見つけることだ。そのために同社は、新しいモバイルアプリのローンチを発表した。これら二つの企業の協働関係は前からあって、それがやっと今日、オフィシャルになったものと思われる。

写真提供: Voicera

WrappupのCEO Rami Salmanによると、Voiceraとの合体によって顧客にとってより魅力的で強力なソリューションが作られた、という。“両社の技術とAIのアルゴリズムが合わさると、ミーティングの重要箇所をより正確に見つけてまとめることができる。それが、どんな場所であっても”、と彼は声明で述べている。

Voiceraの音声認識ツールはEvaと呼ばれるクラウドサービスだ。それは、ミーティングのノートを取る作業を、人間から取り上げるために設計されている。同社は先月、e.ventures, Battery Ventures, GGV Capital, Greycroftなどの著名VCから、シリーズAで1350万ドルを調達した。同社はまた、GoogleのGVやMicrosoft Ventures, Salesforce Ventures, Workday Venturesなどエンタープライズ系のVCからも注目されており、ミーティングの痛点(ノート取り)に対する同社のソリューションが本物であることを伺わせる。

Wrappupは、2015年にドバイで創業された。これまで80万ドルを調達している。同社の製品は、CitrixのGoToMeeting, CiscoのWebEx, UberConference, Zoomなど既存のミーティングツールと併用できる。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

アプリケーションにチャット(会話)機能をつけるAPI、Dialogflow Enterprise EditionをGoogle Cloudが一般公開

会話ができるための入出力インタフェイスを作ることは、デベロッパーにとって新しい挑戦分野だ。チャットボットはWebサイトやアプリにおけるトラブルを減らし、会話ができるという構造の中では、企業はよく聞かれる質問に簡単迅速に答えることができる。そこで今日(米国時間4/17)Googleは、これまでベータだったDialogflow Enterprise Editionを一般公開した。

この技術は、2016年におけるAPI.AIの買収の成果だ。Googleは賢明にもツールの名前を変え、それが実際にすることにマッチした名前にした。同社によると、現在すでに、数十万のデベロッパーがこのツールを使って会話のためのインタフェイスを構築している。

これは必ずしもGoogleオンリーのツールではなく、Google AssistantやAmazon Alexa、Facebook Messengerなどの音声インタフェイスでも使えるから、デベロッパーが一度チャットアプリを作ったら、それらを、コードを大幅に変えなくてもさまざまなデバイスで使えるようになる。

さらに今日のリリースでは、機能を増やすとともに、エンタープライズエディションへの移行を容易にした。

GoogleのCloud AIのプロダクトマネージャーDan Aharonが、このツールを発表するブログ記事で、こう述べている: “今日からは、一つのAPI呼び出しで複数のAPI呼び出しが必要になるような、バッチ的な処理ができるようになり、コードの行数を減らして開発時間を短縮できる。Dialogflow API V2は今や、すべての新しいエージェントのデフォルトであり、Google Cloud Speech-to-Textを統合、APIからのエージェントの管理が可能になり、gRPCをサポート、そしてコードのマイグレーション不要でEnterprise Editionに容易に移行できる”。

同社は、Dialogflowを使って顧客のためのチャットインタフェイスを構築した企業の例として、KLM Royal Dutch AirlinesやDomino’s、Ticketmasterなどを挙げた。

この新しいツールは今日(米国時間4/17)から可利用になり、30以上の言語をサポートする。一般公開されたエンタープライズプロダクトには、サポートパッケージとサービスレベルアグリーメント(SLA)がつく。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Googleのセマンティック体験(Semantic Experiences)でAIと言葉遊びをしよう

Googleは自然言語の処理や合成で大量の研究開発をしているが、それらはアシスタント機能や音声認識/合成だけが目的ではない。その中には、AIの機能でできる範囲内での楽しいものもあり、そして今日(米国時間4/13)同社は、Webの閲覧者が言葉の連想システムで遊べる実験を発表した。

最初の実験は、膨大すぎて言及される機会も少ない本のデータベースGoogle Booksの、おもしろい検索方法だ。それは、言葉そのものでテキストやタイトルを探すのではなく、データベースに質問をする。たとえば、“なぜナポレオンは流刑になったのか?”(Why was Napoleon exiled?)とか、“意識の本質は何か?”(What is the nature of consciousness?)など。

すると、その質問の言葉と密接に結びついている文節が返される。結果はヒットもあれば空振りもあるが、でも良くできているし、柔軟性もある。ぼくの質問に答えるセンテンスは、必ずしもキーワードに直接関連していないし、とくにそれら〔物理的な言葉そのもの〕を探した結果でもない。

でも、それが人間と知識の内容が対話するとても分かりやすい方法か、というと、それは違うようだ。質問をするのは、答が欲しいからであり、質問と関係があったりなかったりするいろんな、互いに相反するような、引用を見たいのではない。だからぼくがこれを日常的に使うとは思えないけど、ここで使われているセマンティックエンジンの柔軟性を示す、おもしろいやり方ではある。しかもそれによって、今まで自分が知らなかった著作家に触れることができるが、ただし、データベースの収蔵書籍数は10万もあるから、当然、結果は玉石混交だ。

Googleが紹介している二つめの実験プロジェクトは、Semantrisというゲームだ。“なんとかトリス”というゲームは昔からどれも難しいが、これは超簡単だ。言葉のリストが表示されて、一つが高輝度になっている(下図)。それと関連があると思われる言葉〔連想した言葉〕をタイプすると、GoogleのAIが、関連性の強いと思う順に言葉を並べ替える。ターゲットの言葉を下に移動すると、一部の言葉が爆発して、新たな言葉がいくつか加わる。

これは、暇つぶしには良いかもしれないが、やってるうちに自分が、Googleの連想エージェントの訓練に使われるモルモットになったような気がしてくる。遊び方は、とてもやさしい。でも、水(water)からボート(boat)を連想しても、誰もすごいとは思わないね。でも、やってるうちに、だんだん難しくなるのかもしれない。ユーザーの応答がAIの訓練用データとして使われるのか、今Googleに問い合わせている。

プログラマーや機械学習のマニアのためには、Googleは訓練済みのTensorFlowモジュールをいくつか提供している。そしてそのドキュメンテーションは、このブログ記事の中のリンク先の二つのペーパーにある。

〔訳注: Googleはセマンティック検索の実現を目指して、これまで多くの企業〜スタートアップの買収を繰り返している。〕

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

カリフォルニア州が自動運転車の完全無人テストを許可、Waymoはさっそく申請か

Alphabet/Googleの自動運転車事業Waymoが、セーフティードライバー不在でカリフォルニアの公道に出られる、州が新たに設けた許可を、二番目に申請する企業になった。San Francisco Chronicleの記事が、そう報じている。これにより同社の車–ミニバン–が、マウンテンビュー周辺の路上に出ることになる。そこは同社が(Google時代も含めて)、大量のテストをして大量のデータを取得した地域だ。

同社はすでにフェニックスで、人間運転者のいない自動運転車を走らせ、先月は宣伝のためのビデオも撮った。だから今回のは、同社が自分の自信を示す初めての公開デモではない。

カリフォルニア州がセーフティードライバーが同乗しない自動運転車の許可を認めたのは、つい先日の4月2日からだ。あと一社申請しているようだが、それがどこかは分からない。今度の新しい許可では、従来的な手動制御がまったくない車でも認められる。ただしWaymoが申請したのは、Chrysler Pacificaの改造車だ。既存の商用車なら、実用化も早いだろうな。

最近はUberの自動運転車が歩行者に当たって死亡事故を起こし、Teslaも半自動モードでで人を死なせたから、セーフティードライバー抜きで公道を走ることには、ためらいの雰囲気があった。ただしどちらの事故も、事故時には運転席に人がいた。人がいなかったから事故が起きた、のではない。

申請が許可されたら、Waymoの車は走行範囲をマウンテンビュー地区に限定される。そこは、同社がGoogleの研究プロジェクトだったころから利用してきた場所だから、テスト地として理にかなっている。詳しいデータも累積している。地元当局とも顔なじみだから、万一の事故時にもあわてる必要がない。

テストの目的や内容はまだ明らかでないし、われわれプレスを乗せてくれるのかも分からない。今は、じっと待つだけだ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

自動運転車からヒントを得た大型コンテナ船の自律航行化プロジェクトMassterly

ロジスティクスは自動運転車のもっともエキサイティングな応用技術ではないかもしれないが、もっとも重要な、に入ることは確実だ。とくに、想像するかぎり世界で最古の産業と言われる海運業は、それを待っている。いや少なくともノルウェーの大手海運企業二社は、Massterlyと名付けられた海運自律化ベンチャーを無から立ち上げようとしている。

“Massterly”は単にmass(大量輸送)の駄洒落ではない。“Maritime Autonomous Surface Ship”(海運用自動航行水上艦)はWilhelmsonとKongsbergの二社が、明日の海を行き来する自己統率船を言い表すために作った言葉だ。

彼らのビデオによると、二社は合わせて360年の経験を有し、今、海運業の次のフェーズへ跳躍しようとしている。その手始めは、世界初の全電動自律航行コンテナ船Yara Birkelandの建造だ。それは全長250フィート(76メートル)、積載量コンテナ120基とほどほどの大きさだが、荷積みと航行と荷下ろしを無人で行う。

(万一の事故等に備えて少数の人間が同乗または随航する。上部に手すりがあるのも、そのためだよね?)

大型のレーダーとライダーがあり、可視光カメラとIRカメラがある。通信衛星に、接続している。

コントロールセンターは陸上にあり、航空管制の場合と同じく、船はそこから管理される。船を人間による操船に切り替えることも、可能である。

もちろん最初は小規模な試行だ。Yara Birkelandはノルウェーの海岸から12海里以内にとどまり、Larvik, Brevik, そしてHerøyaを行き来する。速度はわずか6ノットだから、翌日配達は無理だね。

“ノルウェーは世界一の海運国だから、自動航行船の開発でも先頭に立ちたい”、とWilhelmsonグループのCEO Thomas Wilhelmsonがプレスリリースで語っている。“次のステップとして、設計と操船のためのインフラストラクチャおよびサービスを確立し、また、海運の自律運用にふさわしい、ロジスティクスの高度なソリューションにも取り組みたい。Massterlyはあらゆるレベルのコストを削減し、輸送を必要とするすべての企業の利益になる”。

Yara Birkelandの実配備は2020年になるが、そのときはMassterlyも独立の企業になっているはずだ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

あなたの頭の中の言葉を読み取るマシンをMITのチームが開発、すでに確度92%

音声コンピューティングには、大きな問題がつきまとっている。まわりにほかの人たちがいるところで音声アシスタントに話しかけたら、たいがいおかしな結果になるだろう。音声コンピューティングが家の中で普及し始めたのには、理由がある。家の中なら、マシンに話しかけるとき、あまり自分を意識せずにすむからだ。

言葉を使わない、マシンに話しかけないデバイスが登場してきたのも、必然的なことだ。あるMITのチームもそんなデバイスに挑戦しているが、しかしそのハードウェアはまだ、完全に自分を意識しないで使えるところまでは、行ってないようだ。

そのAlterEgoと名付けられたデバイスは、頭に、というより顎(あご)に装着する。そしてその電極が、神経筋の信号を読む。それにより、“頭の中の言葉”を読める、という。

“知性拡張(intelligence-augmentation)デバイス、略してIAデバイスを作りたい”、と院生のArnav Kapurがニューズリリースで言っている。“人間の外部ではなく、内部にあるコンピューティングプラットホームを、作れないものだろうか。人間とマシンが融合して、まるで自分の意識の延長のように感じられるコンピューターを作れるはずだ”。

これまで10名の被験者がそれぞれ、そのマシンが自分の神経を読めるようになるまで訓練した。一定の調整を経てそれは、92%の確度でコマンドを読めるようになった。92%なら、ぼくが今使ってる音声アシスタントといい勝負だ。

機械が自分の頭の中の言葉を読む、という一種の気持ち悪さを克服できたら、このようなデバイスは消費者にさまざまな利便性をもたらすだろう。中世の歯科医の道具のような外観も、なんとかしてほしいね。チームは今、骨伝導によるオーディオ再生に取り組んでおり、それが完成したらシステムを完全に無音にできる。そして、もっと特殊な目的にも使えるようになるだろう。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Apple、GoogleのAIトップを引き抜く

Apple GoogleのAI担当幹部を引き抜いた。これはかなり大きな影響及ぼすに違いない動きだ。

Appleは、Googleの人工知能と検索の責任者、John Giannandreaを同社に迎えたとNew York Timesが報じた。GiannandreaはAppleの「機械学習およびAI戦略」の責任者になると同社がNY Timesに伝えた。同氏はAppleに16人しかいないCEO Tim Cook直属となる。

つい昨日(米国時間4/2)、The Information(有料ページ)は、GiannandreaがGoogleの職務を外れ、Google19年目の古参であるJeff Deanが引き継ぐことを報じたばかりだ。Giannandreaは2010年にGoogleがMetaWebを買収したあと同社に加わった。MetaWebではCTOを務めていた。当時このスタートアップはタグ付けされた膨大なデータを利用してコンテキストを意識した検索結果を追求していた。

この動きが特に重要なのは、現在Appleは人工知能を利用した知的ソフトウェアの分野でライバルに大きく遅れをとっているからだ。同社が消費者向けAI技術を注ぎ込んでいるデジタルアシスタントのSiriは、AmazonのAlexaやGoogleのアシスタントに能力面で大きく水をあけられている。

TechCrunchは、最近のDisrupt SFカンファレンスでGiannandreaと話す機会があり、人間はコンピュータを賢くするのに役立つが、十分に注意しないと人間の偏見も植えつけてしまうおそれがあると時間を割いて話した。

[原文へ]

(翻訳:Nob Takahashi / facebook

Microsoftがオンライン学習にAI上級コースとソフトウェア開発入門を新たに加える

Microsoftが今日(米国時間4/2)、デベロッパーのためのオンライン教育プログラムに二つの新しいコースを加えた。ソフトウェア開発入門コースと、機械学習の知識を増やしたいと願っている中級以上のデベロッパーのためのAIコースだ。

誰もが知ってるように、データサイエンティストと機械学習のデベロッパーは、需要に対して供給がきわめて少ない。そのために今、多くの企業では、社員の知識と技能を高めるための社内教育に力を入れているが、今日から始まる誰でも受講できるAIコースも、最初はMicrosoftが自社の社員のために開発したコースだ。

そのMicrosoft Professional Program for Artificial IntelligenceはedX.orgで無料で受講できるが、お金を払えば修了証ももらえる。コースの期間は3か月で、各四半期の頭に始まる。当然ながら、Microsoft AzureとMicrosoftのCognitive Servicesを多く使うからAzureのアカウントは必要だが、使用するオペレーティングシステムは特定しない。

全部で10の必修クラスがあり、それらはAI入門データサイエンスのためのPythonプログラミングAIデベロッパーの倫理などさまざまだ。訓練モデルを使った実習も多い。ひとつのクラスは所要時間が8ないし16時間だ。

AIコースだけでなく、同じく今日発表されたソフトウェア開発の入門コースは、これもedXのコースで13の必修クラスから成る。とくに、JavaScriptとPythonが中心のようだ。ただしこれらのプログラミング言語を学ぶだけでなく、データ構造の基礎や、GitHubの使い方、コードをプロフェッショナルに書くためのそのほかのツールなども教わる。

こういった学習コースをいろいろ集めたものを、Microsoftは“Professional Programと呼んでいる。Microsoft Academyの方が、分かりやすいんじゃないかなぁ。今あるコースは、フロントエンドの開発、クラウドのアドミン育成、ITサポートのプロフェッショナル育成などだ。

画像クレジット: 写真提供, Dan DeLong/Microsoft

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

NvidiaのGPUによる高速化技術がついにKubernetesをサポート

やっと、という感じだが、NvidiaのCEO Jensen Huangが今日(米国時間3/27)、彼のGTC(GPU Technology Conference)キーノートで、Googleで生まれ育ったコンテナオーケストレーションシステムKubernetesをNvidiaのGPUでサポートする、と発表した。

その意味は、何百何千ものGPUが機械学習処理の高速化などのために使われているような、いわゆるハイパースケールなデータセンターでGPUの使用を最適化し、デベロッパーがコンテナをなんの変更も加えずに複数のクラウドへデプロイできるようにする、ということだ。

Jensenはこう言った: “今やフレームワークは高速化し、コードも高速化した。では、それをデータセンターの世界へデプロイするにはどうするのか? そうだ、そこにはうまい具合に、Kubernetesというものがある。良かった!すごく良かった!”。

NvidiaはKubernetesのGPUによる高速化技術とそのコードを、オープンソースのコミュニティに寄贈する。機械学習のワークロードは、計算とデータの両方で巨大なものになりがちだ。Kubernetesはそんなワークロードのオーケストレーションを助け、そして今や、その仕事にGPUを使える。

Huangは次のように述べて、会場からの笑いを誘った: “Kubernetesは今やGPU対応だ。DockerのコンテナはGPUが加速する。そして私がこれまで名を挙げたようなフレームワークはすべて、GPUで加速される。そしてまた、みなさんが抱え込んでいる推論のワークロードもGPUが加速する。そしてこれらのクラウドのすべてでNvidiaのGPUが動く。そしてさらに、すばらしいオーケストレーションのレイヤとしてKubernetesがある。完全に満たされた人生だね”。

KubernetesのGPUによる高速化は、今日の発表以前にもある程度サポートされていた。たとえばGoogleは、そのKubernetes EngineですでにGPUをサポートしている。

 

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Linux Foundationにディープラーニングのオープンソース団体が加わる

名前はLinuxでも、Linux Foundationかなり前から、Linuxのためだけの団体ではない。今ではCloud Foundry, Automotive Grade Linux Initiative, Cloud Native Computing Foundationなど、さまざまなオープンソースの財団やプロジェクトを支えている。そして今日(米国時間3/26)Linux Foundationにはさらにもうひとつの財団、LF Deep Learning Foundationのサポートが加わった

LF Deep Learning Foundationの目的は、“人工知能や機械学習、およびディープラーニングのオープンソースのイノベーションをサポートして支え、これらの重要な技術を世界中のデベロッパーとデータサイエンティストにとって可利用にすること”だ。

創設メンバーは、Amdocs, AT&T, B.Yond, Baidu, Huawei, Nokia, Tech Mahindra, Tencent, Univa, そしてZTEだ。今後、さらに増えていくであろう。

The Linux Foundationの事務局長Jim Zemlinはこう述べている: “AIや機械学習およびディープラーニングのエコシステムにおける多くのプロジェクトに長期的な戦略と支援を提供し続けることを目的とする団体をご提供できることは、きわめて喜ばしい”。

同団体の最初の公式プロジェクトはAcumos AI Projectで、これはLinux Foundationがすでにホストしている、AT&TとTech Mahindraのコラボレーションだ。Acumos AIは、AIのモデルとワークフローを開発、発見、そして共有するためのプラットホームだ。

Linux Foundationが支えるそのほかの団体と同じく、LF Deep Learning Foundationもさまざまなレベルの会員資格を支援企業に提供し、また非営利団体も会員として受け入れる。LF Deep Learningの会員は、同時にLinux Foundationの会員にもなる。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Mobileyeが事故映像を分析して歩行者検出から衝突まで間が十分あったとUberを非難

自動運転車による歩行者の死亡人身事故は、この技術の関連企業にとって決して良い宣伝にはならないが、話題が冷(さ)めないうちに原因をよく知るべきでもある。そこでMobileyeのCEO兼CTOのAmnon Shashuaは親会社Intelのブログで、同社のコンピュータービジョンソフトウェアが事故時の映像を分析した結果、被害者の人物を衝突の1秒も前に検出した、と述べている。

それは決して、Mobileyeのシステムの優位性を主張しているわけではない。今の自動運転や運転者補助システムは、このような粒子の粗い映像で自分の仕事をしているわけでもない。それはあくまでも、実験や研究のための映像だ。

しかしその映像を見た有能なコンピュータービジョンシステムが、ただちに被害者とその自転車を検出したという事実は、Uberのシステムがそのときに完全に失敗したに違いないことを示している。〔別の記事ではUberのシステムは衝突の0.9秒前に被害者を検出している、とある。〕

そのときMobileyeのオブジェクト検出アルゴリズムが搭載されていたら、被害者を衝突の1秒前に検出している(粒子の粗い映像だったとしても)。そのとき直ちにブレーキが作動したら、車速がわずか10kmh落ちただけでも死亡事故には至らなかったと思われる。しかしUberの車のブレーキが作動したのは衝突の後だ、と言われている。それはまさに、そんなときこそ優秀なセンサーシステムとAIの瞬時の反応が必要な場面ではないか。

そのUberの車はレーダーとライダーと複数の光学カメラを装備し補助ドライバーも乗っていたというが、それらのどれもが被害者を検出できなかったのか。それとも、検出したけど瞬時のアクションができなかったのか。

このたびMobileyeが行った映像検出実験も、まだ情報として十分なものではないが、車が搭載する人工脳の、真にあるべき姿を示していることは事実だ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa