フリードランダーの”Judah vs. the Machines”:AnkiのAIレーシングカーに挑戦

コメディアンで俳優のジュダ・フリードランダーが「人類を救うために人間が世界のトップ人工知能と対決する」番組、Judah vs. The Machines。今回は拡張現実と人工知能を組み合わせてto entertain fans of racing gamesレーシングゲームのファンを楽しませる会社、Ankiに戦いを挑む。Ankiはスマートフォンカメラと専用のアプリを駆使して、いま目の前にある本物の物理的コースで起きているレーシングバトルを再現する。

フリードランダーはAnkiの無人運転車3台との武器をともなうデスマッチに挑戦した。レースは自動車による無法の全面戦争であり、あらゆる運転中の激怒と人間のむき出しの感情が露呈する。

Ankiの車の良いところは、人間に取って代わろうとしていないことだ。将来ロボットが我々を失業させた時のレジャーかもしれない。Ankiのテクノロジーはすでに表舞台に立ち始めている。同社のハイテクレーシングカーはすでに主要小売店で販売されている。

Judah vs. the Machinesの全8話についてはこちらを参照されたい。

[原文へ]

(翻訳:Nob Takahashi / facebook

トップ棋士に3連勝したAlphaGo、引退を表明

盤上ゲームの中で最も戦略的とされる囲碁を打つために開発された、GoogleのAlpha Goが引退することになった。中国で世界最高レベルの打ち手をことごとく破ってからの引退ということになる。最後に対局したのは、世界トップランクの柯潔だ。中国で行われたイベントにて3局戦ったが、いずれもAlphaGoの勝利(3-0)となった。

AlphaGoはもともと、ロンドンのDeepMindにより開発されたものだ。DeepMindは2014年に5億ドルほどの金額でGoogleに買収されている。尚、今回のイベントでは人間5人を同時に相手にするいわゆる「相談碁」でもAlphaGoが勝利している。AlphaGoが世界的な注目を集めたのは、昨年前世界チャンピオンのイ・セドルを破ってからだ。今回の柯潔との対局や相談碁、あるいはペア碁を見るに、どうやらAlphaGoは次のレベルに到達しているようだ。

AlphaGoの引退を発表した、DeepMindのCEOであるDemis Hassabisは次のように語っている

囲碁発祥の地とされる中国で、世界トップレベルの棋士と連戦することは、AlphaGoにとっても進化のための最高の機会となりました。このような最高の機会を経験し、AlphaGoは引退させることといたしました。

今後、AlphaGoの開発チームは「次のレベル」のための開発に注力することとなります。アルゴリズムをより汎用的なものに改造し、この世の中に存在する複雑な問題を解決するためのお手伝いができるようになればと考えています。想定しているのは、病気の治療方法の発見や、消費エネルギーの劇的削減、革新的な新素材の開発などです。

ボードゲームの中でもっとも複雑だとされる囲碁にチャレンジすることで、AIの能力を高め、人間と関わるやり方も磨いてきたわけだ。Googleだけでなく、Tencentもゲームの中でのAIの活用/成長を狙っている。ゲームの世界で、その可能性を実証して注目を集めることで、次のステップに進む準備が整ったと判断したのだろう。AlphaGoは、新たな段階に進むことを決断したわけだ。

これまでにもDeepMindは、実用分野での可能性を探ってきている。昨年にはイギリスの国民保険サービスとの間で情報共有について合意している。但しこれは、営利企業に対して膨大な数の個人データを引き渡すことになるわけで、反対の声もおおくあがっている。現在は個人情報補語監視機関(Information Commissioner’s Office:ICO)による精査が行われているところだ。

こうした混乱は、AI技術自身がもたらしたものではない。しかし活躍の機会を、現時点で十分に活用できていないということにはなる。

「医療分野においても、AIが新たな知識や問題の解決法をもたらすことができれば、これは大きなブレイクスルーとなるわけです。はやくそうした場での活躍を実現したいと考えているのです」とHassabisは述べている。

そのようなわけでAlphaGoは囲碁から離れることになる。但し、ただちに完全に手が切れるというわけではない。DeepMindは、イ・セドル戦からのAlphaGoの進化過程を報告書としてまとめる予定なのだという。また、囲碁初心者が囲碁の魅力を知り、また経験者がより高いレベルになるための学習ツールの開発も行なっているのだとのこと。中国で行われたイベントでも見られたが、柯潔もAlphaGoから学び戦術を自分のものとして取り入れたりしている。そのような可能性をもったツールが登場するのは大いに楽しみだ。

原文へ

(翻訳:Maeda, H

GoogleがAIスタートアップ育成専門のVCを立ち上げたらしい

Axiosの記事によると、Googleは人工知能にフォーカスした新しいベンチャーキャピタル事業を立ち上げたようだ。

Googleがコメントを拒否したその記事は、新しいVCの立ち上げは長年Googleのエンジニアリング担当VPだったAnna Pattersonが指揮し、Alphabet Inc.のVC部門GVで仕事をしているベンチャー投資家ではなく、エンジニアたちの輪番制で起業にあたった、という。

GoogleのCEO Sundar Pichaiが先日のI/Oカンファレンスで“モバイルファースト”から“AIファーストへ”、と宣言したぐらいだから、同社がAI専門の投資部門を立ち上げても不思議ではない。

今年のI/Oでは、発表されるもののほとんどすべてが、AI絡みだった。Tensor Processing Unit(TPU)のアップデートがあり、研究用にも企業用にもAIのモデルの教育訓練と実行が速くなったと謳われた。Google HomeやPixelスマートフォンから提供されるパーソナルアシスタントGoogle Assistantは、新しいAI技術のおかげで会話の能力が一層充実すると約束された。

データサイエンスと機械学習のコンペを主催するKaggleを買収したことも、今回のAI投資部門の新設と無縁ではないだろう。

Axiosによると、PattersonとGoogleは、必要ならGVからの共同投資も行う、という。投資案件のサイズは、当初100万ドルから1000万ドルまで程度、ということだが、全体で年間どれぐらいの投資規模になるのか、その話はまだない。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

機械学習による画像認識とAR(拡張現実)を結婚させて企業のツールにしたいBlipparが車の車種年式当て技術を発表

自分は、車をよく知ってる方だ、と思う?

でも、Blipparの今度の機械学習技術は、どんなに車通(つう)の人より、すごいかもしれない。この拡張現実/ビジュアル検索企業が今日、自動車を認識する技術を発表したのだ。

BlipparのAIは、2000年以降に作られたアメリカ車のメーカー、車種、そして年式を当てる。ただしその車の現在の速度が15mph以下である場合。

Blipparは最初、企業やパブリッシャーのためのARプラットホームとしてローンチした。Blippと呼ばれる小さなタグを使って、企業はケチャップの瓶のラベルとか雑誌の中の広告などのコンテンツを指定する。ユーザーがそれをスマートフォンのカメラでスキャンすると、その上に拡張現実のコンテンツが現れる。

その後同社は方向を変えて、ビジュアル検索に注力した。Googleの検索は言葉(その物の名前など)を知らないと検索できないが、ビジュアル検索なら、花やファッションなどをカメラで覗くだけでよい。

同社は昨年まで、テーブル、椅子、コップなどなど一般的な物のビジュアル検索を作っていたが、それによって、もっと特定の物をビジュアル検索できるための技術的基盤を獲得した。

その最初の挑戦が、自動車の認識だ。

車種当てで遊んでみたい人のためには、Blipparアプリにこの技術が導入される。メーカー、車種、年式だけでなく、その車の評判や360度写真も見れる(車内と車外両方)。でも同社としての本格的なビジネスは、同じく今日ローンチしたAPIだ。

中古車販売店や保険屋さんは、この自動車認識技術を自分のアプリに組み込み、ビジネスに利用できる。店員や営業は、自分の脳に大量詳細な車種知識がなくても務まるだろう。

現在の認識精度は97.7%以上で、Blipparの主張では、ほとんどの人間の目視判断能力を超えているそうだ。

来年はBlipparから、もっといろんな商品種や業種用の認識技術/APIが登場するだろう。CEO Rish Mitraによると、次はファッションで、もうすぐ出るそうだ。

Crunchbaseによると、Blipparはこれまでに、Qualcomm VenturesやKhazanah Nasionalなどから総額9900万ドルを調達している。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

AlphaGo、世界ランク1位のプロ棋士に連勝

AlphaGoは、AIの実力が人間を上回ることを再度証明してみせた。人間の方が上回る点がないわけではなかろう。しかし少なくとも囲碁に関しては、AIの実力が人類を上回るようなのだ。

AlphaGoがその名を轟かせたのは、トップレベルの棋士であるイ・セドルを4対1で破ってからのことだ。しかしそこにとどまらず、AlphaGoは世界ランク第1位の柯潔にも連勝してみせたのだ。この対局は全3局が予定されており、今週中に第3局が打たれる予定となっている。

柯潔は現在19歳。第1局は半目勝負(非常な僅差)であったものの、今回は中押し負け(途中でのギブアップ)に追い込まれてしまった。AlphaGoのアナリストによれば、序盤はむしろ柯潔がうまく打っていたのだとのこと。

「これは勝てるのではないかと、どきどきしていたんだ。中盤では勝ちそうだと思ったよ。でもAlphaGoの方はそう感じていなかったのかもしれないね。こちらは心臓の音が聞こえるほど舞い上がっていたけどね」と、対局後に柯潔は述べていた

対局はもう1局残っている。しかし第3局の結果がどうであれ、AlphaGoは世界が認めるナンバーワンプレイヤーを破ったことになるわけだ。歴史の転換点とも位置づけられる対局だったかもしれないが、中国では一切ライブストリーミングもされず、大きな不満の声も上がっている。

AlphaGoを生んだのはロンドンに拠点をおくDeepMindだ。2014年にはGoogleが同社を5億ドルほどて買収している。プロ棋士に勝利するという話は広く世間の耳目を集めるが、DeepMindは囲碁以外の知的活動分野でも世の中の課題を解決し、実用的AIを構築しようともしている。

ただし、そちらの方面ではまだ十分な結果が出ているとは言えない状況だ。たとえばイギリスのNHS(National Health Service:国民保険サービス)との間で、避けられる死を防ぐための医療を構築するためにデータ共有することとしたが、このデータ共有については不適切なものであるとの判断が下されてもいる。

膨大な数の患者データを、Googleの所有する企業に提供することが適切かどうかについて大いに議論になっているわけだ。DeepMindとNHSとの共同プロジェクトについては、データ保護の観点からも検証しているところでもある。

原文へ

(翻訳:Maeda, H

Airbnbが社内にデータサイエンス大学を開校、非技術系一般社員も対象

テクノロジー企業と、最近ではますます多くの一般企業が、データサイエンティストの不足にあえいでいる。どの企業にも独自の雇用と教育の戦略はあるが、Airbnbはさらに一歩進んで、独自のコース番号までつけた、大学みたいな社員教育事業を立ち上げた。

そのData UniversityでもってAirbnbは、全社員を“脱データ音痴”するつもりだ。CourseraやUdacityのような一般的なオンラインコースでは、データとツールに関するAirbnb独自のニーズが満たされない。そこで同社はコースの設計から自社で取り組み、社員のニーズに合わせてそれらを3段階のコース番号レベルに分類した(下右図)。

100のレベルは、人事や企画の人たちも含め、全員が受講できる「データに基づく意思決定」。

中級クラスはSQLやSuperset(Airbnb製オープンソースのデータ可視化ツール)を勉強して、一般社員でもプロジェクトマネージャーになれる。上級のPythonや機械学習のコースでは、技術系社員がスキルをブラッシュアップする。

2016Q3に立ち上げたこの事業により、同社のデータサイエンスツールの各週のアクティブユーザー数がそれまでより30〜45%増えた。同社の500名の社員がすでに、少なくとも1つのクラスを受講している。まだ、全世界22のオフィスに全展開してはいない。

Airbnbはこれまで4度、データサイエンスの教育事業をトライしている。分析実験チームのプロダクトマネージャJeff Fengによると、その経験から得られた重要な教訓が三つある:

  • 誰もがとっつきやすいカリキュラムを設計すること
  • 上級管理職が部下部員に対してデータ能力の重要性/必要性を喚起すること
  • 成功を測る方法を見つけること

ほかの企業が社内でデータサイエンスのコースを立ち上げるときも、これらが参考になるはず、とFengは言う。この事業は、かつてGoogleを他から大きく差別化することに貢献した社内クラスを参考にしているようだ。Googleの場合は技術系のコースと一般コースの両方があり、データの視覚化も教えるし、簿記も教える。

Airbnbは、その初級データサイエンスクラスの開設にあたって、それが技術者だけを対象とするものではない、と訴え、そして、より本格的に技術を学びたい者のために今後もっと上のレベルの上級クラスをひらく、と声明している。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

小型高精度のレーダーシステムを作るEchodyneが$29Mを調達、ドローンや自動運転車にレーダー能力を実装

自動運転車は自分の回りのものを検出して接触や衝突を避けるための、センサーを必要とうする。しかも車が高速で動いているときには、前もって、正確に、十分に早く、ものを認識して衝突を避けることが必要だ。

そのための既存のシステムの多くが、何らかの光測検出系とカメラを主に利用している。しかし、そういうLiDAR(レーザー光測装置)やカメラの効力は天候に左右される。彼らは霧や塵埃、悪天候の中では視力が落ちる。遠くの物も、苦手だ。そして、その多くが十分な堅牢性とコンパクト性を欠き、おそらくドローンなどでは使えない。

そこで投資家たちは今、軽量レーダーシステムのEchodyneに2900万ドルを投資しようとしている。その製品はまずドローン用からスタートするが、今後は自動車やボート、移動能力のあるロボットなどにも利用できる。これでやっと、自動運転車が十分な自律能力を持つかもしれない。

この新たなラウンドでEchodyneの総調達額は4400万ドルになる。このシリーズBのラウンドを仕切ったのはNew Enterprise Associates、これにBill Gates, Madrona Venture Group, Vulcan Capital, Lux Capital, The Kresge Foundationなどが参加した。

Echodyneのレーダーシステムはコンパクトで軽いから、たとえば送電線や農地などを点検監視する商用のドローンにも乗せられる。そのポケットサイズのレーダーのデモを、本誌も今月の初めに報じた。その記事には、LiDARや従来のセンサーとの違いも説明されている。

EchodyneのCEO Eben Frankenbergによると、これまで作ってきたのはドローン用のレーダーのみで、今それを組み込んだ製品を開発中のドローンメーカー(複数)の社名は明かせない。自動車用のレーダーシステムは、まだ‘開発途上’だそうだ。

今回の資金の用途は、生産能力の拡大(今の年産数百台から数千台のオーダーへ)と、レーダーのソフトウェアの改良と機能拡張に充てられる。

“わが社のハードウェアは、既存の商用レーダーよりずっと進んでいる。ジェット戦闘機のノーズコーンに収まっている、フェーズドアレイレーダーのような使い方も十分にできる。でもレーダーが捉えた像で何ができるか、というソフトウェア的可能性は、まだ十分に汲みつくしていない。たとえば、ある種の、コンピューター・ビジョンのようなソフトウェアも可能なはずだ”。

同社のレーダーはポイントクラウド(点群)と像の両方を作るので、コンピューター・ビジョンの場合と同じように、ニューラルネットワークやAIによる処理も可能だ。それにより自動運転車などは、自分の環境をより正しく認識分類できる、とCEOは語る。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

VarCityは、オンラインで集めた画像から都市の3Dマップを作る

今や世界中の主要都市では、いつでもあらゆる角度から写真やビデオが撮影されている。理論的には、十分な数が集まれば道路や建物の配置がわかる ―― 待て、理論的に? いや実際に、だ。VarCityというプロジェクトがスイスのチューリッヒを再現するデモを見せてくれた。

複数年にわたるこの取り組みは、数多くのオンライン資源 ―― ソーシャルメディア、公開ウェブカメラ、車載カメラ、空中写真など ―― から得た画像を収集・分析して都市の3Dマップを作っている。ある意味でGoogleストリートビューの逆だ。地図を写真で図解するのではなく、写真に基づいて地図自体を作る。

このためVarCityのデータは非常に濃密だ。街路を見下ろすウェブカムは交通の流れや人々の歩く時間からいつ照明が消えるかまで時間を追って記録している。同じ建物を異なる角度から撮影した写真からは、大きな窓や壁の表面の正確なサイズを知ることができる。

チューリッヒ工科大学のチームが何年もかけて調整してきたアルゴリズムは、歩道と車道、芝生などの違いを見分けることができる。画像の見た目は粗いが、膨らんだ縁やぼやけた自動車は容易に認識して高精度で再構築することができる。

重要なのは、一連のアルゴリズムを別のデータの山に適用することによって、自分でデータを集めることなく、同じようにリッチな地図データを作れることだ。

「もっと多くの画像やビデオをシステムが分析できるようになればモデルはもっと正確になる」とプロジェクトメンバーで博士研究員のKenneth Vanhoeyがチューリッヒ工科大学のニュースリリースで言う。「プロジェクトの目的は3D都市モデルのアルゴリズムを開発することであり、今後手に入る画像やビデオの量が劇的に増えていくことを前提にしている」。

このプロジェクトからいくつかのスタートアップがすでに生まれている。SpetandoとCasalvaは、バーチャル建築検査と損傷分析を提供している。Parqueryは、都市の3D情報を使って駐車スペースをリアルタイムで監視する。方向はやや異なるが、UniqFEEDは公開ゲームを監視して、フィードに表示された時間を広告主やプレーヤーに知らせるサービスを行っている。

上のビデオは研究内容を要約したもので、データやモデルを詳しく説明した長編のビデオは今週中に公開される予定だ。

[原文へ]

(翻訳:Nob Takahashi / facebook

ニューラルネットワークに塗料の色の名前をつけさせたら、不可解だけど笑える結果ばかり!

今や、どんなものでも機械学習にやらせようとしている。しかも機械学習は、なんでもあっさりとやってのける。でも、そうでなかった仕事もある。それは、ニューラルネットワークを使って、塗料の色に気取った名前…“春の雨”、“港の霧”など…をつける、という試みだ。だって、そのニューラルネットワークが命名した“dorkwood”色や“stanky bean”色の塗料を使って、自分の家を塗装したい人なんか、いるわけないもんね?。〔訳注: どちらもワイセツな含意があるので日本語訳を控えます。〕

塗料の色の命名に機械学習を利用しようとして、今回失敗した研究者Janelle Shaneは、フルート奏者としてニューラルネットワークと“共演”することも、ときどきあるそうだ。

そのニューラルネットワークは、さまざまなRGBの値に対応する7700種の色の名前を教育訓練され、色と言葉とのあいだにある秘密の関係を会得した(はずだった)。

最初のうちは、まあまあだった。システムはどうやら幼稚な論理を編み出したようだが、色の名前として、実在する言葉を選んでいない:

上の3つめの例で”a”が抜けているのは、紫っぽい色調を表しているのだろうか? 三回登場する”Caae”は、共通する中間調の明度に対応しているのか? それはわれわれには分からないけど、ニューラルネットワークの中で立派な芸術的文法が生まれようとしているのかもしれない。

何度もデータを与えると、ニューラルネットワークはだんだんクリエイティブになり、独創的な色名を作り出すようになった。ホームセンターで売ってる塗料の、“greige”(生成り色)とか“royal purple”(王室紫)みたいな、平凡陳腐なやつは一つもない:

Dondarf? Burble Simp? Bank butt? Catbabel? … 独創的すぎる!

Bunflow? Rose Hork? Dope? …Turdly? … なんと思い切った名前!

StargoonやCaring Tan、Snowbonkなんかは、ぼくも本当に気に入ったけど、でも彼女のクリエティビティに、早産は禁物だったようだ。もっと気長に、教育訓練すべきだね。それまでは、Shaneの貴重な仕事をTumblrに再投稿してその回数を増やし、彼女への感謝のシルシにしよう。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

AI研究の最新の成果をつねに社会と共有していくためのイニシアチブGoogle.aiをCEO Sundar Pichai自身が発表

GoogleのCEO Sundar Pichaiが、同社のデベロッパーカンファレンスGoogle I/Oの今日(米国時間5/17)のステージで、機械学習に関する最新の研究成果を社会と共有していくためのイニシアチブ、Google.aiを発表した。それはGoogleのAIへの取り組みの中枢にもなる…研究開発でも、ツールでも、そしてAIの応用でも。

Googleと同社のBrainチームの研究は、ここが統轄することになり、また人工知能の分野における同社の進歩を紹介する楽しい実験に、誰もが気軽にアクセスできるようにする。たとえば絵のヘタな人でもアイデアを紙の上に表現できるAutoDraw、ピアニストと一緒に演奏ができるDuet、AIが人間が書いた絵が何かを当てるゲームQuick,Draw!などだ。Googleの“AIファースト”の姿勢を示すビデオや記事などにも、ここからアクセスできる。

多くのデベロッパーが機械学習を学べるようになったのは、GoogleのTensor Flowの功績も大きい。でも各地の大学や民間の研究所から、新しい研究が毎日のように生まれているから、Googleはそれらにもアクセスできるよう努力する。

[機械学習の進歩を医療に応用して、疾病検出アルゴリズムを改良したり、病理学者たちの賢いアシスタントになったりする。]

Pichaiが強調するのは、機械学習ではモデルの学習に時間がかかり、しかもその方面の十分なスキルを持った技術者が希少なので、往々にして費用も高い、という点だ。Google CloudとTensor Flowがもっと広まれば、高度な技能を持つ技術者でなくても、十分に開発などの仕事をできるようになるだろう。

Pichaiは、機械学習を自動化するプロジェクトAutoMLにも言及し、いずれはニューラルネットワークがニューラルネットワークを作れるようになる、と言った。研究者たちがGenerative Adversarial Network(s)(GAN(s))をより強力にコントロールできるようになり、もっといろんな状況に対して強化学習を適用できるようになれば、次のステップとしてそれは当然ありだろう。

参考記事(1), (2)



[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

クラウド上で1000 TPUのクラスターをディープラーニングの訓練や推論に使える無料のプログラムをGoogleが外部研究者に提供

Google I/O初日(米国時間5/17)の最後を飾ったのは、研究者たちが無料で同社最先端の機械学習技術を利用できるプログラム、TensorFlow Research Cloudだ。研究者はその上で自分のアプリケーションを動かすことができ、利用にあたって、大学に籍があるなどの資格要件はない。

利用を認められた研究者は、クラウド上の1000 TPUのクラスターにアクセスして訓練や推論処理を実行できる。TPUは、1基の性能が180TFLOPSで、64GBのメモリを自分で持つ。使える時間は、承認されたプロジェクトによって異なる。

承認の条件のひとつは、その研究プロジェクトの詳細が他の研究者によるレビューの可能なメディア上に一般公開され、コードがオープンソースであることだ。公開はまずい、というプロジェクト用にGoogleは、民間企業が社内的に利用できるCloud TPU Alphaというプログラムを準備中だ。

申し込みはまだ完全オープンではないが、Googleに問い合わせれば、記入すべきフォームを指示される。そこに、訓練集合の大きさとか、モデルの訓練に要する時間、モデルの訓練に使用したいプラットホーム、使用するハードウェア、などを記入する。

審査は段階的に行われ、落ちた人はまた新しいプロジェクトで再挑戦するよう、Googleは奨励している。



[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

モバイル向けに痩身の機械学習/ディープラーニングモデルを作るTensorFlow LiteがGoogle I/Oで発表

今日(米国時間5/17)のGoogle I/OでAndroidの将来について話す中で、エンジニアリング担当VP Dave Burkeは、モバイル向けに最適化されたTensorFlow、TensorFlow Liteを発表した。デベロッパーはこのライブラリを使って、Androidスマートフォンで動く痩身のディープラーニングモデルを作れる。

Googleはこのところますます多くの、Android上で動くAIを使ったサービスを展開しているから、それ専用の小さくて速いモデルを作れるフレームワークを使うのも当然だ。このAPIも年内にはオープンソースでリリースされる予定だ。

昨年はFacebookが、Caffe2Goを発表した。それもやはり、同社のディープラーニングフレームワークCaffeのモバイル用バージョンで、モバイルデバイスに合ったモデルを作れることがねらいだ。Facebookはこれを使ってリアルタイムの写真整形ツールStyle Transferを作り、それはまた、今後のプロダクトやサービスの基盤にもなるものだ。

ただし、モデルを作るための教育訓練は、あまりにも計算集約的な処理なのでスマートフォン上でやるのはまだ無理だ。いや、訓練済みのモデルですら、従来のものはモバイルには重すぎた。でもモデルがデバイス上で使えれば、状況によってはクラウドとインターネットがまったく要らなくなる。スマートフォン上のディープラーニングのパフォーマンスが、より安定するだろう。

TensorFlow Liteは、AIとモバイルデバイスの結合というGoogleのビジョンをさらに前進させる。そしてその次の段階としては、TensorFlow Liteが活躍する場を増やすための、さまざまな専用ハードウェアの開発ではないだろうか。



[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

AmazonがAlexaに通知機能を導入、邪魔な人はoffに設定できる

AmazonはAlexaに通知機能を加えようとしている。それによりAlexaのスキルが、情報が可利用になったら求めなくてもそれを提供できるようになる。これまでは、何をやるにしても人間の質問等が最初にまず必要だった。スキルとデバイスに通知を加える能力は、Amazonのソフトウェアとハードウェア両方の開発キットからも使えるが、ただし最初は選ばれた少数のパートナーのスキルと、Amazon.comのショッピングのアップデートのみだ。

その選ばれたパートナーとは、AccuWeather, The Washington Post, Just Eat, Life360などだ。デベロッパープレビューがもうすぐ提供されるので、そのほかのデベロッパーも自作のスキルへの通知の実装をテストできる。そしてAPIが一般供用されたら、すぐに消費者向けにその通知スキルを提供できるだろう。

通知は、チャイムの音、またはEcho, Echo Dot, Echo Showの上部LEDリングのグリーンの点滅で行われる。通知を受け取ったユーザーがAlexaに声をかけると、その情報が分かる。通知を受けとりたくない時間帯には、そのためのDo Not Disturbの設定もできる。

AlexaとEchoに通知が加わるというニュースは、最初、昨年の秋にThe Informationが報じた。この機能がついにやって来たことはたいへん有意義だ。最近のEcho Showの発表にも見られるように、AmazonはAlexaの出花人気を最大限、利用したいのだ。何かやるなら、今の内!

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

情報セキュリティ職員が三人しかいないラスベガスをネットワークのAI化で守るDarknet

ラスベガスには数十万の人びとが住んでいる。しかし市の情報セキュリティチームは、わずか3名の職員とインターンが1人いるだけだ。そこでラスベガスのCIOは、人工知能を使って市のデータとテクノロジーの安全を図っている。

“もっとも警戒しているのは、ランサムウェアとフィッシングだ”、とCIOのMichael Sherwoodは語る。“どちらも、手口はきわめて単純だが防御は難しい”。Sherwoodは夜の安眠を確保するために、DarktraceのAIによるセキュリティソリューションで彼の小さなチームを支えている。

人工知能は今やテクノロジー産業全体のバズワードで、サイバーセキュリティも同様だ。企業向けのセキュリティ企業は、自分たちの製品にAI機能を後付けで加えて顧客企業のネットワークの異状を検出している…人の介入が要らないように。

しかし2013年に創業したDarktraceによると、同社は最初からAIを利用している。“うちはほかのセキュリティ企業に比べて3年以上の経験の差がある”、とCEOのNicole Eaganは語る。“今では多くの企業が機械学習を謳っているけど、‘それで何をしているの?’と私は聞きたい。うちは、まったく独自の使い方をしている”。


Eganによると、一部のベンダーは機械学習を使って彼らの製品にマルウェアの認識を教えているが、彼女のチームは機械学習を利用して企業のネットワークに“自己意識”を与え、侵入を自分で検出できるようにしている。彼女はそれを、人間の免疫系になぞらえる。感染を自分で検出して自動的に対応するのだ。

検出はDarktraceの製品の前からの機能だが、自動対応は新しい。しかしそれは、Sherwoodのような小さなチームにはきわめて重要な機能だ。“Darktraceを使っていると、ネットワークのある部分では不安がまったくなくなる”、と彼は述べる。“応答性が良いし、必要なコントロールをただちに実装できるようになる”。

Darktraceの目標は、応答に関する意思決定を自動化して、人間の承認を不要にすることだ。AIのそこまでの君臨は怖くもあるが、しかしSherwoodはその考え方に前向きだ。彼はそのような総合的アプローチをUberやLYftになぞらえる。彼らは市の規制やタクシー業界とたたかって、ベガスの通りを走れるようになった。“やるなら、中途半端はいけない。今や人工知能は不可欠の要素だ。人間は毎日、間違った意思決定をしているからね”、これが人海戦術に頼れない市のセキュリティ管理者としての、彼の考え方だ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

見込み客各社の情報から大きなグラフを生成して的(まと)を得た営業活動に結びつけるDeepGraph

あなたがスタートアップの経営者で、営業を強くせねば、と思ったら、まず営業という仕事を理解しなければならない。それはしかし、言うは易く…の典型である。Kemviは、それ自身今シード段階のスタートアップだが、今日(米国時間5/11)からステルスを脱してメインのプロダクトDeepGraphを発表した。営業が正しい見込み客(とくに企業顧客)を正しいタイミングで見つけられるようにするためのツールだ。同社の100万ドル強のシード資金は、Seabed VC, Neotribe Ventures, Kepha Partners, そして複数のエンジェルたちから調達した。

DeepGraphはさまざまな一般公開データを洗い出して、具体的な顧客が現れそうな、見つかりそうな市場関連イベントとそこに群がる企業や人びとを拾い上げる。そしてそれから、システムは定型的なコールドメールを送って、各社の見込み客になってくれそうな程度を見極める。そして、関心を持ってくれそうな見込み客の一群を見つけたら、今度は個別にアプローチしていく。

DeepGraphが送るコールドメールの例

DeepGraphは自分の楽屋裏で、さまざまな企業の関連事項から成る大きなグラフを作っている。A社の今度の新製品発表はいつか。株価はどう動いているか。出来高はどうか。これらの一般公開情報が見込み客の見込み度の指標になり、企業の今後の意思決定の兆候にもなる。そして全体としてDeepGraphは、データが表しているトレンドを見つける。たとえば株価が低迷していたらその会社は、営業を強化するためのサービスを探しているかもしれない。

そしてその次は、正しいターゲットにふさわしいメッセージを起草する。それを、DeepGraphの大規模なグラフが可能にする。どんな状況でも、基本的には一般化できる。たとえば調達をめぐるスキャンダルがあった直後に調達担当に送る、監査ツールに関するメールは、どれもほぼ同じ内容になるだろう。そしてもちろんSalesforceはDeepGraphを統合しているから二者の連絡先情報やそのほかの重要データを共有して、より幅広いターゲティングができる。

KemviのCEO Vedant Misraは、こう述べる: “DeepGraphを、Salesforceにアクセスしていないときに時間を有効利用できる場所にしたい”。

大きなグラフの生成と利用をより円滑にするために、楽屋裏では相当数の人間が働いている。これらの海外の人たちは、情報の真正性の確認や、背景的知識の補充を担当する。いずれも、グラフの信頼性と最新性を確保するための作業だ。

DeepGraphの料金は、一人あたりの月額×人数だ。早くも、次の資金調達をねらっている。このような、自動化された営業支援サービスは今とても活発な分野で、競合他社もGrowlabsNova AIなどをはじめ、数多い。まだ社歴の若いDeepGraphは、スタート時のチームが6名だが、今後R&Dから営業に回された人たちがどんな成果を上げるか、そのへんも楽しみだ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Cisco、対話型AIのスタートアップ、MindMeldを1.25億ドルで買収

今日(米国時間5/11)CiscoはMindMeldを1.25億ドルで買収すると発表した。2011年に設立されたMindMeldは、クラウドベースのサービスを使って企業の対話型インターフェース構築を支援する。

当初はExpect Labsと名乗っていたこのスタートアップは、TechCrunch Disrupt SF 2012のステージ上でデビューした。当時同社は、ユーザーの会話を聞き取って関連する情報を提供するiPadアプリを作ろうとしていた。その後、事業を拡大して構文解析、言語認識などのAPI群を提供するようになった。

MindMeldが提供するAPI

MindMeldはこれまでに、1540万ドルのベンチャーキャピタル資金をIDG Ventures、Greylock Partners、Bessemer Venture Partners、Intel Capitalなどから調達してきた。対話型AIは、M&A活動にとって常に注目を集めている分野だ。Samsungは昨年Vivに2.15億ドルを支払って、同社のテクノロジーを自社のパーソナルアシスタントであるBixbyに衣替えした

「MindMeldは、AIを備えた対話インターフェースを誰でも導入できるように、初めから終わりまで支援する」とIDG Venturesのパートナー、Alexander Rosenが本誌のインタビューに答えて言った。「AmazonとGoogle以外でこれができるところは多くない」。

このところCiscoは買収づいている。今年に入ってAppDynamicsを37億ドルの巨額で買収した。Ciscoは自らをソフトウェア会社であると定義しようと努めている。

「MindMeldと協力して当社のコラボレーション・スイートを強化し、Cisco Sparkを始めとするコラボレーション製品に新しい対話型インターフェースを加える」とCiscoの経営企画責任者のRob Salvagnoがブログで言った

もしCiscoがソフトウェアに本気で取り組むつもりなら、AIは不可欠な中核技術であり、将来のあらゆる製品の基盤になる。Ciscoは、同社のMindMeldチームを中心に認知的コラボレーションチームを作ると言っている。IBM ワトソンの認知コンピューティンググループの美的思想を思い起こさせる行動だ。

[原文へ]

(翻訳:Nob Takahashi / facebook

Apple Watchは不整脈を97%の精度で検出できる(UCSFの研究結果)

心拍測定アプリのCardiogramがカリフォルニア大学サンフランシスコ校(UCSF)と協同で実施した研究によると、Apple WatchをAIベースのアルゴリズムと組み合わせることによって、ごく一般的な不整脈を97%の精度で検出できることがわかった。

eHeartと名づけられたこの研究にはApple WatchアプリのCardiogramを通じて募集した6158名の協力者が参加した。ほとんどの被験者の心電図は正常だった。ただし、うち200名には発作性心房細動(異常な心拍)の診断履歴があった。技術者らはApple Watchの心拍データから不整脈を検出するべくディープ・ニューラルネットワークを訓練した。

Cardiogram社はUCSFと協同で、2016年からApple Watchを使って脳卒中を予知する可能性の研究を始めた。脳卒中の約1/4は不整脈が原因であると、Cardioragmの共同ファウンダーでUCSFのeHeart研究プロジェクトのデータサイエンティスト、Brandon Ballingerは言う。

Cardiogramは開発したディープ・ニューラルネットワークを病院内の電気的除細動(心臓のリズムを正常に戻すための医療手順)51例について試験した結果、97%の精度でニューラルネットワークが心拍異常を検出できたと同社は報告している。

現在はまだ予備的アルゴリズムに基づく研究段階にすぎないが、脳卒中を予知し未然に防ぐ方法として期待されている。不整脈の中で最も頻度の高い心房細動は、脳卒中の原因の1/4を占める。Ballingerは、この種の脳卒中の2/3は比較的安価な薬品で予防することが可能だと話した。

そして今や脳卒中のリスクが高い高齢者を含め、多くの人々がFitbitやApple Watchなどのウェアブル製品を着用するようになり、こうしたデバイスは心拍モニターの役割も果たす。心臓の異常を見つけ出すよう訓練されたアルゴリズムをデバイスに内蔵することによって、リスクの高い人たちの命を救えるかもしれない。

なお、ここ数年で携帯型心電計が大きく進歩したことも忘れてはならない。Mayo Clinicは、AIとAliveCor製の心電計を使った協同研究に参加している。この心電計はスマートフォンの裏面に装着されKardiaというアプリで不整脈を検知するもので、その能力は医療機関で使用されている心電計装置に引けを取らない。Mayo Clinicはこの研究結果に強く共感し、AliveCorが最近実施した3000万円の調達ラウンドにも出資した。

CardiogramとUCSFは今後もeHealth研究を継続していく。ディープ・ニューラルネットワークを複数の判定基準に沿って検証し、結果をCardiogramアプリ自身に取り込む計画であり、不整脈以外の健康状態を認識する方法についても研究中だ。

[原文へ]

(翻訳:Nob Takahashi / facebook

音声アシスタント製品をパートナーに任せるMicrosoft、Harman Kardonの次はHPとIntelが参加

今週初めには、スピーカーの名門メーカーHarman Kardonが、Microsoftの音声アシスタント・システムCortanaを載せたAmazon Echo対抗製品Invokeを発表した。サードパーティのCortana製品はそれが初めてだが、いつまでも‘唯一’ではない。今日(米国時間5/10)Microsoftは、HPが同様の製品を作ることで同社と契約した、と発表した。Intelもこのゲームに参加し、Cortanaが動くデバイスの参照設計を近くローンチする、と約束した。

GoogleもAmazonも音声アシスタント製品(ユーザーと対話するスピーカー)は自社製品からスタートしているのに、Microsoftだけはパートナーのハードウェアメーカーに任せるつもりだろうか。最近の一連のSurface製品を見ても、Microsoftに立派なハードウェアを作る能力はある。そしてAIを搭載した対話するスピーカーは、まだまだ処女市場に近い。Microsoftにも十分なチャンスがある。

しかし噂によると、Microsoftは別のやり方でAmazon Echoと対抗する気らしい。それは専用ハードウェアというより、PCに近いものだ。もしもこの噂が本当なら、Cortanaを利用するホーム・ハブのような機能がWindows 10 PC(それもキッチン用)に載る、ということか。そのPCは常時onで、ご主人様の質問やリクエストに応える。しかし単独スピーカーのような専用機は、やはりパートナーに任せて、自分では手を出さないのだろう。

HPの製品については、今はまだ情報がほとんどないが、今後情報が得られ次第、この記事をアップデートしよう。

Cortanaに関しMicrosoftはハードウェアパートナーのほかに、Cortanaのスキルを作るためのフレームワークCortana Skillsを発表した。今それは、プレビューが公開されている。このサービスは以前から発表されているが、これまでは一部のパートナーにしか利用できなかった。今日から一般公開、とは言っても、Cortana Skillsが利用できるのは当分、アメリカだけだ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

ふつうの人間がロボットに教えた作業を、今度はロボットが他のロボットに教えられる…MITの研究より

MITのコンピューター科学と人工知能研究所(Computer Science and Artificial Intelligence Lab, CSAIL)が、ロボットの新しい芸をもうじき披露する。人間がロボットに教えたことを、そのロボットが他のロボットに教えられるようになるのだ。研究者たちは、ロボット工学とは無縁なふつうの人が、ドアを開ける、物の位置を移動するなど、人間の規準では“単純な”行為を、ロボットに教えるシステムを考案した。ただしそのシステムのキモは、最初のロボットがその同じ作業を他のロボットに教えられることにある。

そう、ロボットに教えるロボットだ。この、CSAILの研究者たちがC-LEARNと呼ぶプロジェクトは、事前知識と、何らかの特定の仕事に関する単純なインストラクションを、人間教師がロボットに提供する。ロボットのそのスキルは他のロボットへ転送可能で、だから理論的には、たった一人の、専門家ではないふつうの人が提供した初歩的なインストラクションが、ロボットの一大軍団を教育してしまえるのだ。

教えられる側のロボットは、教師役のロボットと同型でなくてもよい。研究段階では、上のビデオに登場する先生役のOptimusロボットが、自分より大きいAtlasロボットに、学んだアクションを伝えることができた。

このシステムの成功の鍵は、実演に、教育訓練以前の既存の知識ベースを結びつけたことだ。それによって、仕事の達成の正確さが上がり、そしてそれを、その後の他のロボットに伝えていく。

ただしC-LEARNシステムは完全にはほど遠い。箱を持ち上げるという単純な仕事を教えるのに30分もかかり、衝突を避ける、などの複雑な仕事はまだこのシステムでは教えられない。でも、あとすこし頑張れば、トラックや輸送機に荷物を積むとか、簡単なメンテナンス作業ぐらいは、ロボットがロボットに十分、教えることができるだろう。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Intelの自動運転技術ショウルームAutonomous Driving Garageを見学した…シリコンバレーのど真ん中だ

Intelが今週サンノゼに、Autonomous Driving Garageをオープンした。この施設を見ると、そもそもチップメーカーが自動運転に関してビジネスとして一体何をやっているのか、が分かる。この比較的若い事業部門は、すでにいろんなことをやっている。HDマッピング、ワイヤレス接続スタンダードの改良、人と機械の対話モデル、などなど。

ここではこれらのプロジェクトを直接見ることができ、Intelの自動運転部門や人工知能部門のトップと話もできる。彼らはIntelが今やってることや、自動運転を日常的な実用技術にするためにDelphiなどのパートナーと一緒にやってることを、垣間見させてくれる。

Intelのこの新しい施設は、シリコンバレーの中でも、自動運転とAI技術のハブの中心的な位置にある。来たるべき自動運転革命においてIntelは、脇役ではなく主役に立ちたいのだ。そしてこのセンターは同社にとって、その目標を達成するための手段の一つだ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))