DeepgramがオープンソースにしたKurを使えばディープラーニングのDIYが楽にできる

screen-shot-2017-01-18-at-10-09-36-am

Y Combinator出身のDeepgramは、機械学習を利用して顧客企業のためにオーディオデータの分析をやっている。その同社がこのほど、Kurと呼ばれるディープラーニングツールをオープンソースにした。この分野に関心のある人たちは、自分のアイデアを形にするのがより容易になるだろう。同社はまた、10時間ぶんの録音データを10秒単位に切り刻んたものを、訓練用の教材として提供している。

ディープラーニングライブラリのKerasと同じくKurも、ディープラーニングのモデルを構築して訓練するプロセスを高度に抽象化している。そうやってディープラーニングをより容易にすることによってKurは、画像認識や音声分析などのタスクの、敷居を低くしている。

DeepgramのCEO Scott Stephensonの説明によると、立ち上げ当時の同社はLibriSpeechを使っていた。それは、パブリックドメインのオーディオブックを、初期の機械学習モデルを訓練するために細かく分割した、ネット上のデータセットだ。

しかしDeepgramは、車輪を再発明しているわけではない。同社のデータダンプとオープンソースのプロジェクトがあれば、大学やテクノロジー企業は、Tensorflow, Caffe, Torchなどのフレームワークを利用しやすくなる。画像認識用にはImageNetデータベースがあるし、音声用にはVoxForgeがよく使われているが、オープンソースのデータセットはもっといろいろある方がよい。

“自動運転車も、出発点は画像の分類技術だ”、とStephensonは語る。“つまり、誰かに最初、小さなかけらみたいなものを与えれば、やがて人びとが寄ってたかってモデルを変えるようになり、これまでとは違うことが、できるようになるんだ”。

デベロッパーがKurを自由に使えるようになれば、Deepgramが欲しい人材も育つ。今、機械学習やデータサイエンスの分野では、そういう実地教育を、大手のテクノロジー企業ならどこでもやっているし、成果も上げている。

デベロッパーがモデルやデータセットや重みを共有してイノベーションを加速するためのソーシャルサイトKurhub.comを、もうすぐ同社はオープンする。今日リリースされるデータセット用の重みは、いずれDeepgramがリリースしたいと考えているので、DIY派の人びとも、プロセッサーを酷使する訓練で苦労しなくてもよくなる。10時間のオーディオデータというと、訓練用のデータとして大きくはないが、それでもモデルの訓練にはGPUを使った場合で約1日、一般市販のコンピューターなら相当長くかかる。

Deepgramのデータセットを全部使ったら、適当に自分のデータを加えればよい。必要なものは、音声の録音を10秒単位で刻んだWAVファイルだ。パブリックドメインで提供されている録音データを、データに飢えているディープラーニングのモデルにたくさん食わせてやれば、精度はさらに向上する。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Udacityがディープラーニングのナノ学位基礎コースを立ち上げ、399ドルで志願者全員入学

tc-09

コンピューターの計算能力と効率がこのところ大幅に向上したため、至るところでディープラーニング(deep learning, 深層学習, 多段ニューラルネットワーク)が利用されるようになった。ディープラーニングは今では、自動運転車やコンビニエンスストア、それに病院などでも使われている。しかしこの分野は技術者の人材がまだ豊富でないため、優秀な人材が希少財として奪い合いになり、そのことが、応用分野を広げ、難しい問題を解決していくためのボトルネックになっている。そこでオンライン学習サイトUdacityは、この前導入したAIコースに加え、このほどYouTubeのスターSiraj Ravalとパートナーして、ディープラーニングのナノ学位*を付与する基礎コースを開始する。〔*: ‘ナノ学位’の簡単な説明はこの記事の冒頭訳注に。基礎コースは、ナノ学位のさらに初等コースで、Udacityの新企画。〕

Udacityは今後、このような単科の基礎コース(Foundation Programs)を重視していく意向だ。これは完全なナノ学位コースの受講がまだ無理な段階の初学者の、階段の一段目をとにかく上がりたい、という学習ニーズに応える。この新しいコースは、17週で多くを学ぶが、時間は毎週3〜4時間程度で、とにかくディープラーニングを利用していろんな問題を解くために必要十分な知識を習得する。Ravelはそれを、技術というより、考え方の習得だ、と説明する。

Ravalには、短時間で大量の情報を人に伝えた経験が豊富にある。YouTubeのコースでは期間が最大で2か月だが、彼自身が感心するほど、生徒たちの達成度は高い。

“最後に生徒たちは自分のGitHubアカウント上に5つのプロジェクトを与えられるが、その最終プロジェクトはGenerative Adversarial Networks*、この分野の最先端の技術だ”、とRavalは語る。“基礎とは言っても相当本格的だから、雇う側も安心できるだろう”。〔*: Generative Adversarial Networks, 仮訳: 生成的対立的ネットワーク, 参考記事

Ravalが考える理想の生徒とは、Pythonができて代数の基礎が分かること。プログラミングをまったくやったことのない人は、対象外。むしろ、現役のプログラマーがディープラーニングのスキルを身につけることが目的だ。

多くの人に‘入学’してもらいたいUdacityは、この基礎コースの特典として卒業後「自動運転車」や「人工知能」ナノ学位コースに無条件で入学を認め、100ドルの助成金を進呈する。これらのナノ・コースは、入学志願者の数%(自動運転は16%、AIは4.5%)しか入れない、競争率の高い狭き門だ。

“これはUdacityにとっても新しい展開であり、今年はナノ学位基礎コース(Nanodegree Foundation programs)をもっと増やしていく、とUdacityのCMO(chief marketing officer)Shernaz Daverは語る。

ディープラーニング基礎コースの授業料は399ドル*、入学志願の受け付けは今日(米国時間1/13)から1月20日まで。授業は20日に始まり、6ヶ月のコースを完了した者が卒業資格を得る。〔*: 基礎コースは全員入学。志願書提出時に399ドルを払う。〕

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

機械学習を利用して肺がんの兆候を早期発見する技術でKaggleが賞金100万ドルのコンペを主催

lungs-money

データサイエンスのコンペを毎年主催してほぼ10年になるスタートアップKaggleが、今度の賞金総額100万ドルのコンペでは、肺の中の癌になりそうな病変組織を見分ける今よりも良い方法を募る。この2017 Data Science Bowlと名付けられたコンペの資金提供者はLaura and John Arnold FoundationとBooz Allen Hamiltonだ。

目標を限定したコンペで高額賞金、というケースは、今回が初めてではない。昨年の同コンペでは心臓病の兆候を見つけるデータ分析技術に20万ドルの賞金が提供された。さらにその前年は、海の健康診断、という課題だった。

でもこれまでで最高額の賞金は、今年の100万ドルだ。優勝者が50万ドル、2位、3位、4位がそれぞれ20万、10万、2万5000ドルとなる。〔4位は複数か?〕

Kaggleは2010年にAnthony GoldbloomとBen Hamnerが創設した。これまですでにKhosla Ventures, Index VenturesなどからシリーズAで1100万ドルを調達している。

Goldbloomは本誌に、“うちは、データサイエンスのホームのような企業でありたい”、と語った。

同社の収益源は、このサイトでコンペを行う企業や財団などからの出資金の一部だ。また80万名近い会員のための求職求人掲示板からの収益もある。

2017 Data Science Bowlがローンチしたのは今朝(米国時間1/12)だが、すでに300のチームからの提出物がある。Goldbloomによるとこれらの提出物の多くは、提出の早さを競って自慢するためだ、という。しかし2017年4月12日の締め切りまでに、一日平均5件の提出がある、という予想だ。

参加チームは、国立癌研究所(National Cancer Institute)が提供する肺のスキャン画像を使って自分たちのモデルを作る。目標は、今のソリューションが不適切である最大の理由、すなわち高い偽陽性率を、大幅に減らすことだ。

GoogleのDeepMindMicrosoftには、どちらにも、目のスキャン画像を分析して今後失明になりそうな兆候を見つける機械学習モデルとそのためのリソースがある。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

魚や羽虫の大群でお互いの衝突がないのはなぜか?、それを真似るHondaのSafe Swarm技術は高度な安全運転を実現する

safe-swarm

Hondaは自然に見習って今よりも安全な安全運転を実現しようとしている。とくに今回同社がCESで披露したSafe Swarm〔仮訳: 安全な群れ〕と呼ばれる技術的コンセプトは、魚の群れの行動を模倣する。Safe Swarmは、それ専用の短距離通信規格を用いて車両間通信を行い、人間運転者をアシストする。

Safe Swarmは、車が拾った状況情報を、運転者が気づくよりもかなり前に、近くの車に渡す。車はお互いに情報を交換し、ほぼリアルタイムで数マイル先の車まで伝わる。そうすると運転者はより早くより確実に、問題を回避できる。

これと似た技術に取り組んでいる自動車企業は、ほかにもある。たとえば自動運転システムを開発しているMobileyeのREMシステムは、専用のセンサーを搭載した車同士が交通情報や道路情報をリアルタイムで共有し、またADASなどの自動運転系にも情報を伝える。それは、運転者からの入力を必要としない、完全に自動化されたWazeにちょっと似ている。

これは、すぐには実際の生産に結びつかない技術の、ひとつの例だが、車間通信がこれからの成長技術であることを示している。自動運転車は、Safe Swarmのようなものがあれば大いに助かるだろう。しかし自動運転車が普及する前の、今の時点でも、多くの生命を救う可能性を持っている。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

自動運転車のためのリアルタイム道路状況地図技術でHereとMobileyeが協働

future_of_mobility7

自動運転の分野ではこのところ、複数の企業による共同開発という傾向が多く見られるようになった。Nokiaからスピンアウトした地図スタートアップHereは、コンピューターヴィジョン用のチップやカメラなどを作っているMobileyeと協働し、自動運転技術の重要な要素であるマッピングサービスのサポートで、コラボレーションしていくことになった。

両社がパートナーシップを発表したのは木曜日(米国時間12/29)で、この提携により、クラウドソースなデータを利用してリアルタイムで最適ルートを見つけ、地図上に表示するMobileyeのRoadbookと、Hereの地図サービスHD Live Mapを重ね合わせたようなサービスを提供していく、とされた。これにより自動運転車は、HDの地図の上に車載のセンサーからの情報をオーバレイで表示して、今まわりに何が見えるかを知らせるだけでなく、これから先の路上に何があるか、という情報も絶えずアップデートしていくことができる。

このパートナーシップの一環として、MobileyeはHereのOpen Location Platformを利用し、またHereは、MobileyeのREM技術で道路状況のリアルタイムモニタを行っている車両の、センサーから得られる生データにアクセスする。これによりHereのHD Live Mapのアップデートがさらに高速化することが期待され、実際のリアルタイムの運転状況を自動運転車により適格に反映させることができる。

地図は自動運転の重要な要素であり、このパートナーシップによって両社は、自動運転車やフリートサービスを展開しようとする企業にとって、より魅力的なサプライパートナーになれるだろう。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Ford、自動運転試験車のCPUとLiDarを強化

mb_0223_1

Fordは自動運転の新世代開発車両を作った。Fusionのハイブリッド車で、現行モデルの同じプラットフォームを使用しているが、車載コンピューターのハードウェアが強化され、LiDARセンサーも新しくなった。その結果視野が改善されLiDARユニットが2基外されたにも関わらず、センサー群全体の視界は以前よりよくなっている。

新しいFusionはソフトウェアにも改善が加えられ、バーチャルドライバーが有能になる。この新世代モデルは、3年前に路上デビューした既存モデルを置き換えるものだ。Fordはミシガン、カリフォルニア、アリゾナの各州で、実世界設定のテストを行ってきた。2017年中にはテストの規模を拡大し、約90台の車両を投入する計画だ。

Fordの自動運転プログラム技術責任者、Chris BrewerがMediumに進捗状況を説明する記事を書き、LiDARセンサーを4基から2基に減らしたが、従来と同じだけのデータを収集可能だとしている。2つのセンサーを合わせて360度をカバーし「全方向についてフットボールグラウンド2つ分の距離」を見ることができるとBrewerは書いている。

Fusionのルーフラックには光学カメラが3台設置されている。フロントガラス後方の前方監視カメラと短距離および長距離レンジのレーダーを組み合わせ、車載コンピュータのパワーを使って視界の画像を完成させる。この組み込みスーパーコンピューターは1時間当たり1テラバイトのデータを生成するとBrewerは言っている。こうしたバーチャル処理を行うためには第2の電源が必要で、それがハイブリッドを利用する理由でもある。現在のガソリン車には自立走行を実現するだけのエネルギーがない、とFordは言っている。

_mb_2727

こうしたFordの作業はすべて、2021年に予定されている自動運転車発売に向けた準備として行われている。

[原文へ]

(翻訳:Nob Takahashi / facebook

Apple、シミュレーション+教師なし学習の新方式でAI研究分野に参入

screen-shot-2016-12-26-at-3-05-45-am

Appleの機械学習研究が新たな先端技術をものにしようとしている。最近同社の研究者6名が結成した機械学習グループは、シミュレーション+教師なし学習の新しい方法を 論文で発表した。目的は合成訓練画像の品質改善だ。この研究は、成長の続くAI分野で明確なリーダーになろうとしている同社の意欲を表している。

GoogleFacebookMicrosoftをはじめとするIT既成勢力は、それぞれの機械学習部門を順調に拡張している。毎年発表される数百もの論文によって各社の学術的研究は詳しく公開されているが、Appleの態度は頑なだった ― 魔法は自分たちだけのもの。

しかし今月、AppleのAI研究責任者、Russ Slakhutdinovは近く同社が研究内容を公表することを発表し、変化が表れてきた。チーム初の試みはタイムリーかつ実用的なものだった。

近年、合成画像や合成映像は機械学習モデルのトレーニングによく使われるようになった。コストも時間もかかる現実世界の画像と異なり、合成された画像はコストも低く入手が容易でカスタマイズもできる。

この技法には様々な可能性があるが、わずかな不完全さが最終製品に重大な影響を及ぼすリスクもある。つまり、合成画像で実画像と同じ基準の質を得ることは難しい。

Appleは、 Generative Adversarial Networks (GAN) を使用して合成学習画像の質を改善することを提案している。GANは新しいものではないが、Appleはこの目的に合わせて修正を加えている。

上位レベルで、GANは競合するニューラルネットワーク間の敵対関係を利用して動作する。Appleの場合、シミュレーターが合成画像を生成し、それに精緻化処理を施す。改善された画像は、実画像と合成画像を区別する識別装置に送られる。

screen-shot-2016-12-26-at-2-22-52-pm

ゲーム理論の観点から見ると、各ネットワークは2人プレーヤー・ミニマックスゲームを争っていることになる。この種のゲームの目的は、発生可能な最大損出を最小に抑えることだ。

AppleのSimGANというGANの派生システムは、局所的敵対損失と自己規制の両方の項を最小化しようとする。ふたつの項は合成画像と実画像の差異を最小化すると同時に、合成画像と改善画像の差を最小化してニュアンスを保持しようとする。これは、修正を加えすぎると教師なし学習の意味がなくなるという考えに基づいている。もし樹木が樹木のようには見えず、モデルの目的が自動運転車が木をよけるためだとすれば、意味がない。

研究チームは修正の微調整も行っている。例えば、モデルが改善画像の一部を見るだけでなく修正履歴まで考慮することによって、あらゆる時点で生成画像を偽物と識別できるようにする。Appleの研究の詳細は、”Learning from Simulated and Unsupervised Images through Adversarial Training. ” という題名の論文に書かれている。

[原文へ]

(翻訳:Nob Takahashi / facebook

BaiduとKFCのスマートレストランは、客の顔を見ただけで最適メニューをおすすめする

screen-shot-2016-12-23-at-8-51-14-am

Baiduがその最新技術を、奇抜なやり方で披露している。その一つがKFC China(そう、あのフライドチキンのKFCだ)とのパートナーシップで、“中国のGoogle”と呼ばれることもあるこの巨大検索企業は、北京に開店したKFCの“スマートレストラン”にその技術を提供した。どういう技術かというと、顧客の顔を認識して、その年齢や性別、表情などから、おすすめメニューを提案するのだ。

そのレストランにはテーブルの上のステッカーによる拡張現実(AR)ゲームもあるが、こちらは北京の300店すべてにある。顔認識は、当面このお店だけだ。Baiduは同じくKFCとのパートナーシップにより、上海に別のタイプのスマートレストランのパイロット店を開いたことがある。こちらは、自然言語で対話できるロボットが、お客様の注文を承(うけたまわ)る、というものだ。

どちらの技術にも共通しているのは、お客が何かを言う前からロボットがおすすめメニューを推察することだ。画像認識機能を持つハードウェアが顧客の顔をスキャンして、感情や気分を推察し、性別などそのほかの情報も推量して、おすすめメニューを提案する。Baiduのプレスリリースは、たとえば“20代前半の男性”には、ランチに“クリスピーチキンハンバーガーとローストチキンウィングとコーク”をおすすめし、50代の女性の朝食には、“中華粥と豆乳”をおすすめする、と言っている。

顧客はシステムのおすすめを気に入らないかもしれないが、でもそれはあくまでも、ご提案だ。システムには記憶機能があるので、リピート顧客にはこれまでのお気に入りを提案する。ファストフード店に認識目的のために自分の顔の画像があり、過去の注文履歴のデータもある、と考えると、あまり気分は良くないだろうが、でもアメリカのケンタッキー店に比べるとKFC Chinaは、レストランとしてずっとましだ。

これは一つのレストランと一つのテクノロジー企業がアイデアをいじくっているにすぎないが、もっと一般化してほしいと思う人も少なくないだろう。そう、ファストフード店へ行くたびに、毎回いちいちメニューを告げるのは、かったるい場合があるからね。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Microsoftがインドで目の健康のために機械学習を活用、Google DeepMindに対抗

machine-learning-msft

同じ企業間競争でも、障害者の生活が少しでも良くなるための競争なら、大いに奨励したいね。Microsoft Indiaは、GoogleのDeepMindのやり方に倣って、インドにデータドリブンの視覚障害者支援サービスを導入するための研究グループ、Microsoft Intelligent Network for Eyecare(目のケアのための人工知能ネットワーク)を立ち上げた

DeepMindの眼科医学へのアプローチはイギリスがターゲットだったが、Microsoftは必ずしも対象国を限定しない。同社はアメリカ、ブラジル、オーストラリア、そしてもちろんインドの研究者たちの協力を求めながら、機械学習モデルを教育訓練し、失明の原因となる症状をシステムが同定できるようにする。

Microsoftの中心的なパートナーとなるハイデラバードのL V Prasad Eye Instituteは、インドの名門病院のひとつだ。このプロジェクトはとくに子どもに力を入れ、屈折矯正手術の結果や、子どもの近視率の変化の予測、といった意欲的な課題に取り組んでいく。

GoogleのDeepMindは、イギリスのNational Health Serviceとパートナーして目のスキャンを分析し、湿性で年齢と関連する黄斑変性や糖尿病性網膜症を検出する…これら二つは、失明に導く症状だ。それは、症状の早期発見によって早期治療を可能にし、目の損傷の重症化を防ぐ、という考え方だ。

アイケア(eyecare, 目のケア)は、これまで医学とは無縁だったような企業が、保健医療分野で機械学習のポテンシャルをテストするための、人気分野になりつつある。人間の健康状態の中でも目の状態や症状は、画像分析によくなじむからであり、それはイコール、機械学習の当面の得意分野でもある。医療診断へのコンピューターの利用は決して新しい技術ではなく、放射線画像の分析などは何年も前から行われている。しかしテクノロジー企業はこのところとくに熱心に、独自の研究開発テーマとしてこの分野に取り組んでいる。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

AIの学習手法は人間の教育にも応用可能

Medical Research with Molecule as a Concept

気づけば身の回りには人工知能だらけといった状況だ。車にも家にも、もちろんポケットの中にも人工知能がある。IBMはWatson(ワトソン)に「理屈」を教え、さらに自らも「理屈」を学び得るように育てている。情報を知識に変え、たとえば医療分野で情報に基づいたさまざまな判断を下せるようにしているのだ。

トップ企業がプロダクトにAIを埋め込み(Siri、Alexa、Googleアシスタントなど)、スマートフォンをより便利にし、さらに急速に広がりつつあるホームアシスタント市場で存在をアピールしている。

そうした人工知能ツールは、次第により適切な解答を出すことができるようになりつつある。ひいては、利用者がよりスマートに振る舞えるようになってきているのだ。ところで、常に大量の情報やインテリジェンスが自分の手元に存在する時代を迎えて、教育は変わらなくて良いのだろうか。事実や数字を覚えこませるのではなく、そうした情報を発見する方法を教えるようにすべきなのではないか。現在AIに対して行うようになっているように、「どのように学ぶのか」を教えていく必要があると思うのだ。

残念ながら、今のところの教育スタイルは時代に追いついていないと言わざるを得ない。何百年も続いてきた旧来の方法に拘泥し、学校や教師は知識を与えるものだとされている。しかし、生徒自らが、たとえばAlexaを通じて必要な情報を何でも入手できる時代に、学校や教師の役割が旧態依然としたもので良いのだろうか。時代の流れを把握して、ただ情報を与えるだけの教育システムを変えて移行とするフィンランドのような国もある。生徒たちはグループで課題に取り組み、そして問題解決の方法を学んでいくのだ。教師の役割は、生徒自らが学んでいくのを手助けすることになる。そうして思考の柔軟性を身につけ、さらに学び続ける能力を身に着けていくこととなるのだ。世界経済フォーラム(The World Economic Forum)は、小学校に入学する生徒の65%は現在存在しない職につくことになるとしている。そうした時代への対応力を磨く教育が必要となっているのだ。

コンピューターのちからを利用して、人間の知性がクラウド化するような時代を迎えつつある。意識しているか否かに関係なく、私たちは「バイオニック」な存在になりつつあるのだ。私たちの感覚や身体的機能は、コンピューターやスマートフォンと連携して強化されることとなっている(記憶やデータ処理の一部を代行して、脳の負担を軽減してもいる)。AIは確かに人類をスマート化しつつある。人間のちからだけでは不可能だった情報処理能力を与えてくれているのだ。

AIトレーナーの目標は、コンピューターが自身で学び始めるシンギュラリティに到達すること。

ほんの少し前まで、何か情報が必要であれば図書館に出かけて司書や書籍のインデックスを頼って探すしかなかった。参考になりそうな本を見つけ、その本に探している情報が記されていることを願いながらページを繰っていたのだ。膨大な時間をかけて、マイクロフィルムで記事や写真を探したりもした。現在ではパーソナルアシスタントに尋ねれば、あっという間に情報が手元にやってくるようになった。

ただし、パーソナルアシスタントでは対応できない問題というものもある。そうした場合には自らが検索エンジンを利用して情報を探すこととなる。ここで、アクティブ・ラーニング(self-learning)が重要となってくる。検索エンジンを活用する場合、まず正しい語句を使って検索するテクニックが必要となる。そして役に立ちそうな情報を取捨選択して、情報の正しさをきちんと判断しなければならないのだ。「インターネットで見つけたから正しい」などということはなく、情報の正しさや有用性を判断するのは、検索者の側にまかされているのだ。

コンピューターの能力は高度化して、そして価格は安くなっている。また大量のデータも入手できるようになった。そうした中でAIの分野が大いに賑わってきているのだ。ディープラーニングの成功を導くのに必要な、ニューラルネットワークの構築が効率的に行えるようになってきているのだ。CB Insightsの情報によれば、ベンチャーキャピタルが投資する企業の2%が、AIアルゴリズムの強化に携わっているのだそうだ。「いかに学ぶかを学習する」という点に、多くのベンチャーが注力しているのだ。その方法を学んでこそ、アクセス可能な膨大な情報の中から正しく学ぶことが可能となるのだ。

screenshot-2016-11-12-22-09-06

しかしGlobal Future CouncilでAIおよびロボット部門の共同議長を務めるMary Cummingsによると、「人工知能は期待に沿う能力を発揮できていない」としている。自ら学ぶ能力は未だ発展途上で、現在のところは人間が手を貸して、仕事効率を挙げる程度の使い方に留まっているというのだ。確かに、それが現在の状況だろう。ニューラルネットワークのちからを存分に活用するGoogleの検索エンジンも、人がそれを活用してこそ仕事に役立つようになっている。

ホモサピエンスが最初に道具を創りだして以来、私たちは生活のために新しい道具の使い方を学習し続けてきた。ときに、作業は完全にテクノロジーにより行われるようになったものもある。人類はそうした状況にも適応し、自分たちの能力を発揮する方向を見つけてきているのだ。ただ、現代になって変化のスピードは急速に上がっている。

AIはシンギュラリティを目指している。人工知能自らが情報を取捨選択して学習を続けていくような世界の実現を目指しているのだ。世界に「スーパーインテリジェンス」を登場させようと狙っているわけだ。そうした時代はまだ少々先のことのようだが、AIに対する教育方法は人類に対しても使えるのではないかと思う。AIに実現させようとしているように、人類の教育でも「自ら学ぶ」ことを強化していく必要がある。そうしたトレーニングを経て、人類は新たなテクノロジーを制御して、それを最大限に活用できるようになっていくのだ。世界経済フォーラムのレポートにもあるように、「創造性をさらに磨き、これから訪れる変化に備える必要がある」のだ。21世紀、AI時代の人材を育てるために、ふさわしい教育システムというものがあるはずだ。

原文へ

(翻訳:Maeda, H

Apple、米規制当局宛の文書で自動運転車への意欲を表明

180221810

Appleは米国道路交通安全局に政策提言書を提出し、成長しつつある自動運転車市場への参入意志を公に表明した。

最初にこの公式声明を報じたのはWall Street Journalだ。

Appleの自動車製品の詳細は声明文に書かれていない。しかし次の記載がある。

「Appleは機械学習技術を用いて自社の製品およびサービスをさらに賢く、直感的に、パーソナルにする。当社は機械学習とオートメーションの研究に多大な投資をしている。自動化システムが様々な分野に応用される可能性には大いに期待しており、自動運転はその一つだ」

Appleの製品基準責任者、Steve Kennerが書いたこの文書は、以下に挙げることを実現するための政策を提唱している:自動運転中に起きた事故の責任を明らかにすること、ユーザーのプライバシー、サイバーセキュリティーおよび身体的安全を確保すること、および自動運転車が公共に与える影響をできる限りプラスにすること。

もちろん急成長している業界に新たな規制を加えることは、新しいブランドや仕事や技術的ブレークスルーの機会を損うこともあれば、広げることもある。

Appleが強く提唱しているのは、自動者業界の新規参入者を既存のリーダーと同等を扱う政策だ。例えば、新しい自動車メーカーは自動運転車に関する情報を、安全に管理された方法で路上テストする前に、公開しなくてもよくするようにと声明は提言している。

この提唱は、Appleが結局ソフトウェアやOSだけではなく、自社ブランドの自動運転車を製造するつもりなのではないかという憶測を呼んでいる。

同文書は道路交通安全局(NHTSA)に対しても、ドライバー個人のプライバシーを保護する政策を作るよう勧告している。

Kennerが次のように書いている:

「Appleは、衝突または異常接近に関する状況および力学的データを、各企業が出所を特定されない形で共有することに同意する…データを共有することによって、業界は一社だけでは作り得なかった普遍的なデータセットを構築できる…

しかし、データ共有がコストやプライバシーを犠牲にすることがあってはならない。企業はプライバシーに関する個人の基本的権利を守るのに必要なリソースに投資すべきだと、Appleは信じている」。

Appleカーの噂は長年ネットを賑わせており、同社が自動車部門のトップにBob Mansfield指名したことで新たな展開を迎えた。Mansfieldはかつて、MacBook AirやiPad等の製品を扱う技術チームを率いていた。

しかしこの異動の後、Appleは組織変更を行い、自動運転車の「頭脳」の開発に注力すると報じられた。

もしAppleが、自動者業界参入に際して、ハードウェアとソフトウェアの両方を支配するという勝利への脚本に忠実であり続けるなら、いずれ同社の名を冠した自動運転車を目にする日が来るのだろう。

[原文へ]

(翻訳:Nob Takahashi / facebook

AIを活用してロゴデザインを行うLogojoy

logojoy-hero

ロゴをデザインしようと考えたことのある人なら、デザインにあたってはロゴを利用する組織の特徴やテイストの理解、また何年もの経験やさまざまな関連知識が必要であることに同意してもらえることと思う。そうした制作者の負担をすべて取り除いてしまおうとするのがLogojoyだ。AIおよび機械学習のノウハウを活用し、膨大なバリエーションも提示してロゴデザインを助けてくれる。実際に使ってみたが、なかなかのクオリティだ。

使い方はいたって簡単だ。ロゴを作りたい組織(モノ)の名前を入力して、アイコンや色などを選んでボタンを押すだけだ。あとはコンピューターの方が着々と仕事をこなして、できあがったデザインを見せてくれる。その中に最高のできだと思うものがなくても、「more」ボタンを押せば疲れ果ててしまうまで無限にロゴ候補を提示してくれる。

  1. process-1.jpg

  2. process-3.jpg

  3. process-2.jpg

  4. process-5.jpg

  5. process-4.jpg

細かな修正を指示して、コンピューターにそれに基づくバリエーションを提示させることもできる。

お気に入りのものが見つかれば、そのロゴをクリックすると実際にロゴをあしらったビジネスアイテムのサンプルが表示される。

logojoy-examples

利用例もおしゃれで使ってみたい気分を盛り上げる。

実際に利用すると決めたなら「Buy」ボタンで即座に購入することができる。Basic版、Premium版、Enterprise版があり、さまざまな用途で使うのであればPremium版を購入することになるだろう。価格は65ドルだ。この価格を高いと思う人もいると思うが、正直な話、このサービスから提供されるもののクオリティは価格に十分見合うものとなっている。Fiverr99designsでデザイナーを探すよりもはるかに簡単で、かつハイクオリティのものを即座に入手できるのがすばらしい。もちろんさまざまなサンプルをみたあとでも購入しないことを選択することもできる。

もしこのサービスから購入しない場合でも、デザイナーに方向性を示すためのツールとして利用することもできるだろう。いくつかサンプルを選んで提示すれば、デザインプロセスに必要な時間を大幅に節約することもできるだろう。

ともかく、ロゴデザインに興味のある人はぜひこのツールを使ってみて欲しい。触ってみるだけで楽しくなることまちがいなしだと思う。

原文へ

(翻訳:Maeda, H

日本が世界最速のスーパーコンピューターを開発してディープラーニングの研究開発に拍車

fujitsu-supercomputer

日本は再び、スーパーコンピューターで世界のトップになりたいらしい。Reutersの報道によると、同国の経済産業省の予算要求の中には、195億円(1億7300万ドル)の新しいスーパーコンピューターの開発がある。その狙う性能は、130ペタフロップスである。

この数字は、中国がこの夏発表したスーパーコンピューターSunway Taihulightの93ペタフロップスを上回り、これを使用するAI Bridging Cloudインフラストラクチャは世界最速のスーパーコンピューターサイトになる。経産省の計画では、この超高速を利用して、ディープラーニングのようなAI技術の進歩を達成したい、としている。

その毎秒130千兆の計算能力はどんなマルチタスクでもへいちゃらだろうから、AIのほかにも、自動運転車の開発、医療、ロボットなどが予定タスクのリストに並んでいる。Reutersの記事によると、このスーパーコンピューターは日本の企業に有料でライセンスされる。

現在の初期的段階で経産省はこのコンピューターについて多くを語らないが、それが作られる場所になると思われる産業技術総合研究所のある幹部は、“われわれの知るかぎり、これだけ高速なコンピューターはほかにない”、と語っている。今月初めには富士通のOakforest-PACSが、その13.6ペタフロップスの性能で、日本の最速のコンピューターと認定された。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Googleが$3.4Mの学術投資によりモントリオールにAI研究チームを立ち上げ、とくにディープラーニングに焦点

google-shop171

Googleが、モントリオールのInstitute for Learning Algorithms(アルゴリズム学習協会)におけるAI研究に450万カナダドル(340万USドル)を投資した。この学術ファンドは、モントリオールやMcGillなど、モントリオールのさまざまな学術機関の教職スタッフ7名による3年間の研究開発活動をカバーする。またこの投資は、ディープラーニングのエキスパートYoshua Bengioの仕事に対する支援の継続であり、機械学習とAI研究におけるカナダの強力な専門的能力への賭けの継続でもある。この二つの研究開発分野は最近ますます、同社の中核的事業にとって重要になりつつある。

そのためGoogleは投資と並行して、モントリオールの同社オフィスに、ディープラーニングとAIに関する新しい研究グループを立ち上げる。その新しいチームは、本社のあるマウンテンビューのGoogle Brainチームの遠隔支部になり、Hugo Larochelleが指揮する。このディープラーニングのエキスパートは、ボストンでTwitterの仕事をしたのち、まさにこの新しい職責のために、故郷のモントリオールに帰還していた。

Googleによると、同社のこれまで10年間のカナダの学術研究への投資は、総額で1300億カナダドルぐらいになる。とくに今回の投資は、モントリオールでこれまで進めてきたAIスーパークラスターの形成を支援し、今それはAIスタートアップと学術研究の双方にとって、彼らが育つ温床になりつつある。Googleは、ウォータールーのエンジニアリングオフィスによっても、カナダにおける重要なプレゼンスを維持し、また多くのディープラーニング研究においてトロント大学のコンピューター科学教授でAIのエキスパートであるGeoffrey Hintonと協働している。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

GoogleのAI翻訳ツールは独自の内部的言語を発明したようだ、そうとしか言えない不思議な現象が

terminat-visio2-620x340

まあ、パニックになる必要もないけど、今やコンピューターが自分たちの秘密の言語を作って、たぶんまさに今、われわれについて話しているんだ。ちょっと話を単純化しすぎたし、最後の部分はまったくのフィクションだけど、GoogleのAI研究者たちが最近、おもしろそうで、しかも人間にとって脅威になるかもしれない、事態の進展に、遭遇しているんだ。

憶えておられると思うが、Googleは9月に、同社のNeural Machine Translation(ニューラルネットワークによる機械翻訳)システムが稼働を開始したと発表した。それは、ディープラーニングを利用して複数の言語間の翻訳を改良し、より自然な翻訳にする、というものだ。そのこと自体はクールだが…。

これの成功のあと、その翻訳システムの作者たちは、あることが気になった。翻訳システムに、英語と韓国語双方向と、英語と日本語双方向の翻訳を教育したら、それは韓国語を日本語へ、あいだに英語を介さずに翻訳できるのではないか? 下のGIF画像を見ていただきたい。彼らはこのような翻訳方式を、“zero-shot translation”(ゼロショット翻訳、分枝のない翻訳)と呼んだ(オレンジ色のライン):

image01

そして — その結果は!、明示的なリンクのない二つの言語でありながら、まあまあの(“reasonable”)翻訳を作り出したのだ。つまり、英語はまったく使っていない。

しかしこれは、第二の疑問を喚起した。形の上では互いにリンクのない複数の概念や語のあいだの結びつきをコンピューターが作れるのなら、それは、それら複数の語で共有される意味、という概念をコンピューターが作ったからではないのか? 一つの語や句が他のそれらと同じ、という単純なレベルではなく、もっと深いレベルで。

言い換えると、コンピューターは、言語間の翻訳に自分が用いる概念(共有される意味概念)を表現する独自の内部的言語を開発したのではないのか? ニューラルネットワークの記憶空間の中では、さまざまなセンテンスがお互いに関連し合っているのだから、その関連の様相から見て、言語とAIを専門とするGoogleの研究者たちは、そうだ、と結論した。

A visualization of the translation system's memory when translating a single sentence in multiple directions.

翻訳システムの記憶の視覚化: 一つのセンテンスを複数方向へ翻訳している

この中間言語(“interlingua”)は、日・韓・英の三言語の文や語の類似性を表している表現の、ずっと深いレベルに存在しているようだ。複雑なニューラルネットワークの内部的処理を説明することはおそろしく難しいから、今これ以上のことを言うのは困難だ。

非常に高度なことをやってるのかもしれないし、あるいは、すごく単純なことかもしれない。でも、それがとにもかくにもある、という事実…システムが独自に作ったものを補助具として使って、まだ理解を訓練されていない概念を理解しようとしている…もしもそうなら、哲学的に言ってもそれは、すごく強力な‘才能’だ。

その研究論文は、Arxivで読める(効率的な複数言語翻訳に関する論文だが、謎のような中間言語にも触れている)。システムが本当にディープな概念を作ってそれを利用しているのか?、この疑問への答は今後の調査研究の課題だ。それまでは、最悪を想定していよう。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

ビデオ中のモノと音の関係を自動的に把握するAIシステム

902d9921-2a12-4436-a2de-9d8950b893d7_1-e69384d6cc1a0a85503d32bf1b2dd7a2

Disney Researchの新研究についての情報が入ってきた。ビデオに登場するさまざまなオブジェクト(牛、車、小さな石など)と、そのオブジェクトが発する音(「モー」とか「ブルンブルンッ」など)を自動的に結びつけるというものだ。目的の音以外はノイズとして無視する。あるオブジェクトが発する特定の音のみを記録して、サウンドエフェクトとしても利用できるようになるわけだ。

このシステムの素晴らしいところは、ビデオを流せば自動でオブジェクト+音の結びつきを把握するところだ。茶色と白の大きなモノが、いつもうめくような音を出していたとしよう。AIがそれを認識して、茶色と白の一定の大きさのオブジェクトは同様な音を発するものであると認識するのだ。

「さまざまな音声入りのビデオから、オブジェクトと音のつながりを学習していくことができるのです」と、Disney Researchでリサーチアソシエイトを務めるJean-Charles Bazinが言っている。「ビデオカメラで映像と音を記録すれば、基本的にはそれらがすべて学習教材として利用できるようになるのです」。

大した技術ではないと思う人もいるかもしれない。しかし実は特定のオブジェクトと音を結びつけて把握するのは、それほど易しいことではないのだ。Disney Researchが開発したシステムではビープ音や動作音、あるいはクラクションのような音を、音を発したオブジェクトと自動的に結びつけて把握するのだ。

「ビデオ映像から流れてくる音を特定の物体と結びつけるのは、かなり難しいことなのです」とDisney ResearchのバイスプレジデントであるMarkus Grossも言っている。「特定の音にのみ注目する仕組みを作り出し、コンピュータービジョンを活用する応用分野に新たな可能性を開いたと言えます」。

「車を扱ったビデオがあり、そこにエンジン音も収められているとしましょう。同じ音がいつも聞こえてくるのなら、システムはその音が車と結びついたものであると判断します」とBazinは説明する。「ビデオには、いつも聞こえてくるわけではない音も収められているでしょう。あるビデオでは聞こえるものの、他では聞こえないような音があった場合、それはノイズであると判断して排除するような判断を行なっているのです」。

このプロジェクトはまだ始まったばかりのものであるとのこと。しかしたとえばビデオに登場するものに自動的にサウンドエフェクトを加えるような仕組みも、間もなく登場してくるのかもしれない。映画スタジオにおいても利用できるようになるかもしれないし、またピクチャーブックなどにも新しい可能性を与えられるかもしれない。Disney Researchの研究レポートはこちらから入手できる。

原文へ

(翻訳:Maeda, H

SisenseのSlack, Skype, Facebook Messenger, Telegram用ボットはBIへのアクセスを非技術系一般社員にまで日常化・民主化する

facebook-bot

複数のデータソースを結びつけてそれらを単一のダッシュボード上に要約するSisenseは、データとの対話性を広げる技術に積極的に挑戦する。この前はAmazon Echoとの統合を発表し、ユーザーがAlexaにデータをリクエストできるようにした。

そして今日は、ボットの統合。対象がEchoからメッセージングアプリに変わった。今日のリリースがサポートしているのは、Slack, Skype, Facebook Messenger, Telegramという、定番中の定番だ。

SisenseのCEO Amir Oradによると、“最初にこの4つをパートナーとして選んだのは、企業ユーザーがとても多くて、ほとんどの企業が使っているからだ。いずれもAPIがあるから、これらのメッセージングシステムにSisenseのような外部システムがアクセスできる。このようなオープンなプラットホームこそが、企業経営の未来であり、コラボレーションの原動力だ”、という。

ユーザーは、質問をしたり、単純なリストから選択をしたりする。Slackの統合では、誰かが営業データのチャートをシェアしたら、ユーザーは“See Widget”(ウィジェットを見る)や“See Dashboard”(ダッシュボードを見る)選べる。ウィジェットを選んだら、アナリシスのウィジェットがチャートのインサイト(insight, データの奥深い意味)を提供するだろう。

Sisense Slack bot.

写真提供t: Sisense

ボットのメリットは、ソフトウェアビジネスのワークフローにインテリジェンスを持ち込むだけではない。巧みな設計のボットの真の長所は、ソフトウェアそのものの複雑性を隠してくれることだ。

“セルフサービスタイプのサービスと、データの視覚化技術によって、非技術系のユーザーでもデータを日常的に使いこなせるようになった。うちのようなビジネスインテリジェンス(BI)・ボットは、そういうセルフサービスの上で、日常の仕事環境にデータのインサイト(データの洞察的意味)を直接提供する。〔宿主であるSlackなどの上で日常的にBIを提供する。〕

いちいち、何かをクリックしたり、セレクトしたり、ときにはコピー&ペーストしたり、という、ここ30年間のソフトウェアとの対話方式と違って、対話的操作がより会話に近いものになる。ボットは、自然言語によるソフトウェアとの対話に似た感覚を与え、うまく行けばソフトウェアの隠れた価値を浮かび上がらせる。直接、非技術系のユーザーに対して。

一見ギミックのようだが、実は、Sisenseなどが提供するデータを、顧客企業内のできるだけ多くの人びとに届ける、クリエイティブな方法だ。このようなツールは、データへのアクセスを大幅に民主化し、しかもデータのエキスパートの手を煩わせずに、情報への広範なアクセスを(スタッフだけでなく)ラインのビジネスユーザーにも与える。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

GoogleのCloud PlatformがGPUマシンを提供するのは2017年前半から、ただし機械学習SaaSとAPIはますます充実

google_data_center_2

Googleが今年前半に立ち上げたCloud Machine Learningサービスは、Google自身によれば、早くも“急成長プロダクト”の一つになっている。今日同社は、このサービスの新しい機能をいくつか発表し、機械学習のワークロードを動かしたいと思っているユーザーとデベロッパーの両方にとって、さらにサービスの利用価値を増そうとしている。

これまでGoogleは、競合するAWSやAzureのように、ハイエンドのGPUを使う仮想マシンをデベロッパーに提供してこなかった。しかし、機械学習など、科学の分野に多い特殊でヘビーなワークロード、とくにそれらのアルゴリズムは、GPUのパワーを借りないとうまく動かないことが多い。

デベロッパーたちが一般的にGoogle Cloud Platform上で機械学習のワークロードを動かせる、そのために仮想マシンのGPUインスタンスが提供されるのは、Googleの発表によると、2017年の前半だそうだ。料金は、そのときに発表される。

なぜGoogleは、もっと前からこのタイプのマシンを提供しなかったのだろうか? Google自身、機械学習に非常に熱心だし、競合相手のAzureやAWSはとっくに提供しているというのに(Azureは今日(米国時間11/15)、OpenAIとパートナーシップを結んだ)。

しかしデベロッパーは、Googleの既存のCloud Machine Learningサービスを使って自分の機械学習ワークロードを動かすことはできる。そのための構築部材TensorFlowも利用できる。でもCloud Machine Learningが提供しているような高い処理能力と柔軟性を、Google既存のプラットホームで利用することが、まだできない。

今のGoogleはデベロッパーに、カスタムの機械学習モデルを構築するためのサービスと、機械学習を利用した、すでに教育訓練済みのモデルをいくつか提供している(マシンビジョン(機械視覚)、音声→テキスト変換、翻訳、テキストの情報取り出しなど)。Google自身が機械学習で高度に進歩しているし、独自のチップまで作っている。そこで今日のGoogleの発表では、Cloud Vision APIの使用料が約80%値下げされた。またこのサービスは、企業のロゴや、ランドマークなどのオブジェクトも見分けられるようになった。

そしてテキストから情報を取り出すCloud Natural Language APIは、今日(米国時間11/15)、ベータを終えた。このサービスは、構文分析機能が改良され、数値、性、人称、時制なども見分けられる。Googleによると、Natural Language APIは前よりも多くのエンティティを高い精度で認識でき、また感情分析も改善されている。

消費者向けのGoogle翻訳サービスは、今ではカスタムチップを使っている。またデベロッパー向けにはCloud Translation APIのプレミアム版が提供され、8つの言語の16のペアがサポートされる(英語から中国語、フランス語、ドイツ語、日本語、韓国語、スペイン語、トルコ語、など)。サポート言語は、今後さらに増える。プレミアム版では、これらの言語に関しエラーが55から85%減少した。

この新しいAPIは主に長文の翻訳用で、100言語をサポートする“標準版”は、短い、リアルタイムな会話テキスト用だ。

さらに、まったく新しいプラットホームとしてCloud Jobs APIがある。この、あまりにも専門的で奇異とすら思えるAPIは、求職者と仕事の最良のマッチを見つける。つまり、仕事のタイトル、スキル、などのシグナルを求職者とマッチングして、正しいポジションに当てはめる。Dice やCareerBuilderなどのサイトはすでにこのAPIを実験的に使って、従来の、ほとんど検索だけに頼っていたサービスを改良している。このAPIは、現在、特定ユーザーを対象とするアルファだ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

機械学習の応用例デモ8種をサイト訪問者がいじって遊べるGoogleのAI Experiments、コードのダウンロードもできる

ai_experiments

Googleの機械学習や人工知能の仕事はおもしろいものが多いが、商業的というより、ややアカデミックだ。でも人間は、そんな、手で触れないものでも、なんとか触(さわ)って理解したいと思う。そこでGoogleは、この新しい技術の小さなデモを集めて、AI Experimentsという展示サイトを作った。

目的は、人びとが機械学習の応用例をいじって遊んだり、コードをダウンロードして原理を理解することだ。今展示されているのは8つだが、そのうちの4つは今すぐにでもWeb上で対話的に体験できる。

giorgio

Giorgio Cam(モバイルがおすすめ)は、ユーザーのカメラが捉えた物を識別し、その言葉で韻を踏み、汽笛で警告を鳴らす。

Quick, Draw!はユーザーのスケッチを認識する絵辞書。ユーザーがいろんな物の絵を描いて、この辞書を教育できる。

drummachine-google

Infinite Drum Machineは、ユーザーが指定した音列に似た音を集める。それらをシャッフルして鳴らすと、MatmosやMira Calixのようなビートにもなるだろう。わざと、そうしてるのだ、と思うけどね。やり過ぎるとひどい騒音になるので、ご注意を。

Bird Soundsは、その名のとおり。鳥の鳴き声をAIがそのリズムや音調で分類している。あなたの家の窓の外でいつも鳴いてる鳥は、そこに見つからないかもしれないけど、鳴き声をpoo-tee-weetなんて書いてある図鑑よりは、ましだな。

そのほかのデモも、ダウンロードしたり、例を見たりできる。たとえばAI duetは、あなたのキーボードの演奏を真似て、それをより高度にしようとする。そしてThing Translatoは、物を見せるとその物の名前を翻訳する。実用性ありそう。

そのほかの実験展示物はここにある。訪問者が自由に出展できるから、今後はもっと増えるだろう。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Googleの自動運転車の「切り返し」は名人級

1lg91n5_e58xl7c5s2ahfua

Googleは自動運転プロジェクトの進展に関する月例レポートを発行し、恒例の自動運転による総走行距離223万0175マイルの数字と共に、自動運転車が「切り返し」のように複雑な作業をいかにこなしているかを紹介している。

切り返し(three-point turn)は、運転免許テストの定番であり、行う場所によっては非常に難易度が高い。Googleによると、自動運転車は360度全周ビジョンや極めて正確な距離測定能力等を持つため、この種の作業では人間よりずっと有利だ。

その結果、自動運転車は通常の切り返しとは異なるが全体としての効率が高くなる方法があることがわかった ― しかし、それは人間の同乗車にとっては理想的なユーザー体験ではない。人間は、車が自分の理解できる振舞いをして動く方が心地よく感じる。そのためにGoogleは、単に切り返しの動作を行うだけでなく、乗っている人が「自然に感じる」方法をとるよう車たちに教え込んだ。Googleのテスト走行車は週に延べ1000回くらい路上で切り返しを行っていると同社は言っている。

Googleはこのレポートに、テスト車が関わったあらゆる事故についても記載しており、10月26日号にも1件報告されている。自動運転車が時速3マイル(4.8 km/h)で走行中、時速6マイル(9.6 km/h)の車に追突され軽い接触事故が起きたが、責任は人間側にあり損傷は最小限だった。

Googleチームがテクノロジーにユーザー体験を組み入れると同時に、困難な技術的課題を解決していくのをを見るのは興味深い。自動運転技術が長期的にユーザーに受け入れられるためには、良いユーザー体験が安全問題と同じくらい重要なので、歩調を合わせて開発していくのは賢いやり方だ。

[原文へ]

(翻訳:Nob Takahashi / facebook