書評―『グーグルに学ぶディープラーニング』

TechCrunch Japanでも機械学習やディープラーニングを含めた人工知能について何度も取り上げている。最近ではGoogleのリアルタイム翻訳や日本発のニューラルネットワークを利用した線画着色システムの記事を掲載している。

そこでこうしたトレンドを横断的に見渡せる入門書があると便利だろうと考えていたが、 最近、日経BPから刊行された『グーグルに学ぶディープラーニング』が役に立ちそうなので紹介してみたい。

本書ではまず人工知能の一部が機械学習、機械学習の一部がディープラーニングという位置づけを説明し、続いてGoogleのデータへの取り組みを中心として実例が紹介される。「入門」篇ではニューラルネットワークを利用したディープラーニングが解説されている。ニューラルネットワークの入力層では画像の各部分の明暗などの物理的情報が得られるだけだが、脳のシナプス構造を模した層を重ねるにしたがって高度な情報が生成され、最後に「この写真はネコだ」というような判断が下される。60ページのイラストはこの関係が直感的にわかりやすい。

後半では企業の導入事例が紹介されている。特に三井住友フィナンシャルグループではディープラーニングをクレジットカード不正の検知に利用して大きな成果を収めているというのが興味ある例だ。オンライン取引の不正検知では数年前からアメリカでディープラーニングを利用した取り組みが注目されているが、日本の大手銀行系組織でもすでに実用化されているようだ。

本書はIT実務者、企業管理職向けの入門書なのでディープラーニングの積極面の紹介が中心となっている。そこからはやや脱線するかもしれないが、「弱いAI」と「強いAI」について補足しておいてもいいかもしれない。「強いAI」というのは「人間の知能そのものを再現する」ことを目標にしたアプローチで、初期のAI研究の主流だったが、実はことごとく失敗している。通産省が主導して鳴り物入りで10年間も開発を続けた日本の第5世代コンピュータは「強いAI」のいい例かもしれない。

その後「汎用知能」を目指す「強いAI」に代わって、「結果を出せればよい」とする「弱いAI」が登場した。1997年にチェスの世界チャンピオンを破ったIBMのDeep Blueに対して「強いAI」から「本当の知能ではない」という批判が出た。このとき、コンピュータ科学者のDrew McDermottはNew York TimesにYes, Computers Can Think (イェス、コンピュータは思考できる)という記事を書いた。この中の「Deep Blueが本当は考えていないというのは飛行機は羽ばたいていないから本当は飛んでいないというのと同じだ」という反論は「弱いAI」の立場を代表する言葉としてあちこちで引用されるようになった。

本書でも詳しく紹介されているが、機械学習が成果を挙げるには、機械の能力の進歩と同時に機械に学習させるための膨大なデータが必要となる。つまりハードウェアの能力とインターネットの普及によるデジタル情報量の爆発が「弱いAI」を可能にしたといえるだろう。あるマシンにネコが写っている写真を10万枚入力するとそのマシンはネコが認識できるようになる。「弱いAI」の立場からは機械がネコを認識できれば当面それでよい。

人工知能は現在ガートナーのハイプ・サイクルにいう「流行期」に入ってきた。人工知能がニューラルネットワークやディープラーニングによって強化されると、次第に「汎用知能」を構成したいという誘惑が生じる。つまり「強いAI」的な考え方の復活だ。「機械が知能をもち、なんでもできるようになる」という「強いAI」的約束はわかりやすく、流行期の過剰期待を作り出すのに非常に効果的だ。

しかし、流行期の山が高ければ幻滅の谷も深くなる。このあたりは人工知能利用にあたって現在もっとも警戒しなければならない点だろう。『グーグルに学ぶディープラーニング』の末尾ではGoogleの機械学習の責任者ジア・リー氏にインビューしている。そこでリー氏が「AIの技術ありきではなく、現実世界で解決すべき課題の内容そのものが私たちにとって最も大切」と語っているのは重要な指摘だ。

本書は日経BPの専門誌、日経ビッグデータに掲載された記事を中心に再構成、補筆したものだという。日経ビッグデータの杉本昭彦編集長から献本いだいた。

滑川海彦@Facebook Google+

人工知能でサイト改善提案「AIアナリスト」の開発元が3.5億円の調達、電通との提携も視野に

Google Analyticsをサイトに導入すると訪問数やコンバージョン率など様々なデータが取れる。しかし、情報が多すぎて、具体的にサイトの何をどう改善させたらいいか迷ってしまうこともあるだろう。「WACUL(ワカル)」が提供するウェブサイト分析の人工知能「AIアナリスト」は、Google Analyticsのアクセス解析を元に、課題発見から課題ごとの改善方針提案まで自動で行うサービスだ。本日、WACULは総額3.5億円の第三者割当増資を実施したことを発表した。引受先は、電通デジタル・ファンドとジャフコの2社だ。

企業のマーケッターはサイトのパフォーマンスを改善するのに、Google Analyticsのデータを見て改善策を立案し、施策を実施した後は効果検証するといった一連の作業を行っているだろう。WACULのAIアナリストは、サイト分析からサイトの改善提案までを自動化する。またマッケッターがサイトの改善策を実施したら、その後のアクセス状況の効果検証までサービス内で把握できる。AIアナリストの利用料は月額4万円からだ。

WACULは、前職でユーザビリティコンサルタントを務めていた大津裕史氏が2010年9月に創業した会社だ。2015年6月にはジャフコより総額3億円の資金調達を実施した。AIアナリストは2015年4月にサービスをローンチし、登録サイトは9000を超えたそうだ。

今回の資金調達は、AIアナリストの開発を進めるとともに技術開発やR&Dに充てる考えだ。また、今回引受先に電通デジタル・ファンドが参加しているが、電通グループとは業務提携することも視野に入れているという。WACULはプレスリリースで以下のようにコメントしている。

「今回の電通デジタル・ファンドからの資金調達は、多くの広告・メディアに関する豊富なデータを持つ電通グループとデータ分析に強い弊社、両社の強みを活かした業務提携までを視野にいれています」

日本発のPaintsChainerはAIで線画を自動着色―ニューラルネットワークが驚異の能力

2017-02-03-paintschainer

スケッチが趣味という人は多いだろう。しかし線画を着色するという作業にはあまり魅力を感じないかもしれない。それなら最新のデジタルアート・テクノロジーが助けになる。

Chainerというのは非常に汎用性の高いニューラルネットワークのフレームワークだ。PaintsChainerはこのChainerフレーワークをベースにスケッチを自動的に着色してくれるプロジェクトだ。コンテンツが線画でさえあれば作成したツールは問わない。各種のフォーマットがサポートされている。JPG、PNG、GIFはもちろんTIFFでもよい〔ただしαチャンネルはサポートしていない〕。

ユーザーが線画を選んでウェブページにドラグ・アンド・ドロップするだけでシステムは水彩画ないし色鉛筆スタイルで着色を実行する。

Left to its own devices, the tool comes up with interesting color choices.

ヒントなしで作業させるとこのAIツールは自分の趣味で着色を行う。

もちろんユーザーはどの部分をどんな色で着色すべきかツールに正確に指示することができる。しかしブラウザ内に表示されるツールバーのカラーパレットから色を選んで希望の場所に点を打つことでAdventure Timeの登場人物とピカチュウの例のようにヒントの入力ができる。ヒントを細かく指定するほど仕上がりもよくなるようだ。いずれにしても自分で着色するのに比べればはるかにシンプルだ。

ofy8l1hn8utva2l4k1x7odgrmehec9mw_0

特に驚きなのはこのシステムがいっさいのヒントなしでも着色を実行できることだ。ガイダンス・システムを通じてわずかなヒントを与えるだけで出来栄えは大きく改善される。現在PaintsChainerを利用した多数の画像が公開されている。下に貼ったような非常によく描けたオリジナル線画も多い。Twitterで#PaintsChainerというハッシュタグで検索できる。

〔日本版〕ベースとなるAIフレームワークのChainerのサイト。PaintsChainer開発者tai2an氏の「自動着色デモ公開」のツイート。

[原文へ]

(翻訳:滑川海彦@Facebook Google+

AppleがAmazon、Facebook、Google、IBM、Microsoftに次いでAI先導団体に加入

screen-shot-2016-06-14-at-5-06-12-pm

Bloombergの記事によると、Partnership on AI to Benefit People and Society(人間と社会の利益のためのAIに関するパートナーシップ)(なんという名前だ!)が今日(米国時間1/27)、Appleが他のテクノロジー企業と共に、このAI先導団体の創立メンバーとして参加する、と発表した。同団体のメンバー企業は、同団体としての研究プロジェクトや、AIのベストプラクティスの探究などに取り組む。

Partnership on AIが公式にスタートしたのは昨年の9月だった。その時点での創立メンバーは、Amazon, Facebook, Google, IBM, Microsoftの5社で、Apple, Twitter, Intel, およびBaiduは参加しなかった。

でもAppleは最初からの熱心な賛同者で、だから今日のニュースはむしろ、同社の関わりを公式化するものにすぎない。Siriの協同ファウンダーでCTOのTom Gruberが、Appleを代表する。メンバーの全容は、同パートナーシップのWebサイトでみられる。

そのリストを見てお分かりのように、メンバーには6社の企業代表のほかに、これまでAIに大きく貢献してきた個人も含まれる。それらは、Dario Amodei(OpenAI), Subbarao Kambhampati(Association for the Advancement of Artificial Intelligence & ASU), Deirdre Mulligan(UC Berkeley), Carol Rose(American Civil Liberties Union), Eric Sears(MacArthur Foundation), そしてJason Furman(Peterson Institute of International Economics)の計6名だ。

Partnership on AIの事業計画はまだ発表されていないが、AIに関する同団体名の研究論文は刊行されるだろう。また企業メンバーは、倫理や非差別、プライバシーなどについても書くだろう。第一回の全体会議は2月3日に行われる。

AIすなわち人工知能はすばらしいが、それが誰にとっても利益であるためには、何らかの倫理的な監視監督が必要だ。それにPartnership on AIは、テクノロジー企業が責任ある行動をしていることを示す、強力なロビー活動ができるだろう。それは信頼をかちとるための、良い方法だ。

またAppleとしては、今後優秀なAI技術者に来てもらうためにも、この機会を逃(のが)せない。今Appleは、AIのテーブルに空席が一つあることを公示している。同社の技術者たちも、研究論文を、対外的に公開している。AIの人材は獲得競争がますます激しいので、こういったいろんなやり方がますます意味を持つ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Google翻訳、リアルタイム翻訳機能を日本語でも提供開始

translate_-_cash_only-width-1023

Google翻訳はすでに日本語に対応しており、撮影した写真に含まれる文字を英語に翻訳することができた。しかしさらにワンステップ上のことができるのをご存知だろうか。カメラを標識やメニューなど日本語の書かれたものに向けるだけで、ただちに英語に翻訳してくれるようになっているのだ(逆もできる)。iOS版およびAndroid版のGoogle翻訳に搭載さGoogleのリアルタイム翻訳、日本語にも対応開始れているWord Lens機能が日本語に対応したわけだ。

リアルタイム翻訳を使ったことのない人は、どれだけ便利になったのかがよくわからないかもしれない。しかし日本語がほとんど使えずに日本に滞在することになってしまった人にとって、大変に便利なものであるのは間違いない。たとえば私の友人は、洗濯用の漂白剤だと思って別用途のものを買ってしまった。その漂白剤を使って洗濯したところ、一部分だけ色抜けしてしまい、残りの滞在期間をその服で過ごすはめになってしまった。手軽に翻訳することができれば、そのような失敗も減るに違いない。

Word Lensは、Googleが2014年に買収したQuest Visualにより開発されたものだ。以後、GoogleはWord Lensの機能をGoogle翻訳アプリケーション内で成長させつつある。2015年に最初に対応したのはスペイン語だった。最近になってGoogleは翻訳アプリケーションにAIによる機能強化を加えつつあるところだ。これにより、翻訳制度やスピードを大幅に改善しつつある。それもあり、今後はますますWord Lens対応言語が増えていくことは間違いない。

原文へ

(翻訳:Maeda, H

GoogleがRaspberry Pi用のAIツール/ライブラリの提供を充実、TensorFlowも

pi3_angled_web

Googleは今年、人気の高いマイコンボードRaspberry Piを使っているメイカーたちのプロジェクトをパワーアップするために、開発ツールの充実を進める。それらは、顔認識、情動認識、音声のテキスト変換、自然言語処理、感情分析、予測分析などのソフトウェアツールだ。

今Googleは、Piメイカーへのアンケート調査で、彼らが欲しいと思っているツールを探っている。そのアンケートは、Raspberry Pi FoundationのWebサイトで見られる。

“Googleの関心は、メイカーたちのためのスマートツールを作ることであり、そのためには、みなさんの要望をお聞きする必要がある”、とアンケートは述べている。

アンケートの回答者は、まず関心分野を選ぶ: ホームオートメーション、ドローン、IoT、ロボット、3Dプリント、ウェアラブル、そして機械学習。Googleの対象が相当広いことが、これらからも分かる。

Piの協同ファウンダー、Eben Uptonはこう語る: “大きな機会がありそうなのは、ディープラーニングとAIだ。Googleはこの分野でとても強い、とくにDeepMindを買収してからはね。現実世界のさまざまな仕事をするRaspberry Piを、それらのサービスに結びつけると、もちろんいろんなメリットがあるだろう。ユーザーが何を志向しているのか、アンケート調査の結果を早く見たいね”。

イギリスの非営利団体であるPi Foundationは、この安価なマイコンキットで大成功し、昨年9月には1000万台を突破した。4年半前に最初にリリースしたときには、全部で数千台も売れれば十分、と彼は予測していた。

今ではPiメイカーたちのための開発ツールも豊富にあり、たとえば顔認識のプロジェクトなら、OpenCVのコンピュータービジョンライブラリを使える。

しかしGoogleが提供するのは、いろんなAIツールのセットであり、ユーザーもいろんなタイプのプロジェクトに容易に取り組める。たとえば機械学習のためのオープンソースのライブラリTensorFlowも、元々はGoogleで作られたツールだ。

Googleは前からPiに関心を持ち、2013年には100万ドル相当ぶんのこのマイコンをイギリスの15000名の学童にプレゼントした。多くの若者がプログラミングできるようになることは、Pi Foundationの中核的ミッションであると同時に、Googleにとっても重要なことだからだ。

またGoogleは以前、PiをベーシックなWebサーバーにするためのオープンソースツールを開発した。そしてGoogleのIoTプラットホームAndroid Thingsは、最新最強のPi、Pi 3をサポートしている。

AndroidのPi用公式バージョンはまだないけど、AndroidをPiの上で動かす方法はいろいろある(やや制約はあるが)。Googleが本物の実装に取り組んでいるらしい兆候もある。

それについてUptonはこう言う: “公式のAndroidに関するニュースはないけど、うちの社内のソフトウェアプラットホームとしてはPIXELとRaspbianに前から一貫して力を入れている”。

Googleのスポークスパーソンは、Piの開発ツールについてまだとくに詳しい情報はないけど、“今後とも、さらに多く、オープンソースの機械学習ツールをPiのコミュニティと共有していけることは、すばらしい。今年はもっといろいろあると思うから、ずっと見ていてほしい”、と語った。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Bots_aliveキットは、AIでおもちゃのロボットに、生き物のような可愛らしさを吹き込む

CESではガジェットの数が足りなくて困るということはなかったし、来月の玩具フェアでもガジェットに不足することはないだろう。素晴らしい人工知能を搭載したロボットとガジェットたち。とはいえ実は「人工知能」という意味では不足しているのだ。しかし、実際のAI研究者による、より慎ましやかなアプローチが、生き物のような振舞を生み出す、巧妙な手段を作り出した。既存のロボットを使ったシンプルでエレガントなソリューションによってそれは実現されている。

このキットの名前はbots_aliveというもので、現在Kickstarter上でわずか1万5000ドルを募集中だ。私はCESの会場で、作成者のBrad Knoxと、この技術について話をすることができた。大袈裟に喋って踊るロボットのおもちゃが当たり前とされていた会場の中で、そのシンプルなデザインに強く心惹かれながら私は会場を後にした。

それはこのようなものだ。まず1台のHexbug Spiderを手に入れることから始まる。これは25ドルで購入できるリモコン式の歩行ロボットだ。これは通常は小さな赤外線コントローラーで操作される。そして、このロボットをスマートにするために必要なのは、その頭にマーカーを貼り付けて、キットに付属する赤外線発生デバイスをスマートフォンのヘッドフォンポート(ほら、これが私の懸念していたことだ)に差し込み、アプリを立ち上げることだけだ。

bots_alive_playアプリは、コンピュータービジョンを用いて、ロボットならびにキットに含まれているブロックの位置を追跡する。またアプリはロボットの頭脳としても働き、ロボットにどのように動き、どこへ向かうかを指示する。ルールは単純だ:ロボットは、青いブロックを好み、赤いブロックを避ける。これは、それぞれはシンプルな要素が組み合わさって、シンプルではない遊びを生み出す例の1つだ。小さな迷路を作ってその道を歩かせたり、もしロボットを2台持っているなら、相手に向かって戦わせたりすることもできる。

しかし、Knoxのチームが、他の巧妙なプロセスを経て予め与えた生体模倣パターンによって、ロボットの振舞はより複雑で自然なものだ。そしてもちろん、機械学習も使われている。

このロボットのAIを構築するために、長年MITのメディアラボで働いてきたKnoxは、その振舞を実際の動物のものに基づくことを決定した。特に人間の振舞を用いている。チームはコンピュータービジョンシステムに、様々なシナリオで人間が操るロボットを見せた。例えば赤いブロックの向こうに青いブロックがあるシナリオ、赤いブロックが迷路になったシナリオ、等距離にある青いブロックのシナリオなどだ。

bots_alive_aug移動のためのベクトルデータといったシンプルなものだけではなく、ミスや、躊躇、障害物への衝突、なども同時に記録されている。そして、彼らはこの記録の全てを機械学習システムで処理してモデルを作った。それを使ってロボットを操り、その結果をテストしているが、まだ調整と個性の付与を行っている段階だ。こうしたプロセスについての詳細は、Knoxが今日(米国時間24日)投稿したブログ記事で読むことができる。

結果として得られたのは、不規則に振舞うロボットだ。間違った方向に少し進み、止まっては辺りを見回し、足跡を辿り直す。まあ要するに、小さな本当の生き物の振舞いのように見える。私個人にとってそれはとても魅力的だし、そのちょっとした気まぐれさは、事前に記述された人工的なものには見えない。

それは生命の存在を錯覚させる方法を考えさせる、興味深い事例だ。ヒト型ロボットが、予めキャプチャーされたダンスをきっちりと踊る動きは不快だが、この小さな虫のようなプラスチックのロボットが見せる、ちょっとした振舞は、人の気持を惹きつけることになんとか成功している。

特定の動作による強化を通じて「学習」する能力といった、機能の追加も計画されている。そして将来的には動作に対して、より明示的な制御を行うことができるようになるだろう。

bots_aliveキットはKickstarterの支援者には35ドルで提供される。もしHexbugも一緒に欲しい場合には60ドルだ。クラウドファンディングの終了後は、bots_aliveのサイトをフォローして、キットを購入することができる。

[ 原文へ ]
(翻訳:Sako)

自動車保険も将来はAIになる…Liberty MutualがAPIポータルを開設

solaria-labs-api

Liberty Mutual Insurance傘下のテクノロジーインキュベーターSolaria Labsが、デベロッパーが同社のAPIにアクセスするためのポータルを作り、そこでは一般公開されているデータと独自の保険情報を併用して、ユーザーにより安全なルートを教えたり、万一の事故時の損害を見積もる。

そのAPIのAIは、事故後の修理費を見積もる。Liberty Mutual InnovationのアシスタントVP Ted Kwartlerがメールにこう書いている: “自動被害見積もりアプリのAIは、匿名化された請求写真で訓練されている”。ユーザーが事故に遭ったら、たとえば折れ曲がったフェンダーの写真を撮ってアプリにアップロードする。するとAIはそれを何千もの写真と比較して、それとよく似たパターンを見つけ、スマホを持って現場にいるユーザーに修理費の見積もりを伝える。

APIはまた、車の盗難、駐車情報、事故などに関する一般公開情報を集めて、ユーザーに安全なルートや駐車スペースを教える。さらに、独自の保険情報により、ユーザーにとってより役に立つ情報を提供する。“保険の専門知識と消費者情報を合わせて、利用できるサービスやデータの整理の仕方などをガイドする”、とKwartlerは述べる。

写真は匿名化されてAIの訓練に利用され、ルートを判断するために使うデータは一般的に公開されている。“Liberty Mutualは同社が集めた、個人を同定できるデータを、法律で定められた機関以外のサードパーティにシェアしない”、とKwartlerは付言している。

このAPIを使ってみたいデベロッパーはSolaria LabsのWebサイトで登録すれば、今後のアップデートも受け取れる。なお、APIの一般供用は数か月後からだ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

人工知能が人工知能をプログラムする時代がやってきた

2017-01-20-ai-shutterstock_175625024

プログラムをプログラムするのは誰か? 近々、人間ではなく別の人工知能プログラムが高度な人工知能プログラムを書けるようになるという。MITのレポートによれば、Google Brain始め機械学習ソフトを開発している多くの組織でこのことが確認された。人工知能によって作成された人工知能プログラムの性能が人間が開発したプロダクトと同等であるか、場合によっては上回わっていたという。

すると機械学習プログラムを書けるデベロッパーでさえ失業の危険にさらされるのだろうか? 早まってはならないが、そういうことではない。まず現状では人工知能に人間に役立つ機械学習プログラムを書かせるためには膨大なコンピューター処理能力を必要とする。Google Brainにおける「人間以上のプログラム」を書かせる実験では人工知能に画像認識プログラムを書かせるために画像処理能力があるプロセッサを―なんと!―800台も協調作動させる必要があったという。これは安くつく話ではない。

しかしこうした手法の優位な点もはっきりしている。必要なコンピューター・リソースを減少させるための開発も進んでいる。機械学習の開発を機械まかせにできるとなれば、この分野における人的資源の不足という問題を根本的に解決できるだろう。現在スタートアップや大学は少しでも機械学習分野の知識がある人材を獲得しようと激しく争っている。また膨大なデータをコンピューターに読み込ませてパラメーターを調整して機械学習システムを訓練するという退屈な仕事をコンピューター自身に任せることができるなら、研究者は人間にとってもっと役立つ、あるいはもっと重要な分野に集中できる。

AIが別のAIをチューニングすることには別のメリットもある。現在のAIシステムの学習曲線はかなり急だ。つまり意味のある結果を得るためには最初に大量のデータを必要とする。AIによる機械学習の改良が実用化されれば、当初必要とされるデータ量を大きく減少させることができるかもしれない。自動運転システムにも影響が大きいだろう。自動運転車の開発の場合、プロトタイプで延べ100万キロも走り回ってやっと実用化の入り口にたどり着いたかどうかというのが現状だ。

MITのメディアラボでは他の機械学習ソフトを利用できるソフトの開発をオープンソースで公開している。将来はあらゆる産業分野でコンピューターによって人工知能をプログラミングすることが主流となっていくはずだ。

AIの専門家は機械学習システムの構築には人間の努力が大量に必要であることを指摘するだろう。それは正しいが、同時にそうした努力の一部分であれ、機械に肩代わりさせることができれば影響は大きい。機械学習システムの開発のハードルが大きく下がるはずだ。自動運転システムを含め、数多くの分野でAIを利用したプロダクトが市場に出るだろう。しかし同時にAIの普及が人間の努力を不要にするとかあらゆる分野で失業を増やすといった不安が根拠のないものであることも明らかだ。

Featured Image: mistery/Shutterstock

〔日本版〕人工知能と機械学習の関係についてはいろいろな立場があるが、ここではとりあえず人工知能という上位区分に機械学習も含まれると解釈している。

[原文へ]

(翻訳:滑川海彦@Facebook Google+

MicrosoftはモントリオールのAI R&Dオフィスの規模を倍にして、学術研究に700万ドルを投資する

microsoft-cortana-build-2014-000

Microsoftはモントリオールを拠点とするMaluubaの買収に続き、同市での投資を続けていて、これによりモントリオールは熱い人工知能の街になった。Microsoftは水曜日に、モントリオールに構える同社のリサーチ並びにデザインオフィス(Maluubaも買収後そこに移動する)を、今後2年の内に倍の規模にすることを、スイスのダボスで発表した

マイクロソフトはまた、モントリオールがAIの発信基地になるのを助ける学術コミュニティにも投資する予定だ。 同社は、モントリオール大学に600万ドルの「贈り物」を、そして今後5年間にわたってMcGillの研究に100万ドルを拠出する予定である。モントリオール大学はモントリオール学習アルゴリズム研究所(Montreal Institute for Learning Algorithms)の本拠地で、有名なAI研究者Yoshua Bengioによって率いられている。BengioはMaluubaに対して買収前から助言をしており、同社がMicrosoftの一部になってからも引き続きその役割を果たすことになっている。

モントリオールとそのAIコミュニティは、Microsoftからはその大きな「AIの民主化」のゴールの一部であるとみなされている。この「AIの民主化」というフレーズ(AIを一般の人の中に溶け込ませるという意味)はMicrosoft CEOのサトヤ・ナデラによって用いられたものだ。ナデラはAIフィールドにおける研究の拡大と製品の努力とともに、彼の会社のゴールを描くためにこの言葉を用いた。

モントリオールとゴールドラッシュの様相を呈しているAI技術研究に対して投資を行っているのはMicrosoftだけではない。Googleは、Bengio研究所に340万ドルの投資を行うと同時に、市内に新しいAI研究所を開くことを昨年の終わりに発表している。

[ 原文へ ]
(翻訳:Sako)

機械と人間の役割分担を見つめ直してみよう

South Korean Go game fans watch a television screen broadcasting live footage of the Google DeepMind Challenge Match, at the Korea Baduk Association in Seoul on March 9, 2016. 
A 3,000-year-old Chinese board game was the focus of a very 21st century showdown as South Korean Go grandmaster Lee Se-Dol kicked off his highly anticipated clash with the Google-developed supercomputer, AlphaGo. / AFP / JUNG YEON-JE        (Photo credit should read JUNG YEON-JE/AFP/Getty Images)

【編集部注】執筆者のKatherine BaileyAcquiaのデータサイエンティスト。

最近騒がれている機械学習のバイアスや倫理上の問題から、数字とデータには限界があることは明らかだ。偽ニュースの失態や、自然言語処理の分野で有名な研究者がその解決にあたっている様子を見ると、自分たちが解決しようとしている問題を明確にすることこそが1番難しい問題なのだとわかる。いつどのようにスマートマシーンを使うか、という判断には人間の力が欠かせない。そしてスマートマシンを賢明かつ安全に利用するためには、目的のレベルが上がるほど、人間が積極的に関わっていかなければならない。

スマートマシンを使った物事の判断における、クリティカル・シンキングの能力も、そろそろ計算能力のように高めていく必要があるということだ。計算能力に関しては機械を頼ることができる一方、クリティカル・シンキングについてはそうはいかず、近いうちに機械が人間に追いつくということもないだろう。倫理的な問題について考えたり、どのような問題であれば計算能力を頼りに解決することができるかという判断を下すのは人間固有のスキルなのだ。

数字とデータだけでは足りない場合

最近一部の研究者が、顔の特徴からその人の犯罪性を予測できる根拠をみつけたと発表した。”Automated Inference on Criminality using Face Images(顔写真を使った犯罪性の自動推測)”という論文の中でXiaolin WuとXi Zhangは、顔写真から犯罪者と非犯罪者を高い確立で見分けるために、さまざまな機械学習の手法を用いてどのように分類システムを構築したかについて述べている。結局この論文は、不完全かつ無責任に機械学習技術を利用しているとして激しく非難された。この場合、恐らく彼らの計算は間違っていなかったが、そもそものアイディア自体に問題があったのだ。

ふたりはアルゴリズムを信用するあまり、自分たちの思い込みに気づけなかった。彼らは司法制度には偏りがないといった、自分たちの発見を完全に色眼鏡で見てしまうような思い込みをしていたのだろう。このような問いについて考えられないと、どれだけ優秀なスマートマシンを持ってしても、どうにもならない結果に陥ってしまう。

スマートマシンの勝利

恐らく近年で最も印象的なスマートマシンの功績は、昨年3月の囲碁の世界チャンピオンとの対決におけるAlphaGoの勝利だろう。Googleの子会社であるDeepMindの研究者が開発したこのシステムは、複数の機械学習の手法を驚くほど洗練された形で利用し勝利をおさめた。

倫理的な問題について考えたり、どのような問題であれば計算能力を頼りに解決することができるかという判断を下すのは人間固有のスキルだ。

その手法の中には、何百万という数の過去の試合のデータをもとにしたものや、AlphaGo自身との対戦結果をもとにしたもの、また全ての手(宇宙に存在する原子の数よりも多い)を考えなくてもいいようにショートカットを考案するための最新の統計手法などが使われていた。しかし試合自体はスマートマシンがあったからこそ勝てたものの、そのシステムを設計したのは人間にほかならない。

同じ言葉の繰り返しのように聞こえるかもしれないが、私たちがスマートマシンを使って問題を解決したとき、それは単にその問題がスマートマシンによって解決できる問題であっただけで、だからといってスマートマシンが人間と同じレベルに達したということにはならない。つまり、もしもある課題がデータと数字の組み合わせで解くことができるものであれば、それはスマートマシンが解決すれば良い課題だ。そしてデータと数字だけでは解けない問題に対しては、まずシステムを設計しなければならない。

欠かすことのできない人間の役目

もしもAlphaGoを設計する人のクリティカル・シンキングに誤りがあれば、結果的にAlphaGoの囲碁のレベルは下がるだろう。しかし犯罪性の予測のような問題の場合、クリティカル・シンキングのレベルが低いと、システムによって誤って犯罪者だと認識されてしまった人はもちろん、ほかにも恐ろしい結果が生まれることになる。

スマートマシンに対する恐れの中心には、人間が置いてけぼりにされることへの恐れがある。つまり、ひとたび機械が人間のできることを全てこなせるようになってしまえば、人間の必要性がなくなってしまうのではないかと多くの人が考えているのだ。しかしこれは単に、スマートマシンとは何かということへの誤解から生じる不安でしかない。

スマートマシンは人間のために人間がつくった単なるツールに過ぎない。機械は囲碁の試合で勝てるかもしれないが、その試合を選ぶのはいつも人間だ。

私たちはツール自体の素晴らしさ(確かに本当に素晴らしいツールはたくさんあるが)ではなく、そのツールがうまく設計されているかや、道理に反することなく人間の役に立っているかといった点にもっと注目しなければならない。トレーニングデータにバイアスは含まれていないだろうか?フォールス・ポジティブの結果何が起きてしまうのか?このような問いに答えられるのは人間だけであり、その絶対的な必要性は今も昔も変わらない。

原文へ

(翻訳:Atsushi Yukutake/ Twitter

Udacityがディープラーニングのナノ学位基礎コースを立ち上げ、399ドルで志願者全員入学

tc-09

コンピューターの計算能力と効率がこのところ大幅に向上したため、至るところでディープラーニング(deep learning, 深層学習, 多段ニューラルネットワーク)が利用されるようになった。ディープラーニングは今では、自動運転車やコンビニエンスストア、それに病院などでも使われている。しかしこの分野は技術者の人材がまだ豊富でないため、優秀な人材が希少財として奪い合いになり、そのことが、応用分野を広げ、難しい問題を解決していくためのボトルネックになっている。そこでオンライン学習サイトUdacityは、この前導入したAIコースに加え、このほどYouTubeのスターSiraj Ravalとパートナーして、ディープラーニングのナノ学位*を付与する基礎コースを開始する。〔*: ‘ナノ学位’の簡単な説明はこの記事の冒頭訳注に。基礎コースは、ナノ学位のさらに初等コースで、Udacityの新企画。〕

Udacityは今後、このような単科の基礎コース(Foundation Programs)を重視していく意向だ。これは完全なナノ学位コースの受講がまだ無理な段階の初学者の、階段の一段目をとにかく上がりたい、という学習ニーズに応える。この新しいコースは、17週で多くを学ぶが、時間は毎週3〜4時間程度で、とにかくディープラーニングを利用していろんな問題を解くために必要十分な知識を習得する。Ravelはそれを、技術というより、考え方の習得だ、と説明する。

Ravalには、短時間で大量の情報を人に伝えた経験が豊富にある。YouTubeのコースでは期間が最大で2か月だが、彼自身が感心するほど、生徒たちの達成度は高い。

“最後に生徒たちは自分のGitHubアカウント上に5つのプロジェクトを与えられるが、その最終プロジェクトはGenerative Adversarial Networks*、この分野の最先端の技術だ”、とRavalは語る。“基礎とは言っても相当本格的だから、雇う側も安心できるだろう”。〔*: Generative Adversarial Networks, 仮訳: 生成的対立的ネットワーク, 参考記事

Ravalが考える理想の生徒とは、Pythonができて代数の基礎が分かること。プログラミングをまったくやったことのない人は、対象外。むしろ、現役のプログラマーがディープラーニングのスキルを身につけることが目的だ。

多くの人に‘入学’してもらいたいUdacityは、この基礎コースの特典として卒業後「自動運転車」や「人工知能」ナノ学位コースに無条件で入学を認め、100ドルの助成金を進呈する。これらのナノ・コースは、入学志願者の数%(自動運転は16%、AIは4.5%)しか入れない、競争率の高い狭き門だ。

“これはUdacityにとっても新しい展開であり、今年はナノ学位基礎コース(Nanodegree Foundation programs)をもっと増やしていく、とUdacityのCMO(chief marketing officer)Shernaz Daverは語る。

ディープラーニング基礎コースの授業料は399ドル*、入学志願の受け付けは今日(米国時間1/13)から1月20日まで。授業は20日に始まり、6ヶ月のコースを完了した者が卒業資格を得る。〔*: 基礎コースは全員入学。志願書提出時に399ドルを払う。〕

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

マイナー企業がAmazon Alexaに挑戦して負けないために…キッチン専用のHello Eggが考えた勝負手とは?

音声アシスタントではAmazonのAlexaがリビングルームを独占しようとしているし、家全体の主(ぬし)になる可能性もある。でも負けを宣言したくない小企業RnD64は、黒い卵型の音声アシスタントを作り、キッチンからならまだ入れる、と考えている。

このHello Eggと名付けられた音声アシスタントは、料理が専門で、スクリーンにもなるかわいい目が、お友だちになりたい、とユーザーに訴える。スクリーンにはもちろん、料理のレシピやテクニックが映り、もちろん音声も伴う。これがあればたとえば、アボカドにいきなり包丁を入れる前に、正しい切り方が分かる。

今年のCESには、音声で動かすデバイスがたくさん登場した(その多くはAlexaがベース)。だからこの製品はCES 2017の二番煎じ三番煎じにすぎないのかもしれない。しかも料理のレシピや作り方を知るためには、たぶんスマートフォンのアプリで十分だ。生(なま)の肉を触った手でスマホを握ることに、なるだろうけど。こんな厳しい競争環境の中で生まれた、卵ちゃんだが…。

AlexaのEchoも、レシピぐらいは教えてくれるが、Hello Eggはあくまでもキッチンに特化して、それならではの多様なユースケースと機能を提供する。Echoは今のところ音声のみだが、RnD64は、レシピにはヴィジュアルな要素も必要、と考えた。

そのほかの、音声アシスタントならではの機能もたくさんある。音楽ストリーミングや、キッチンにある食材や消耗品の在庫管理なども。Echoはこれからどんどん進化するだろうから、キッチンだけは譲り渡したくないHello Eggは十分な差別化に努めようとする。卵のなめらかな表面に映しだされるスクリーンは、それだけでも十分な差別化と言えるかもしれない。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

「AIを搭載」は「全て自然」同様の技術的ナンセンスだ

computer-with-mask

人工知能と卵の値段の共通点は何だろうか?

さて、今あなたはお店で9から10種類の卵からどれかを選ぼうとしている。ある1つがあなたの目を捕える「全て自然(All natural)」。まあ、いいんじゃないかな、自然であることは良いことだし、30セントばかり高いだけだし。ということであなたはそれを買う。さて、そうして選んだ鶏や卵は他のものよりも、より「自然」であるかもしれないし、そうではないかもしれない。なぜなら公式には、それどころか一般的な合意としても、自然に対する定義は存在していないからだ。それは何でもないもののために、あなたに30セント余計に支払わせるための戦略だ。全く同じことが技術でも問題になりつつある…そこにAIを伴って。

公式には、あるいは一般的に合意された人工知能の定義は存在しない。どうしてそうなのかについて興味が湧いたのなら、WTF is AI(いまさら聞けないAI入門【英語】)という記事を投稿してあるので、楽しんで貰いたい。しかし、こうしたコンセンサスが欠如しているからといって、大小様々な企業がAIを革新的な機能として取り込むことを止めるわけではない。そのスマートテレビ、スマートプラグ、スマートヘッドフォン、その他のスマートなガジェットに対しての取り込みを(ここで言う「スマート」とは、もちろんもっとも緩い意味で使われている。多くのコンピューターのように、彼らは岩のように使えない代物なのだ)。

ここには2つの問題がある。

それはおそらくAIではない

最初の問題はこれだ。AIは非常に曖昧に定義されているため、あなたのデバイスなりサービスなりがそれを持っていると言うのは本当に簡単だ。そしてテレビ番組や水利用パターンの膨大なデータをニューラルネットワークを供給するから、どうしたこうしたというもっともらしい響きを持つちんぷんかんぷんで、それをバックアップするのだ。

「それは完全にデタラメな用語です」と言うのは、名前は明かさないがある有名ロボット会社のCEOだ。とはいえそのロボットの中には多くの人がAIと呼んでもおかしくはないものが採用されている。それは有能さの認識を生み出すために用いられるマーケティング用語なのである。何故ならほとんどの人は無能なAIを想像することができないからだ。邪悪なことはあり得ても(「申し訳ありません、デイブ、私にはそれはできません」)、無能なことはありえない。

最近機能リストに詰め込まれている、こうしたバズワードとしてのAIの大活躍は、部分的には人工知能と結びついたニューラルネットにその原因がある。深入りしてみなくとも、この2つは同じものではないのだが、マーケティング担当者達はまるで両者が同じようなものであるような扱いをする。

最近私たちが耳にするニューラルネットワークとは、数学的分析を通じてデータのパターンを解きほぐすことによって、大量のデータを処理する斬新な方法である。この方法は、脳がデータを処理する方法に触発されているので、人工知能という用語が当てはまる1つの文脈に沿っているとは言える。しかし他のより重要な文脈では、とても誤解を招きやすいものでもある。

人工知能は、独自の意味や含意を持つ用語であり、それらはニューラルネットワークが実際に行うものとは一致しない。私たちはAIを十分には定義できていないかもしれないが、いくつかのアイデアは持っている。そして、これらのソフトウェアは興味深く、汎用性があり、作成に当たって人間の思考プロセスからインスピレーションを得てはいるものの、それらは知的ではないと言っても過言ではない。

また開発のどこかの時点で、畳み込みニューラルネットワークだろうが、ディープラーニングシステムだろうが、手持ちの何かが使われた場合には、そのソフトウェアは「AIを搭載」の類であると謳われることになる。

何しろ専門家でもAIが何かを言うことができないのだ、消費者に何を期待できるというのだろうか?それは単なる機能リストの1項目に過ぎず、他の部分同様に、読む人にとっては不透明なものである可能性が高い。しかし、彼らはAIがハイテクの産物だと知っているし、大企業によって採用が続いていることも知っている。なのでAIを搭載する機器は良いものに違いない。ちょうど「自然」卵を他のブランドに優先して選ぶ人のようだ。たいした正当性もないままに安易にラベルが箱に貼られただけかも知れないものを。

そして、もしそれがあったとしても…

第2の問題は、何がAIであり何がそうでないかを決めるような、ある程度の基準が仮にあったとして、私たちがあるシステムがその基準に合致すると認めたとしても、AIによるソリューションが適さない種類の問題が存在するということだ。

例えばある企業は、テレビ番組を推薦するAI搭載エンジンを売り込んでいる。それについて考えてみよう。そうした主観的なトピック周辺で得られる限られたデータセットに、ディープラーニングシステムを適用することで、一体どんな洞察が得られるのだろうか?「CSI:マイアミ」を好きな人への推薦を決めることは難しいことではない。彼らは「PERSON of INTEREST 犯罪予知ユニット」やその類のものを好むだろう。これらは、精査の後にやっと明らかになったり、把握のためにはスーパーコンピュータを何時間も使ったりしなければならないような、微妙で隠れたパターンではない。

そして実際、Jaron LanierがThe Myth of AI(AIの神話【英語】)で適切に説明したように、データは人間に由来するので(例えば「これを見たひとは、こちらも見ています」といったもの)、人工知能は、それが下す全ての判断に関して完全に人間の知性に依存しているのだ。嗜好の発見、何を好み何を好まないかの選択、エピソード・演技・演出の品質の判断といった難しい部分は、人間が既に済ませている。そしてコンピューターがしていることといえば、人間の知性を検索して関連性の高い結果を返していることだけなのだ。

wtf-machine-learning

同様のことは、あなたの使用状況をモニターして何かを推薦したり、あなたがそこにいないことを知ったときにエネルギーを節約する、サーモスタットやシャワーヘッドのようなIoTデバイスにも当てはまる。AIをあなたの家庭にもどうぞ!牛乳が少なくなっていることを教えます!誰がドアの前にいるのかを識別します!これらも、同様に見せかけのものだ。データセットはまばらでシンプル、出力は2値、または非常に限られたものに過ぎない。そして、あるデバイスが、あなたが過去30年間使用してきたものほどは無能ではないという理由だけで、それがスマートだということにはならない。逆に、知能に対するこれらの主張は実に… 人工的だ

AIが多くのものを有意義に改善できるというのは、ハイテクカンパニーが作り上げたフィクションなのである、ついでに言うならばそもそもAIそのものがフィクションなのだ。こうしたモデルが結論に到達する方法はしばしば不明瞭であるため、機械学習に依存することは彼らの目的にとって有害である可能性すらある。

これもまた、しばしば卵の容器に見られるようなマーケティングトリックの1つなのだが…これまでに、この卵を産んだ鶏は皆菜食主義で育成されている、という主張を見たことがあるだろうか?さあ思慮深くなろう!問題は鶏は菜食主義者ではないということだ、彼らは何百万年もの間ミミズや虫を食べて生きて来た。そして、実際には、生来の食生活を奪うことは、生活と卵の質に悪影響を及ぼす可能性が高い。(ついでに言えば「放牧で育てられた(pasture-raised)」も類似の宣伝文句だ)。

多分今あなたはこう考えていることだろう、よしわかったミスターAIエキスパート殿、もしこれらのどれもがAIではないというなら、何がそうなのか?それに私が、クリックを誘うような見出しを書く段になると、AIという用語にうるさく言わないのは何故なのか?

まあ、これはすべて私の意見に過ぎないのだが、私たちが大企業や大学によって研究開発されている、概念としてAIの話をしているときには、少々定義を拡大してみても構わないと思う。そこで私たちが話題にするのは本当に芽生えつつある段階のソフトウェアなので、多くの人がAIとして理解するような傘の下に収まるアイデアに対して、細かくあげつらうことには意味がない。しかし企業がその本質的な曖昧さを目眩ましの宣伝文句に使うときには、私は反対の声を挙げるべきだと考えている。だからそうしたのだ。

誤解を招き、誇張され、あるいは完全にでっちあげられた機能リストは、ハイテク業界における神聖なる伝統なので、こうした動きも目新しいものではない。しかし、新しい胡散臭い言葉が、トレンドを血眼で追うマーケティング担当者の語彙に加わろうとするときに、きちんと指摘しておくことは良いことだ。おそらくいつかは冷蔵庫の中に本当にAIを見出す日も来るだろう。しかしそれは今日ではない。

 

(訳注:「申し訳ありません、デイブ、私にはそれはできません」というのは「2001年宇宙の旅」に出てくるAIの台詞)

[ 原文へ ]
(翻訳:Sako)

FEATURED IMAGE: BRYCE DURBIN / TECHCRUNCH

RemedyはKhosla Venturesが支援するAI利用の低料金遠隔医療サービス

2017-01-11-remedy-team

現在アメリカではDoctor on Demand、HealthTap、MDLive、American Wellなど多数のオンライン診療サービスが利用可能だ。しかしスタートアップのRemedyはユニークな遠隔診断サービスで、 AIを利用して疾病の原因を低コストで突き止めるが可能だという。

多くの遠隔医療(telemedicine)はやや漠然とした用語だが「AI採用を採用」したとしている。HealthTapは最近Dr. AIという医療に特化したスマート検索アルゴリズムを発表した。 Remedyもこの範疇に入るだろう。ただしこうした「AI採用サービス」のうちどれくらいが本当の意味で人工知能を利用しているかを判断するのは難しい。しかしユーザーが訴える症状に基づいて大量の医療情報を検索し原因を突き止める役に立つスマート・アルゴリズムをAIと呼ぶなら、RemedyはAIを採用しているといっていい。

RemedyにはKhosla Ventures、Greylock Discovery、Alsop Louie Partnersに加えてGoogleのBrain AIチームの責任者Jeff Deanが投資しており、健康保険への加入の有無を問わず1回30ドルでAIを利用した専門医による診断を受け、処方箋を発行してもらうことができる。

Remedyはある意味でIBMのDr. Watsonに似ている。IBMの医療AIは長年医師を悩ませていたきわめて珍しいタイプの白血病を正しく診断することができた。

ただしRemedyは比較的新しいサービスで、ベータテストを終了したばかりだ。今のところ、医師が診断を下せなかった症例の診断には成功していないが、このサービスの大きな目的は、健康保険に加入していなくても低料金で診断を受けられるようにするところにある。

また他の遠隔医療サービスとは異なり、Remedyはその時点で対応可能なランダムな医師ではなく、特定の医師を「かかりつけ」として患者とペアにすることができる。

Remedyのユーザーは医師を選び、症状を入力した後、自分のビデオを撮影して医師に送る。Remedyはこれによって患者の実在を確認できる。医師はこうしたデータにもとづいて訴えがあった症状の原因を診断する。

ファウンダーのWilliam Jackは自身がてんかんの治療で当初誤った診断を受けたことがきっかけでこのサービスをの開発を思い立ったという。

TechCrunchの取材に対してJackは自分の体験を詳しく説明した。「最初にこの発作が起きたとき、病院に行って自分が体験したことを説明した。しかし、偏頭痛という全く誤った診断をされてしまった。私はそこで2つの重要な教訓を学んだ。医師は患者に何が起きたのか正確な情報を得られるよう十分な時間をかけない。第2に、医師がスマート・システムにアクセスできるなら、つまり患者の訴えをそのつど正確に記録し、関連する症状を検索できるなら、確実な証拠に基づいた診断が可能になるはずだということだ。そうしたシステムが利用できるなら、医師はもっと精度の高い診断を下せるようになる」。

医師がこうした検索システムを利用できたなら、自分は長年にわたって原因不明の発作に苦しめられずにすんだかもしれないと考えている。

Remedyのユーザーは10分間のオンデマンド・ビデオによる遠隔診療だけでなく、「かかりつけ」の医師に随時、電話で症状を報告することができる。

遠隔診療ではOne Medicalも同様のオプションを備えている。患者は専用アプリまたはブラウザを通じてオンラインの医療ポータルにログインし、担当の医師にメッセージで症状を報告することができる。さらに患者はメッセージ・システムを用いて医師の援助を受けることができ、必要があれば現実の病院で受診することができる。JackはRemedyも将来はこうした現実の病院での医療にサービスを拡張したいと考えている。

この部分、つまり現実の病院での診療は現在の遠隔医療の大部分が欠いている機能だ。American Medical Association〔米国医師〕によれば、現在の受診の70%はテキスト・メッセージないし通話によって処理可能だという。しかし患者が現実に病院を訪れる必要がある場合も30%ある。

Jackは将来Remedyのサービスが現実の病院における医療にまで拡張された場合、One Medicalその他と直接競合することになる可能性を認めた。

しかしRemedyはスタートしたばかりだ。開発チームも参加医師も小人数だが、Jackによると、医師の一人はNFLのプロフットボール選手を診察しているということだ。いずれにせよJackはAIを利用したスマート検索シテムにより小数の医師で多数の患者を診療できるようになり、運営コストを大幅に下げることができると期待している。Remedytが実際にどれほどの効果をもたらすのか今後の成果が注目される。

[原文へ]

(翻訳:滑川海彦@Facebook Google+

テクノロジーの”見えない化”のススメ

invisible-bot

【編集部注】執筆者のElizabeth McGuaneは、Intercomのリードコンテントデザイナー。

プロダクト開発の世界では毎年バズワードが生まれているが、今年のバズワードは間違い無くボットだろう。

私たちはボットを含め、つくったものには通常名前を付ける。これはほとんどの人が疑問にも感じないようなプロセスだ。HAL 9000Herのようにボットは予め擬人化され、iPhoneにはSiriが、AmazonのEchoにはAlexaが、そしてFacebook MessengerにはPSL(Pumpkin Spice Latte)Botが搭載されているように、私たちがすぐにコンピューターとの関係性を構築できるように準備されている。

名前を付けることで、私たちは無機物に対して信頼感を抱くことができ、対象物を支配下においていると感じることができる。デザイン用語で言えば、名前はアフォーダンス、つまり私たちが掴むことのできる持ち手のようなものなのだ。

Intercomのプロダクトデザインチームで言語のエキスパートとして働いている私にとって、ものに名前を付けるということは日常業務の一部だ。メッセージ系のプロダクト上で動くボットを開発し始めたとき、私はブレインストーミングで男性っぽいものや女性っぽいもの、中性的なものや機能的なものなど、何百個もの名前を考え出すつもりでいた。

しかし私たちはまず最初に、ボットや言語や名前とユーザーとの関係性を理解するためにテストを行うことにした。その結果、ボットにアイデンティティを与えることが必ずしも最良ではないということがわかった。ボットをSiriと呼ぶことには、車をBessieやOld Faithfulと呼ぶことほど関係性を構築する力があるとは言えないのだ。

会話とタイピングは全くの別物

音声認識機能が搭載されたボットを使うときは名前があると何かと便利だ。「Siri」、「Alexa」、「OK Google」といった呼びかけには、実質的にGoogleのウェブサイトを開いて検索ワードを入力するのと同じ効果がある。ユーザーが検索欄を見ると、彼らの脳は「何か検索したいものがある」という考えから、実際のアクションへと思考を移していく。世界中で1秒間に4万回以上も検索が行われている今、実際にはシステムに質問を投げかけて何らかの回答を待っているとしても、私たちはシステムと対話しているというような印象を持っていない。

しかしテキストベースのボットやチャットボットにおいては、名前はアクションに直結しない。人気の仕事向けメッセージプラットフォームSlackに備わっているSlackbotでも、ユーザーは予めプログラムされた回答を取り出すために「Hey Slackbot」などと呼びかける必要はない。

検索内容を声に出すことで、検索するという目的自体は果たせるが、私たちの注意はシステムとの交流に向けられてしまう。これには良い面と悪い面の両方がある。声は文字に比べて、より”人間っぽい”ものだ。昨年の8月に行われた研究によれば、私たちは同じ情報を耳で聞いた場合と目で読んだ場合、耳を介して得た情報の方が人間によってつくられたものだと考えやすい傾向があるとわかっている。

今日のデザイナーの成功は、ユーザーがその存在を感じないようなテクノロジーをつくれるかどうかにかかっている。

しかし人間らしさは苛立ちにつながる可能性もある。一日に「OK Google」と75回言う方が、同じ回数だけ静かにノートパソコンを開いて検索内容をタイプするよりも疲れる気がしないだろうか。

プロダクトデザインの観点から言うと、ボットとメッセージングプラットフォームの本質は同じだ。つまり人間同士が会話するために設計されたシンプルな要素をそのまま利用して、メッセンジャー内にボットを組み込むことができるのだ。

そのため私たちは、ボットの開発に向けて色々と試していたときに、ボットとユーザーのやりとりにもメッセージングプラットフォームの要素を応用しようとした。具体的には、テスト用のボットに名前を付け、人間のように「こんにちは。私はIntercomのデジタルアシスタントのBotです」と自己紹介をさせるようにしたのだ。

ユーザーからの反応は意外なものだった。ボットに不快感や苛立ちを感じた彼らには、人間っぽいコミュニケーションが全く好まれなかったのだ。とても軽い内容のやりとりだったにも関わらず、ユーザーはボットを邪魔で、自分たちの(本当の人間に話しかけるという)目的を妨げるような存在だと感じていた。

ボットの声に変化をつけて、あるときはフレンドリーに、またあるときは控えめで機械的な対応をするように設定するなど色々と試したが、結果はほとんど変わらなかった。

しかし私たちがボットの名前を取り去り、一人称代名詞の使用や自己紹介をやめると事態は好転しだした。どの要素よりも名前が1番の原因だったのだ。

誰が持ち手を握っているのか?

私たちは一世紀以上にわたって、ロボットにまつわる恐ろしい物語を自分たちで広めてきた。そしてその物語の中で私たちは、ロボットという存在を哀れむと共に疑ってきた。前述の通り、人間は道具に名前を付けるときにその支配権を主張している。この背景には、自分が実際に道具を使ってものごとと関わりあい、仕事をする主体であると感じたいという私たちの思いが存在するのだ。

デジタルツールは実世界のツールとは心理的に全く異なる性質を持っている。デジタルツールには実際に握れる持ち手が存在しないのだ。職人が自分の手で修理できる金槌とカリフォルニア(Intercomで言えばダブリン)かどこかのデザインチームが設計・開発したチャットボットの間には大きな違いがある。

Intercomに務めるほとんどのライターとは違い、私の仕事はユーザーに気付かれないほど良いとされる。コントロール(または支配)とは、デジタルツールを設計する上で大変重要な概念だ。あるプロダクトの中でユーザーが目にする言葉のほとんどは、ライターである私ではなく実際にプロダクトを使うユーザーにコントロールを与え、プロダクトの理解を促すために存在する。ここでのゴールは、ユーザに直感的にプロダクトを使ってもらうことであり、スクリーンに表示される言葉は金槌の持ち手でしかない。

名前やアイデンティティが付加されることで、スクリーン上のツールは直感を越え、それまでとは違った仮想ツールとなり、ユーザーとの関係性にも大きな変化が生じてくる。しかしユーザーは必ずしもその変化を求めておらず、好ましいものだとも感じていない。

これは目新しさが原因なのかもしれない。時間が経てば仮想ツールという存在に慣れて、ユーザーもツールを信用するようになるかもしれない(最近のニュースの見出しを見ているとそんな気もしないが)。しかし何百という数のロボットに関する映画や本で描かれている内容に反し、テクノロジーに人間性を持たせるというのは、私たちがロボットに慣れるための方法としては適していないのかもしれない。

デザイン上の他の考え方として、テクノロジーとはほとんど目に見えないものだと主張する人もいる。SiriやAlexaがその例になるのかもしれないが、実際に”見る”ことができないため、ユーザーはバックグラウンドに隠れたボットに気づかないというのが彼らの主張だ。しかしこの考えが正しいとは言い切れない。

確かに人間は視覚的な生き物で、私たちは目で見たものに反応する。しかしそれ以上に人間は社会的な生き物で、私たちはコミュニケーションがとれるものに反応する。それゆえ私たちは持ち物に名前を付け、長い間妄想していたロボットに恐怖を抱いているのだ。

今日のデザイナーの成功は、ユーザーがその存在を感じないようなテクノロジーをつくれるかどうかにかかっている。テクノロジーはユーザーから見えなくなることで、本当の意味でのツールになれるのだ。そして言葉を扱うデザイナーの成功は、ユーザーが直感的にツールを使えるよう、言葉が前面に出てこないようなツールをつくれるかどうかにかかっている。

原文へ

(翻訳:Atsushi Yukutake/ Twitter

データサイエンスで癌に打ち勝つ


【編集部注】著者のNancy BrinkerはSusan G. Komenの創業者であり、癌の啓蒙に関する国際的コンサルタントである。この記事で示された意見は彼女個人による見解である。また共著者のElad Gil博士はColor Genomicsの会長兼共同創業者である。

癌治療の探求の複雑さは、何十年にもわたって研究者たちを困らせてきた。治療法は目覚ましい進歩を遂げてきたものの、癌は世界の主要な死因の1つとして残っているため、まだまだ厳しい闘いは続いている。

しかし、科学者たちはまもなく、その複雑さを別の方法で攻撃できる重要な新しい味方 — インテリジェント・マシン — を手に入れるかもしれない。

ゲームの世界の例を考えてみよう:昨年Googleの人工知能プラットフォームであるAlphaGoは、この宇宙にある星の数よりも多い動きを擁する囲碁という壮大で複雑なゲームの中で、韓国のグランドマスター李世乭(Lee Sedol)をディープラーニングという技術を用いて打ち負かした

機械学習とAIに用いられたものと同じ技術を、癌の治療が必要とする大規模な科学的パズルに適用することができる。

1つのことは確かである。より多くのデータを扱うことができなければ、これらの新しい方法で癌を克服することはできない。しかし例えば医療記録や、遺伝子検査、そしてマンモグラムなどを含む多くのデータセットが、私たちの最高の科学する心と私たちの最高の学習アルゴリズムからは手の届かないところに隔離されている。

良いニュースは、がん研究におけるビッグデータの役割が中心に置かれるようになり、大規模で政府が主導する数々の新政策が次々に進んでいることだ。例えばそうしたものの例には、米国退役軍人省のMillion Veteran Program、英国の100,000 Genomes Project、1万1000人以上の患者のデータを保持していて、あらゆる場所の研究者がクラウドを介して分析することができるNIHのThe Cancer Genome Atlasなどが挙げられる。最近の研究によれば、2025年までに20億ものヒトゲノムが配列決定される可能性がある。

遺伝子検査を含んだ新鮮なデータの需要を促進する他の傾向もある。2007年には、1人のゲノムの配列決定には1000万ドルのコストがかかった。現在はこれを1000ドル以下で行うことができる。言い換えれば、10年前は1人に対して配列決定を行ったものと同じ費用で、今は1万人をまかなうことができるのだ。その意味合いは大きい:特定の種類の癌のリスクが高いという突然変異があることを発見することは、ときに命を救う情報にもなり得る。コストが大衆にも手の届くようになるにつれ、研究もより大規模なものになる。

研究者たち(および社会)の主な課題は、現在のデータセットには、量と民族の多様性が欠けていることだ。さらに、研究者はしばしば制限的な法的条項や、共有パートナーシップを嫌う態度に直面する。組織がゲノムデータセットを共有している場合でも、契約は一般的に個々のデータセット毎に個々の機関の間で行われる。今日では偉大な作業を行ってきた大規模な情報センターとデータベースがあるが、アクセスを加速するためには標準化された規約やプラットフォームに関するより多くの作業が必要だ。

これらの新技術の潜在的な利点は、リスクの特定とスクリーニングを超えて行く。機械学習の進歩は、癌薬剤の開発と治療の選択を促進するのに役立つ。医師が患者と臨床試験を組合わせることが可能になり、癌患者のためのカスタム治療計画を提供するための能力を向上させるのだ(最も初期の成功例の1つがハーセプチンだ)。

私たちは、癌研究やAIプログラムにデータを利用しやすくするためには、3つのことが必要だと考えている。第1に、患者がデータを簡単に提供できるようになるべきだ。これは、医療記録、放射線画像、そして遺伝子検査などが含まれる。検査会社と医療センターは、データ共有が容易かつ合法的に行われるように、共通の同意書を採用する必要がある。第2に、AI、データサイエンス、そして癌の交差点で働く研究者には、より多くの資金が必要だ。チャン・ザッカーバーグ財団が医薬品の新しいツール開発に資金を提供しているように、医療アプリケーションのために新しいAI技術へ資金を提供する必要がある。第3に、すべての民族の人びとに焦点を当てて、新しいデータセットが生成されるべきだ。私たちは、癌研究の進歩にすべての人がアクセスできるようにする必要がある。

[ 原文へ ]
(翻訳:Sako)

製品化への道に潜む「AIの溝」の超え方

Blue Little Guy Characters Full Length Vector art illustration.Copy Space.

【編集部注】執筆者のSimon ChanはSalesforce Einsteinのプロダクト管理担当シニアディレクターを務めており、以前はPredictionIOの共同ファウンダー兼CEOでもあった。

AIが私たちの生活やビジネスをより良くしているという、うきうきするようなニュースを毎日耳にする。AIは既にX線写真を解析し、モノのインターネットを動かし、営業・マーケティングチームの次の一手を考え出すほどまでになった。その可能性は無限大に広がっているようにさえ見える。

しかし全てのサクセスストーリーの背景には、研究段階から抜け出せずに終わった無数のプロジェクトが存在する。というのも、機械学習の研究の成果を製品化し、顧客にとって本当に価値のあるものへと転換することは、理論上うまくいくアルゴリズムを組むよりもよっぽど難しいことが多いのだ。私が過去数年間に出会った企業の多くは同じ問題に直面しており、私はこれを「AIの溝」と呼んでいる。

最近行われたApacheConで、私はこの問題に関する考察を発表した。本記事では、AIを扱う企業が直面するであろう技術・プロダクト面での溝を越えるために必要な上位4つのポイントを紹介したい。

crossing-the-ai-chasm-new-2

技術面におけるAIの溝

新しいデータ AIとデータは切っても切れない関係にある。例えばチャットボットをトレーニングするためには、顧客からのリクエストとそれに対する正しい回答例をアルゴリズムに読み込ませなければならない。通常そのようなデータはCSVのように、きれいに整えられた静的なフォーマットで準備されることが多い。

静的データを使って、上手く機能するAIデモを開発することはできるが、実際に使っていくうちに賢くなっていくような、自動学習タイプのAIには常に新しいデータが必要だ。そのため各企業は機械学習モデル開発の早い段階で、新しいデータをもとに定期的にAIモデルがアップデートされるような仕組みを構築しなければならない。

一方でライブデータを利用するためには無数の技術的な問題を解決しなければならない。スケジューリングやアップデート時にダウンしない仕組み、プロダクトの安定性やパフォーマンスモニタリングなどがその一例だ。さらに新しく取り入れたデータのせいで何かが起きてしまったときのために、問題が起きる以前の状態へプロダクトを復元できるような仕組みも必要だ。これが次の論点にもつながってくる。

トレーニング用データの品質管理 AI企業は製品開発当初からデータ品質に気をつけなければならない。特にユーザーから集めたデータを利用する場合にはなおさらだ。機械学習のプロセスが自動化されること自体は素晴らしいことだが、それが仇となる場合もある。最近Twitter上で問題を起こしたチャットボットは、自動化が誤った方向に進んでしまった典型例だ。

実際のところ、AIの溝とはそこまで恐ろしいものではない。

件のチャットボットは自由に会話できるようになる前に、不要なモノを省いてモデル化された公なデータをもとにトレーニングされていた。しかしその後、現実世界のユーザーとの不適切な会話からデータを読み込み始めると、ツイート内容が急激に悪質なものに変化していった。ガーベッジ・イン・ガーベッジ・アウトは機械学習の基礎的な法則であり、優秀なAIシステムは問題の芽を発見すると、人間の手が加えられるように管理者へアラートを発するようになっている。

プロダクト面におけるAIの溝

正しいゴールに向けた最適化 どのような回答をAIに求めているかを明確にすることにAIの成功はかかっている。トレーニング開始当初から、インプットされる問題とその回答、そして何を良い・悪い回答とするかということをハッキリと決めておかなければならない。データサイエンティストは、このような基準をもとにAIモデルの正確性を見極めていくのだ。

まずはゴールの設定だ。AIを使う目的は売上の最大化なのか、ユーザーエクスペリエンスの向上なのか、手作業で行われているタスクの自動化なのか、それともまた別の目的があるのか?AIプロダクトが成功をおさめるためには、ビジネス上のゴールがきちんと反映された評価基準を利用しなければならない。

この点に関し、Netflixのアルゴリズムコンテストからは学ぶべきことが間違いなくある。Netflixは新しい映画レーティング・アルゴリズムの開発者に100万ドルを授与したものの、DVDレンタルから動画ストリーミングへサービス内容が移行したことから、当初のゴールが当時の状況にマッチせず、結局そのアルゴリズムを現実で利用することができなかったのだ。

評価基準を設定するときには、以下のポイントを抑えておく必要がある。1)本当に意味がある数値を計測する 2)新しいライブデータを使って評価を行う 3)関係者が理解でき、かつ重要だと思えるように評価結果を説明する。そして3点目は人間とAIの交流という重要なポイントにつながってくる。

人間とAIの交流 人間というのは複雑な生き物だ。そのため、人間とAIが関わり合いはじめると、研究所でデータだけを相手にしていたときには浮かんでこなかったような問題が生まれてくる。消費者は信用できないようなAIプロダクトは利用しない。そして企業は予測モデルがどれほど正確か見せることで信用を勝ち取ろうとするが、ほとんどの消費者はいくら素晴らしい数値を見せられても専門的な内容を理解することができない。

結果的に企業は、プロダクトのUXやUIを利用して消費者の信用を築いていかなければならなくなる。例えばAppleはバーチャルアシスタントのSiriを最初にリリースしたとき、ユーザーのいる国に応じてデフォルト設定の声の性別を変えていた。さらにGoogleの自動運転車では、可愛らしいフレンドリーな顔が表示され、安全性に不安を感じている利用者の気持ちを落ち着けるようになっている。アルゴリズムの見せ方は、問題だけでなく解決策にもつながっているということを覚えておいてほしい。

実際のところ、AIの溝を越えるということはそこまで恐ろしいことではない。よく練られた計画と共に、下ではなく前を見ながら進んでいけば良いだけなのだ。そしてAI第一の企業になるためには、顧客第一でなければならないということをお忘れないように。

原文へ

(翻訳:Atsushi Yukutake/ Twitter

新生Microsoftの展望―市場は引き続きサティヤ・ナデラのリーダーシップに好感

Microsoftがサティヤ・ナデラをCEOに選んだのは3年前になる。以來、Microsoftは運命の逆転を果たした。10年間にわたる不完全燃焼状態を脱し、成長株の地位を取り戻した。昨年もその勢いは続いた。

2016年にMicrosoftはクラウド・ベースのサービス提供企業への変身を続け、そのために複数の新たなプラットフォームをサポートした。LinkedInを262億ドルで買収するという大胆な賭けに出た。ハードウェアではSurfaceデバイスの拡充が続いた。こうした動きはすべてウォールストリートに歓迎された。Microsoftは Surface StudioでAppleのお株を奪った。デザイナーや各種のプロ向けデスクトップ機はこれまでAppleが独占的な強みを見せている分野だった。またHololensもVRの世界にMicrosoftが確固たる足場を築く努力として注目された。

株式市場は 2016年のMicrosoftをコアとなるサービスの運営に加えて、未来の分野にも大規模な投資をて行い巨大テクノロジー企業への道を歩んでいると見たようだ。

実際投資家のこうした考えは数字に反映されている。力強いリーダーの下で力強い成長がMicrosoftに2017年に向けての勢いをつけた。Azureクラウド・サービスは堅調だ。クラウド化の進行はAmazon AWSもテコ入れし、ウォールストリートも珍しく興奮した。Office生産性ツールはWindows以外のプラットフォームのサポートに本腰を入れるにつれてさらに快調だ。

ナデラのMicrosoftがいかに徹底的に変身したかは昨年11月にLinux Foundationに参加したことでもわかる。市場もMicrosoftがこれまでのしがららみを大胆に振り捨て、伝統と決別するつもりであることを認めた。 新戦略の採用には当然大きなリスクも伴うが、これまで企業の根幹を支える生産性ツールとして利益を産んできた会社に新しい成長の可能性を与える。

ナデラはMicrosoftの変身が必至になった時期にCEOに就任した。 モバイル・ビジネスは失敗し、全社的なりソースの再配分が避けられなくなっていた。変革は始まっていたが、ごく初期段階だった。改革は株価に対して上向きのようだった。しかし他社(Googleでさえ)と同様、賭けが結果を出すまでには時間がかかる。この間、Microsoftの売上の伸びはさほど目立つレベルではなかった。

大きな賭けには大きなリスクが伴う。2016年11月にMicrosoftは急成長中のビジネス・チャットのスタートアップ、Slackに対抗してTeamsというコラボレーション・ツールをリリースした。2016年初めにMicrosoftはSlackを80億ドル前後で買収することを検討していた。しかし結局資源を社内のSkypeとTeamsに振り向けることにした。Microsoftがエンタープライズ・コラボレーション分野に取り組むのはこれが初めてではない。2012年にはTwitterのエンタープライズ版、Yammerを12億ドルで買収している。だがMicrosoftはこの分野への参入で目立った成果を挙げていない。Slackが現在得ているような賞賛や清新なイメージを得ることに失敗している(なるほどSlackの成長はやや減速しているし、好印象はシリコンバレー所在企業だという点も影響しているだろう)。

MicrosoftはGoogleの失敗を教訓としているかもしれない。GoogleはNestやGoogle Fiberのような互いに関係が薄い垂直統合的分野に莫大なリソースを投じた。その結果、GoogleのCFO Ruth Poratはこうした新たな分野への投資にあたって「今後さらに慎重でなければならないだろう」と述べるに至った。Microsoftの新分野への賭けは、これに比べると同社のコア・ビジネスとの親近性が高い。そうであっても、エンタープライズ・チャットというような過去に失敗した分野への再参入にあたって非常に慎重な判断が求められるだろう。

そのような側面はあるが、株価は結局、成長率の問題となる。ウォールストリートでは新分野への賭けにGoogleやAppleのようになるのではないかと懸念する声があったが、Microsoftの成長をそうした声を吹き飛ばした。2016年にMicrosoftの株価は12%もアップした。過去2年では34%の上昇だ。それ以前、ほぼ10年にわたって時間が止まったような停滞状態にあり、投資家を失望させてきた大企業にしては驚異的な復活といえる。

2016年にMicrosoftは伝統的なエンタープライズ向けの巨人であるだけでなく、 コンピューティングがパソコンというデバイスの外に大きく拡張する時代に適合した未来をデザインする企業に生まれ変わった。Microsoftは自社OSが独占するハードウェアの世界に閉じこもった企業ではない。あらゆる主要プラットフォーム上で作動する多数のプロ向けサービスをサポートし、文字通りインターネット世界のバックボーンのひとつになろうとしている。

これに加えて、今やこの業界のほとんどプレイヤーが実験を始めている機械学習というトレンドがある。2016年9月のMicrosoft Igniteカンファレンスでナデラは基調講演のほとんどすべてを機械学習にあてた。ナデラは既存のデータを機械学習テクノロジーに適用し、Office 365のようなサービスを大幅に効率化するMicrosoftの計画を説明した。またMicrosoftは昨年初めに独自のバーチャル・アシスタントCortanaの利用をサードパーティーのデベロッパーに開放した。

こうした動きにはMicrosoft独自の部分もあるが、20017年にはGoogle Assistant、Amazon Alexa、Apple Siriなどのアシスタントの利用が急速に拡大し、ユーザーとの対話性に変革がもたらせることが予想させることに対するMicrosoftの回答といえるだろう。今年は既存サービスに機械学習の成果をシームレスに接続することでユーザーにとっての利便性を大きく高めることが各社にとって2017年の勝敗を決するカギとなるだろう。

Microsoftにとってこの部分は逃げ道のない主戦場であり、コアとなるサービスの改善のために避けて通れない道筋だ。昨年初めにMicrosoftはAIによる入力予測に基づくキーボード・テクノロジーのスタートアップ、SwiftKeyを買収した。 Officeのような企業業務の根幹となる大型の生産性ツールの改良には巨大な資源が必要だ。ことに自然言語処理能力を備えたツールのとシームレスな統合が強く必要とされている。

他社の戦略と比較した場合、Microsoftのやり方は多様性に富んでいる。Amazonはクラウド化に賭けている。Appleは新しいハードウェアと、たとえばApple Musickのようなオンライン・サービスの拡大で成長の勢いを引き続き維持するつもりだ。株式市場は多様性を好む。ナデラのMicrosoftが株式市場に好感される理由は多様性のあるアプローチにも大きな理由があるだろう。

〔日本版〕Graphiqの対話的グラフは2番目が「一時的に表示できない」とされた。この株価グラフはTechCrunch Japanトップ・ページのタイトル脇サムネールに画像として貼っておいた。対話的に操作するには原文参照。

[原文へ]

(翻訳:滑川海彦@Facebook Google+

LGの家庭用ロボット新製品Hub Robotは、自力で動きまわるAmazon Echoではないかな?

lg-smartthinq-hub-1-1024x926

LGとSamsungは、CESという大嵐の前の静けさをちゃっかり利用して、彼らの目新しい製品を次々と紹介してきた。この二人を比べると、奇抜な製品が多いという点ではLGの勝ちだ。本誌TechCrunchにもこれまで、空中浮遊するスピーカーや、首周りに着けるウェアラブルスピーカーなどが載った。

LGは今回、ロボットの出品も多いようだ。ただし、すでに掃除機ロボットなども出しているからロボットに新規参入というわけではない。中でもユニークだったのが、昨年のMWCでデビューした転がるロボットRolling Botだ(下図)。

lg-rolling-bot

今年の同社の、“掃除機ではない”ロボットは三つあり、それらは、芝刈り機らしいロボットと、空港やホテルで旅行情報を提供する商用ロボット、そしてHub Robotだ。最後のは、その説明を見ると、Amazon Echoの可動バージョンではないか、と思われる。

現時点ではまだ十分な情報はないが、同社が“Hub Robot”と呼ぶこの製品は、…LGの言い方では…、“消費者向けのスマートホームゲートウェイおよびパーソナルアシスタント”だ。同社によると、今回のロボット製品はどれもAIを搭載しているというが、でもそれらが、Alexa的な音声による応答とホームオートメーションのコントロール機能を“超えた”、新しい何かであるのか、その点がよく分からない。

同社は前にもSmartThinQ Hub(上図)というEchoふうのスピーカーを発表し、それにその後、Alexa的な機能を導入したことがある。だからぼくの推察としては、今度のHubは同社のHOM-BOTに似ていて、お掃除の代わりにパーソナルアシスタントをしてくれる、というものではないだろうか。

まあ、あと数日で分かることだけれどね。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))