AppleのAI責任者が、エグゼクティブチームのメンバーに加わった

Appleは、元Googleの機械学習専門家で、この4月にAppleに入社したJohn Giannandreaが、Tim Cook、Jony Ive、Eddy Cue、Angela Ahrendtsなどと同様に、同社のエグゼクティブチームに加わったことを発表した。

エグゼクティブチームにおける彼の役割は、「機械学習と人工知能戦略のシニアバイスプレジデント」であり、この先のAppleの戦略にAIと機械学習が如何に重要な位置を占めるかを示している。
Giannandreaは、以前は2つの独立したチームだったAppleのSiriとCore MLのチームを、自らリーダとなって数ヶ月にわたって率いてきた。

Appleに入社する前には、GiannandreaはGoogleでAIの利用を8年にわたって推進していた。また2016年の時点では同時に検索チームも率いていた。

私たちはTechCrunch Disruptで、Googleを離れる直前のGiannandreaに話を聞いていた。以下にそのときのビデオを示す(YouTubeなので右下に並ぶアイコンのうち一番左のものをクリックすることで字幕を出すことができる)。

[原文へ]
(翻訳:sako)

機械学習を使用して米国全体のソーラーパネルをマッピングする

再生可能エネルギーには将来が約束されているが、現時点では誰がソーラーパネルを屋根の上や裏庭に設置したり、隣人と共有しているかについての追跡は行われていない。幸いにも、ソーラーパネルは一般に、光に晒されたときにもっとも良く働く。このことにより、パネルを衛星軌道上から発見し、数えることが容易になる。これこそが、DeepSolarプロジェクトが行っていることだ。

こうした情報を収集するための取り組みはいくつも存在している。規制によって行われているものもあれば、自主的なもの、自動化されたものもある。しかし、いずれの取り組みも、国家レベルまたは州レベルで、政策やビジネス上の決定を下すために十分な包括性はもっていない。

スタンフォードのエンジニアであるArun MajumdarとRam Rajagopal(それぞれ機械と土木が専門)はこの状況を、言われてみれば当たり前の方法で解決する決心をした。

機械学習システムは、それが「認識訓練された」ものならば、たとえ対象が猫、顔、車などであっても、画像を見て対象をきちんと認識することができる。ならばソーラーパネルも扱えない筈はない。

大学院生であるJiafan YuとZhecheng Wangを含む彼らのチームは、数十万枚の衛星画像を使って訓練を行った画像認識機械学習エージェントを用意した。用意されたモデルは、画像の中のソーラーパネルの存在を特定すること、ならびにそれらのパネルの形と設置場所を特定することの両者を学んでいる。

モデルを、ランダムに選んだ他の米国の衛星画像を使って評価したところ、(適合率と再現率が共に)およそ90%の正確性を達成した(どのように計算するかによって多少数字は上下する)。これは類似の他のモデルよりもかなり優れた数値である。またそのセルサイズの見積もりに関しては誤差はわずかに3%ほどだった(非常に小さなパネルの検知が主な弱点だとRajagopalは私に説明した。だがその理由の一部は、画像そのものの限界に起因している)。

そしてチームは、適切な画像を見つけることができた隣接する48州をカバーする、10億枚以上のイメージタイルをモデルに適用した。その中ではかなりの地域が除外されてはいるが、その大部分は、例えば山岳地帯である。そうした地域にはあまりソーラーパネルは設置されておらず、国立公園内にセルを置こうとしている者もほとんどいない。

こうしたエリアは合計で実際の国土の6%を占めている。だが都市部はわずかに3.5%を占めているに過ぎないので、それらは皆カバーされているとRajagopalは指摘した。彼は、システムがまだ処理できていない(現在取り組んでいる)地域に、おそらく全設置数の5%が存在しているだろうと見積もっている。

スキャンには1ヶ月かかったが、モデルは147万箇所の設置済ソーラーを発見した(この数には、屋根の上にある数枚のパネルから、大きなソーラーファームまでが含まれている)。これは他の取り組みによって数えられたものよりもずっと多く、最も成功したものであったとしても、DeepSolarのデータが示しているような、正確な位置は提供していない。

こうしたデータの基本的なプロットを行うことで、様々な興味深い新しい情報が得られる。ソーラー設置密度を、州、群、国勢調査区域、あるいは平方マイルのレベルでも比較することが可能であり、それを他の様々なメトリック(年間平均日照日数、家計収入、投票選好など)と比較することもできる。

いくつかのの興味深い発見を紹介しておくと、例えば、住宅レベルのソーラーシステムが100軒以上ある(設置密度が高い)のは、すべての国勢調査区域のわずか4%(約7万5000のうち3000)に過ぎない。あるいは、住宅レベルで設置されたソーラーは、総設置数の87%を占めているが、そのサイズの中央値は約25平方メートルに過ぎず、セル表面積の総合計の34%を占めているのに過ぎない。

設置密度のピークがあるのは、1平方マイル(2.56平方キロメートル)あたりの人口が約1000人のエリアだ。これは大都市ではなく、小さな町あるいは都市郊外だと考えれば良いだろう。そして人びとが設置を始める変曲点が存在している:それは1平方メートルあたり1日の日光照射量が4.5kWhを超える地域である。それが天気、場所、日照などと、どのように対応しているかは、より複雑な問題である。

こうしたことをはじめとするデモグラフィックデータ(人口統計データ)は、もしソーラーに投資を考えている場合には参考になる。なぜならそれらは、どの地域がソーラーを必要としているかに関する基本的な情報を提供してくれるからだ。

「私たちは皆さんにデータを眺めて貰えるウェブサイトを作成してリリースしました。データは消費者のプライバシーを考慮して集約されたレベルで示しています(私たちは元のデータは国勢調査レベルで保存しています)」とRajagopalは語る。「私たちはプライバシーに配慮しながら、個別のデータを公開する方法を検討している最中です(おそらく公的機関の参加の奨励とクラウドソーシングを行うことになるでしょう)」。

「私たちは、産業界やアカデミアに属する人びとにデータはもちろん方法論も活用して貰うために、それらをオープンソースとして公開することを決心しました。そこからより多くの洞察を生み出して欲しいからです。私たちは、変化が速く起こる必要があると感じていますが、これはそれを助ける一つの方法なのです。おそらく将来的には、この種のデータを中心に、サービスを構築することができるでしょう」と彼は続けた。

サービスを米国の残りの地域や他の国に拡大する計画も進んでいる。精査できるデータはここにある。あるいはここから地図として閲覧が可能だ。プロジェクトに関して説明したチームの論文は本日(米国時間12月19日)Joule誌に掲載された

[原文へ]
(翻訳:sako)

Googleアシスタントでホーム・アローンも楽しい――大人になったマーコーレー・カルキンがCMに登場

クリスマスを控えて新しいGoogleアシスタントのCMが公開された。これは1990年にスマッシュヒットした映画、『ホーム・アローン』の設定を借りてアシスタントの多彩ぶりを紹介するもので、よくできている。

大人になったケビンを演じるのはなんとマコーレー・カルキン自身だ。家中のさまざまなデバイスをGoogleアシスタントで自由にコントロールできるところが披露される。健康上の問題を抱えていると報じられたこともあるカルキンだがたいへん好調そうだ。

公平のために言っておけば、AmazonあるいはAppleのスマートアシスタントでもだいたい同じことはできる。

〔日本版〕CM中のカルキンが使っている音声コマンドは、

Hey Google, what’s on my calendar today? 今日の予定を教えて。
Hey Google, add aftershave to my shopping list. ショッピングリストにアフターシェーブを追加して。
Hey Google, remind me to clean these sheets later. このシーツを洗濯することをリマインドして。
Hey Google, what do I owe you? いくら払えばいいのか教えて。
Hey Google, turn down the temperature 2 degrees.  室温を2度下げて。
Hey Google, begin Operation Kevin. ケビン作戦を実行して。

など。Operation Kevinはカスタム・コマンドらしく家中のデバイスが賑やかに作動する。ミニバンでやってきた泥棒は「見つからないうちに逃げよう」と退散する。アシスタントの機能と操作方法の一覧はこちら

原文へ

滑川海彦@Facebook Google+

Googleアシスタントがフライト遅延を教えてくれる――航空会社の不手際の場合は無理

よく出張する旅行者なら、スケジュールの遅延の多くは飛行機がどこかでひっかかってしまうためだと知っているだろう。機材の故障はもちろんだが、着陸する空港の視界不良(サンフランシスコ空港、お前のことだ!)でも遅れが出る。航空会社が万事順調だと言っていても油断はできない。

あまり出張の必要がなかったり(それはそれで大変けっこう)、いちいちFAAの航空情報をチェックするのが面倒だという向きに朗報だ。Googleは「近くアシスタントがスマートフォン経由でいち早くフライトの遅延の可能性を知らせるようになる」と発表した。Googleは収集したフライト関連情報をアルゴリズムで処理し、遅延の確率を判断するのだという。この機能は現在順次公開されており、数週間で全ユーザーが利用できるようになる。

フライト遅延情報自体は今年の初頭からGoogleが提供していた。ただし、このときはユーザーがフライトを検索しないかぎり遅延の可能性があると知ることはできなかった。この機能があることを知らないユーザーは遅延情報を利用できなかった可能性が高い。

Googleによればフライトの遅延予測は主として機械学習アルゴリズムによっているという。ただし飛行中のフライトの着陸遅延も予測できるとこからすれば、Googleは対象空港関連だけでなく、きわめて広範囲にデータを収集しているこは間違いない。

ちなみに航空会社はたとえ遅延が予想される場合でも定刻にゲートで待つよう指示する。これは(特にハブ空港の場合)航空会社は別の機材に振替えを行う可能性があるからだ。

ただし私はニューアーク空港で真夜中までフライトを待たされたことが何度もある。遅延によって乗員が所定の勤務時間をオーバーしてしまい、別のクルーを手配するためにひどく時間がかかることがあるからだ。こういう場合はさすがのGoogleもまだ予測ができない。航空会社の不手際はGoogleアシスタントの通知の対象外だ。

画像:Michael H / Getty Images

原文へ

滑川海彦@Facebook Google+

AIファンド「DEEPCORE TOKYO」にみずほ銀、電通、Mistletoeなどが出資

AI特化型インキュベーターでVCのディープコアは12月17日、同社が運営するファンド「DEEPCORE TOKYO1号 投資事業有限責任組合」(以下、DEEPCORE TOKYO1号)に、新たにみずほ銀行、電通、Mistletou Venture Partners、みずほ証券、日本政策投資銀行、日本ビジネスシステムズ、本田圭佑氏の個人ファンドKSK Angel Fund、その他の法人、個人投資家から出資を受けたことを明らかにした。

ディープコアはソフトバンクの100%子会社。学生・起業家を対象にしたAI分野に特化したインキュベーション事業開始を2018年1月に発表し、拠点となるインキュベーション施設「KERNEL HONGO」をWeWorkとの協力で運営する。

5月には、シード/アーリーステージのAIスタートアップに投資・支援を行うことを目的として、DEEPCORE TOKYO1号ファンド設立を発表。立ち上げ時点でソフトバンクグループ、ソフトバンク、ヤフーが出資者として決まっていたが、60億円規模を目指し、さらにLPを募っていた。

DEEPCORE TOKYO1号はこれまでに、合計11社への出資を既に行っている。出資を受けたスタートアップには、万引き防止AIが容疑者逮捕に一役買ったことで先日話題になったVAAKや、接客アバター「コラボロイド」を開発するUsideU、ウェアラブル端末なしで人のモーション解析ができるツールを開発しているUplift Labs、病理画像診断ソフト開発のメドメイン、アパレル業界向けにAIソリューションを提供するLiaroなどが含まれる。

DEEPCOREは、11月にはAI・機械学習に特化した香港のアクセラレーターZerothとの提携により、アジアのAIスタートアップ育成において、リソースやディールの共有などで密接に協力していくことを明らかにしている。

DEEPCOREでは、ファンドを通じて「有望なAIスタートアップの成長を支援し、日本から世界に向けて破壊的イノベーションを起こすことを目指す」としている。

Googleは顔認識技術を外部に売らないと決定…悪用を防ぐため

このところテクノロジー企業に対する、顔認識技術に関する強力な規範の要請が厳しい。先頭を切ったMicrosoftは厳格なポリシーを約束し、そのほかの企業にも同社の後に続くことを求めた。

そしてGoogleのSVP Kent Walkerは、アジアの医療に人工知能を活用することの利点を挙げたブログ記事の終わりの方で、同社が顔認識技術のAPIを売らないことを確約している。そして彼は、この技術の悪用を心配する声を列挙している。

Walkerは曰く: “顔認識技術は、行方不明者を見つけるなど、さまざまな良いアプリケーションの可能性がある。しかし多様な使い方のあるそのほかの多くの技術と同様に、顔認識技術の利用には細心の注意が必要であり、一定の原則と価値観に従う必要がある。そしてそれにより、悪用と有害な結果を避けなければならない。われわれは今後も多くの企業との協力関係を継続して、これらの課題を特定し対策を講じなければならない。そして一部の他社と違ってGoogle Cloudは、重要な技術的および政治的疑問がクリアされるまでは、顔認識の汎用APIを外部に提供しないことを選んだ”。

GoogleのCEO Sundar Pichaiは今週のThe Washington Post紙のインタビューで、AIの倫理をめぐる同様の懸念の高まりについて述べた: “テクノロジーは、とにかく作ってだめだったら直す、という従来のやり方をやめるべきだ。そんなやり方は、もうだめなのだ。長期的には、人工知能は核よりもずっと危険なものになりえる”。

顔認識技術をめぐって、とくにそのプライバシー問題と人種差別的問題を批判してきたACLUは、ピチャイの声明を賞賛するとともに、大企業に対しては今後も圧力をかけ続けなければならない、と言っている。

ACLUのテクノロジー担当部長Nicole Ozerが声明で述べている: “Googleが人権を侵害する顔監視プロダクトを今後も作らないし売らないようにするために、継続的に圧力をかけ続ける必要がある。またAmazonやMicrosoftに対しても、危険な顔監視技術を政府に提供しないよう、これから何度も呼びかけていく必要がある。企業には、自分たちの製品がコミュニティの攻撃に使われたり、人間の権利と自由を侵さないようにする責任がある。責任はすべての企業にある、という古い言い訳は、もはや通用しない”。

同団体はとくに、AmazonのRekognitionソフトウェアを厳しく批判している。今週同団体はまた、顔認識技術を使って“不審者”を見分けるインターホンで同社が特許を申請したことを、やり玉に挙げた

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Googleアシスタント、オーストラリア英語とイギリス英語を米国内でも利用可能に

本日(米国時間12/13)Googleは、Assistantが米国在住ユーザーのために新たなアクセントでしゃべるようになったと発表した。

対応する端末の設定タブに行き、標準のアメリカ英語をオーストラリアまたはイギリスのアクセントに切り替えられる(オーストラリアは”Sydney Harbour Blue”、イギリスは “British Racing Green”を選択)。

Googleのブログ記事に詳細が、必然的にフィッシュ・アンド・チップスの店の例と共に書かれている。なぜアメリカにこの機能がやってきたのかの説明はないが、ポンドの為替レートが正しいアクセントで発音されるのを聞くのは悪くない。

「これらの声はDeepMindの音声合成モデルWaveNetで作られている。層の深いニューラルネットワークを使って原始的な音声波形を作ることで、Assistantの声がいっそうリアルで自然に聞こえるようになった」」とGoogleは言っている。

海外居住者だけでなく米国アクセント全般を耳障りに感じている人たちにとっては癒やしになるだろう。実際、私は生涯このように話してきた。 この人たちは、自分のデバイスが暗黙のうちにアメリカ英語に切り替わることに苛立っていたに違いない。音声はそれぞれの母国のものと同じだが、米国市場向けにローカライズされているとGoogleは言っている。

この機能がやってきたタイミングが、GalaxyのBixbyが英国アクセントを覚えた直後だというのも興味深い。これで二人のスマートアシスタントがいい感じにチャットできそうだ。

[原文へ]

(翻訳:Nob Takahashi / facebook

Nvidia、時価総額半減で厳しい局面に――暗号通貨、ライバル、中国、いずれも逆風

Nvidiaの株価は上場以来の最高値を付けた後、数週間後に最安値に転落した。

これほど短い期間に時価総額の半分近くを失うというのは容易ならざる事態だ。テクノロジー分野では瞬きするくらいのあいだに鉄壁とみえたビジネスが消え失せるという例の一つをNvidiaは実証した形だ。Nvidiaはチップ・メーカーとして確固たる地位を確立するためにビジネスのコアとなるプロダクトを拡大する長期計画を実行に移してきたが、ここに来て強烈な逆風に苦しめられている。

振り返ってみると、NvidiaはまずGPU(グラフィカル・プロセス・ユニット)の有力メーカーだった。Nvidiaの優秀なGPUはゲームからCADまでさまざまな並列処理に用いられた。プロダクトは機能、信頼性ともに高く、NvidiaがGPUマーケットで大きなシェアを得ることを助けた。

しかし高度ななグラフィカル・レンダリングを必要とするマーケットは比較的小さく、ここ数年Nvidiaは新しい応用分野の開発に熱心だった。この分野には人工知能、機械学習、自動走行車、暗号通貨などが含まれていた。これらはすべて強力な並列処理を必要とし、Nvidiaの得意とする分野だった。

この戦略はおおむね成功した。ここ数年、Nvidiaのチップは暗号通貨スタートアップでひっぱりだことなり、世界的なチップの供給不足を引き起こし、 コアなゲーマーの間に不満が高まったほどだった。

これはNvidiaの収入を大きく押し上げた。 2013年の8-10月の四半期の収入が10.5億ドルだったのに対し、2年後の同期は2015年は13.1億ドルと伸びはゆっくりしていた。これは成熟した市場のトップメーカーの場合珍しいことではない。しかしNvidiaが精力的に新応用分野の開拓を始めると成長は一気に加速した。今年の直近の四半期の収入は32億ドルと2013年の3倍になっている。これにともなって株価も急伸した。

ところがNvidiaの新分野への進出は多方面で障害に突き当たっている。中でも最悪の影響を与えたのがここ数ヶ月の暗号通貨価格のクラッシュだ。これによって暗号通貨市場そのものから火が消えた。打撃を受けたのはNvidiaだけではない。暗号通貨のマイニング処理に最適化したチップを製造していたBitmain暗号通貨バブルの破裂でいきなり失速している。今週、同社はイスラエル・オフィスの閉鎖を発表した。

Nvidiaの今年の収入を見ればこの問題の影響は明らかだ。今年、収入はこの3期続けて31億ドルから32億ドルであり、ほとんどフラットだった。一部ではこの状態はクリプト二日酔いと呼んでいるらしい。しかし暗号通貨はNvidiaが対処を求められている問題の一つに過ぎない。

高度な並列処理を必要とする次世代コンピューティング分野でNvidiaはスタートアップも大企業も含まれる強力なライバルの出現に悩まされている。ライバルには本来Nvidiaのユーザーと目される企業も入っている。たとえば、Facebookは独自の並列処理チップを開発中だと報じられたAppleは何年も前からそうしているし、Googleもこの分野に参入した。Amazonも精力的だ。Nvidiaにもちろんライバルと戦うノウハウがあるが、ライバル各社はそれぞれの応用分野を熟知しており、きめて優秀なアプリケーションを開発できる。このマーケットでトップを維持するには非常に激しい競争に勝ち抜かねばならない。

新分野におけるアプリケーションの開発競争に加えて、地政学的緊張の高まりもNvidiaに打撃となっている。2週間前にDan StrumpfとWenxin FanがWall Street Journalに書いているとおり、Nvidiaは米中貿易摩擦の高まりに直接影響を受けている。

…Nvidiaの昨年の収入、97億ドルのうち20%は中国からのものだった。 Nvidiaのチップは急成長中の中国のAI産業における各種プロダクト〔を始め〕各種のプロダクトに組み込まれて利用されている。

Nvidiaは両大国の緊張の高まりは…中国がアメリカ製品に対する依存度を下げるために独自チップの開発に力を入れる結果となり…Nvidiaの長期計画にとってマイナスの要素となると懸念している。

暗号、ライバル、中国。この三重苦がこの半月でNvidiaの時価総額の半分を失わせた理由だ。中国問題については次に述べる。

山積する中国問題

ハロン湾(ベトナム) 撮影:Andrea Schaffer/Flickr (Creative Commons)

South China Mornng Postによれば、アメリカを中心とするインターネット企業に現地法人の設立を要求する新しい法律をベトナムが制定したため、Googleが対応を検討しているという。Googleはベトナムの新法に対応すべく現地オフィスを開設しようとしていると報じられていた。同様の問題は中国でも起きるはずだ。

昨日、GoogleのCEO、スンダル・ピチャイが「当面中国に再参入する計画はない」と議会で証言したことは興味深い。ベトナムは、他の多くの国と同様、国家主権が個人情報にも及ぶことを明確にした法律を制定した。これによれば、ベトナムで得られたデータはベトナム国内に保存される必要がある。Googleの手は縛られることになる。中国は当面の悪役だが、ローカル・データへのアクセスを制限しようとする保護主義的動きは中国だけに限られたものではない。

報道によれば、日本の携帯大手3社がHuaweiとZTEの製品を、通信設備から排除する方針を固めたという。これにHuaweiの副会長の逮捕というニュースが続いた。これで日本のキャリヤの中国企業の製品の排除の方針はますます固まったはずだ。 Huaweiの排除はもともとFive Eyesと呼ばれる情報交換協定に加盟している英語圏5ヵ国(アメリカ、イギリス、カナダ、オーストラリア、ニュージーランド)が決定したものだが、日本はこれに加入していない。日本がHuawei、ZTEを排除することになれば、他のアジア諸国にも波及する可能性が出てくる。そうなれば影響は大きい。

一方、Baidu(百度)は中国を代表する検索エンジンを提供する企業だが、中国政府の監査により、他の80以上の中国企業と共に企業情報を偽っていたことが判明している。 これはBaiduにとって極めて思わしくないニュースであり、 ここ数日、株価は最低水準に落ちた。過去52週の最高値は284.22ドルだったものが、今日の寄り付きは180.50ドルだった。

情報を求む

パートナーのArmanと私は引き続きシリコンバレーのビジネスを取材している。過去数日、投資家やサプライチェーン関係者に取材した結果を上にまとめた。ただしNvidiaの状況は氷山の一角に過ぎない。さらなる情報や分析があれば、danny@techcrunch.comにご連絡いただきたい。

このコラムの執筆にあたってはニューヨークのArman Tabatabaiが協力した。

原文へ

滑川海彦@Facebook Google+

ロボット配達にアーリーステージの資金が続々

過去数十年のイノベーションのほとんどは、ソファから離れずして欲しいものを手に入れる方法に集中していた。

これまでのところ、オンライン注文やオンデマンド配達により、このゴールはほぼ達成できた。カーソルをあて、クリックし、待つ。しかし一つだけ落とし穴がある。配達する人だ。誰か配達する人がいなければ、我々は寝そべってピザを注文することができない。

そこでロボットの登場だ。テック未来派の人は、自動運転の車とAI搭載のロボットが間もなく玄関先までの配達を取って代わるようになるという予測を耳にしているだろう。それらは、テイクアウトを届けたり、荷物を配達したりと、こうした仕事で現在生計を立てている多くの人間をお払い箱にするとみられる。

これが本当に現実のものになるとすれば、ラストマイル配達のロボット化に現在取り組んでいるアーリーステージのスタートアップはまだほんの一握りのため、それは大きなチャンスといえる。下記で、そうしたスタートアップが何者か、現在どんなことをしているのか、誰がバックアップしているのか、どこで展開しているのかみてみよう。

プレイヤー

Crunchbaseデータによると、過去数年の間にシードもしくはアーリーステージの資金調達を実施した、北米に拠点または運営母体を置くロボット配達を手がけている企業は少なくとも8社だ。

これらは、かなりの額を調達したスタートアップから、まだ貧弱なシードステージのところまで幅がある。

AlphabetのWaymoの元エンジニアが創業した自動配達のスタートアップで、シリコンバレー拠点のNuroが最も多く資金調達していて、これまでのその額は9200万ドル。他社は数百万ドルといったところだ。

下のチャートでは、主なプレーヤーをみてみよう。資金調達額が大きい順に並べていて、拠点や主な投資家も表記している。

誰がサポートしているか

スタートアップはロボット配達分野の道を切り開いているかもしれないが、単独で行なっているわけではない。大企業がこの分野で足がかりを維持している一つの方法は、アーリーステージのスタートアップに出資し、パートナー関係を結ぶことだ。大企業は有望なシードの長いリストに名を連ね、ベンチャー投資家もまたこの部門に目をつけている。

大企業投資家のリストには、Starship Technologiesの主要投資家であるドイツのDaimlerが含まれる。一方、中国のTencentはサンフランシスコ拠点のMarbleを支援していて、トヨタAIベンチャーズはBoxbotに投資している。

提携状況を見る限り、食べ物のテイクアウト配達サービスにロボット配達は最も使われるようだ。

ゆっくりとした走行、中くらいサイズ、6輪のロボットを展開するStarshipは特にテイクアウトにかなり食い込んでいる。Skypeの創業者Janus Friis とAhti Heinlaが立ち上げ、サンフランシスコとエストニアに拠点を置くこの会社はカリフォルニアの一部とワシントンD.C.でDoorDashそしてPostmatesと手を組んでいる。またドイツとオランダではドミノ・ピザとも提携している。

もう一つのかわいらしい6輪ロボットのメーカーRobby Technologiesもまたロサンゼルスの一部でPostmatesと提携している。ボックス型のロボットを“あなたのフレンドリーなご近所ロボット”と売り込んでいるMarble昨年、トライアルとしてサンフランシスコでYelpと組んだ。

サンフランシスコのベイエリアが突出

世界征服というビジョンにおいては、グローバルであることが必須である一方で、ロボット配達の能力蓄積はまだローカルレベルだ。

Crunchbaseが追跡しているシードとアーリーステージのスタートアップ8社のうち6社はサンフランシスコのベイエリアを拠点としていて、残りの2社が他地域で展開している。

なぜこうなのだろう。1つには、UberやTesla、Waymoといったローカルの大企業から移ってくる鍵となるエンジニアリングスタッフがいるなど、このエリアに才能が集中していることが挙げられる。加えて、ロボットスタートアップがスケール展開するのに必要になると思われる投資資金が用意されていることもある。

シリコンバレーとサンフランシスコは住宅供給が少なく、またその価格は天文学的な数字になるほど高価なことで知られる。そこでは、雇用主は物を配達する人を探すのに苦労していて、配達人の賃金はデリバリースタッフに取って代わるロボットをデザインするようなプロジェクトで懸命に働いているテック労働者のものにひけをとらない。

この地域には動きの遅い、歩道を走る配達ロボットは不向きだ。サンフランシスコにおいては、びっくりするくらい急勾配の通りや歩道は、人間そして乗り捨てられたスクーターであふれている。市議会はほとんどの場所で配達ロボットを禁止し、許可したエリアに制限することを決めた。

ピザ配達ロボットマネジャーの登場

しかしサンフランシスコが配達ロボットの浸透に慎重な一方で、スタートアップKiwi Campusが事業展開するカリフォルニアのバークリー周辺を含む他のエリアではより好意的に受け入れている。

この過程においては、ロボット監督という面白い新たな仕事が作られている。これはラストマイル配達の雇用の将来にいくらかの光を当てることができるかもしれない。

初期トライアルを行なっているいくつかのスタートアップにとって、ロボットの世話をする仕事には、ロボットの監視や、ロボットが難なく割り当てられた仕事をこなしているか確認する、というものが含まれる。

遠隔からのロボット管理もまたその一つで、今後最も増えることが予想される。たとえば、Starshipはエストニアに置くオペレーターが、遠く離れた国で行われているロボットによる配達を追跡・管理している。

現段階で、配達ロボットのモニターとコントロールという仕事が、従来人が行っていた配達という仕事より給料と雇用条件がいいかどうかはまだわからない。

しかしながら、少なくともモニターとコントロールであれば理論的にはソファに寝そべったままできるはずだ。

イメージクレジット: wk1003mike Shutterstock

[原文へ]

(翻訳:Mizoguchi)

国際宇宙ステーション(ISS)の新型ロボットは宇宙を浮遊するAlexaみたいでヤバイな

Cimonをご紹介しよう。3Dプリントで作ったこの浮遊するロボットは、AirbusがGerman Space Agency(ドイツ宇宙局)のために作ったものだ。彼は6月から国際宇宙ステーションのクルーだが、Gizmodoによれば、彼の活躍が一般公開されるのはこれが初めてだ。

実はこの、IBM Watsonで動いている浮遊する顔型ロボットは、宇宙における人間と機械の対話を研究する役目を担う、ものすごく高価なAmazon Echoを思わせる。下のビデオは主に、CimonとEuropean Space Agency(EU宇宙局, ESA)の宇宙飛行士Alexander Gerstとの対話を映している。

Gerstが彼の“好きな曲”をリクエストすると、CimonはKraftwerkの“Man Machine”をかける。すると宇宙飛行士は彼と‘握手’する。そしてロボットに、ビデオを撮るよう要求する。Cimonはそれにも成功するが、明らかに曲の中断にとまどっているようだ。二人の共同作業チームの、ちょっと荒っぽい出会いでした。

“彼の最初の出番には満足している。CimonのデベロッパーとAlexanderは二人とも、Cimonがまた仕事に戻ってくることを期待している”、とESAは言っている。“このHorizonsミッションの現段階では今後のセッションは予定されていないが、宇宙飛行士とロボットアシスタントとのすばらしいコラボレーションの始まりを告げたと言える。人工知能の、宇宙におけるあり方の好例だろう”。

次回は、ものごとがもっとスムーズにいくと良いね。絶対にやってはいけないのは、宇宙ロボットを怒らせることだぞ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

SoftBankのDeepcoreと香港のZerothが提携――アジアのAIスタートアップの育成へ

アーリーステージのAIスタートアップを支援する2のプログラムが力をあわせることになった。AIの世界でも一人より二人のほうが心強いらしい。

有力デジタルメディアのAnimoca Brandsから投資を受けることに成功した香港のアクセラレータ、Zerothは、SoftBankグループのアクセラレータ、ファンドDeepcoreとリソースやディールの共有など密接な提携関係に入った。

DeepcoreはAI全般のスタートアップの支援、育成に力を入れている一方、ZerothAIと機械学習に特化したアジア初のアクセラレータだ。後者はAnimoca Brandsから300万ドルのベンチャー資金を調達しており、同時にZerothの運営会社の株式の67%を取得している。

一方、SoftBankは今年に入ってDeepcoreを設立し、AIスタートアップ支援事業に足場を築いた。DeepcoreはWeWorkと協力してコワーキング・スペース、インキュベータ、R&D施設を兼ねるKernel Hongoを運営している。 また投資部門としてDeepcore Tokyoを有している。

Zerothは2年前に設立され、3回のバッチですでに33社を育成している。参加スタートアップの株式を平均6%取得するビジネスモデルだ。卒業後サードパーティからの追加投資を受けるスタートアップもある。たとえば、Fano Labs(現在のAccosys)は香港最大の富豪と考えられている李嘉誠(Li Ka-Shing)のHorizons Venturesや日本のLaboratikから投資を受け入れている。

Zerothのファウンダー、CEOのTak Lo はTechCrunchに対して、「われわれのエコシステムが成長するのを見ることができて嬉しい。このエコシステムが目指すところは偉大な会社を築こうとするファウンダーによりよいチャンスを提供していくことだ」と述べている。

原文へ

滑川海彦@Facebook Google+

【以上】

機械学習で危険なバイアスを避ける3つの方法

編集部:この記事はVince Lynchの寄稿。Lynchは人工知能企業、 IV.AIのCEO。同社は企業が顧客サービスを向上させるために人工知能による自然言語処理に関する理解を深めることを助けている。

歴史における現在の時点で人間のバイアスがもたらす危険に目を無視することは不可能だ。コンピューターがこの危険を増幅している。われわれは機械学習を通じて忍び込む人間のバイアスの危険性はいくら強調しても強調しすぎることはない。これによって引き起こされる害悪は大きく2つに分けられる。

  • 影響:AIがこうだと言っている」といえば、人々はそれを信じてしまう。 AIシステムの学習過程で人間のバイアスが混入していても気づかれにくい。ストレートなバイアスよりはるかに広い範囲に悪影響を与えることになる。
  • オートメーション:AIモデルが実用的な目的のために用いられることがよくある。つまりバイアスを隠したオートメーション・システムができてしまう。

光には影がつきものだが、AIを適切に用いるならメリットは大きい。AIは一見混乱した多量のデータから隠れた意味を抽出することができる。つまりアルゴリズムはわれわれが気づかずにいたバイアスを表に出すためにも役立つ。データの山の中から倫理的に疑問のある振る舞いを発見することもできる。これがわれわれに反省を促すきっかけになるかもしれない。人間の振る舞いに関するデータをアルゴリズムで処理することはバイアスの発見に役立つ。適切に用いるならAIは人間行動中の異常な部分を発見してくれる。

しかしコンピューターが自分自身でこうしたことをしてくれるわけではないことに注意すべきだ。 たとえ教師なし学習(unsupervised learning)であっても実は「半分教師つき学習」だ。トレーニング・データを選択し、システムに入力するのはデータ・サイエンティストだからだ。人間がデータを扱うのであれば、必然的にバイアスが混入する。どうやったらこのようなバイアスを発見できるのだろうか? まずは問題をいくつかの場合に分けて考える必要がある。

AIの運用と倫理的な懸念

悪い例は多数ある。たとえばCarnegie Mellon大学の研究はターゲティング広告におけるバイアスを指摘した。女性向けのオンライン求人広告の平均給与は男性向け広告よりはるかに低かったという。またMicrosoftがティーンエージャー向けに運用していたTwitterのボット、Tayが人種差別的ツイートを行い、閉鎖されたといいう不幸な出来事もあった。

近い将来、こうした過失は巨額の罰金やコンプライアンス上の重大問題を引き起こす可能性が十分にある。こうした方向はすでにイギリス議会で論じられている 。もちろん人工知能を扱う数学者も技術者もバイアスについては注意を払うべきだ。しかし難しいのはその度合いがケースごとに異なる点だろう。たとえばリソースが十分でない小規模な会社の場合、バイアスが発見されてもすぐに修正されるかぎりさほど過失を責められない可能性が高い。これに対してフォーチュン500社に入るような世界的大企業ではバイアスを含まないシステムを構築するために十分なりソースがあるとみなされ、したがって責任も重くなる。

オススメのTシャツを発見するのが目的のアルゴリズムなら放射線治療の効果を判定するアルゴリズムと同じほどの厳密さは必要とされない。結果が重大であればあるほど、誤った場合に法律的な責任が追求される可能性が高まる。

開発者も運用する企業のトップもAIシステムの倫理的側面を慎重にモニターする必要がある。

AI開発にあたってバイアスを抑制するための3つのカギ

AI業界の中でも自浄作用が働きつつある。たとえば、当初から人間のバイアスを慎重に検討することによりシステムのバイアスを減少させ、より倫理的な振る舞いをルール化する方法が研究されている

こうした方向に注目し、さらに推し進めていくべきだろう。重要なのは、既存の規制がどうであれ、システムの倫理的な側面し、その強化を積極的に進めていくことが重要だ。AI開発にあたって重要な点をいくつか紹介する。

1. その問題の解決に適した学習モデルを選ぶ

AIモデルが解決すべき問題ごとに異なるのには理由がある。異なる問題には異なる解決法があると同時に提供されるデータも異なる。こうすれば必ずバイアスを避けられるという処方箋があるわけではない。しかし開発にあたって警告を発してくれるいくつかのパラメーターがある。

教師なし学習と教師あり学習にはそれぞれのメリット、デメリットがある。ここで教師なし学習モデルの場合、データの次元削減ないしクラスター化を行う際にデータセットそのものからバイアスを学習している危険性がある。たとえばAグループに所属することとBという行動の間に高い相関関係があればモデルはこの2つをごっちゃにしてしまうだろう。これに対して教師あり学習ではデータの選択にあたってプロセスにバイアスの入り込む危険性をよりよくコントロールできるだろう。

開発中にバイアスを発見して修正するほうが運用開始後に当局によって発見されるよりはるかによい

一方、センシティブな情報を除外することによってバイアスをなくそうとする方法も正しいモデルを作る上で問題を起こすことがある。たとえば大学における志望者選抜で統一学力テストACTの点数に加えて志望者の郵便番号を考慮することは差別につながるようにみえる。しかし経済事情などの要素により統一テストの点数には地域ごとにバイアスがある。郵便番号を考慮すればこのバイアスを取り除くことができるかもしれない。

AIの利用にあたってはデータサイエンティストと十分に議論を重ね、目的に対してもっとも適切な学習モデルを構築する必要がある。どのようなモデルづくりが可能か複数の戦略を比較検討することが重要
だ。ある方法に決める前に十分トラブルシューティングしておくべきだ。 開発中にバイアスを発見して修正するほうが――たとえ時間が長くかかるように思えても―運用開始後に当局によって発見されるよりはるかによい

2. 学習用データセットは全体を代表できるものを選ぶ

データサイエンティストが十分なリソースを持っていない場合も多いが、学習用データの選択にあたってバイアスが入り込まないよう注意するのはプロジェクトの関係者全員の責任だ。バランスのとり方が非常に難しい。学習用データが十分に多様なグループを代表していることは必須だが、グループ分けの方法が現実のデータを反映しない恣意的なものとなっていると問題を引き起こす。

たとえば、グループごとに別々のモデルを構築するのは、コンピューター処理の観点からも企業広報の観点からも得策とはいない。 あるグループについて得られたデータ件数が少なかったため、重みづけをして学習させる場合がある。しかし最新の注意を払わないと新たなバイアスを生み出す危険性がある。

たとえばシンシナティでは40人分のデータしか得られなかったとしよう。全国の都市に関するモデルを構築するにあたってシンシナティのデータセットに都市の規模に応じた重みを加えたとする。するとこうしたモデルでトレンドを予測しようとするとランダム・ノイズが入るリスクが増大する。たとえばあるデータセットでBrianという名前の人物に犯罪歴があったとする。このデータセットに大きな重みづけをするとシステムは「Brianという名前の人物には犯罪傾向がある」といった結論を出してしまう。重みづけ、特に倍率の大きな重み付けをするにあたっては十分な注意が必要だ。

3. パフォーマンスの判定には現実データを用いる

企業は故意にバイアスを含んだAIシステムを作ったりしない。しかし企業内の一定の条件下では差別的なモデルであっても期待どおりの作動をする。残念ながら規制当局は(それをいえば一般公衆も)、バイアスを含んだシステムが運用された場合に、制作した企業の意図を考慮しない傾向がある。AIモデルを構築した後、現実のデータでテストを繰り返す必要があるのはそのためだ。

たとえば構築中のモデルにテストグループを使うのは好ましくない。テストグループやテストデータではなく、、できるかぎり現実のデータを用いるべきだ。たとえばAIを活用した与信審査システムを構築しているとしたら、データグループに対しては、「背が高い人のほうが背が低い人より債務不履行になる確率が高いという結果が出てないか?」といった単純な質問してみるべきだ。もしAIがそうした不合理な結論を出すならその理由を突き止めねばならない。

データを検査する場合にはr 2種類の公平性に注意する必要がある。一つは結果の公平性であり、もう一つは機会の公平性だ。AIでローンの審査を審査をする例で考えてみよう。結果の公平性というのは地域その他の条件によらず、同じ条件の借り手は同じ利率でローンを組むことができることをいう。機会の公平性とは可能であるならローンを返済する意思がある人々は地域その他の条件によらず同一の利率が得られるようにすることをいう。後者の条件を課さないと、たとえばある地域ではローンの債務不履行が頻発する文化的条件があることを隠しかねない。

偏ったデータセットを用いる危険性はあるが、結果の公平性は比較的担保しやすい。しかし機会の公平性の実現はモラルの問題が入ってくるためそれより難しくなる。多くの場合、2つの公平性を同じように確保するのは不可能だ。しかし注意深い監督下にモデルを現実のデータでテストすることはリスクを最小限にするのに役立つだろう。

こうしたAI利用の倫理的側面はやがて罰則によって強制されることになる可能性が高い。現にニューヨーク市ではアルゴリズムの利用を法的に規制しようと試みている。政府、自治体による法的規制はやがて開発段階にも及ぶだろうし、現実にAIを利用を利用した結果も厳しくモニターされることになるだろう。

モデリングに当たって、以上に紹介してきたような適切な手法を取ることによってバイアスが混入する危険を追放ないし最小限にできるというのは朗報だ。AI開発者は困難な倫理的課題を理解し、バイアスを発見し、現在の法の規定がどうであれ、正しい側に立つよう務める必要がある。。

原文へ

滑川海彦@Facebook Google+

中国の警察に歩行特徴認識テクノロジー導入――50m離れて後ろ向きでも個人を特定可能

中国には世界中でいちばたくさんのCCTVカメラが設置されている。 1億7000万台のビデオカメラのネットワークが存在するということだ。中国の警察はGoogle Glass的なスマートメガネを装着して人混みの中から容疑者を特定している。しかもこの恐るべき監視能力がさらにレベルアップされた。新しいテクノロジーは歩き方や体格から特徴を抽出して人物を特定できる。

APの報道によれば、この歩行特徴認識(gait recognition)テクノロジーはすでに北京と上海の警察で使用されており、カメラの映像が後ろ向きだったり顔が見えなかったりしても個人を特定できるという。

開発したのは中国のAIスタートアップ、Watrix(银河水滴科技)で、同社は最近のラウンドで1億4500万ドルの資金を調達し、システムのアップグレードを図っている。 ファウンダー、CEOの黃永禎(Huang Yongzhen)は APのインタビューに対し、このシステムは50メートルの距離から個人を特定できると答えた。既存の顔認識テクノロジーと組み合わせることにより、繁華な地区における警察の監視能力は大幅にアップするものとみられる。

捜査当局が犯罪者を発見するのに役立つことは言うまでもないが、残念ながらこのテクノロジーのインパクトはそれにとどまらない。中国ではこれまでもハイテク監視テクノロジーが民衆の弾圧のような邪悪な目的で利用されてきたことが記録されている。

ことに最近、中国政府はデータベースと顔認識テクノロジーを少数民族の統制のために利用しているとして非難されている。 新疆地域に住むムスリムのウィグル人1000万人は自宅や勤務先など特定の場所から出るとただちに当局によって監視されるとBloombergは報じている

中国政府は新疆で100万人のムスリムを「再教育施設」に収容しているとして強く批判されている。新疆の諸都市は地理的に北京よりバグダッドに近く、民族、宗教間の対立による不安定な情勢がしばしば伝えられてきた。中国政府が最新の個人認識テクノロジーをこの地区に投入してきたことにはこうした背景がある。歩行認識テクノロジーがが新疆にも導入されるかどうか、現時点では情報がない。しかし今はまだだとしても近い将来導入されるのではないかという推測はできる。

原文へ

滑川海彦@Facebook Google+

Facebookが3D写真機能を公開――iPhoneで奥行きのある写真が撮れる

 

小さな窓から部屋の中を覗くとしたら頭を動かして何があるのか見ようとするだろう。ニュースフィードの写真でそれと同じことができるようになる。これがFacebookの5月のF8デベロッパー・カンファレンスで発表された3D写真機能だ。Facebookではいよいよこの機能を一般公開する。利用できるのは 当面、iPhoneのポートレート・モードだ。

3D写真をFacebookにアップするにはポートレート・モードを選んで撮影し、「3D写真」のオプションを選ぶ。投稿された写真はデスクトップでもモバイルでも表示されるが、モバイルデバイスの場合、ユーザーがタッチしたりデバイスを傾けたりすると写真がそれに反応する。それに加えて、Oculus GoのVRブラウザやRiftのFirefoxで表示した場合、頭を動かすと横に回り込むような奥行きの感覚が得られる。誰もが簡単に3D写真を撮影したり操作したりできるようになるわけだ。この機能は全ユーザー向けで、数週間かけて公開される。

Facebookでは常にニュースフィードに新しい要素を加えてユーザーの興味をかきたててきた。タイムラインに投稿できるのは当初テキストと写真だけだったが、ビデオが追加され、さらにライブでストリーミングができるようになった。これに360度写真と3D写真が加わる。Facebookではこうしたコンテンツが表示されることでニュースフィードを見る頻度が増え、広告を目にする回数も必然的に増えるものと期待している。これには専用カメラを使って短いカットをつなぎ合わせ、ある種のデジタル点描法で記憶を再現しようとするVR
Memoriesのような機能も含まれる。

この3D写真の仕組みは上のビデオに要点をまとめてあるが、われわれの同僚、Devin Coldeweyがこの記事で詳しく解説している。FacebookはAIを利用して多数の写真から複数のレイヤーを作って前後に重ね合わせ、これによって奥行きを得ている。最新のiPhoneのポートレート・モードは自動的に複数のカメラで撮影するのでこれが視差の感覚を与えるのに役立っている。

3D写真を撮影できるのは現在、iPhone 7+、 8+、 X、 oXSだ(サポート範囲は今後拡大される予定)。 Facebookでは最大の効果を挙げるには対象から1メートルないし1.5メートル程度離れるよう勧めている。また3Dで描写したい場合、3D効果を与えるレイヤーを作るためには主たる対象の前後にも対象が必要だ。これらの対象はくっきりした輪郭で色彩もはっきり異なっていることが望ましい。透明だったり光を強く反射したりする対象が含まれているとAIが正しくレイヤーを分離できない場合がある。

当初この機能はVRコンテンツを誰でも作れるように開発された。しかしVRヘッドセットの普及がいまいちなため、Faceboodではもっともインパクトのあるチャンネルであるニュースフィードに奥行き感覚があり動く写真が表示できるようにした。Facebookの魅力が薄れてかけており、ソーシャルな活動はむしろInstagramにシフトしていると報じられる現在、ニュースフィードにこうした次世代アートを表示できるようにすることは大きな意味があるわけだ。

〔日本版〕記事中のTCビデオはChromeブラウザ以外では表示に問題が生じる可能性がある(原文も同様)」。

原文へ

滑川海彦@Facebook Google+

コードよりもデータが重要なSoftware 2.0の時代に向けて企業を助けるMachinifyが$10Mを調達

データは価値を生み出す。ただしそれは、データへのアクセスの仕方と、その正しい読み方を知ってる企業に限る。そしてその両方をお助けするのが、Machinifyだ。人工知能企業である同社は今日(米国時間10/8)、Battery VenturesがリードするシリーズAのラウンドで、1000万ドルを調達した。これには、GV(元Google Ventures)とMatrix Partnersが参加した。

MachinifyのファウンダーでCEOのPrasanna Ganesanはこう語る: “われわれの基本的な考え方として、今日の企業は大量のデータを集めているが、それを経営の意思決定に活かして効率を上げているところはきわめて少ない、という認識を持っている”。

Machinifyを利用する企業は、そのシステムにローデータを放り込み、データを何に利用したいのか(例:売上のアップ)を指定する。するとマシンが、では何をどうすべきかを示唆する。また、過去の意思決定に基づいて、今後の方向性を決める。

Machinifyを利用する好例が、ヘルスケアの分野にある。そこでは医療機関や保険企業などがMachinifyのツールを利用して請求処理の精度とスピードを上げている。そしてその結果もちろん、売上の増加やコスト削減を実現している。

GVのゼネラルパートナーAdam Ghoborahは、声明でこう述べている: “企業がいわゆるSoftware 2.0の時代に対応していくためには、解決しなければならない重要な問題がいくつかある。Machinifyはそれらのひとつひとつに的(まと)を絞って最適解を見つける。Software 2.0は、もはや人間が書く従来的なソフトウェアではなくて、AIのモデルと企業の大きなデータセットによって動的に駆動される。だからSoftware 2.0は、これまでとは完全に違うアプローチを要求するが、Machinifyには、そこから価値を取り出すための鍵がある”。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

企業のコールセンター支援をクラウド上のサービスとして提供するTalkdeskが$1Bの評価額で$100Mを調達

企業のコールセンターのための顧客情報サービスをクラウド上のSaaSとして提供するTalkdeskが、コネチカットのヘッジファンドViking Global Investorsとこれまでの投資家DFJから新たに1億ドルを調達した。

このラウンドでは同社の評価額が10億ドルを超えたことを、協同ファウンダーでCEOのTiago Paivaが認めたが、正確な額は明かさなかった。

同社は、機械学習をはじめとする人工知能の技術を利用して、中企業から上のエンタープライズに良質なカスタマーサービスのための支援を提供している。顧客の中にはIBM, Dropbox, Stitch Fix, Farfetchなどがいる。

Paivaは次のように語る: “企業に100万の顧客がいて、彼らがサポートを求めているとしよう。Talkdeskはそんなときに、企業と顧客を可能なかぎり最良の形で結びつける。たとえばFarfetchはTalkdeskを利用することによって、各顧客が何を買ったか、彼らの好みは何か、これまでどんな苦情を言ってきたか、などが即座に分かる。われわれは企業にあらゆるものの履歴を提供して、迅速な問題解決ができるようにする”。

2011年にポルトガルで創業したTalkdeskは、サンフランシスコとリスボンにオフィスがある。今度の資金でイギリスへの進出と、AIへのより厚い投資を計画している。同社はこれまで、2015年の1500万ドルのラウンドも含め、約2400万ドルの増資を行っている。2012年のTechCrunch Disrupt NY Startup Battlefieldにも出場した

DFJのパートナーJosh Steinは、声明文の中でこう言っている: “今日のデジタル慣れしている顧客は迅速で個人化された答を求めているが、未だに大多数の企業が、そのようなアジリティとサービスを可能にする、柔軟性に富むクラウドネイティブなプラットホームを採用していない。しかし2019年には、クラウドを利用するコンタクトセンターが、例外ではなく標準になるだろう”。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Disrupt SFで語られたAIの現状に関する5つの注目点

[著者:Taylor Nakagawa]

人工知能(AI)に期待されていることは計り知れないが、そのゴールに至るまでのロードマップはいまだ不透明だ。TechCrunch Disruptサンフランシスコのステージでは、AIを専門とする知識人たちが、現在の市場での競争の様子、アルゴリズムが差別主義を助長させないための方法、未来のマンマシン・インターフェイスといった課題について意見を述べ合った。

そこで、2018年のDisruptで語られた、AIの現状について注視すべき5つの点を紹介しよう。

1. アメリカがAIで中国に参入しようとすれば多くの障害に遭遇する

SinnovationのCEO李開復(リー・ カイフー)(写真:TechCrunch/Devin Coldewey)

中国がAIに力を入れて華々しい発展を遂げていることは、各方面で数多く報道され、もはや無視できない存在にまでなっている。AlibabaやTencentのような巨大企業が国産ビジネスに何億ドルもつぎ込んでいるため、アメリカ企業がAIで中国に参入しても、動き回ったり拡大できる余地はだんだん狭くなっている。AI投資家でありSinnovationのCEO李開復(リー・ カイフー)は、AI開発においては、中国とアメリカは「並行宇宙」に生きていると話している。

https://platform.twitter.com/widgets.js
Sinnovation会長にしてCEO李開復は、AIに関しては中国はアメリカを超えたと話す。

Googleの中国進出を助けた李は、「AIを電気と同様に考えるべき」だと説明している。「トーマス・エジソンもAIの深層学習も、どちらもアメリカ生まれですが、彼らはそうした技術を発明し、寛大にも公開しました。今や中国は、最大のデータ量を誇る最大の市場として、従来型のビジネスのあらゆる場所、インターネットやその他のあらゆるスペースに価値を加えるために、AIを実際に使っています」

「中国の起業家エコシステムは巨大です。現在、コンピュータービジョン、音声認識、ドローンの分野でもっとも価値の高いAI企業は、すべて中国企業です」

2. AIの偏見は古い問題の新しい顔

9月7日、カリフォルニア州サンフランシスコにて。モスコーンセンターで開かれたTechCrunch Disrupt第3日目のステージで討論する(左から)Ken Goldberg(UCバークレー教授)、Timnit Gebru(Google AI研究者)、Chris Ategeka(UCOT創設者、CEO)、Devin Coldewey(司会)(写真:TechCrunch用にKimberly White/Getty Imagesが撮影)

AIは、数多くの仕事から、つまらない単調な作業をなくし、人々に生産性と効率性をもたらすと約束されてきた。しかし、多くのAIシステムの学習に使用されるデータには、人間が持つ偏見が植え付けられていることがあり、それを放置すれば、所得格差や人種差別といった体系的問題をはらむコミュニティーを今よりも疎外することにつながりかねない。

「社会的経済地位の低い人たちは、より監視が強化され、さらにアルゴリズムで調べられることになります」と、Google AIのTimmit Gebruは言う。「なので、地位の低い仕事の求職者ほど、自動化されたツールで処理される可能性が高くなります。現在、こうしたアルゴリズムがさまざまな場所で使われていますが、機会均等法のような法律に準拠しているかを確かめることすらできていません」

https://platform.twitter.com/widgets.js
アルゴリズムの偏見は、所得格差と人種差別に根をもつ古い問題の新しい顔だ。将来のより客観的なアルゴリズム構築のためのステップの概要を示すTimmit Gebru(Google AI)、Ken Goldberg(UCバークレー)、Chris Ategela(UCOT)

危険なアルゴリズムが広がりを阻止できる可能性のある解決策を、UCバークレーのKen Goldbergが解説した。彼は、複数のアルゴリズムとさまざまな分類子が共同して働き、ひとつの結果をもたらすアンサンブル理論の概念を引用している。

しかし、不適切な技術のための解決方法が、よりよい技術であるかどうかを、どうやって確かめたらよいのだろう。Goldbergは、適正なアルゴリズムを開発には、AIの外の分野から来た、さまざまな経歴を持つ人間が欠かせないと語る。「機械の知能と人間の知能には、深い関連性があると思われます」とGoldbergは説明する。「異なる視点を持つ人は非常に貴重です。ビジネスの世界でも、そうした人が認められつつあるようです。それはPRのためではなく、異なる経験値と多様な視点を持つ人がいれば、よりよい決断が下せるからです」

3. 未来の自律走行は、人と機械の協力に依存することになる

UberのCEO、Dara Khosrowshahi(写真:TechCrunch/Devin Coldewey)

運送会社の多くは、移動が高度に自動化されて、人間が介在することがかえって有害になる近未来の夢の世界を想像している。

UberのCEO、Dara Khosrowshahiは、そうはならないと指摘する。人間を隅に追いやろうと競い合う時代では、人間と機械が手を取り合って働くほうが現実的だと彼は言う。

「人間もコンピューターも、それぞれ単独で働くより、一緒に働いたほうがうまくいく。私たちには自動化技術を導入する能力があります。サードパーティーの技術、Lime、私たちの製品は、すべてが協力してハイブリッドを構成しています」

https://platform.twitter.com/widgets.js
「未来の自律走行は、人と機械の協力に依存することになると、UberのCEO、Dara Khosrowshahiは言う」

Khosrowshahiが最終的に描いているUberの未来では、エンジニアがもっとも危険の少ないルートを監視し、乗客のための最適なルートが自動的に選択されるという混合作業になるという。この2つのシステムを組み合わせることが、自律走行の成熟には大変に重要で、乗客の安全を守ることにもなる。

4. アルゴリズムを「公平」だと判断するための合意による定義は存在しない

9月7日、カリフォルニア州サンフランシスコにて。モスコーンセンターで開かれたTechCrunch Disrupt第3日目のステージで話をするHuman Rights Data Analysis Group の主任統計学者Kristian Lum(写真:TechCrunch用にKimberly White/Getty Imagesが撮影)

昨年の7月、ProPublicaはある報告書を発表し、その中で機械学習が、独自に偏見を芽生えさせる危険性を強調している。調査によると、フロリダ州フォートローダーデールで使われていたAIシステムは、黒人の被告が将来再び犯罪を犯す可能性は、白人の被告の2倍あると誤った指摘を行った。この歴史的な発見は、公正なアルゴリズムの構築方法に関する論議を呼び起こした。

あれから1年、AIの専門家はまだ完全な構築方法を見つけていないが、アルゴリズムにおける、数学と人間というものへの理解を組み合わせた文脈的アプローチが、前に進むための最良の道だと考える人は多い。

https://platform.twitter.com/widgets.js
公正なアルゴリズムをどうやって作るか? Kristian Lum(Human Rights Data Analysis Group)は、明確な答えはないが、AIの文脈的なデータトレーニングによると言う。

「残念なことに、公正とはどんなものか、に関する定義の普遍的な合意が得られていません」とHuman Rights Data Analysis Groupの主任統計学者Kristian Lumは話す。「データをどのように刻んでゆけば、最終的にアルゴリズムが公正でないとわかるのか、ということです」

Lumの説明によれば、この数年間、数学的な公正さの定義を巡って研究が進められてきたという。しかし、このアプローチはAIの道徳に対する見識と相容れない場合が多い。

「アルゴリズムの公正さは、大いに文脈に依存します。それは、トレーニングに使用するデータに依存するということです」とLumは語る。「問題について、深く理解しておく必要があります。そして、データについても深く理解しておかなければなりません。それができたとしても、公正さの数学的定義への意見は分かれます」

5. AIとゼロトラストは「理想的な縁組」であり、サーバーセキュリティーの進化の鍵となる

9月6日、カリフォルニア州サンフランシスコにて。モスコーンセンターで開かれたTechCrunch Disrupt第2日目のステージで話をする(左から)Mike Hanley(DUOセキュリティー副社長)、Marc Rogers(Oktaサイバーセキュリティー上級ディレクター)、司会のMike Butcher。(写真:TechCrunch用にKimberly White/Getty Imagesが撮影)

前回の大統領選挙で、私たちは、個人情報、金融資産、民主主義の基礎を守るために、セキュリティーシステムの改良が喫緊の課題であることを学んだ。Facebookの元主任セキュリティー責任者Alex Stamosは、Disruptサンフランシスコにおいて、政治とサイバーセキュリティーの現状の厳しい見通しを示し、次の中間選挙でのセキュリティーのインフラは、2016年当時からそれほど良くなっていないと話した。

では、セキュリティーシステムの改善に、AIはどれくらい役に立つのだろうか。OktaのMark RodgersとDuoのMike Hanleyは、AIと「ゼロトラスト」と呼ばれるセキュリティーモデルの組み合わせに期待を寄せている。本人確認ができないかぎり、どのユーザーもシステムにアクセスできないという仕組みだ。それが、人を介さず侵入してくる相手を積極的に排除できるセキュリティーシステムの開発の鍵になるという。

https://platform.twitter.com/widgets.js
AIとゼロトラストが組み合わせた将来のセキュリティーシステムの仕組みを説明するMarc Rodgers(Okta)とMike Hanley(Duo)

「ゼロトラストの背景にある考え方全体が、自分のネットワーク内のポリシーを自分で決めるというものなので、AIとゼロトラストは理想的な縁組なのです」とRodgersは話している。「AIは、人間に代わって決断を下すことを得意としています。これまで人間には不可能だったほどの短時間で判断します。ゼロトラストが進化して、ゼロトラストのプラットフォームにAIが組み込まれるようになることを、私は大いに期待しています」

この大きな仕事を機械に任せられるようになれば、サイバーセキュリティーのプロは、もうひとつの差し迫った問題を解決する機会を得る。それは、これらのシステムを管理する資格を持つセキュリティーの専門家の配属だ。

「必要な仕事を実際に熟せる有能なセキュリティーのプロが、大幅に不足してます」とHanleyは言う。「それは、セキュリティーを提供する企業にとって、片付けなければならない仕事が特定できる非常に大きなチャンスとなります。この分野には、解決されていない問題が、まだたくさんあります。なかでも、ポリシーエンジンは面白いチャレンジになると思います」

Disrupt SF 2018


Disruptサンフランシスコ2018のその他の記事(英語)

[原文へ]
(翻訳:金井哲夫)

Google Lensが画像検索にやってくる――自分が見ているのが何なのか即座に分かる

今日(米国時間9/24)、Googleがサンフランシスコで開催した小さなプレスイベントで、検索に重要な新機能が準備されていることが判明した。近く画像検索でGoogle Lensがサポートされるという。

念のため復習しておくと、現在はGoogle Lens(Googleフォトの一部、あるいは専用アプリ)をタップするとGoogleのコンピューター画像認識機能が対象画像に関連する詳しい情報を提供してくれる。これによりユーザーは自分が見ている画像が何であるかを知ることができる。

Googleがデモした例でいえば、 育児用品(nursery)で検索するとベビーサークルや乳母車の画像がヒットする。ユーザーは表示された乳母車の一つを買いたいと思うかもしれない。しかし現在の検索インターフェイスではその画像だけを頼りに買おうとするとかなり難しいことになる。「乳母車」プラス、好みの色その他のキーワードを入力して改めて検索する必要がある。

しかしLensボタンが表示されていれば簡単だ。ボタンをクリックするとGoogleはコンピュータービジョン能力を総動員して画像を解析し、それが何であるか突き止めようとする。乳母車ではなく、背景に写っているランプが気に入ったのなら、指でランプを押さえればその部分にフォーカスが移る。

解析可能なのは乳母車や照明器具ばかりではない。写っている犬の種類から名所旧跡、アパレル、自動車、その他さまざまなカテゴリーがカバーされる。十分詳細な画像が得られGoogleの人工知能がそれを認識できる場合、Lensは対象の画像がどこから来たかを遡って調べ、詳しいデータを教えてくれる。

Google画像検索にLensがやってくるのは今週後半になる予定。

原文へ

滑川海彦@Facebook Google+

AIでOfficeが賢くなった――Microsoft Ignite 2018カンファレンス開幕

今朝(米国時間9/24)、MicrosoftのIgnite 2018カンファレンスがフロリダ州オーランドでスタートした。Office 365の新機能が次々に発表されているが、現在Microsoftが全力を挙げている分野を考えれば、新機能の多くがAIテクノロジーに支えられていることは驚くにあたらないだろう。オンラインだろうとオフラインだろうと、Officeシリーズの製品の新機能も例外ではない。今回のアップデートにより各種ツールのアシスタント機能が賢くなり、Officeはすこし使いやすくなる。

もっとも興味深い新機能はIdeasと呼ばれるものだ。これにより、まずExcelとPowerPointがスマートに利用できるようになり、日常業務が効率化される。PowerPointの場合、Ideaはプレゼンの内容に適したスライドのデザインや画像を探してくれる。Excelでは適切なグラフの候補を挙げたり、データ中の異常値を発見したりする。これらの機能はすでにオンラインのExcelで利用可能で、オンラインのPowerPointにもプレビュー版として近く登場する。こうした機能は近く他のOfficeツールにも拡張されるはずだ。ClippyジョークのタネにされているMicrosoftのアシスタントをあちこちで見かけるようになるかもしれない。

ExcelにはさらにいくつかのAI機能が追加された。Ignite 2017でMicrosoftはExcelに新しいデータ形を追加することを発表した。今年初め、プレビュー版にその機能がお目見えしていたが、今回正式に一般公開された。株価や地理的情報などがデータ形となり、ユーザーがスプレッドシートで処理するのが容易になった。MicrosoftはExcelに画像認識も導入した。この便利なツールは複雑な表の画像を認識して…お察しのとおりExcelファイルに変換する。ツールはData from Pictureというそのまんまの名前だ。

またlookup系関数が改良され、処理がスピードアップされたという。

またAIとは直接の関係がないものの、Officeの使い勝手を改善するアップデートとして、検索機能の強化が挙げられる。新しいMicrosoft Searchは近くBingと Office.comで公開される(Microsoft Edge、 Windows、Officeでの公開はその後になる予定)。Microsoftによれば、新しい検索機能はユーザー自身が保存しているファイルも対象とすることができるようになったという。たとえば「出張に家族を同伴できるだろうか?」と入力すると、人事部の規則が検索され、答えはノーだとわかる、という具合だ。

more Microsoft Ignite 2018 coverage

画像:STAN HONDA/AFP / Getty Images

原文へ

滑川海彦@Facebook Google+

Salesforceが音声アシスタントEinstein Voiceを発表

営業マンたちは、日頃話すことに時間を費やしている。彼らは電話で喋り会議に出席しているが、Salesforceに入力をする段になると、キーボードの前に座ってノートや進捗をタイプしたり自分の営業成績に関する指標を検索したりする。本日(米国時間9月19日)Salesforceは、その状況を変えるためにEinstein Voiceを導入することを決定した。これは営業マンたちがタイピングする代わりにプログラムに対して話しかけることを可能にするちょっとしたAI魔法だ。

Einstein Voiceをご紹介します。誰でもSalesforceに話しかけることができるようになりました。
詳しくは9月25日〜28日の#DF18(第18回Dreamforce)にて

Amazon AlexaやApple Siriが、仕事以外の日常生活の中で、デバイスに対して語りかける行為をありふれたことにしている世界の中で、企業がそのようなインタラクションを仕事の場所に持ち込もうと考えることは自然である。

この場合、利用者は会話を通して会議の情報を入力したり、その日の会議から重要事項を抜き出したり(車で移動する営業マンには特に有益である)、問い合わせをタイプする代わりに質問することでSalesforceのデータダッシュボードとやり取りしたりといったことが可能になる。

これらのツールはすべて、忙しい営業マンたちの日常業務を楽にするためにデザインされている。大多数の人は仕事の中の管理業務的な部分を嫌っている、なぜなら情報を入力する行為は(長期的には記録を残すことで有益であるとしても)、商品を売るという最も重要な仕事以外の行為だからだ。

会議のメモに関しては、スマートフォン上でタイプする(まあそれだけでも一苦労なのだが)代わりに、ただEinstein VoiceモバイルツールのMeeting Debrief(会議報告)ボタンをタッチして、メモを喋って入力を始めれば良い。するとツールが、言っていることを解釈する。ほとんどの文字起こしサービスと同様に、これは完璧ではなく多少の修正が必要かもしれないが、ほとんどの仕事はおこなってくれるだろう。

また、日付や取引金額などの重要なデータを取り出すことができ、フォローアップするアクション項目を設定することができる。

GIF:Salesforce

CRM Essentialsの創業者でプリンシパルアナリストを務めるBrent Learyは、人びとが音声インターフェイスの使用をより快適に感じるようになって来ているため、これはSalesforceにとっての自然な進歩だと述べている。「私は、顧客体験と従業員の生産性の両方の観点から見て、これは音声ファーストのデバイスとアシスタントを、CRMパズルの重要なピースにするものだと思っています」と彼はTechCrunchに語った。

既にTact.AIが、Salesforceのユーザーたちにこのような音声サービスを提供してきたことは指摘しておく価値があるだろう。TactのCEOであるChuck Ganapathiは、Salesforceの参入をあまり心配しているようには見えない。

「会話型AIはエンタープライズソフトウェアの未来です。そこで問われているのはもしそうなったらとか、いつそうなるのかということではありません。そこで問われているのは、ではどのように提供するのかということなのです。その解を提供するための唯一の道は『中立戦略』だと私たちは強く信じています。私たちがMicrosoft、Amazon、そしてSalesforceの支援を受けている唯一の企業であることは当然のことなのです」と彼は語る。

Learyは、誰にとっても成長の余地は大きく、Salesforceの参入によって全てのプレイヤーたちの採用が加速されることになると考えている。「Salesforceによる満ち潮が全てのボートを上昇させて、Tactのような企業は大いに注目されるようになるでしょう。Salesforceはこのカテゴリーのリーダーですが、マーケットシェアはいまだに20%未満なのですから」。

EinsteinはSalesforceの人工知能レイヤーの中の「なんでも引き受けますブランド」(catch-all brand)である。今回の場合は、自然言語処理、音声認識技術、その他の人工知能技術を使用して、人の声を解釈し、内容を書き起こしたり要求をより良く理解しようとする。

通常、Salesforceは小さな機能セットから始めて、時間の経過とともにその機能を追加していく。これは、来週行われる大規模な顧客会議であるDreamforceに合わせて、製品を発表し、同じような手段をとろうとしているのだろう。

[原文へ]
(翻訳:sako)

画像: akindo / Getty Images