TouchPalキーボードで大ブレークした中国のCootekがニューヨーク証券取引所で$100MのIPO

TouchPalキーボードアプリで有名な中国のモバイルインターネット企業Cootekが、アメリカで上場する。先週SECに提出されたF-1フォームによると、調達目標額は1億ドルだ。

上海で2008年にTouchPalをローンチした同社は2012年3月にCootekという名前で法人化し、SECへの提出書類によると現在の一日のアクティブユーザーは1億3200万、6月現在でその前年同期比増加率は75%、としている。また広告収入は同じ6月までの6か月で453%増加している。

AIを利用しているTouchPalは指をすべらせるグライドタイピングと予想テキスト機能があり、Cootekの一番人気のアプリだが、ほかにも15のアプリがあり、それらはたとえばフィットネスアプリのHiFitとManFITや、バーチャルアシスタントのTaliaなどだ。同社は独自のAI技術とビッグデータ技術により、ユーザーとインターネットから集めた言語データを分析する。そしてそこから得られるインサイトを利用して、ライフスタイルやヘルスケア、エンターテインメントなどのアプリを開発している。15のアプリを合計すると、月間平均ユーザーは2220万、一日では730万となる(6月現在)。

TouchPalそのものの平均ユーザーは、2018年6月の全月で1億2540万だった。一人のアクティブユーザーが一日に72回、このアプリを立ち上げている。現在、110の言語をサポートしている。

Cootekの主な売上源はモバイルの広告だ。同社によると、売上は2016年の1100万ドルから2017年には3730万ドル、その対前年増加率は238.5%だった。利益は6月までの6か月で350万ドル、1年前には1620万ドルの損失だった。

Cootekはニューヨーク証券取引所でチッカーシンボルCTKで上場する計画だ。IPOで得られた資金はユーザーベースの拡大と、AIおよび自然言語処理への投資、広告のパフォーマンスの改善に充てられる。上場の引き受け証券企業はCredit Suisse, BofA Merrill Lync, そしてCitiだ。

画像クレジット: Cootek

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

AIでアパレル業界に変革を、ファッションポケットが2.6億円を調達

AIを用いたファッションコーデの解析技術を活用し、トレンド予測やアパレル企業向けの商品企画サービスを開発するファッションポケット。同社は8月17日、東京大学エッジキャピタルや千葉功太郎氏らを引受先とする第三者割当増資により約2.6億円を調達したことを明らかにした。

今回のラウンドは同社にとってシリーズAにあたるものであり、シードラウンドからの累計調達額は3.5億円になるという。

ファッションポケットは2018年1月の設立。画像・映像解析に関連するAI技術を核に、ファッション領域において複数の事業を開発しているスタートアップだ。

たとえば8月からアパレル企業数社に提供しているAI MD(AIを活用したファッション商品企画)サービスでは、500万枚以上のコーデのデータを解析し、色や着こなしなどのトレンドを予測。その結果を商品企画に活用する。

「大企業と言われる所でも、ごく数名の担当者が何千点何万点もの商品企画を担っていたりする。業界ではヒット的中率が約50%などもとも言われ、仮に100点出せば定価で売れるのは40〜50点ほど。残りは値引きで販売するか廃棄する。大きな課題があるものの、これまでの仕組みでは解決できなかった」(ファッションポケット代表取締役社長の重松路威氏)

重松氏によるとAI MDサービスを活用して作られた洋服が2019年から実際に店頭に並び、販売されるそうだ。

また法人向けには画像・映像解析技術を用いた実店舗の顧客分析サービスも開発中。内装を気にする店舗でも設置しやすいように特別なハードウェア(カメラ)を含めたサービスで、顧客の顔や洋服、店内での行動から「どういうタイプの顧客が、店舗内でどのような行動をしているか」を解析してアパレル企業やデベロッパーに提供する。

そのほか2019年には消費者向けのサービスとして、AIを活用した新たなファッションECモールをリリースする計画もある。

ファッションポケットの代表を務める重松氏は、前職のマッキンゼー時代から様々な産業においてAIやIoTの活用、事業化の支援をしてきた。AIを商用化することで人々のライフスタイルを良くしたいという思いから起業を決断。多くの人にとって影響が大きい分野を探した結果、生活の必需品でもあり楽しさにも直結する“衣服”の分野を選んだのだという。

この半年間はビジネスサイドの体制を整えながら、CTOの佐々木雄一とともに独自で学習データの収集・仕分けを行い、同社の基盤となるアルゴリズムの開発に従事(なお佐々木氏はスイスの研究所でデータ分析を学んだ後、マッキンゼーを経て前職ではディープラーニングを製造業に提供する会社で研究開発センター長を担っていた人物)。アジア諸国を中心にデータ収集のためのネットワークも培ってきた。

ファッションポケットでは今回調達した資金を基に開発人材を中心に組織体制を強化し、学習データの整備を進める。合わせて上述したようなAIサービスの拡販、商用化に向けてプロダクト開発を加速する計画だ。

ブロックチェーンを破壊するハッカーの手口をシミュレーションしてデベロッパーの事前対策を可能にするIncentivai

暗号通貨のプロジェクトは、人間がそのブロックチェーンを悪用すると破綻する。しかも分散デジタル経済が実際に動き出し、コインが離陸すると、それらを統治するスマートコントラクトの修復は難しい。あくまでも、デベロッパーによる事前対策が必要である。そこで、今日(米国時間8/17)ステルスを脱したIncentivaiは、その人工知能によるシミュレーションで、セキュリティホールを調べるだけでなく、ブロックチェーンのコミュニティを構成している人間たちの貪欲や非論理性にメスを入れる。暗号通貨分野のデベロッパーはIncentivaiのサービスを利用して、自分たちのシステムが動き出す前に、その欠陥を修復できる。

Incentivaiの単独のファウンダーPiotr Grudzieńはこう言う: “スマートコントラクトのコードをチェックする方法はいろいろあるが、新たに作った経済が期待通りに動くことを確認する方法はない。そこで私が考えたのは、機械学習のエージェントを利用するシミュレーションを作り、それが人間のように振る舞うことによって、システムの未来の振る舞いを予見する方法だ”。

Incentivaiは来週Y Combinatorを卒業するが、すでに数社の顧客がいる。顧客(ユーザー)は、Incentivaiの有料サービスにより自分たちのプロジェクトを監査してレポートを作るか、または自分でそのAIによるシミュレーションツールをホストしてSaaSのように利用する。同社がチェックしたブロックチェーンのデプロイは数か月後になるが、そのとき同社はすでに、そのプロダクトの有意義性を実証するための、いくつかのケーススタディーをリリースしているだろう。

Grudzieńは説明する: “理論的にあるいは論理としては、一定の条件下ではこれこれがユーザーにとって最適の戦略だ、と言うことはできる。しかしユーザーは、合理的でも理性的でもない。モデルを作ることが困難な、予想外の行動がたくさんある”。Incentivaiはそれらの理不尽な取引戦略を探求して、デベロッパーがそれらを想像しようと努力して髪をかきむしらなくてもよいようにする。

人間という未知数から暗号通貨を守る

ブロックチェーンの世界には巻き戻しボタンがない。この分散技術の不可変かつ不可逆的な性質が、良かれ悪しかれ、一度でもそれを使ったことのある投資家を遠ざける。ユーザーが偽りの請求をしたり、贈賄によりそれらを認めさせようとしたり、システムを食い物にする行動を取ったりすることを、デベロッパーが予見しなければ、彼らは攻撃を阻止できないだろう。しかし、正しくてオープンエンドな〔固定しない〕(AIに対する)インセンティブがあれば…これが社名の由来だが…AIエージェントはなるべく多くの収益を得るために自分にできることをすべてやってみて、プロジェクトのアーキテクチャにあるコンセプトの欠陥を明らかにするだろう。

Grudzieńはさらに説明する: “この〔すべてをやってみるという〕やり方は、DeepMindがAlphaGoでやったものと同じで、さまざまな戦略をテストするのだ”。彼はケンブリッジの修士課程でAIの技能を究め、その後Microsoftで自然言語処理の研究を担当した。

Incentivaiの仕組みはこうだ。まず、デベロッパーは、ブロックチェーンの上で保険を売るなどの、自分がテストしたいスマートコントラクトを書く。IncentivaiはそのAIエージェントに、何を最適化するのかを告げ、彼らが取りうるすべての可能なアクションを羅列する。エージェントの役柄はさまざまで、大金を手にしたいと思っているハッカーだったり、嘘をばらまく詐欺師だったり、コインの機能性を無視してその価格の最大化だけに関心のある投機家だったりする。

そしてIncentivaiはこれらのエージェントにさらに手を加え、彼らを、ある程度リスク忌避型だったり、ブロックチェーンのシステム全体を混乱させることに関心があったり、といったタイプにする。それから、それらのエージェントをモニターして、システムをどう変えればよいかというインサイトを得る。

たとえば、トークンの不均一な分布がパンプ・アンド・ダンプ(pump and dump, 偽情報メールによる価格操作詐欺)を招く、とIncentivaiが学習したら、デベロッパーはトークンを均一に分割して、初期のユーザーには少なめにする。あるいはIncentivaiは、認められるべき支払請求をユーザーが票決する保険製品は、投票者が偽の請求を偽と立証するために支払う債権価格を上げて、詐欺師から収賄しても投票者の利益にならないようにする必要があることを、学ぶかもしれない。

Grudzieńは、自分のスタートアップIncentivaiについても予測をしている。彼の考えによると、分散アプリケーションの利用が上昇すれば、彼のセキュリティサービスのやり方を真似るスタートアップが続出するだろう。彼によると、すでに一部のスタートアップは、トークンエンジニアリングの監査や、インセンティブの設計、コンサルタント活動などをやっているが、ケーススタディーを作る機能的シミュレーションプロダクトは誰もやっていない。彼曰く、“この業界が成熟するに伴い、そういうシミュレーションを必要とする、ますます複雑な経済システムが登場するだろう”。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

ドローン+AIで発電/送電施設等の異状を至近距離で検出するSterblue

ドローンの商用利用に関する政府の規制は、関連企業にとってとてもポジティブな方向に向かってるようだし、またドローンを利用するスタートアップにとっては、人工知能を利用して人間の努力なしで結果を得る機会がますます増えている。

Y Combinatorの最近のクラスを卒業したフランスのSterblueは、市販のふつうのドローンと、そのような自動化手法を使って、大きな屋外建造物の近接検査をする。

同社のソフトウェアはとくに、自動化されたシンプルな飛跡で大型の送電線やウィンドタービン(風力発電機のタービン)を検査し、それを人間がやるより短時間かつ少ないエラーで行なう。また、対象の至近距離まで接近できるので、細部の高精細画像が得られる。

混みあった都市環境と違ってSterblueが調べる対象物は、異状がそれほど多くない。またCADのデータが得られるので、飛行経路の設計も比較的易しい。そして、まわりに物が密集していないから、風などに対応してドローンの姿勢を直すための空間も十分にある。

ドローンのオペレーターは、ドローンをSterblueのクラウドプラットホームに接続し、そこに写真をアップロードしたり、構造物の3Dモデルを見たりできる。飛行の間、Sterblueのニューラルネットワークが、今後の精査が必要と思われる問題箇所を見つける。Sterblueによると、ドローンは送電線から3メートルの距離にまで接近できるので、同社のAIシステムは撮った写真から異状を容易に検出できる。汚損や傷などの最小検出サイズは、1ミリメートルととても小さい。

最初、ドローンは自社製を使っていたが、ユーザーを増やすにはDJIのような一般市販品をサポートすべし、と気づいた。同社のファウンダーたちはAirbusの元社員で、当面は電気などの公益企業を顧客にしていく予定だ。そして最初はヨーロッパ、次いでアフリカとアジアを市場としてねらっている。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

“病理医不足”をAI画像診断サービスで改善、九大発メドメインが1億円を調達

患者から採取した細胞組織を顕微鏡で観察するなどして、「がん細胞や腫瘍はないか」といった疾患の有無を判断する病理診断。この診断を専門に行う病理医が今、国内外で不足傾向にあるという。

そんな現状を「AIによる病理画像診断ソフト」を通じて改善しようと試みているのが、福岡に拠点を構える九州大学発ベンチャーのメドメインだ。同社は8月17日、 DEEPCOREとドーガン・ベータを引受先とした第三者割当増資により1億円の資金調達を実施したことを明らかにした。

病理医が気づきにくい病気もAIが発見

そもそも病理診断に関してあまり馴染みがない人も多いかもしれないが、これは病院で大きな病気の疑いがあった際に実施される精密診断のこと。メドメイン代表取締役社長の飯塚統氏によると、「精密診断が必要です」と言われた時の精密診断とは病理診断を指すことが多いのだそうだ。

この病理診断を専門の病理医(病理専門医)が担当するのだけど、その数は日本国内で約2000人強。割合にすると医者全体のだいたい0.6%ほどしかいないという。

当然全ての病院やクリニックに病理医がいるわけではなく、通常は病理医がいる病院へ採取した細胞組織を郵送し、診断結果が出るのを順番に待つことになる。

「結果が出るまでにだいたい1〜3週間かかる。その期間が長くなれば患者の負担も増えるし、病気によっては進行してしまうものもある」(飯塚氏)

その問題を解決すべくメドメインが開発しているのが「PidPort (ピッドポート)」というAIによる病理画像診断ソフト。大量の病理画像をAIに学習させることで、細胞組織の画像をもとに高精度かつスピーディーに病理診断できる仕組みの構築を目指している。

たとえば他の病院に病理診断を依頼していた病院でも、画像データを用意すればPidPortを用いて1分ほどで診断結果ができるようになるという(その後病理医によるチェックは必要)。もちろん病理医がいる病院や病理診断を請け負っている検査センターでも、担当医の業務を支援するツールとして活用できる。

「病理医はキャリアの中でどれだけ病理画像を見てきたか、症例を見てきたかの積み重ね。その点ではある意味ディープラーニングに近いことをしている側面もある。(AI活用によって)短時間で膨大な量を学習できることに加え、病理医の先生が知らない病気に気づけることも特徴。PidPortが使われている他の病院で一度画像データを見ていれば、珍しい病気もAIが発見してくれる可能性がある」(飯塚氏)

まずは特にニーズの多い胃と大腸の診断を強化したα版を10月にクローズドでリリースする予定。複数の病院でテスト運用をしながら、β版を経て2019年10月を目処に正式版を公開する計画だ。

「将来的には今まで病理医の先生がやってきた病理診断をPidPortでもできるようにしたい。メディアなどで『病理診断をAIでやります』といった話題も目にするが、現状では胃ガンなど限定的なものも多い状況。(PidPortでは)全身、全疾患をカバーすることを目指していく」(飯塚氏)

九大起業部発のスタートアップ、医学部や大学病院とも連携

写真最前列の右がメドメイン代表取締役社長の飯塚統氏

メドメインは2018年1月の創業。九州大学医学部に在学中の飯塚氏を中心に、同大学の起業部から発足したスタートアップだ。現在はPidPortのほか、医学生向けクラウドサービス「Medteria (メドテリア)」も開発している。

飯塚氏自身がかつて病理診断を経験し、結果を待っている時間が長いと感じたことが根本にあるそう。医学部でデータ解析をする際などに学んだプログラミングスキルを活用して「他の人にも使ってもらえるサービス」「きちんとマネタイズして事業化できるもの」を検討した結果、現在の事業アイデアに決めたという。

医療領域で画像診断を効率化するプロダクトについては、以前エルピクセルが手がける「EIRL(エイル)」を紹介したが、人手不足などもあってAIを含むテクノロジーの活用に期待が集まっている。

ただし飯塚氏によると研究開発は国内外で進んでいるものの、商用化されたアプリケーションという観点ではこれといったものが国内外で生まれていないそうだ。

その理由の一つが「データ集めの難易度の高さ」にある。PidPortでいえば病理画像に当たるが、これらのデータの多くは病院が保有しているもので、一般企業が集めるにはハードルが高い。メドメインは九大医学部、九大病院と連携しているため、データ集めにおいては他社にない強みを持っていると言えるだろう。

アドバイザーという形も含めて10名程度の医師が開発に携わっていて、データのチェックや現場視点でのフィードバックも行なっているそう。加えてスーパーコンピューターを用いるなど、開発体制の整備も進めてきた。

メドメインでは今回調達した資金を活用してアルゴリズムの強化、組織体制の強化をしながら10月のα版、そして1年後の正式版リリースに向けて事業を加速する計画。

飯塚氏が「日本国内だけではなく、アフリカや東南アジアなど病理診断の土壌がない国にも展開していきたい」と話すように、世界各国の医療機関への提供を目指していくという。

SEERは人間のようにアイコンタクトできる――日本のアーティスト、ロボットで目の表情を精緻に再現

われわれはすでにロボットが蹴られたり邪魔されたりするのをみて見て気持ちをかき乱されてきた。たとえそのロボットがいかにロボット的な外観であってもやはりかわいそうだと思ってしまうのだから、ロボットの表情が人間そっくりでアイコンタクトを続ける能力があったらもっと厄介な事態になるだろう。ましてロボットをいじめるとそれに応じた表情をするのであればなおさらだ。そうは言ってもこれがわれわれが選んだ未来なのだから止むえない。

SEERは感情表現シミューレーション・ロボット(Simulative Emotional Expression Robot)の頭文字で、 今年初めにバンクーバーで開催されたSIGGRAPHで発表された。このヒューマノイド・タイプの小さな頭部の製作者は日本のアーティスト、藤堂高行(Takayuki Todo)氏で、 直近の人間とアイコンタクトをとり、その人物の表情を真似することができる。

それだけ聞くとさほど革命的には聞こえないかもしれないが、高いレベルで実行するための仕組みは非常に複雑だ。SEERにはまだ多少の不具合はあるものの、これに成功している。

現在SEERロボットには2つのモードがある。イミテーション・モードとアイコンタクト・モードだ。どちらも近くの(あるいは内蔵の)カメラの情報を利用し、人間をトラッキングし、表情をリアルタイムで認識する。

イミテーション・モードでは対象となる人間の頭部の位置、眼球とまぶたの動きを認識してSEER側で再現する。実装はまだ完全ではなく、ときおりフリーズしたりランダムに振動したりする。これは表情データからのノイズ除去がまだ完全でないためだという。しかし動作がうまく行ったときは人間に近い。もちろん本物の人間の表情はもっとバリエーションが豊富だが、SEERの比較的単純で小さい頭部には異常にリアルな眼球が装備されており、その動きはいわゆる「不気味の谷」に深く分け入り、谷を向こう側にほとんど抜け出すほどのインパクトがある。

アイコンタクト・モードではロボットは当初まず能動的に動く。そして付近にいる人間の目を認識するとアイコンタクトを継続する。これも不思議な感覚をもたらすが、ある種のロボットの場合のような不気味さは少ない。ロボットの顔の造形が貧弱だとできの悪いSFXを見せられているような気分になるが、SEERには突然深いエンパシーを抱かせるほどのリアルさがある。

こうした効果が生まれる原因としては、感情としてとしてはニュートラルで子供っぽい顔となるようデリケートに造形されていることが大きいだろう。また目がきわめてリアルに再現されている点も重要だ。もしAmazon Echoにこの目があったら、Echoが言ったことをすべて覚えていると容易に実感できるだろう。やがてEchoに悩みを打ち明けるようになるかもしれない。

今のところSEERは実験的なアート・プロジェクトだ。しかしこれを可能にしているテクノロジーは近い将来、各種のスマートアシスタントに組み込まれるに違いない。
その結果がどんな善悪をもたらすのかは今後われわれ自身が発見することになるのだろう。

〔日本版〕SEERロボットは東京大学生産技術研究所の山中俊治研究室で6月に開催された「Parametric Move 動きをうごかす展」でもデモされている。下のビデオは藤堂氏の以前のロボット作品、GAZEROID「ろぼりん」。



原文へ


滑川海彦@Facebook Google+

スマートスピーカーの販売額は来年末までに50%アップする――NPDがアメリカ市場のデータを発表

2014年の後半にEchoをリリースしたときにはAmazon自身もこうなるとは予想していなかったかもしれない。 AIを利用したスピーカーは次世代家電に必須のプラットフォームを作ることになりそうだ。

スマートスピーカーはAIを消費者レベルに浸透させ、さまざまな製品がWiFiなどを経由して協調作動するコネクテッド・ホームの世界へのドアを大きく開いた。

消費動向調査の有力企業、NPDが発表したレポートによれば、スマートスピーカーの売れ行きにはまったくかげりが見えないという。 これらのデバイスの販売額は2016-2017年と2018-2019年を比較して50%の成長を示すと推定されている。スマートスピーカーのカテゴリーには来年末までに16億ドルの売上があるものと期待されている。

AmazonがベストセラーになったDot、スクリーン付のSpotやShowを追加するつれ、Echoシリーズはこの4年間に 急速に売れ行きを伸ばしてきた。一方、GoogleもHomeシリーズでぴったりAmazonの背後につけている。最近LG、Lenovo、JBLが発表したスマートディスプレイはGoogleのホームアシスタントが組み込まれている。

Appleもこの分野に参入し、HomePodを発表した。これによりプレミアム版のスマートスピーカーというジャンルも成立した。Googleもハイエンド製品、Home Maxで続いた。Samsungが近くリリースするGalaxy Home(三脚にHomePodを載せたように見える)もこのジャンルの製品だろう。

こうした大企業はすべてスマートスピーカーがスマートホーム製品の普及に道を開くことになるのを期待しているのは疑いない。NPDの調査によれば、アメリカの消費者の19%は1年以内になんらかのスマートホーム製品を購入する予定があるという。

原文へ


滑川海彦@Facebook Google+

Nvidiaの新しいハイエンド、TuringアーキテクチャはリアルタイムのレイトレーシングとAIを合体

このところ、Nvidiaの新しいアーキテクチャTuringに関するリークは、サンタクララにある同社の本社が震源だったようだ。それを当然と思わせるかのように同社は、今日のSiggraphのキーノートで、この新しいアーキテクチャと、Quadro系列の一員となる、プロ用ワークステーションのグラフィクスカード3種のローンチを発表した。

NvidiaによるとTuringアーキテクチャは、“2006年のCUDA GPU以来のもっとも偉大な飛躍”だ。相当な大言壮語だが、意外と真実をついているのかもしれない。これらの新しいQuadro RTxチップは、同社の新製品RT Coresをフィーチャーする最初のチップであり、ここで“RT”はレイトレーシングを意味する。それは、光がシーン中のオブジェクトと対話/干渉するときの径路を追跡するレンダリング方法だ。この技術の歴史は、とても長い(AmigaのPOV-Rayをおぼえておられるだろうか)。従来からこの技術はきわめて計算集約的だったが、物をリアルに見せる点では優れていた。最近では高速GPUが並列処理で一度にたくさんの計算をできるようになったため、Microsoftが最近、DirectXにレイトレーシングのサポートを加えるなど、新たな脚光を浴びている。

NvidiaのCEO Jensen Huangはこう語る: “ハイブリッドレンダリングがわれわれの業界を変え、そのすばらしい技術の可能性が、美しいデザインとリッチなエンターテインメントと、充実した対話性で、私たちの生活を豊かにするだろう。リアルタイムのレイトレーシング*の到来は長年、われわれの業界の見果てぬ夢だったのだ”。〔*: レイトレーシングのリアルタイム化。〕

この新しいRTコアはレイトレーシングをNvidiaの従来のPascalアーキテクチャに比べて最大25倍高速化し、Nvidiaが主張する最大描画速度は毎秒10 GigaRaysだ(下表)。

Turingアーキテクチャによる三つの新しいQuadro GPUは、当然ながら同社のAI専用ユニットTensor Coresと4608基のCUDAコアを搭載し、最大毎秒16兆の浮動小数点数演算と、それと並列に毎秒16兆の整数演算を行なう。そのチップは作業用メモリとしてGDDR6メモリを搭載し、NvidiaのNVLink技術によりメモリ容量を96GB 100GB/sまで増強している。

AIの部分は、いまどき当然であるだけでなく、重要な意味もある。Nvidiaが今日ローンチしたNGXは、AIをグラフィクスのパイプラインに持ち込むための新しいプラットホームだ。同社はこう説明する: “NGXの技術は、たとえば、標準的なカメラフィードから超スローなスローモーションの動画を作りだすなど、これまでは10万ドル以上もする専用カメラにしかできなかったことをする”。また映画の制作現場は、この技術を使って容易にワイヤを消したり、正しいバックグラウンドで欠けているピクセルを補ったりできるそうだ。

ソフトウェアに関しては、Nvidiaは今日、同社のMaterial Definition Language(MDL)をオープンソースにする、と発表した。

今すでにTuringアーキテクチャのサポートを表明している企業は、Adobe(Dimension CC), Pixar, Siemens, Black Magic, Weta Digital, Epic Games, Autodeskなどだ。

もちろんこれだけのパワーには、お金もかかる。新しいQuadro RTX系列は16GBの2300ドルが最低価格で、24GBでは6300ドルになる。倍の48GBなら、約1万ドルだ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

巨大AI企業SenseTimeがビデオ技術のMoviebookへ$199Mの投資をリード、その戦略的意図は…

SenseTimeは、45億ドルあまりの評価額で6億2000万ドルを調達し、評価額が世界最高のAI企業として知られているようだが、同社はしかし投資家でもある。この中国企業は今週、オンラインのビデオサービスをサポートする技術を開発している北京のMoviebookへのシリーズD、13億6000万人民元(1億9900万ドル)のラウンドをリードした。

Moviebookはこの前2017年に、シリーズCで5億人民元(7500万ドル)を調達した。今回のシリーズDは、SB China Venture Capital(SBCVC)が、Qianhai Wutong, PAC Partners, Oriental Pearl, およびLang Sheng Investmentらと共に参加した。〔SB==Softbank〕

SenseTimeによると、同社は投資と共にMoviebookとのパートナーシップも契約し、二社がさまざまなAI技術で協力していく。たとえば、エンターテインメント産業におけるAIの利用増大をねらった拡張現実技術などだ。

SenseTime Group Ltd.のオブジェクト検出/追跡技術が、2018年4月4日に東京で行われたArtificial Intelligence Exhibition & Conference(人工知能エキシビション&カンファレンス)でデモされた。このAIエキスポは4月6日まで行われた。写真撮影: Kiyoshi Ota/Bloomberg

声明の中でSenseTimeの協同ファウンダーXu Bingは、両社は、放送やテレビとインターネットのストリーミングなどからの大量のビデオデータを利用して、未来の多様な商機を開拓していく、と述べている。彼はまた、AIなどの新しい技術をエンターテインメント産業に導入していくことの持つポテンシャルを、強調している。

このような戦略的投資をSenseTimeが行なうのはこれが初めてではないが、今回がいちばん重要だろう。同社はこれまで、51VR, Helian Health, そしてリテールの巨人SuningからのスピンアウトSuning Sportsなどに投資している。

SenseTime自身は投資家たちから16億ドルあまりを調達しており、その投資家はAlibaba, Tiger Global, Qualcomm, IDG Capital, Temasek, Silver Lake Partnersなど、きわめて多様だ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

FirefoxがユーザーのWeb世界を拡張する提案機能‘Advance’エクステンションをテスト中

MozillaのFirefox Webブラウザーが今日(米国時間8/7)、Advanceと呼ばれる実験的なエクステンションを発表した。それは機械学習を利用して、ユーザーがもっと文脈的かつ直感的な広がりのあるWebサーフィンをできるようにする。このエクステンションは、Firefoxが今行っているTest Pilotプログラムの一環で(ユーザーはこれにいつでも オプトインできる)、Laserlikeの機械学習バックボーンを利用して、ユーザーのWeb閲覧習慣を理解しようとする。

その仕組みはこうだ: Test PilotでAdvanceを有効にすると、Webの閲覧はふつうにできるが、Advanceはユーザーが閲覧するサイトの種類について記録と学習を開始する。そしてその学習に基づいて、その人のWeb閲覧を補完するようなページや、その人が好きになりそうなページをサイドバーで推奨する。そしてユーザーは、Advanceが正しくないと感じたら、推奨されたページに「退屈」「的外れ」「スパム」などのフラグをつけて、エクステンションの推奨能力を鍛えていく。

この機能は同社のContext Graphイニシアチブの一部で、それは“インターネット上の次世代のWeb発見”を探求し、ユーザーのWeb世界をこれまでの日常よりも広くしようとする。そしてもちろん、Firefoxブラウザーの上で彼/彼女が過ごす時間を長くしたい。このイニシアチブの最初の機能Activity Streamは、ユーザーの閲覧履歴やブックマークの情報をより有効利用する試みで、今ではTest Pilotを卒業してFirefoxブラウザー本体に装備されている。

Advanceの導入は、最近閉鎖したStumbleUponが遺したギャップを填める試みでもある。インターネットという広大な大陸の上で途方に暮れているユーザーに16年間も、珍しいサイトやおもしろいページを紹介し続けてきたStumbleUponの仕事を、Advanceが引き継ごうというのだ。“偶然の出会い”という要素が大きかったStumbleUponと違って、Advanceにはユーザー履歴の学習に基づくお利口なオプションもあるが、インターネット上をさまようユーザーのための案内役、という点では共通している。

しかし、人生を楽にすると称する機械学習の技術が、インターネット上のWeb閲覧を助けられるためには、Advanceも、そしてバックボーンのLaserlikeも、ユーザーの閲覧履歴を大量に知る必要がある。AIが学習するためには大量のデータが必要だが、Mozillaも認めるように、個人情報の悪用や誤用への懸念も、最近のFacebookEquifaxの事故を契機として高まっている。

この不安に応えるためにAdvanceには、閲覧履歴の収集をさせないオプションや、見たら消すことをLaserlikeに求めるオプションがある。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Teslaが自動運転車用のAIチップを内製している、計算性能はNvidiaの10倍

“これについては、最近の2〜3年間、ややステルスだった”、と今日(米国時間8/1)の決算報告でElon Muskは述べた。“でもそろそろ、猫を袋から出してよいころだろう”。

その猫とは: ‘Teslaコンピューター’だ。“Hardware 3”とも呼ばれるそれは、Tesla製のハードウェアで、Model S, X, そして3に搭載され、これらの車の自動運転能力を大きく前進させる。

Teslaはこれまで、NvidiaのDriveプラットホームに頼ってきた。なぜ、今、それを変えるのか?

Teslaによると、内製することによって同社独自のニーズにフォーカスでき、効率をアップできる。

“自分でやることの利点は、自分のニューラルネットワークについて、今後のことも含め、いちばんよく知ってるのは自分だ、ということ”、とHardware 3プロジェクトのディレクターPete Bannonは語る。そのBannonによると、ハードウェアのアップグレードは来年始まる。

Elonが言葉を足す: “重要なのは、ニューラルネットワークを、基本的なベアメタルのレベルで動かすことだ。そういう計算は、回路本体の中で行なう。エミュレーションモードなどでは、だめだ。それなら、GPUやCPUの仕事だ。大量の計算をするために、メモリーが必要になる”。

Elonが語るその最終結果は、相当ドラマチックだ。TeslaのコンピュータービジョンのソフトウェアはNvidiaのハードウェアではおよそ200fpsを扱えるが、専用チップなら2000fpsは行ける。しかも、“十分な冗長性とフェイルオーバーを伴ってね”。

また、AIアナリストのJames Wangによると、Teslaが自分の未来を自分自身でコントロールできるようになる:

[動機はAppleのSoC内製と同じで、競合が始まる前に競合に大きく勝っておくこと。]

内製することによって、重要なチップを完全に自分のニーズに合わせられる。なにかアップグレードが必要になっても、ハードウェア屋さんが対応するのを待たずに、自分ですぐに直せる。もちろんそれは、簡単にできる仕事ではないが、採算内で完成すればその経営効果は大きい。Elonは経費について、現在のそのほかのハードウェアと同じだ、と言っている。

既存のTeslaに載せる件については、Elon曰く、“コンピューターを容易に交換できるように作ってある。だから、単純に差し替えるだけだ。古いのを抜いて、新しいのを差し込む。コネクターの互換性は、完璧だ”。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

人の声から感情を解析するAI開発のEmpathが総額3億2000万円を資金調達

音声から感情を解析する人工知能を開発するEmpath(エンパス)は、SXキャピタルSBIインベストメントの2社が運営する各ファンドから7月31日、総額3億2000万円の資金調達を完了した。

Empathが開発するのは、音声のスピード、ピッチ、トーンなど物理的な特徴量から、気分の状態を独自アルゴリズムで判定するプログラム。数万人の音声データベースをもとに、喜怒哀楽や気分の浮き沈みを判定する。プログラムは開発者が利用できるよう、Empath APIとして提供。TechCrunchでも過去にApple Watch用アプリ「EmoWatch」に組み込まれたAPIとして、この技術を紹介したことがある。

EmpathのAIは言語に依存せずに感情解析が可能なことから、現在世界50カ国、約1000社に利用されているという。活用分野はメンタルヘルス対策やマーケティングなどさまざま。奈良先端科学技術大学院大学との共同研究やNTTドコモとの被災地支援事業で採用されたほか、ロボティックスやコールセンターなど幅広い分野で使われているそうだ。

Empathは、スマートメディカルのICTセルフケア事業部門としてスタートし、2017年11月にスマートメディカルの子会社として独立した企業。ルクセンブルクで開かれる世界的なイベントITC Spring 2018で開催されたスタートアップピッチでは日本企業として初めて優勝するなど、海外のピッチコンテストで複数の優勝経験を持つ。

同社は今回の資金調達により、Empath AIの機能拡充と、Empathの感情解析を利用した新しいコールセンターAIの開発に取り組む。また感情コンピューティング領域の人材獲得にも投資していくという。

iPhoneやiPad、Apple Watchを医療現場で活用ーーOchsner Health Systemが目指す“ヘルスケア変革”

国際モダンホスピタルショウで公演を行うOchsner Health SystemのRichard Milani氏

医療機関が抱える数々の問題をAppleのiOSデバイスなどを連携しアプリを導入することで解決へと導く。それがOchsner Health System(オシュナー・ヘルスシステム)のRichard Milani氏が抱えるミッションだ。

Ochsnerは、30の病院、プライマリケアを含む80を超えるクリニックからなり、急性期および慢性期医療を提供するアメリカ南部沿岸地域で最大規模の非営利大学医療センター。Milani氏はドクターでありながら、病院経営を改革すべくChief Clinical Transformation Officerとして病院の改革に注力する。現場にiPhoneやiPad、Apple Watchを導入し、医療のIoT化でヘルスケアの変革を推進している。

そのMilani氏が7月12日、東京ビッグサイトで開催された「国際モダンホスピタルショウ」にて「iPhoneやiPad、Apple Watchを活用したヘルスケア変革の実現」と題された国内初の特別公演を行った。

その公演の一部をTechCrunch Japanの読者にも共有したい。

Milani氏の話だと、医師は1日に平均にして約2300メートル、病院内を歩くのだという。「患者の情報を得る必要がある度に固定のワークステーションに立ち寄る手間を想像してみてほしい」と同氏は話した。病院は果てしなく広く、部屋数も膨大だ。施設内を移動中、どこでも必要な情報を得られることは医師や看護師だけでなく、もちろん誰よりも患者にとって大きなメリットとなるだろう。

Ochsnerでは現在、医師や看護師はiPhoneやiPadを操作することで患者のカルテやヘルスケア関連のデータを閲覧し、緊急時などにはApple Watchで通知を受け取っている。

Epic Systemsのアプリ「Haiku」を使い、勤務前に、前夜に入院した新しい患者の情報、担当患者の状況について確認。院内では「Canto」アプリを使い、カルテや検査結果、ラボからの報告、バイタルサイン、トレンドレポートなどの確認を行っている。こうすることで、医療機器を操作したり、紙のカルテをチェックしたり、などの手間を省くことに成功している。

また、患者は入院時にiPadを渡され、「MyChart Bedside」アプリを使うことで検査結果や服用中の薬、担当ケアチーム、スケジュールなどを確認することができる。医師や看護師の顔を覚えることが簡単になり、メッセージを送ったりすることで従来以上に密なコミュニケーションを図ることも可能だ。

日本でもOchsnerと同様の取り組みは実際に行われてる。例えば、新百合ヶ丘総合病院では2017年11月20日より、同院いわく「国内初」の試みとしてApple Watchを本格導入した。2014年8月電波環境協議会が出した「医療機関における携帯電話等の使用に関する指針」により、院内における携帯電話の利用が事実上解禁され、デバイスを医療・看護の現場で活用しようとする動きが高まった、と同院は言う。

Oschsnerの技術的革新はiOSデバイスやアプリの導入だけにとどまらない。2018年2月18日に発表しているとおり、EpicとMicrosoft AzureのAIとクラウドの技術を使い、急な心停止や呼吸停止、敗血症などを事前に察知する取り組みを開始している。これはカルテや検査・診断結果などの電子化によって成し得たと言っていいだろう。

AIは全ての患者のトータルで10億にもおよぶ医療情報を網羅し、次の4時間以内に起こり得る急な病状の悪化を察知するのだという。その短い時間内に対応するため、Ochsnerでは特別な医療チームが編成されている。チームのメンバーはApple Watchを身につけており、通知を受け取ることで急な対応を行うことが可能だ。「これがデジタルトランスフォーメーションの成果だ」とMilani氏は語る。「患者のケアを人類が今まで成しえなかった形で行うことができる」(Milani氏)

慢性疾患の退院後のモニタリングにもAppleデバイスはその力を発揮する。Milani氏は退院後、多くの患者が必要な服薬をしないのだという。だがHealthKitとEpicアプリ導入済みのApple Watchは患者に服薬のリマインドを通知。血圧や心拍数を計測してモニタリング目的のためクリニックにその情報を送信する。

続けて、OchsnerがなぜAndroidでなくAppleのiOSデバイスなどを採用しているのかを説明したい。何故ならその理由が単に「林檎のマークが格好いいから」というだけではないからだ。公演後、Milani氏はその理由を別室でのグループ・インタビューで詳しく解説してくれた。

インタビューに応じるMilani氏

Milani氏はAppleのデバイスは「操作が簡単・セキュリティーが高い・ハッキングが難しい」と公演中繰り返していた。それとは別に、「Android端末は作っている会社も機種数も多い」という点も、Appleのデバイスに限定している理由なのだという。グループ・インタビューに同席したAppleのWorldwide Healthcare Markets担当者Afshad Mistri氏は「Androidと聞くと1つの大きなファミリーに思えるかもしれない」と話し、だが実際には14000以上のAndroid端末が存在する、と説明。各Android用にインターフェイスを作るとコストが嵩んでしまうとMilani氏は語った。

Ochsnerが行なっているiPhoneやiPad、Apple Watchの導入による医療現場のIoT化は医師や看護師の負担を軽減しているだけでなく、患者のとのコミュニケーションや急な病状変化への対応、退院後のフォローアップにも大いに役立っている。日本でも今後、医療現場のイノベーションがさらに加速することを期待したい。

金融情報分析AI開発のゼノデータラボがダウ・ジョーンズと提携、企業の業績予測サービス開発へ

金融情報分析AI開発のゼノデータラボは7月27日、ウォール・ストリート・ジャーナルなどで知られるダウ・ジョーンズと業務提携し、将来予測AIの開発、営業を開始したと発表した。

開発中の新しいプロダクトはSaaS型のWebサービス、「xenoBrain(ゼノブレイン)」。これはダウ・ジョーンズ社の持つ過去10年以上分のグローバルニュースデータに、ゼノデータラボの保有する自然言語処理技術を応用することで、ニュース記事に含まれる過去の経済事象の連関から企業の利益影響を自動で分析し、企業の業績予測を行うAIだ。β版はこの秋にリリースされる予定だという。

同社には「xenoFlash(ゼノフラッシュ)」というサービスがある。これは高度な自然言語処理を用いたAIを使って決算発表資料の全自然文データを解析し、財務数値の背景となる文章を自動で解析、解説文を出力するものだ。

今回のxenoBrainは何が違うのか。代表取締役社長の関洋二郎氏は「xenoFlashがなぜ増益だったのか、なぜ減益だったのか、という過去の分析に焦点を当てているのに対し、新サービスでは将来どうなっていくのか、今後増益なのかというところを解析する」のだと説明した。

「我々の自然言語処理は現在、決算短信だけだが、これからはニュースを含めて自然言語処理対象にし、分析を広げていく」(関氏)

xenoBrain上では左側にニュースが流れ、好きなニュースをクリックすると、「ニュースがどの企業のどの会計科目にどうインパクトを及ぼしうるのか」というところを、理由や背景なども含めて自動で解析する。

xenoBrainのイメージ画像

今後ゼノデータラボの株主でもある三菱UFJ銀行でxenoBrainの実証実験をする予定。三菱UFJ銀行の法人取引の部門に同サービスを展開し、上場企業の分析業務効率化に役立て、企業分析シーンにおける早期の実用化を目指すのだという。また、同サービスの最初期ユーザーとしてレオス・キャピタルワークスの先行利用が決定している。

「(ターゲットユーザーは)毎日のニュースから株式ポートフォリオの影響を分析するファンドマネージャー、担当顧客に対してより付加価値のある提案を模索する大企業営業やコンサルタント、より説得力のある提案で個別銘柄の取引を活性化させたい証券営業担当」(関氏)

関氏はxenoBrainで「風が吹けば桶屋が儲かるをビジュアライズ化した」と語っていた。

Preferred Networksが中外製薬と東京エレクトロンから9億円を調達、深層学習技術を用いた共同研究へ

深層学習技術、機械学習技術の研究開発を行うPreferred Networks(PFN)。これまでもトヨタやファナックを始めとした大企業から出資を受け、各業界の課題解決に向けて共同研究を進めてきたこのAIスタートアップが、また新たな企業とパートナーシップを組むようだ。

同社は7月26日、中外製薬と東京エレクトロンから総額で約9億円を調達することを明らかにした。内訳は中外製薬から約7億円、東京エレクトロンの子会社から約2億円。2018年8月に出資を受けることで合意したという。

調達した資金を基にPFNでは組織体制や財務基盤の強化、計算環境の拡充を進める計画。また中外製薬とは医薬品研究の分野において、東京エレクトロンとは半導体製造分野において深層学習技術(ディープラーニング)を用いた共同研究に取り組む。

PFNは2014年3月の設立。これまでも何度か紹介しているが、代表取締役社長の西川徹氏が2006年に立ち上げたPreferred Infrastructure(PFI)からスピンオフする形で始まったスタートアップだ。

2017年10月にトヨタから約105億円の資金調達を実施した際には話題となったが、それ以前にも日本電信電話(NTT)やファナックから出資を受けているほか、直近では2017年12月に博報堂DYホールディングス、日立製作所、みずほ銀行、三井物産にファナックを加えた5社から20億円を超える資金を集めている

PFNではこれまで「交通システム」「製造業」「バイオヘルスケア」という3つのドメインを重点事業領域として設定。トヨタやファナック、日立、国立がん研究センターなどと各分野の研究開発を進めてきた。具体的には自動運転やコネクテッドカーに関する技術、ロボティクスや工作機械への応用、医用画像の解析や血液によるガンの早期診断技術といったものだ。

今回出資を受けた2社とも同様に事業面での連携を進めていく方針。東京エレクトロンとは半導体製造分野で最適化・自動化などをテーマに深層学習技術を用いた共同研究をすでに開始している。

中外製薬とも革新的な医薬品・サービスをはじめとする新たな価値創出を目的とした包括的パートナーシップ契約を締結。深層学習技術を活用して医薬品研究開発の解決を目指すとともに、より探索的な取り組みも含めて複数の共同プロジェクトに取り組む方針だ。

少量のデータから特徴を抽出する独自AI開発、ハカルスが1.7億円を調達

AIソリューションの開発を手掛けるハカルスは7月12日、エッセンシャルファーマ、大原薬品工業、キャピタルメディカ・ベンチャーズ、みやこキャピタル、メディフューチャーを引受先とした第三者割当増資により、総額1.7億円を調達したことを明らかにした。

同社は2014年の設立。過去にトータルで1億円を調達していて、今回のラウンドを含めると累計調達額は2.7億円となる。

前回の調達時にも紹介している通り、ハカルスはもともとヘルスケア分野のAIベンチャーとしてスタート。少量のデータからでも傾向や特徴を抽出できる「スパースモデリング」技術を機械学習に応用した、独自AIを開発している。

これによって一般的なディープラーニング技術が抱える「膨大な学習データが必要」「AIの意思決定の過程が人間には解釈できずブラックボックス化している」「大規模な計算資源が必要」などの課題を解決することを目指しているという。

ハカルスでは同社の技術をこれまで産業や医療分野に展開。たとえばドローンで空撮した建物の画像から補修が必要な箇所を特定するようなシーンで利用実績がある。

3月には医療・ヘルスケア分野での利用に特化した開発パッケージ「HACARUS Fit Platform」 を発表しているが、今回の調達資金は医療分野の課題解決を行うソリューションの開発体制をさらに強化するのが目的。

株主となった大原薬品やエッセンシャルファーマ、メディフューチャーとは共同で医療機関と医療従事者に向けた包括的なAIソリューションの開発、AIによる診断・治療支援の事業化などに取り組むという。

なお同社はTechCrunch Tokyo 2016スタートアップバトルのファイナリストのうちの1社だ

公共向けアルゴリズムには慎重な配慮が必要だ

【編集部注】著者のBrian Brackeenは、顔認識ソフトウェアを開発するKairosのCEOである。

最近MIT Technology Reviewに掲載された記事で、記事の著者Virginia Eubanksが自身の著書である”Automating Inequality”(不平等の自動化)について論じている。その中で彼女は、貧困層が不平等を増加させる新技術のテスト場にされていると主張している。なかでも、アルゴリズムがソーシャルサービスの受給資格を判断するアルゴリズムに使用されると、人びとがサービスを受けにくくなり、一方では侵害的な個人情報提供を強制される点が強調されている。

私は、法執行機関による顔認識の公的使用に関する危険性について、多くのことを語ってきたが、それでもこの記事には目を開かされた。アルゴリズムデータに基く決定によって、本当にサポートサービスが必要な人たちに対する支援が拒絶もしくは削減されてしまうという、不平等で生命を脅かす実情が存在している。

私たちは、住宅ローン、クレジットカード申請、自動車ローンなどの、私たちの生活について恣意的な決定を下す企業にはある程度慣れている。とはいえそうした決定は、決定のための直接的な要因にほぼ基いている、クレジットスコアや、雇用状況、そして収入などだ。これに対してソーシャルサービスに対するアルゴリズム的決定の場合には、受給者に課せられる強制的なPII(個人特定情報)の共有と組合せられた、徹底的な調査の形のバイアスが存在している。

Eubanksは、例としてAllegheny Family Screening Tool(AFST:アレゲーニー家族スクリーニングツール)を利用する、Pittsburgh County Office of Children, Youth and Families(ピッツバーグ郡、青少年、および家族のためのオフィス)を挙げている。このツールは統計的モデルを用いて幼児虐待やネグレクトのリスクを評価するものだ。このツールを使用すると、貧困家庭の割合が不均衡に増えることになる。なぜならツールのアルゴリズムに供給されるデータは、公立学校、地方住宅機関、失業サービス、少年保護観察サービス、そして郡警察などから得られることが多いためだ。基本的に、ここに集まるデータはこうしたサービスを利用したりやりとりのある事の多い、低収入の市民たちから得られるものが多くなる。反対に、私立学校、子守サービス、プライベートな精神衛生および薬物治療サービスといった、民間サービスからのデータは入手できない。

AFSTのような決定ツールは、貧困を虐待の危険性の兆候としてみなすが、それはあからさまな階級差別である。そしてそれはデータの非人道的取り扱いの結果なのだ。法執行機関や政府監視におけるAIの無責任な使用は、生存を脅かす真の危険性を秘めている。

Taylor Owenは、2015年に発表した“The Violence of Algorithms”(アルゴリズムの暴力)という記事の中で、彼自身が情報分析ソフトウェア会社のPalantirで目撃したものを報告し2つの主要な点を指摘した。1つはこうしたシステムは、ほぼ人間によって書かれ、人間によってタグつけされ入力されたデータに基いているということ、そしてその結果「人間の偏見とエラーで溢れたものになってしまう」ことだ。そして2つめに彼は、こうしたシステムが徐々に暴力に用いられるようになっていることを示唆している。

「私たちが構築しているのは、世界の巨大なリアルタイム3次元表現です。私たちの永久的な記録…しかし、こうしたデータの意味はどこから来たのでしょうか?」と彼は問いかけ、AIとデータセットに固有の問題を明示した。

履歴データは意味のあるコンテキスト与えられた場合にのみ有用なものとなるが、多くのデータセットには与えられていない。ローンやクレジットカードのような金融データを扱おうとしているときには、前述のように判断は数字に基いている。これらのプロセス中に誤りやミスがあることは間違いないが、クレジットの信用に値しないという判断が下されたとしても、警察がそれを摘発に行ったりはしないだろう。

しかし、逮捕データを判断時の主要なファクターとして利用する、法逸脱予想システムの場合は、警察の関与を招きやすくするだけでなく ―― そうすることが意図されているのだ。

画像提供:Getty Images

少数民族を対象にした、当時は完全に合法だった近代の歴史的政策を思い起こせば、ジム・クロウ法(南部の州で制定されていた人種差別法の総称)がすぐに心に浮かぶ。そして、公民権法が1964年に成立したにもかかわらず、1967年になるまでは先の法律たちは憲法違反であるとは裁定されなかったことも忘れないようにしよう。

この文脈からはっきりわかることは、憲法上黒人が完全なアメリカ人だとみなされるようになってから、まだたったの51年間しか経っていないということだ。現在のアルゴリズムバイアスは、それが意図的であれ固有のものであれ、貧困層と少数民族をさらに犯罪へと追いやり疎外するシステムを生み出してしまう。

明らかに、社会として私たちが担う責任をめぐる倫理的課題が存在している。私たちの総力を上げて、政府が人びとを殺し易くする手助けをすることを避けなければならない。もちろん、この責任を最も重く背負うのは実際にアルゴリズムを訓練する人びとではあるが ―― 微妙なニュアンスも良心も解すことのできないシステムを、明らかに情報の権限を持つ位置に置くべきではない。

Eubanksはその著書の中で、アルゴリズムを使い仕事をする人たちのために、ヒポクラテスの誓いに近いものを示唆して居る ―― 害意を持つこと無く、偏見を避け、システムが冷酷で厳しい抑圧者とならぬように。

この目的に向かって、Algorithmic Justice Leagueの創設者でありリーダーでもあるMITのJoy Buolamwiniは、顔の分析技術を責任を持って使用することを誓約した。

この誓約には、人間の生命と尊厳に対する価値を示し、致命的な自律的武器の開発に従事することを拒否し、そして個人に対する不当な追跡を行うための顔分析製品ならびにサービスを法執行機関に配備させない、といったコミットメントが含まれている。

この誓約は自主規制のための重要な第一歩であり、私は顔認識利用に関するより大きな草の根規制プロセスの始まりだと思っている。

[原文へ]
(翻訳:sako)

Appleが機械学習のチームとSiri/AIのチームを統一、AIの適用を全社一本化

Appleは、Core MLとSiriのチームをひとつのチームにまとめた新しいAI/MLチームを作り、それをJohn Giannandreaの統率下に置くことにした。

Appleの今朝(米国時間7/10)の確認によると、同社の人工知能と機械学習を合わせたチームは、引き続きSiriを担当するとともに、Googleに8年在籍して機械学習とリサーチと検索のチームを率い、今年Appleに来たGiannandreaがそのトップになる。Googleの前に彼は、 Metaweb TechnologiesとTellmeを創業した。

SiriとCore MLのチームの内部的構造は変わらないが、トップがGiannandreaになる。Apple全体の構造の中ではチームは全社横断型の組織として、開発ツールや地図、Core OSなど、さまざまなプロジェクトに奉仕する形になるだろう。基本的に今ML(およびAI)は、どの分野でも必要とされている。

その昔Giannandreaは、Appleのチームメンバーが1989年に作った伝説の企業General Magicのシニアエンジニアだった。創業者には、Andy Hertzfeld, Marc Porat, Bill Atkinsonらがいたが、会社は結局失敗し、そのあとに革新的な技術の数々を遺した。たとえば小型のタッチスクリーンや、ソフトウェアモデムなどだ。General Magicは天才たちのインキュベーターとしても機能し、Susan Kare, Tony Fadell, Andy Rubin, Megan Smith, そしてAppleの今の技術担当VP Kevin Lynchらはみなここから巣立った。

Giannandreaは、TechCrunch Disrupt 2017でスピーチした。結果的に、そのタイミングは完璧だった。下のビデオを、ご覧頂きたい:

AppleのSiriとMLのチームは、多くの共通の目標を共有しているが、出自は違う。しかし今やAppleのありとあらゆるプロジェクトでAIがメインの機能だから、一人の責任者の下に全体をまとめるのが理にかなっている。Siriのこれまでの、行きあたりばったりのようなやり方も、Appleが地図のときのような本格的な肩入れをしていけば、修正されるだろう。また、ユーザーデータのプライバシーの維持保全という問題も、これまでのようにアプリ別分野別に個別に取り組むより、全社的総合的なAI/MLチームの担当管理下に置く方が有利、という計算も働いただろう。Create MLのような最近のリリースは、AppleのMLチームが内部的にやっていることの対外的表現だが、それも現状ではあまりにも断片的だ。そして新たな総合的組織を作ることは、統一に向けてのメッセージだ。

地図のときと同じく、今度のAI/MLチームも、クラウド上の一般的なコンピューティングにフォーカスする側面と、ローカルなデバイス上のデータ中心型のコンピューティング、という二面性を持つことになるだろう。人びとの手の中には今、10億あまりのAppleデバイスがあって、それらがさまざまなデータ処理を行っている。そう考えると、Appleがこれから築くものは、未曾有の、そして世界最大の、AIをメインとするエッジコンピューティングネットワークだ。Giannandreaが関心を持つにふさわしいチャレンジ、と言えるだろう。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

この夏のDIYプロジェクトはAIが落書きを作りだすカメラがいいかも(コードはオープンソースだ)

長い夏の夜は、昔の回路基板などを取り出してきて埃を払い、何かを作り始めるのに適している。でもあまりアイデアが閃かない人は、アーチスト兼エンジニアのDan Macnishが作った、AIと感熱プリンターとRaspberry piと少々のPythonとGoogleのQuick Drawのデータセットを使う落書きカメラはどうだろう。

“ニューラルネットワークにオブジェクトを認識させて遊んでいたとき、これでポラロイドを作ってみたい、と思いついた。その‘ポラロイドふうカメラ’は、撮った画像を自分で解釈して、実物に忠実な写真ではなく漫画をプリントアウトするんだ”、とMacnishはブログに書いている。そのプロジェクトの名は、Draw This(これを描け)だ。

そのためにMacnishは、Googleのオブジェクト認識ニューラルネットワークと、ゲームGoogle Quick, Draw!のために作ったデータセット(落書き集)を利用した。この二つのシステムをPythonのコードで結びつけたMacnishの作品は、現実の画像をAIが認識し、Quick, Draw!のデータセットの中のそれにもっとも合う落書きをプリントアウトする。

しかし、出力の落書きはデータセットに限定されるので、カメラが“見た”ものと、その写真に基づいて生成されるものとの間に、不一致も生ずる。

Macnishは曰く、“写真を撮って、漫画を出力する。それは、カメラが実際に見たものの最良の解釈だ。でもその結果は、いつも意外だ。健康食のサラダの写真が、大きなホットドッグになることもある”。

実際に試してみたい人のために、Macnishはこのプロジェクトをビルドするために必要なコードとインストラクションをGitHubにアップロードしている。

画像クレジット: Dan Macnish

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Googleアシスタントが音声通話で予約を取ってくれる――マンハッタンのレストランでDuplexのデモに参加してきた

I/Oでのセンセーショナルな発表からひと月後、Googleはさらに改良されたDuplexを少数のジャーナリスト向けにデモした。場所はマンハッタンのイーストサイドの大型タイ料理店。Googleが新しいプロダクトのデモをするにはいかにも不似合いな場所だ。

テーブルは片付けられ、3脚ずつ3列、あわせて9人分の椅子が明るいディスプレイに面し、サイドのデスクが即席のコントロールセンターで、Google社員4人が配置されていた。ここでGoogleはI/Oのキーノートで発表され賛否の議論を沸騰させた新しいプロダクトDuplexをデモした。

I/Oカンファレンスが行われた陽光輝くマウンテビューのショアラインアンフィシアターとは180度雰囲気が違うニューヨークの高級タイ・レストランが舞台となったのには、しかし、十分に理由があった。GoogleはいよいよAIを駆使した音声ベースの予約アプリをデモした――レストラン、Thep Thaiのオーナーは「われわれは毎日100件からの予約を受けているのでこうしたアプリが登場するのは願ってもないことだ」と称賛した(Googleによればアメリのスモールビジネスの6割はオンライン予約システムを備えていないという)。【略】

秘密主義で名高いGoogleとしては、進行中のプロジェクトのベールを一部なりと外すのは珍しい。しかしDuplexにとって情報の透明性は成功のカギとなる要素だ。自動運転車と同様、この種のシステムは現実の世界で繰り返しテストされ、可能なかぎりバグを潰しておく必要がある。

I/OのキーノートでCEOのスンダル・ピチャイは「これからGoogleアシスタントが本当のヘアサロンに電話して予約を取るところをお聞かせする」と述べた。

(Googleアシスタント)ハイ、クライアントの女性のヘアカット、1名予約をお願いします。えー、5月3日はどうでしょう?

(ヘアサロン)オーケー、ちょっと待ってください。

(Googleアシスタント)アーハー…

〔下のビデオでは1:08あたりから通話が再生される〕

ここでカンファレンスの聴衆はジョークだと思って笑った。それから本物だと気づいて喝采した。実際、意味がわかっても信じるのは難しい。電話しているのはAIベースの純然たるロボットだ。それが「えー」と口ごもったり、「アーハー」と頷いたりできるとは。

実はこうした無意味な音声は言語学では非流暢性(speech disfluencies)として知られ、現実の発言で頻繁にみられる重要な要素と考えられている。Duplexの発言が驚くほど自然に聞こえるのはこうした非流暢性を巧みに利用している点が大きい。

またDuplexが相手の返事をはっきり理解できなかった場合にも非流暢性は役立つ。受付担当者が電話の声を聞き取れなかったり聞き違えたりすることは普通にある。たとえば「4人のグループの予約をしたい」と求める場合、「えー、席を4人分です」と表現を変えて言い直すことができる。ここで「えー」は自然さを増し会話を円滑に進めるために効果がある。

こうした細部がDuplexを正しく作動させる秘密となっている。これは私の体験からそうだと言える。実は今回のデモで私はタイ・レストランの受付係の役でGoogleアシスタントの電話を受けたからだ。I/Oでアンフィシアターの巨大スクリーンに写し出された会話も本物だった。さらに興味深いのは、この電話はぶっつけ本番だっただけでなく、電話をかけているのがGoogleアシスタントだとはヘアサロンも知らなかったことだ。Googleがヘアサロンに知らせたのは電話の後だったという。【略】

ただしGoogle Duplexテクノロジーが実用化されるためには、情報の透明性が必要だ。つまり自分が人工知能であること、会話は録音されていることをまず最初に開示しておく必要がある

Googleはプロダクトを紹介したブログにこう書いている。

会話が快適に進められるよう、〔Duplex〕テクノロジーは自然に聞こえねばならない。ユーザーにとっても店舗にとってもサービスの使用体験が快適であることが重要だ。透明性はこの点でもカギとなる。われわれは、ビジネス側がコンテキストを正しく理解できるよう、電話の意図、性質をできるかぎり明確にするよう努める。具体的な手法については今後数ヶ月かけて実験していく。

Duplexの透明性に関するメディアでの議論を受けて、Googleの担当者は「Duplexは情報開示機能を組み込んだデザインとする。これにより受け手がシステムの性質を正しく認識できるようになる。われわれがI/Oで紹介したのは初期段階のテクノロジーのデモであり、今後は各方面からのフィードバックを取り入れながらプロダクトに仕上げていく」と付け加えている。

現在のDuplexの通話はこのような形式でスタートする。

ハイ、私はGoogleアシスタントです。クライアントに代わって予約の電話をしています。これは自動通話で録音されています。

Duplex自身はAIだと名乗っていないが、Googleアシスタントに馴染みがあればおそらくそう気づくだろう。ただし録音されていることは告げている。Googleでは音声、テキスト双方を記録し、品質の検証と今後の改善に役立てるとしている。

タイ・レストランでのデモでGoogleアシスタントの電話を受けたとき、最初の部分を繰り返させようとしてみた。騒々しいレストランなどで電話を取ったとき最初の情報開示部分を聞き落とすことは大いにあり得る。しかしアシスタントはかまわず予約内容に進んだ。つまり受け手が情報開示部分を聞き落とした場合、今のところ繰り返させる方法はない。ともあれ、現在の段階ではそのようだ。録音からオプトアウトしたい場合は電話を切るしかない。しかし常連客を増やすためにはあまり勧められない方法だ。

この点について、Googleのエンジニアリング担当アシスタント・バイスプレジデント、Scott Huffmanによれば「われわれは『オーケー、では録音しません』と言わせるメカニズムはもっている。ただ、具体的にどのようにすればよいか検討中だ。電話を切ればよいのか? 録音を破棄すればよいのか?」と説明した。

私も含めてデモに参加したジャーナリストはシステムをまごつかせようと全力を挙げた。アシスタントが午後6時の予約を取ろうしたので私は店が開くのは午後11時だと答えた。マンハッタンにはとんでもない営業時間の店がいくらもある。アシスタントは諦めて礼儀正しく電話を切った。

ここでDuplexの「聖杯」となるのは「予約のチューリングテスト」に合格することだ。Duplexが混乱すると Googleが用意した人間の担当者が引き継ぎ、いってみれば、飛行機を安全に着陸させる。人間の補助要員はDuplexのテストに常に付随する。Googleによれば誤解が手に負えないレベルに拡大しないよう、当分の間、Dupelxは人間が後見するという。この方式でどの程度の規模まで実験を拡大できるのか注目だ。

もっとも今回のデモではわれわれは誰もDuplexの後ろから人間の要員を引き出すことはできなかった。それでも現在のシステムの限界をいくつか知ることができた。たとえば、「最後の4桁を繰り返してください」と言うとアシスタントは電話番号を全部繰り返した。これは間違いではないが、やはり人間の会話の微妙なニュアンスを理解できていない。一方、メールアドレスを尋ねると、システムは「クライアントから〔メールアドレスを明かす〕許可を得ていません」と答えた。

GoogleによればDuplexは現在5件中4件は全自動でタスクを完了できるという。80%の成功率ならたいしたものだと思うが、Googleではさらに改良を進めている。【略】

DuplexはMacbookにオフィスの電話をつないだ間に合わせのシステムから始まって長い道を歩んできた。これはWaveNetオーディオと深層ニューラルネットワークの上で音声からテキスト、テキストから音声という変換を繰り返す複雑なプロセスだ。最初のデモはリアルタイムでこそなかったが本物だった。Duplexはさらに興味深いプロダクトに成長している。

好むと好まざるととに関わらず、Duplexは近々現実のものとなる。これを避けるには電話を使わないことしかないかもしれない。

[原文へ]

(翻訳:滑川海彦@Facebook Google+