BuzzFeedのMoodFeed機能は気分に合ったコンテンツを勧めてくれる

BuzzFeedは、読者がその日の気分に合ったコンテンツを見つけられるようにした。それは、ソーシャルメディアや検索の推奨リンクではないし、単純にブラウザーにBuzzFeed.comとタイプすることでもない。そうではなく、このMoodFeedと呼ばれる機能では、読者が今の気分を自覚し、その気分に合った記事のリストを得られる。

気分の種類は、今のところ6種類ある。面白いことを知りたい、ストレスがある、退屈だ、昔がなつかしい、嬉しい、そしてお腹が減っている。「おもしろいことを知りたい」(Curious)を選んだら、おかしな事実やライフハックなどに関するBuzzFeedの記事のリストが表示される。「昔がなつかしい」(Nostalgic)を選ぶと、ポップカルチャーの歴史に関する大量の記事が出てくる。自分の気分がよくわからない人は、ムードホィールというユーザーインタフェイスを回転させて、止まったところに決めればよい。

BuzzFeedのブランド管理担当副社長であるTalia Halperin(タリア・ハルペリン)氏によると、これはオーディエンスの参加性を増して、一風変わった方法でサイトを面白くするための実験の1つだ。チームはこれらの記事推奨リストを、気分と記事の相性を手作業で探りながら作っていったようだ。

BuzzFeedがこんなユーザーインタフェイスを提供するのはこれが初めてだが、ハルペリン氏によると、企業が顧客の気分に合わせて広告などのコンテンツを調整していることと同じだという。企業が記事をシェアしたり宣伝するときには、それに結びつく気分をいつも意識している。それは悲しみを、あるいは快活さをシェアする記事かなど。

MoodFeed

そこでBuzzFeedが作ったのは、コンテンツと気分を合わせるプロセスを自動化するAIツールだ。BuzzFeedのどのページにはどんな記事を合わせるべきか。不朽の名作に関する記事は、どんなときに登場させるべきか。どの記事を、どんな場合にシェアすべきかなど。

このMoodFeed機能に関してハルペリン氏があくまでも実験だと言うのは、記事のリフレッシュの頻度やBuzzFeedとして込めるべき戦略など、未着手の研究課題がまだ多いからだ。それにまた、気分の種類なども、もっと多くすべきだろう。

彼女は「拡張の方法や方向性がいろいろあって、そこがおもしろい。今は6つの気分しかないけど、もちろん、いろんな出来事にいろんな気分が伴う。だからたとえば、季節による気分の変化などにも合わせるべきだ」と語る。

関連記事:BuzzFeed teams up with Eko to create interactive recipes and other videos(BuzzFeedがゴミ箱をファッションにしたEkoとパートナー、未訳)

[原文へ]

(翻訳:iwatani、a.k.a. hiwa

AI利用のハードルを下げるH2O.aiがゴールドマンサックスのリードで約77億円調達

H2O.aiのミッションは、AIを誰でも使えるようにすることだ。そのために同社は企業に一連のツールを提供して、データサイエンティストのチームが要らないようにする。同社は米国時間8月20日、Goldman Sachs(ゴールドマン・サックス)とPing An Global Voyager FundがリードするシリーズDのラウンドで7250万ドル(約77億円)を調達したことを発表した。

これまでの投資家Wells FargoとNvidia、およびNexus Venture Partnersも参加した。Goldman SachsからはJade Mandel(ジェイド・マンデル)氏がH2O.aiの取締役会に加わる。これで同社の調達総額は1億4700万ドル(約157億円)になる。

なお、Goldman Sachsは投資家であるだけでなく同社の顧客だ。H2O.aiのCEOで共同創業者のSri Ambati(スリ・アンバティ)氏によると、顧客であるWells FargoとGoldman Sachsが前2回のラウンドをリードしたことは、彼とその企業に対する信任の証だ。彼は曰く、「二度の連続的なラウンドでは顧客が投資家になっている。前回のシリーズCはWells Fargoがリードしたが、彼らは弊社を選んで使っていた。今日のラウンドはGoldman Sachsがリードし、彼らは前からうちの強力な顧客であり強力なサポーターだ」。

同社のメインのプロダクトであるH2O Driverless AIは2017年に登場し、Driverless、つまり運転手がいないという名前は、AIのエキスパートでない人たちでも、データサイエンティストのチームなしでAIを利用できる、という意味で命名された。アンバティ氏は「Driverless AIは機械学習の自動化だ。これによってワールドクラスのデータサイエンティストたちの能力を万人が手にする。ありとあらゆる機械学習のアルゴリズムを使って、モデルを自動的に作る」と説明する。

同社は同日に、レシピと呼ばれる新しいコンセプトも導入した。それは、ビジネスの多様な要件に合わせてモデルを構築するための、AIのあらゆる原料とインストラクションの組み合わせレシピ集だ。同社のデータサイエンティストたちのチームは、約100種のレシピを作ってそれらをオープンソース化。具体的には、クレジットリスクの評価、異常事態検出、資産額の査定などのためのレシピがある。

H2O.aiは2017年のシリーズCのころに比べると大きく成長した。今同社の社員は175名だが、それはシリーズCのときのほぼ3倍だ。同社はオープンソースがルーツなので、今でも2万名のユーザーが同社のオープンソースプロダクトを使っている。

アンバティ氏は会社の評価額や上場については話を避けようとするが、今はAIの初期の時代であり、長期的な視野に立って会社を育てていきたい、と言った。

関連記事:H2O.AI snares $40M Series C investment led by Wells Fargo and Nvidia(H2O.aiがNvidiaとWells FargoからシリーズCを調達、未訳)

[原文へ]

(翻訳:iwatani、a.k.a. hiwa

手の動きを追跡するGoogleのアルゴリズムで手話を認識できるか

手話でコミュニケーションをとっている人は大勢いるが、手話の複雑な動きをとらえて音声言語に翻訳する取り組みはあまり成功していなかった。しかしGoogleのAIラボが研究しているリアルタイムのハンドトラッキングが進歩し、翻訳を待ち望んでいる人々にとってはこれが突破口になるかもしれない。

この新しい技術では巧みに効率化を図っている。そしてもちろん機械学習全般の効率が上がったこともあり、スマートフォンのカメラだけで手のひらとすべての指のマップをリアルタイムで正確に作成することができる。

Googleの研究者のValentin Bazarevsky(バレンティン・バザレヴスキ)氏とFan Zhang(ファン・チャン)氏はブログに次のように書いている。「現在の最先端のアプローチでは主にパワフルなデスクトップ環境に頼って推論しているが、私たちの方法では携帯電話でリアルタイムのパフォーマンスを出している。また複数の手にスケールすることもできる。手をリアルタイムで確実に認識するのは、コンピュータビジョンのタスクとしては明らかに難しい。手の一部、あるいは2つの手が重なり(指と手のひらが重なる、握手をするなど)、高コントラストのパターンでなくなることが多いからだ」。

しかも手の動きは速く、微妙だ。こうした動きをリアルタイムでとらえるのは、コンピュータは得意でない。正しく認識するのはとても難しく、速く認識するのも難しい。複数のカメラを使っても、SignAllのような深度を検知する装置で動きをすべて追跡することはなかなかできない(しかしこの方式を止めるわけではない)。

Googleの研究チームの目標は、一部だけを取り出して言えば、アルゴリズムが計算するのに必要なデータの量を減らすことだった。データが少なくなれば、動作は速くなる。

そのひとつとして、研究チームはシステムに手全体の位置と大きさを検知させるアイデアを捨てた。その代わりに、システムに手のひらだけを見つけさせる。手のひらは特徴的で信頼性の高いパーツであり、しかも正方形として認識できる。つまりシステムが縦長の長方形のイメージを扱えるのか、縦方向が短い場合はどうかなどと気にする必要がなくなった。

手のひらを認識したら、指はその手のひらの端から延びているものであり、別々のものとして解析できる。別のアルゴリズムがイメージを見て、21カ所に座標を割り当てる。大まかには指の関節と指先に座標が割り当てられ、座標間の距離も認識される(手のひらの大きさと角度などから推測できる)。

このように指を認識するために、研究チームはまず手作業でさまざまなポーズとライティングの約3万の手のイメージに21個のポイントを割り当て、機械学習システムはこれを使って学習した。いつだって、AIがうまく動作するには人間のハードワークが必要なのだ。

手のポーズが判定されたら、そのポーズを既知の大量のジェスチャーと比較する。既知のジェスチャーとは、文字や数字の一つひとつを表す指文字や、「平和」「金属」といった単語を表す手のポーズのことだ。

このハンドトラッキングのアルゴリズムは速く正確で、最適化されたデスクトップやクラウドではなく(クラウドは最適化された誰かのデスクトップだ)、一般的なスマートフォンで動作する。このアルゴリズムはすべて、マルチメディア技術系の人はおそらくご存じのMediaPipeフレームワークで動作する。

幸いなことに、ほかの研究者もこのシステムを利用できる。このように手を認識してジェスチャーを識別するには、既存のシステムでは強力なハードウェアが必要だが、この状況がおそらく改善されるだろう。しかし手話を本当に理解するのは、ここからが長い道のりだ。手話では、手、顔の表情、その他の手がかりから、ほかにはない豊かなコミュニケーションができる。

この技術はGoogleの製品にはまだ使われていないので、研究チームは無償で公開している。ソースコードはここにあり、誰でも入手して使える。

研究チームは「この手認識機能を公開することにより、多くの研究開発コミュニティからクリエイティブな利用例や刺激的な新しいアプリ、新しい研究手法が生まれるよう期待している」と書いている。

[原文へ]

(翻訳:Kaori Koyama)

プライバシーを侵害する顔認識に代わる方法を開発中のTraces AI

ここ数年でディープラーニング技術が進化し、防犯カメラが賢くなって追跡機能が向上したことはおそらく間違いない。しかし人物を追跡する方法には、私たちが思うよりも多くの選択肢がある。

Traces AI(トレースAI)は、Y Combinatorが支援する新しいコンピュータビジョンのスタートアップで、顔認識のデータに頼らずにカメラで人を追跡することに取り組んでいる。顔認識のデータは人々のプライバシーを侵害する度合いが大きすぎると、同社の創業者たちは考えている。同社の技術は、人の顔をフレーム内でぼかし、顔以外の物理的な特性で識別するものだ。

同社の共同創業者のVeronika Yurchuk(ヴェロニカ・ユーチャック)氏はTechCrunchに対し「外観から得られる様々なパラメータを組み合わせている。髪型、リュックの有無、靴の種類、服のコーディネートのデータを使うことができる」と述べている。

このような技術が、複数の日にわたって街全体で人を追跡するような場面にはスケールできないことは明らかだ。映画に出てくるジェイソン・ボーンのような犯罪者がジャケットを裏返しに着て野球帽をかぶれば検出されないかもしれない。人物を追跡したい人々が、ディストピアにならないようにするためだけに高精度の技術を使わない理由はあるだろうか?しかしTraces AIは、顔認識技術が常に最適のソリューションとは言えないと確信している。すべての顧客が顔の追跡を求める、あるいは必要としているわけではなく、ソリューションはたくさんあるはずだという考えだ。

同社の共同創業者のKostya Shysh(コスティア・シャイシュ)氏は筆者に対し「我々を否定する人の最大の懸念は『現在、まさに人々を守っている技術を禁止して明日の我が国を守るつもりか?』ということだ。これについて議論することは難しいが、我々が取り組んでいるのは、効果が高くプライバシーをあまり侵害しない代替手段の提案だ」と語った。

今年初め、サンフランシスコは政府機関に対し、顔認識ソフトウェアの使用を禁じた。ほかの都市も同じ選択をする可能性があるだろう。シャイシュ氏は、街全体で顔認識技術で監視をするデトロイトのProject Green Lightに対する反発についても強調した。

Traces AIのソリューションは、そもそも敷地内にいる人のデータが限られている、クローズドな場所にも適していると考えられる。シャイシュ氏は、アミューズメントパークの園内で少ないデータから迷子を見つけた例を紹介した。

「このような場合、人物について実際に言葉で説明することができる。『10歳の男の子が迷子です。青いズボンと白いTシャツを身につけています』と言えば、この情報だけで我々は探索を始められる」と同氏は言う。

プライバシーを重視できることに加え、この技術は人種の偏見を減らす効果もあるとシャイシュ氏は見ている。白人以外の人の顔の識別が苦手であることがわかっているコンピュータビジョンシステムは、誤った疑いをかけてしまいがちだ。

シャイシュ氏は「我々の技術では、データをクラウドに送信する前に実際に人の顔をぼかす。人種や性別による偏見も避けるための安全なメカニズムのひとつとして意図的にそうしている」と語る。

同社の共同創業者たちは、米国と英国は防犯カメラの台数が多いので最大のマーケットになるだろうと考えているが、日本やシンガポールといったアジアの国々ではマスクを着用することが多く、顔が隠れて顔追跡ソフトウェアの効果が相当低くなるので、こちらも有力な顧客として開拓している。

[原文へ]

(翻訳:Kaori Koyama)

さまざまな菌類に新種の機能性たんぱく質を作らせるスタートアップ

Y Combinatorの最新の卒業生Shiru(シル)は、食品の技術革命における前衛になろうとしている一連の企業集団の仲間だ。

同社を創業したJasmin Hume(ジャスミン・ヒューム)氏はこれまで、純植物性マヨネーズで有名な元Hampton Creek(ハンプトン・クリーク)、現在はJustの食品化学のディレクターだった。Shiruという社名は、食肉を意味する中国語のshi rouの同音字だ。ヒューム氏はJustで他のチームメンバーとともに多様な植物の組成を調べ、それらに含まれるたんぱく質(プロテイン)やその他の化学物質を識別し分類するという仕事をしていた。

一方Shiruは、計算生物学により、食品産業が求めるさまざまな目的に合った、それぞれ理想的なたんぱく質を見つけるというサービスを提供する。

食品産業のさまざま目的とは、具体的にはいろいろな食品添加物のことだ。求める食品添加物の性質や機能を最も良く満たすたんぱく質をShiruは見つけようとしている。彼らが求める性質とは、粘性のアップ、可溶性、泡の安定性、乳化作用、結合性などだ。

ある意味でShiruのアプローチは、Geltorの初期の製品開発ロードマップに似ている。SOSVIndieBioが支援していたGeltorは、機能性たんぱく質の生産を目指していた。Geltorはこれまで1800万ドルを調達し、そこで方向性を変えて食品ではなく美容産業および化粧品産業のためのたんぱく質をターゲットにした。Geltorが捨てた分野をShiruが拾ったというかたちになる。

起業したばかりのShiruにまだ製品はないが、同社が追究している科学は最近ますます理解が広まっている。ヒューム氏によると、同社は今後何種類かの遺伝子組み換えによる食品原料の開発を目指しているそうだ。その対象となる生物と彼らが作り出す食品原料とは、イースト菌やまだ名前を公表できないバクテリア、そして菌類などが作り出すたんぱく質だ。

ヒューム氏は「分子設計と機械学習を利用して既存のものよりも機能性の高いたんぱく質を見つける。求めるたんぱく質の性質は自然からヒントを得ている」と語る。

Shiruの創業までのヒューム氏の道のりには、血筋の良さが表れている。Justの前に彼女は、材料化学の博士号をニューヨーク大学で取得した。さらにその後彼女は、ニューヨークの最先端テクノロジー系投資企業であるLux Capitalで長期のサマー・アソシエイト(夏期特別インターン)を務めた。

今後の計画としては、今年後半に最初のたんぱく質のパイロット生産、そして少量の継続的生産を2020年内に開始する。同社はこれまでY Combinator以前には外部資本を導入していない。しかし現在は調達の過程にあるそうだ。

画像クレジット: Shiru

[原文へ]

(翻訳:iwatani、a.k.a. hiwa

クラウドアプリをAIで強制的に最適化するOpsani

米国カリフォルニア州レッドウッドのOpsaniは、クラウドアプリケーションに対し、従来のときどき行うパフォーマンスモニタリングではなくて、コンスタントに絶えず行うように最適化したいと考えた。そのためには人工知能を利用して、最適な状態をソフトウェアが学習できるようにしたい。

同社の共同創業者でCEOのRoss Schibler(ロス・シブラー)氏は次のように説明する。「強化学習を利用する機械学習のテクニックで、クラウド上のアプリケーションのパフォーマンスをチューンナップするんだ」。

シブラー氏によると、何を最適化したいかは企業によっていろいろだ。だから、「リソースまわりのさまざまなパラメータを変えてみて、そのアプリケーションのパフォーマンスを見守る。サービスとしてのアプリケーションがリアルタイムで作り出している、ビジネスの状態を表す重要な測度は何か? それは単位時間あたりのトランザクション数か、それともレイテンシーか?何にせよ、それがビジネスの重要なパラメータなら、われわれはそれを使う」と彼は言う。

彼の主張では、OpsaniはNew RelicやAppDynamicsのようなモニタリングサービスと違って、パフォーマンスをウォッチしてフィードバックをアドミンに伝えるのではなくて、パラメータを実際に変えてアプリケーションのパフォーマンスをリアルタイムで上げる。それができるためにはアプリケーションの特徴と、最適化に関するデベロッパーの要望をよく知らなければならない。

アプリケーションがなるべく安いクラウドリソースを使うように最適化するSpotinstのような最適化ツールがあるが、Opsaniはそれに似ている。ただし最安リソースを見つけるのではなくて、実際にアプリケーションをチューニングする。

同社は最近、Redpoint VenturesがリードするシリーズAのラウンドで1000万ドルを調達した。これには、前からの投資家Zetta VenturesやBain Capitalも参加した。

それでも同社はまだ若い会社で、社員数は10名あまり、そして顧客数もひとにぎりだ。その1000万ドルは、社員の増員とプロダクトの改良に当てたいとのこと。

[原文へ]

(翻訳:iwatani、a.k.a. hiwa

ルクセンブルク当局がアマゾンAlexaのプライバシーに懸念があり

Amazon(アマゾン)の欧州におけるデータ規則遵守を率先して調べる、ルクセンブルクのデータ保護委員会は、Alexa AI音声アシスタントの録音の人間によるレビューについて、プライバシー上の懸念を抱いている。

当局の広報はTechCrunchへの電子メールでこの件についてAmazonと協議していることを認め、「秘密保持義務があり、現段階ではこれ以上踏み込んだコメントはできない」としている。この件についてはロイターが先に報道した。

我々はAmazonにコメントを求めている。

Amazonブランドの一連のEchoスマートスピーカーからサードパーティのデバイス(話す冷蔵庫奇妙な形のテーブルランプなど)に至るまで、さまざまなハードウェアに搭載されているAmazonのAlexa音声AIは、処理と保存のためにクラウドに音声データを流す録音機能をアクティベートするトリガーワードを拾うために、絶えず聞いている。

しかしながら、トリガーワードによる音声AIのアクティベートは本来意図していなかったものになりがちということが示されてきた。複数人が暮らす家庭で使われているデバイスでは、意図した話しかけだけでなく周辺のあらゆる音声を録音しているリスクがつきまとう。

要するに、AIが意図的なやり取りと、ふと耳にする類のことを区別できないということは、AIは本来立ち聞きするものであることを意味している。だからこそ大きなプライバシー問題となっている。

Amazon、AppleGoogleを含むテック大企業が、異なるアクセントや環境での音声認識のパフォーマンスを向上させるなど、質の確保を目的に音声AIがとらえた音声スニペットの部分を人間を使ってレビューさせていたということが最近明らかになり、こうした懸念は高まりつつある。これは、実際の人間がかなりセンシティブな個人データを聞いてるということを意味する。

今週初め、AmazonはAlexaスマホアプリの設定でユーザーが音声スニペットをオプトアウトできるオプションをひっそりと加えた。音声スニペットはAmazonの品質管理のために人間がマニュアルでレビューするかもしれず、この人間によるレビュープログラムはAlexaユーザーに事前に知らされていなかった。

ポリシーの変更は、特に欧州において音声AIユーザーのプライバシーへの関心の高まりを受けたものだ。

先月、GoogleのAIアシスタントユーザーの何千もの録音がベルギーのメディアにリークされ、そこでは録音の中の一部の人物を特定できた。

ドイツのデータ保護当局はその後、Googleに音声スニペットのマニュアルレビューを止めるよう命じた。

Googleは欧州全域で人間によるレビューを一時停止し、欧州の主要データ監視機関であるアイルランドのDPCはTechCrunchに対し、この問題について「調査中」だと語った。

また別件では、アップルの業務請負人がSiri音声のレビューに関与していると英国の報道機関にプライバシー問題を提起した後、Appleもつい最近Siriスニペットの人間によるレビューをグローバルで一時停止した。

Googleアシスタントスニペットの人間によるレビューを止めるよう介入したハンブルグのデータ保護当局は、欧州の他のプライバシー監視機関にAppleAmazonの名前を挙げて言語アシスタンスシステム提供者のチェックと、適切な対処の実行を優先するよう促した。

Amazonのケースでは、欧州の監視機関による精密な調査がすぐに行われそうだ。

この記事執筆時点で、音声AIスニペットの人間によるレビューを、一部の地域もしくはグローバルで一時停止していないのはテック大企業3社のうちAmazonだけだ。

報道機関向けの声明文でAmazonは「ユーザーが人間による音声レビューをオプトアウトできるようAlexaの設定を変更した」としている。

我々は顧客のプライバシーを真剣に考えていて、我々のプラクティスと手順を絶えずレビューしている。Alexaに関しては、新Alexa機能を開発するのに使われる音声録音をオプトアウトするという選択肢を顧客にすでに提供している。オプトアウトした顧客の音声録音は、かなり少数のAlexaリクエストの人間によるレビューを含む、監視下におかれた学習ワークフローからも除外される。我々はまた、プラクティスをより透明にするため、顧客向けに情報を今後アップデートする。

[原文へ]

(翻訳:Mizoguchi)

Nikeが消費者が欲しい物を予測するAIスタートアップを買収

Nike(ナイキ)の時価総額は1000億ドル(約11兆円)を超えて急成長しているが、顧客がなにを求めているのか、顧客にあった商品を調達して仕入れるにはどうすればよいのかについて、まだ学ぶ余地があると考えている。同社はボストンのスタートアップことCelectを買収し、Nikeの予測分析能力を強化すると発表した。

ボストンの他の有望なスタートアップと同様、Celectの技術はMITから生まれた。共同創設者はどちらもMITの元教授だ。このスタートアップの技術は、構造化されている/されていない大量の販売データが与えられ、データの洞察を提供することに焦点を当てている。このような洞察により、小売業者は在庫整理の対費用効果に関する分析が得られる。これは昨年364億ドル(約3兆9000億円)の売上を記録したNikeにとって、興味深いデータだろう。

NikeでCOOを務めるEric Sprunk(エリック・スプランク)氏は、「私達の製品への需要が高まるにつれ、洞察力を重視し、データを最適化し、消費者の行動に非常に集中しなければならない。このようにして、我々は顧客によりパーソナルなサービスを提供する」との声明を出している。

なお、買収に関する条件は明かされていない。

CelectはAugust CapitalやNGP Capital、Activant Capitalなどから3000万ドル(約32億円)の資金を調達している。また同社は昨年12月に、シリーズCにて1500万ドル(約16億円)を調達している。

[原文へ]

(翻訳:塚本直樹 Twitter

土壌中のマイクロバイオームを分析して農家の生産性向上を目指すBiome Makersが4億円超を調達

農業は持続可能性の大きな問題に直面している。世界の人口は増え続けていて食糧の需要も増加しているが、それに伴い森林破壊や農薬、それに温室効果ガスの原因とされる一部の肥料の使用が増える危険性もある。農耕は炭素隔離の源でもあるが、でもどうやってそれを保護するのか?また、過剰耕作によって農地の質が劣化している。そして、これだけの問題を抱えながらも農業は他の産業に比べて、長年技術開発が遅れている。

農業と技術といえば、農作物に今起きていることを正しく理解するためには「マイクロバイオーム」(Microbiome)に注目することも重要だ。マイクロバイオームは、一定の微生物相(特定の環境に生息する微生物の総称)の中にある遺伝物質の全体のことだ。例えば、ここでは農耕という圏域内にある微生物の全集合が問題になる。通常マイクロバイオームといえば人間の腸内細菌を指すことが多いが、ここでは農場という圏域内の細菌だ。

土壌の中には何百万種類もの微生物がいて、そのどれもが作物の健康に対し重要な役割を演じている。だから、土壌中の微生物は重要な「バイオマーカー」(生体指標)だと言われる。したがって土壌中の微生物を理解することから、重要なアクションに結びつくデータが得られる。

米国時間8月2日、土壌中の生態系を高度なデータサイエンスと人工知能を使って分析し、農家にデータに基づく知見と行動指針を与えるテクノロジー企業であるBiome Makersが、Seaya VenturesとJME Venturesがリードするラウンドにより400万ドル(約4億2600億円)を調達した。このラウンドにはロンドンのVC LocalGlobeも参加している。同社は調達した資金を、今後の米国やヨーロッパ、中南米などへの進出と、対象作種の多様化、および農作物の評価システムの開発に当てられる。

同社を創ったCEOのAdrián Ferrero(アドリアン・フェレロ)氏とCSOのAlberto Acedo(アルバート・アセド)氏は、前にデジタルヘルスケアのスタートアップで成功し、優秀な科学者でもある。今回は同社の二度目の資金調達ラウンドだったが、前回も国際的な投資家グループから200万ドル(約2億1300億円)を調達している。その中にはDNA配列機器のトップメーカーであるIllumina(イルミナ)のVC部門Illumina Acceleratorと、米辱の指導的投資管理企業のViking Global Investorsがいた。

Indigo AgやConcentric、Pivot Bio、Marrone Bio Innovationsなども同様の技術で微生物の同定を行っているが、Biome Makersは「オープンなデジタルサービスで農家対象のポータルでもあるところは自分たちが唯一だ」と主張している。それはあくまでも微生物学的情報を民主化して、農家が日々の農業の実践に生かせるようにするためだ。

とくに土壌に関してはこれまで、土壌の物理的化学的分析を行う企業が多く、Biome Makersのようにマイクロバイオームに着目する分析企業はあまりメジャーではなかった。しかし同社の説では、それこそが土壌を見ていくための新しい方法であり、これまで農業の実践のために利用されてこなかった重要な情報を提供できるという。

[原文へ]

(翻訳:iwatani、a.k.a. hiwa

Alexaが複雑な質問に答えるための新しい方法をAmazonが開発

AmazonのAlexa AIチームは、ややこしい質問の扱いを大幅に向上させる新しいトレーニング方法を開発した。チームリーダーのAbdalghani Abujabal氏は、ブログでこの新しい方法を詳しく紹介している。通常は競合する2つの方法、テキストベースの検索とカスタムで構築されるナレッジグラフを組み合わせたものだという。

Abujabal氏は「ノーランの映画でオスカーはとったがゴールデングローブを逃がしたものは?」という質問を例として挙げている。この質問に答えるには多くのことが必要だ。「ノーラン」が映画監督のクリストファー・ノーランだと特定し、彼が監督した映画を見つけた上で(結果のリストを作るにはノーランが「監督」という役割であることも推測する必要がある)、オスカーを獲得した作品リストAとゴールデングローブを獲得した作品リストBをクロスリファレンスで調べて、リストAにあってリストBにない作品をつきとめる。

このような難しい質問に適切に答えるために、この方法ではまずできるだけ網羅的なデータセットを集める。最初はノイズの多い(すなわち、不要なデータばかりの)大量のデータセットだが、そこからアルゴリズムを使って自動でナレッジグラフを構築する。このアルゴリズムは研究チームが作ったオリジナルのもので、ゴミを取り除いて有力と考えられる結果にたどり着くためのものだ。

Amazonが考え出したシステムは、表面上はわりあいにシンプルだ。というのも、2つのわりあいにシンプルな方法を組み合わせている。まず基本的なウェブ検索で、例えばGoogleに「ノーランの映画でオスカーはとったがゴールデングローブを逃がしたものは?」と入力したのと同様に、質問の全文を使ってウェブをクロールし結果を見つける(実際の研究では複数のウェブエンジンが使われている)。次にランク付けされた上位10ぺージを調べ、識別された名前と文法ユニットに分解する。

こうして得られた結果のデータセットに加え、Alexa AIは文の構造の中で手がかりを探してフラグを立て、上位のテキストのうち「ノーランが監督したインセプション」というような重要な文に重みづけをし、それ以外の文は軽くする。こうしてアドホックのナレッジグラフが構築され、この中を評価して「コーナーストーン」(よりどころ)が特定される。コーナーストーンは基本的には、検索されたもともとの文字列に含まれるいくつかの語とよく似ている。これを取り出し、質問に対する実際の答えの出典として中間にある情報を見るのではなく、コーナーストーンにフォーカスする。

アルゴリズムは、残ったデータを最終的に重みづけしてソートし「インセプション」と正しい答えを返す。Amazonのチームは、テキスト検索だけにフォーカスする、あるいはカスタムのナレッジグラフを単独で構築する複雑な最先端のアプローチよりも、実はこの方法は優れていることを発見した。チームはこのアプローチをさらに改良できると考えている。難しいトリビアで議論が白熱したときに、スマートスピーカーに聞けば解決できようになるかもしれない。Alexaユーザーにとっては楽しみだ。

[原文へ]

(翻訳:Kaori Koyama)

AIで学習時間を短縮するatama plusがEdTechカオスマップを公開、研究所設立も

atama plusは7月31日、世界のEdTech(エドテック、教育テック)の最新動向やデータを提供する「atamaEdTech研究所」の設立を発表した。国内でのEdTechへの理解や教育企業・教育機関などでの活用が進むことで教育をさらに発展させることを目指す。研究所の設立に合わせて、K-12・高等教育の領域における世界の企業35社(出典:CB Insights)をまとめたEdTechカオスマップも公開している。

関連記事:AI活用の中高生向けタブレット教材開発のatama plus15億円を調達

atama+EdTech研究所では、初等・高等教育領域におけるテクノロジーの活用に焦点を当て、世界のEdTechの最新動向やデータなどを、海外レポートの分析や現地取材などを通じて発信予定とのこと。

同研究所の所長には、atama plusの創業者である稲田大輔氏が就任。稲田氏は、2006年東京大学大学院情報理工学系研究科修了後、三井物産株式会社に入社。海外でEdTech企業の執行役員や三井物産の国内教育事業統括などを歴任したあと、2017年4月にatama plusを創業した人物だ。

同社が提供している中高生向けタブレット型教材「atama+」(アタマプラス)は、「得意」「苦手」「伸び」「つまずき」「集中状態」などのデータをAIが分析し、各々に適した「自分専用レッスン」を作成することで学習を効率化するのが特徴。

今年からは、駿台教育センターでは「AI演習講座」、Z会エデュースでは「AI最速定着コース」、城南進学研究社では「城南予備校DUO」として、atama+に特化したAI学習コースも開設されている。

日本では、授業をネット配信するなどオンデマンドの教育環境は整いつつあるが、家庭教師などの個別指導以外では各々の進捗に最適化した学習を受けることは難しい。生徒の習熟度やモチベーションが異なる義務教育の現場ではなおさらだ。amtama plusなどテクノロジーを活用して効率的な学習環境を構築するEdTechスタートアップの発展に期待したい。

AWSのテキスト音声変換エンジンはニュースキャスターのような話し方をする

最新の機械学習技術のおかげで、テキスト音声変換エンジンはこの数年間で大きく進歩した。以前はコンピューターがテキストを読んでることがすぐ分かったが、最近はそれも変わりつつある。Amazon(アマゾン)のクラウドコンピューティング部門AWSは今日(米国時間7/30)、テキスト音声変換を行うニューラルネットワーク用のモデルをいくつかローンチし、その中にはテレビのニュースキャスターの喋りを真似るものもある。

同社の発表声明はこう言っている。「音声のクォリティーは確かに重要だが、もっと人間的にリアルな合成音声を作ることが、これまでは忘れられていた。たとえば、話し方のスタイル。人間なら、ニュースキャスターとスポーツキャスターと大学の先生の話し方スタイルを聞き分けることができる。またほとんどの人間が、状況に応じて話し方を変える。メッセージがいちばんよく伝わるような、話し方を選ぶのだ」。

ニュースキャスターふうの話し方スタイルは、Joanna(ジョアンナ)とMatthew(マシュー)という名前までついた二人のアメリカ人の声で提供され、USA TodayとカナダのThe Globe and Mailの協力により、実際にニュース原稿の読み上げに使われている。

それは、こんな喋り方だ:


このニュース読み上げ用テキスト音声変換サービスはAmazon Polly Newscasterと名付けられ、AWSの長年のテキスト音声変化に関する研究の成果だ。AWSはそのエンジン本体をNeural Text-to-Speech Engineとして提供している。このエンジンはGoogleのWaveNetなどと変わっているものではなく、今11の音声を提供している。イギリス英語が3人、アメリカ英語が8人だ。

たとえばこれは、女性(女声)のアメリカ英語の例だ:

今のフェイクニュースの時代においては、ここまで本物の人間のようなロボットの音声がニュースキャスターのように喋ったりすると、賛辞よりもむしろ問題を感じてしまうかもしれない。ただしほとんどの場合は、ニュースを人間が読もうとロボットが読もうと大差ないだろう。ユースケースはニュース以外にもいろいろありそうだ。それにAWSが提供したサンプルを聞いたかぎりでは、以前の、長く聞いていると気分が悪くなりそうなロボット音声よりも、ずっと長く聞いていられる。

[原文へ]

(翻訳:iwatani、a.k.a. hiwa

AIの偏見、認識されつつも未解決の難題とは?

AIテクノロジーを人類最大の問題を解決してくれるものと賛美する人もいれば、AIは人類存続の危機をもたらす悪魔と恐れる人もいる。もちろんこれらは、さまざまな考えの中の両極端に位置するものだが、AIが未来に向けた胸躍る好機をもたらすものであり、同時に克服しなければならない難題を孕んでいることに変わりはない。

近年、多くのメディアの関心を惹きつけている問題点のひとつに、AIに生じた偏見がある。それは、2年以上も前に私がTechCrunchに書いた「Tyrant in Code」(コードの中の暴君)のテーマでもあったが、論議は、ますます激化している。

あの当時、Googleは、ユーザーが「hand」(手)と画像検索すると、ほとんど白人の手が現れ、「black hands」(黒い手)と画像検索すると、白人の手が黒人の手に何かを施していたり、黒人の手が土をいじっていたりなど、じつに侮辱的な画像が「hands」の場合よりもずっと多く示されるとの調査結果から炎上の真っ最中だった。これは大変にショッキングな発見であり、AIテクノロジーは社会の分断を解決するどころか、それを恒久化してしまうという主張を生み出した。

2年前に私が断言したとおり、そうした事態は杞憂ではない。少なくとも2017年当時、米国におけるAIアルゴリズムの開発は、大多数が白人男性の手によって行われていた。その人たちがマイノリティーに対する偏見を持っている兆候は見られなかったものの、彼らが作り上げるAIには、生来の、無意識の偏った意識が植え込まれる可能性は十分にある。

偏ったAIアルゴリズムによって危機にさらされたのは、Googleのアルゴリズムだけではない。あらゆる産業にAI技術が当たり前のものとして普及してゆくのに従って、そのテクノロジーから偏見を取り除く重要性は、ますます高まっている。

問題を理解する

2年前、AIは多くの産業やアプリケーションにとって、非常に重要で不可欠な存在だったが、その重要性は、予想どおり、以来ますます高まっている。AIシステムは、今では求人の際に有能な人材を特定したり、顧客がローンを組めるかどうかを判断したり、受刑者が再び罪を犯すかどうかを慎重に審査する場面にまで使われている。

たしかに、AIやデータを使えば、より多くの知識に基づく判断を人が下せるようになるが、AIテクノロジーが偏っていたなら、結果もそれに引きずられる。もし、私たちがこのまま排他的なグループのためのAIテクノロジーの未来を信頼し続けるならば、この社会の弱い立場の人たちは、就職口を探したり、ローンを申請したり、合法的に生きようと努力するといった、さまざまなことが難しくなってしまう。

AI革命は
望むと望まざるとに
関わらず進行する

幸いなことに近年、偏見にまつわるこの問題が表面化し、大きな影響力を持つ人、組織、政治団体などがこれを深刻にとらえ、対処策を考える人たちが増えてきている。

AI Now Instituteは、そうした団体のひとつだが、社会に対するAIの影響を研究している。科学者ケイト・クロフォード(Kate Crawford)氏とメレディス・ウィテカー(Meredith Whittaker)氏によって2017年に設立されたこの団体の研究対象は、人権と労働に及ぼすAIの効果、さらにAIの安全な導入方法、AIテクノロジーから偏見を排除する方法などだ。

昨年5月、欧州連合は一般データ保護規則(GDPR)を施行した。欧州の市民がインターネット上で利用される個人情報を自分で管理する権限を強化するための規則をまとめたものだ。これはAIテクノロジーの偏見に直接対処するものではないが、欧州の組織(または欧州に顧客を持つすべての組織)は、AIアルゴリズムの使用法を、一層透明化するよう求められる。企業は、自社が使用するAIの出自について、しっかりとした信頼を示さなければならないという大きな圧力を受ける。

2017年12月の時点では、まだ米国にはデータ利用とAIに関する同様の規制はないが、AIテクノロジーが刑事裁判の判決に人種的偏見をもたらすとの報告を受けて、ニューヨーク市議会と市長は、AIの透明性を求める法案を通過させた

研究グループや政府機関は、偏向したAIが社会に与える破壊的な役割に関心を抱いているが、その責任の大半はAIテクノロジーを開発した企業にあり、根本的にその問題と取り組む覚悟が求められている。幸いなことに、過去にAIの偏見を見過ごしてきたとして非難を浴びたものも含め、最大手のハイテク企業も、この問題の解決に乗り出している。

例えば、Microsoft(マイクロソフト)は、アーティスト、哲学者、小説家を雇い入れ、微妙な言語表現の「ありなし」をAIボットに教えている。不適切なスラングを使わない、不用意に人種的または性的批判をしないといったものだ。IBMは、自社のAIシステムの公正さを判断する、独立した偏見評価基準をAIマシンに適用し、偏見の緩和に努めている。また昨年6月には、GoogleのSundar Pichai(サンダー・ピチャイ)氏は一連のAI原則を発表した。業務や研究において、同社のアルゴリズムに偏見を植えつけたり助長したりしないことを目指している。

AIに作用するデモグラフィック

AIの偏見に対処するためには、個人、組織、政府が、この問題の根源を真剣に考える必要がある。しかし、その根源は、多くの場合、そもそもAIサービスを開発した人間の側にある。2年前に私が書いた『Tyrant in the Code』でも話したとおり、右利き用のハサミや帳簿や缶切りで苦労している左利きの人たちは、それらが発明者の都合のよいように作られていることを肌で知っている。AIシステムにも同じことが言える。

米国労働統計局が発表した最新のデータによれば、AIプログラムを製作したプロの開発者は、今も大半が白人男性だ。また、昨年8月にまとめられたWiredとElement AIによる調査では、主要な機械学習研究者に占める女性の割合は、12パーセントに過ぎない。

しかしこの問題は、AIシステムを開発する技術系企業がまったく見落としているわけではない。たとえば、Intelは、同社の技術職の性的多様性の改善に積極的に乗り出している。最近のデータでは、Intelの技術職の女性の割合は24%に達している。業界の平均値よりもずっと高い。Googleは、次世代のAIを牽引する人間を育てるためのAIサマーキャンプ“AI4ALL”に出資し、この技術分野では少数派である女性やマイノリティーの若者に教育の手を差し伸べようとしている。

とは言え、AIテクノロジーから偏見を追い払うのに必要なレベルの多様性をAIが勝ち取るまで、まだまだ先は長いことを統計データは示している。一部の企業は個人の努力とは裏腹に、技術系企業はいまだに白人男性が圧倒的多数で占められているのだ。

AIの偏見問題を解決する

もちろん、大手AI企業の多様性改善策は、AIテクノロジーの偏見解消に大いに貢献するはずだ。社会に大きな影響を与えるAIシステムの普及に責任を持つ大手企業は、AIテクノロジーの偏見を監視でき、倫理基準に準拠できるよう、そして、そのアルゴリズムは誰をターゲットに想定しているのかを深く理解できるよう、世間一般に向けた透明性を提供する必要がある。

政府も業界リーダーも真剣に自問

しかし、政府機関による規制がなければ、こうした解決策は、有効であったとしても、効果が現れるまでに時間がかかるものだ。いろいろな意味でAIの偏見を緩和させるGDPRをEUは施行したが、米国には直ちにこれに追従する確かな兆候は見られない。

政府は、民間の研究所やシクタンクと協力して、素早くその方向へ舵を切り、アルゴリズムの規制方法と格闘している。さらに、Facebookなどの企業も、規制は有益だと主張している。だが、ユーザー作成コンテンツ用プラットフォームに強い規制をかけてしまえば、市場に新規参入するスタートアップの競争力が阻害され、Facebookのような企業を利することにもなりかねない。

大切なのは、イノベーションを押さえ付けない程度の、ちょうどよい政府の介入加減だ。

規制はイノベーションの敵であり、ゲームの流れを変える可能性を秘めた若いテクノロジーの育成のためには、一切の障害物を何が何でも取り除くべきだと、多くの起業家は訴える。しかしAIは、望むと望まざるとに関わらず、今後も継続する革命だ。無数の人々の生活を、これから変えてゆくものだ。だからこそ、倫理的で偏見のない方向に向かわせる必要がある。

政府も業界のリーダーも、真剣に自問しているが、考えている時間はあまりない。AIは急速に開発が進むテクノロジーであり、優柔不断では置いていかれる。倫理感が薄く、排他的な開発者によるイノベーションが野放しになってしまえば、米国のみならず世界中で分断が進んでしまう。

【編集部注】著者のCyrus Radfar(クリス・ラドファー)氏は、V1 Worldwideの創設パートナー。

[原文へ]

(翻訳:金井哲夫)

100万時間の滞空を達成したインターネット接続気球、1カ所に留まれる巧妙な仕組み

Googleの親会社であるAlphabet傘下のLoonは、全世界の空から高速インターネット接続を提供することを目指しており、数週間前にケニヤで商用トライアルをスタートさせることが発表されている。このLoonのインターネット気球が総計で滞空100万時間の大台に乗ったという。

気球の高度は成層圏の最上部で、1万5000mから2万mあたりをジェット気流に乗って飛ぶ。Loonのエンジニアは地域ごとの上層気流に関する詳細なデータを収集し、人工知能によって気球の高度を調節することによって同一地域の上空に留まれる航法システムを開発した。

Loonの気球群はこれまでに延べ4000万kmを飛行した。これは月まで50回往復できる距離だ。この間気球を操縦したソフトウェアは狙いどおりの位置をキープするためにユニークな方法を用いている。

気球は上から見てジグザグのコースを飛ぶ。これはヨットがタッキングしてセールの開きを変えながら進むのに似ている。ただし、そのナビゲーションは直観に反しており、いかに熟練したヨットマンでも思いつかないようなものだ。気球は成層圏の気流に沿って吹き送られていくが、それでも目指す場所に行く方法を編み出せるのだ。

figure8 Loon

気球が長時間同一区域に留まるためには上下に高度を変えて8の字型の飛行が必要な場合がある。逆方向に吹く気流が高度によって何層にもなっている場合があるからだ。8の字パターンによる飛行は単純な円運動の飛行に比べて、安定した長時間のLTE接続を実現するうえで有効であることが確認された。

こうした複雑な運動パターンは人間が操縦するのであれば普通選択されない。ナビゲーションを自動操縦システムにまかせて、気球が置かれた状況下で最適なパラメータをシステム自身に発見させる方法の有効性がここでも証明された。

LoonのCTO(最高技術責任者)であるSalvatore Candido(サルバトーレ・キャンディド)氏はブログ記事で「この自動操縦システムがAIと呼べるかどうかはよく分からない」と説明している。最近、テクノロジー企業はAIの定義を思い切り拡張し、多少でも複雑な動作をするソフトウェアはすべてAIだと主張する傾向があるだけに、Cキャンディド氏の慎重さは称賛すべき公正な態度といっていいだろう。しかし呼び名はどうであれ、このソフトウェアが気球を一箇所に滞留させ、安定したインターネット接続を提供するという目的を果たしたことはすばらしい。

Loonはすでに台風に襲われたプエルトリコ、地震が起きたペルーで壊滅した通信網を代替するために役立っている。これまで地上に中継設備を建設することが主として経済的な理由によって阻まれてきた遠隔地に、手頃な価格のインターネットをもたらすためにLoonが果たす役割は今後大きくなっていくだろう。

原文へ

(翻訳:滑川海彦@Facebook

ダーウィンの進化論に倣って自動運転車のAIを訓練するWaymoとDeepMind

Alphabet傘下で自動運転とロボタクシーの会社であるWaymoは、自動運転車のソフトウェアを強化するために人工知能を改良し、進化させるための訓練に力を入れている。最近同社は、やはりAlphabet傘下でAIを専門とするDeepMindと協力して、新たな訓練方法を開発した。質の高い訓練を効率的にできるようにすることを目指したもの。

両社が協力して開発した訓練方法は、Population Based Training(PBT、集団に基づく訓練)と呼ばれている。これは、より良い仮想ドライバーを育成するというWaymoの課題に対応するために考えられた方法で、その成果は印象的なものとなった。DeepMindがブログ記事で明らかにしたところによれば、PBTはWaymo車両が搭載する多くのセンサーによって発見された歩行者、自転車、バイクを認識して、それらの周囲に箱を描くニューラルネットワークで、誤認識が24%も減少したという。そのうえ、訓練に必要な時間とリソースの両方を削減することもできた。Waymoがこれまで採用していた標準的な方法に比べて、いずれもほぼ半減することができたという。

ちょっと戻ってPBTとは何かについて見てみよう。これは基本的に、ダーウィンが唱えた進化の仕組みからヒントを得た訓練方法だ。基本的にニューラルネットは、何かを試してみて、その結果を何らかの標準に対して評価し、その試みが期待した成果に比べて、より「正しい」か、より「間違っている」かを確認する。Waymoが使用していた訓練方法では、同じタスクに対して独立して動作する複数のニューラルネットを走らせていた。それらは、いわゆる「学習率」が異なるように設定されていた。言い換えれば1つのタスク、例えば画像の中の物体を認識するようなタスクを試みる際に、毎回アプローチに変化をつけられるようにしていた。学習率が高いほど、結果の質の変化も激しい。かなり良い結果が出ることもあれば、ものすごく悪い結果となることもある。一方、学習率が低いと進歩は緩やかとなる。急激に改善されたりする可能性は低いのだ。

このような比較による訓練は膨大なリソースを必要とし、どれが正しい答えを出したかということを判断するためには、担当エンジニアの直感に頼る必要があった。またエンジニアは、ダメなニューラルネットを「間引き」して、より良い結果を出すニューラルネットに処理能力を割り振るために、関連するコンポーネントを大規模に手動で検索する必要もあり、非常に労力がかかるものだった。

DeepMindとWaymoが、この実験によって試したのは、基本的にその間引きのプロセスを自動化すること。つまり、成果の上がらない訓練を自動的に切り上げて、そのタスクに対して最高の成果を発揮したニューラルネットから派生した、より見込みのあるものに置き換える。そこが、進化の過程に似ているというわけだ。いわば、人工的に「自然淘汰」を起こさせる。それこそが、この方法のキモとなる部分だ。

この方法に潜む落とし穴を回避するために、DeepMindは予備的な研究の後で、やり方を少し修正した。たとえば、モデルの評価を高速化し、15分間隔とした。また、確固とした評価基準とサンプルセットを作成し、テストによって現実の世界でも良好な性能を示すニューラルネットが生成できるようにした。訓練のために与えられた特定のデータに対してだけ、良好なパターン認識エンジンとして機能するようなものではない。

最後に両社は、一種の「孤立集団」によるアプローチも開拓した。限定されたグループの中でだけ、互いに競い合うニューラルネットの亜母集団を作ったのだ。つまり、島に取り残されたりして、大きなグループから切り離された動物の集団のようなものだ。大陸にいる親類と比べて、異なる特徴を発達させ、時にはよりうまく適応した特性を示すこともある。

すでに私たちの日常生活に組み込まれている技術に対して、深層学習と人工知能が実際にどのような影響を与え、さらに人間の生活に食い込んでくるのか。見ているだけでも、極めて興味深い。

原文へ

(翻訳:Fumihiko Shibata)

Siriの録音が定期的に契約企業に送られて分析されていた

内部告発者が持ち込んだその情報をThe Guradian紙に対して確認したApple(アップル)は、ユーザーの音声の録音を秘密裏に契約企業と共有していることにより、GoogleやAmazonなどのいかがわしい企業の仲間入りをしてしまった。その人物は、Siriのクエリは常時人間リスナーたちに送られ精査されていると告げた。そのことは、Appleのプライバシーポリシーに明記されていない。

それらの録音からAppleのIDはわからないそうだが、数秒間の中に個人的な内容が含まれていることもあり、誰であるかがバレてしまうこともある。たとえば位置情報やアプリのデータ、知人の詳細情報などだ。

ほかの企業と同じようにAppleも、このデータはサービスを改善するために収集し人間が分析していると言う。そして分析はすべて、安全な施設で守秘義務を負った者が行っていると表明している。そしてほかの企業と同じようにAppleも、それをやってることを開示を強制されるまでは言わなかった。

AppleはThe Guardianに、毎日のクエリの1%未満が送られていることを明らかにした。Appleはこれまで、Siriのクエリの量が多いことを常に自慢してきたから、1%という数字は慰めにならない。何億台ものデバイスがその機能を頻繁に利用しており、控えめに見積もってもその1%未満はたちまち数十万には達するだろう。

SiriのリクエストのAppleの言う「小部分」は、ランダムに選ばれているようだ。内部告発者が言うには「医師と患者の会話やビジネスの取り引き、犯罪臭のある取り引き、性的な関係などなど、プライベートな会話の数え切れないほど多くの断片が含まれている」そうだ。

リスナーは、Siriの起動が意図的でなく偶然だった場合を聴き分けるよう訓練されている。しかしそういう偶然の音声にも、IDは分からないけれども長くて大量の個人情報が含まれていることがある。

関連記事:Google is investigating the source of voice data leak, plans to update its privacy policies(Googleが音声データのリークを調査中、未訳)

つい先日も、Googleがクリップを分析していたことが明らかになった。そしてAlexaのクエリを録音しているAmazonは、そのオーディオを無期限に保存している

Appleのプライバシーポリシーは、Siriのクエリのような非属人情報についてこう述べている:

検索のクエリも含め、私たちのサービスに対するあなたの使い方の詳細を集めて保存することがあります。この情報は、私たちのサービスが提供する結果の適切性を改善するために利用することがあります。インターネット上の私たちのサービスの品質を確かなものにするための、ごく限られた場合以外には、そのような情報にはあなたのIPアドレスが付随しません。

上で「検索のクエリ」と言っているのは、おそらくクエリの録音も含むのだろう。そして上では、一部のデータをサードパーティと共有する、と言っている。しかし、「あなたがあなたのスマートフォンに尋ねる質問が録音されて第三者と共有されることもある」とは上のどこにも書いてない。ユーザーがそれをオプトアウトする方法も、明記されていない。

Appleはプライバシーと透明性の重視を常に力説しているから、これは重大かつ明らかに意図的な手抜きだろう。今Appleに問い合わせているので、情報が得られ次第この記事をアップデートしよう。

[原文へ]

(翻訳:iwatani、a.k.a. hiwa

Googleが麻痺障害者に10万台のHome Miniを寄贈

Googleが今朝のブログ記事で、脊髄の損傷などで麻痺症状を抱えている人びとのための介護支援団体Christopher & Dana Reeve Foundationとパートナーして、10万台のHome Miniを寄贈すると発表した。このニュースが発表された米国時間7月26日は、全米障害者法(Americans with Disabilities Act、ADA)の成立29周年の日にあたり、この法は1990年のまさにこの日に成立した。

この音声アシスタントデバイスを使ってみたい障害者や介護者は、フォームに申し込む必要がある。資格は、米国内に居住していることのみだ。

Googleの音声コントロールデバイスは依然認知度が浅いから、今回の寄贈作戦はそのためのパブリシティ対策でもある。こんなデバイスでその日のニュースをチェックしたりスマートホームデバイスをオン、オフすることは、健常者にとっては比較的どうでもいいことだが、重度な障害者にとっては違うかもしれない。

同社は今日のニュースを、CDR財団のアンバサダーであるGarrison Redd(ガリソン・レッド)氏の話で肉付けしている。彼にとって、この50ドルのデバイスは何をもたらしたか:

「2020年パラリンピックの重量挙げアメリカチームのメンバーとして毎日練習に励んでいるが、Miniはアラームや、スケジュール管理、そして買い物リストにも使っている。音楽はモチベーションをすごく高めるから、MiniでSpotifyのプレイリストを聴いて自分に活を入れてから練習を始めている」。

[原文へ]

(翻訳:iwatani、a.k.a. hiwa

グーグルがコンタクトセンターの音声技術をアップデート

昨年6月にGoogle(グーグル)は、企業が自社のコンタクトセンターをもっと有効利用できるためのAI製品「Contact Center AI」を発表した。Contact Center AIはGoogleのさまざまな機械学習ツールを使って仮想エージェントを作り、エージェントの仕事を助ける。米国時間7月24日に、同社はこのツールのアップデートをいくつかローンチし、その中には特に音声認識機能の改良がある。

Googleによると、同社の自動化音声認識サポートは精度がとても高く、市販製品を導入した顧客がよく不平を言うノイズの多い電話でも正しく解釈する。その精度をさらに上げるために今回のアップデートで、「Auto Speech Adaptation in Dialogflow」(Dialogflowにおける自動音声適応)という機能をローンチした。Dialogflowは、ユーザーが顧客との会話型製品を作るための機械学習を利用したツールだ。今回のこのアップデートで、音声認識ツールは会話のコンテキストを捉えることができ、精度は40%向上したとGoogleはコメントしている。

Speech Recognition Accuracy

また、電話用の新しい機械学習モデルにより、米国英語の場合、短い発言の理解度が従来より15%向上した。またそのほかのアップデートとして、書き起こしの精度向上、訓練プロセスを容易化、エンドレスのオーディオストリーミングに「Cloud Speech-to-Text API」が対応、などがある。後者はこれまで、5分という制限があった。

Googleは、これらのオーディオのMP3を提供しているから、ダウンロードしてCDに焼くといいかも。

dialogflow virtual agent.max 1100x1100[原文へ]

(翻訳:iwatani、a.k.a. hiwa

MITのIBMワトソンAIラボは写真を基にAI肖像画を描く

MIT(マサチューセッツ工科大学)のIBMワトソAIラボでAI Portraitsというプロジェクトがスタートしている。このサイトにユーザーが自分の写真を投稿すると、さまざまな巨匠のタッチで肖像画を描いてくれる。

これはGAN(生成的裁定的ネットワーク)と呼ばれる人工知能を利用しており、写真から人物の顔を抽出し肖像画を生成する。これまでの同種のシステムはユーザーの顔写真に各種ペイント加工をするに過ぎなかったが、AI Portraitsでは写真の顔画像情報をベースにいわばスクラッチで絵を描く。

Vergeの記事によると、このツールは巨匠の手による4万5000点以上の肖像画をデータベースに保存しており、ワトソンAIがアップロードされた写真からどのようなスタイルを利用するのが適切か判断するという。生成された画像は投稿写真の顔情報をベースにしているため、その人物の特徴をよく捉えている。異なる写真を投稿すること異なるタッチの肖像画が生成される。

Screen Shot 2019 07 22 at 9.24.52 AM

AI Portraitでは投稿されたソース画像は顔データの抽出が完了すると同時に破棄されると約束している。つまり後になって顔情報が流出するなどプライバシー上の懸念はない。また生成された画像にも個人を特定するような情報は一切含まれていない。サイトは大人気で多数の写真が投稿されているが、生成された画像は写真そのままではない。ここが重要な点で、写真を加工しているのではなく、独自に絵を描いているのだということhがよく分かる。

ai portrait gan progress

肖像画が気に入ったらソーシャルネットワークに投稿してもいいし、プロフィール写真に使うこともできる。ときどき不具合に遭遇するかもしれないが、あくまで実験であり商用サービスではないのでやむを得ないだろう。トラフィックが殺到している場合、フリーズすることがあるが、何回かリロードしていれば復帰するはずだ。このままでは特に実用性はないかもしれないが、非常に面白い暇つぶしだ。

それから肖像画にしてくれるのは人間の写真だけのようだ。イヌ、ネコの写真を試してみたがうまくいかなかった。

【Japan編集部追記】先ほどテストしたときはAI Portraitsには「トラフィックの殺到で一時的に停止している。Back Soon」という表示が出ていた。なおアップロードする写真は各種証明写真のように顔が中央に大きく写っているものがベター。人物の顔が小さい(写真の4分の1以下)だと認識されないことがあった。

原文へ

(翻訳:滑川海彦@Facebook

ビデオに自動的に音楽を付けるためにTikTokはJukedeckを買収か

ビデオを解釈してそれに合った音楽を自動的につける英国のJukedeckが、ホットなソーシャルメディアTikTokに買収されたようだ。Jukedeckは、本誌主催のTechCrunch Battlefield London 2015で優勝したスタートアップだ。

Jukedeckはこれまで250万ポンド(約3億3600万円)を調達している。その多くはCambridge Innovation Capitalからだが、最近の投資家としてはParkwalk Advisors、Backed VC、そしてPlayfair Capitalなどがいる。

創業者でCEOのEd Newton-Rex(エド・ニュートン-レックス)氏は最近LinkedInのプロフィールを変えて、4月以降はTikTokの親会社BytedanceのAI研究所のディレクターとなっている。Musicallyが、そう報じている。

ニュートン-レックス氏は、ピッチ(売り込みスピーチ)をラップでやることで有名だ:

いまニュートン-レックス氏に確認を求めているところだが、彼の同僚数名もLinkedInのプロフィールをアップデートしているので、全員Bytedanceの社員になったようだ。

たとえばソフトウェアエンジニアで音楽のプロデュースもやっていたDavid Trevelyan(デヴィッド・トレヴェリアン)氏とPierre Chanquion(ピエール・チャンクィ)氏も、今やBytedanceのAI研究所のシニアソフトウェアエンジニアだ。Jukedeckで機械学習の研究者だったKaterina Kosta(カテリーナ・コスタ)氏とGabriele Medeot(ガブリエル・メディオ)氏はBytedanceのシニアMLリサーチャーとなっている。ソフトウェアエンジニアで機械学習の研究者でもあったMarco Selvi(マルコ・セルヴィ)氏も、今ではBytedanceのシニアMLリサーチャーだ。

Jukedeckのサイトは今オフラインで、ウェブページはこんなメッセージがあるだけだ。「今はまだ詳しいことは言えないが、音楽のAIを使った元気活発なクリエティビティを今後も続けていきたい」。これはつまり、BytedanceはTikTokの中でビデオに音楽をつけるためにJukedeckの技術を利用する、と意味だろう。

ニュートン-レックス氏は「作曲の能力を大衆化したい」と何度も言っていた。そしてTikTokには大量の大衆がいる。モバイルの調査企業Sensor Towerによると、同社のソーシャルミュージックアプリはアメリカで8000万回、全世界では8億回ダウンロードされた。

[原文へ]

(翻訳:iwatani、a.k.a. hiwa