複数のクラウドサービスに散らばるコンテンツを検索するCloudtennaのモバイル検索アプリ

いまどき自分のコンテンツは、さまざまなクラウドサービスに分散して保存しているため、いざというときに見つけるのが難しい。メールに添付したい「あれ」は、Slackの会話内にあるのだろうか、Boxの中か、DropboxかGoogle Docsか、それともOffice 365なのだろうか。Cloudtennaはこの面倒な問題解決に挑戦し、米国時間6月16日に250万ドル(約2億7000万円)の資金調達と、新たにモバイル用の検索ツールを発表した。

匿名の投資家が多いが主役はBlazar Venturesで、同社によるとこれまでの調達総額は650万ドル(約7億円)になるという。

Cloudtennaの共同創業者であるAaron Ganek(アーロン・ガネック)氏によると、CloudtennaはAIとドキュメントのメタデータを併用して、コンテンツの保存場所を見つけることができる。「私たちの本当の仕事は、企業のファイルのカオスに秩序をもたらすことだ」とガネック氏はいう。「ファイルはさまざまなクラウドのあちこちに、ばらまかれたような状態で存在している。私たちが開発したアプリケーションは、AIを利用してファイルを見つける。それらは、どこに保存されていてもよいい」。

同社はデスクトップ用の検索アプリケーションを2018年にリリースし、それと併用されるモバイル用の検索ツールである「Workspace」を発表した。ガネック氏によると、モバイルの特徴を十分利用するためにアプリはゼロから新たに制作したとのこと。

「検索のテクノロジーをスマートフォンとタブレットに持ち込んだ。はっきりさせておきたいのは、これがデスクトップ製品のモバイルバージョンではないことだ。人は外出しているとき、すなわちモバイル状態のとき、どのようなコラボレーションしているのか、徹底的なケーススタディを行なった上で設計した」とガネック氏はいう。

画像クレジット:Cloudtenna

AIの部位が、ユーザーの履歴に基づいてファイルがどこにあっても見つけ出す。これまで、誰とコラボレーションしていたかもわかる。最も身近でよく使うファイル、あるいは検索キーと最も関連性が高いファイルを優先して見つけてくれる。どこに保存されていてもいい。

ガネック氏によると、パンデミックのときに資金調達をするのは確かに奇妙な体験だったが、一般的にSaaSの利用が増えて、同社も上昇気流に乗っており、投資家たちにもそのことを理解していた。

同社は2016年に創業して、現在は9人の社員がいる。ガネック氏によると、現時点で人を増やす気はないという。そのため将来の社員の具体的な人数を挙げることもできないとのことだ。

[原文へ]
(翻訳:iwatani、a.k.a. hiwa

GoogleのKeenは機械学習版のPinterest

Area 120というGoogle(グーグル)の社内インキュベータからKeenという「AIが関心あるトピックをクラウドから集めてくれる」サービスが登場した。いわばGoogleアラートの改良版だ。ただしGoogleアラートがGoogle検索の結果をメールで通知するだけなのに対して、Keenは機械学習と人間の判断を組み合わせ、トピックをキュレーションする専用ページを作ってくれる。

ユーザー興味を抱いている個々のトピックはKeenと呼ばれる(頭の回転が速いことを指す形容詞から取ったのだろう)。

共同創業者のC.J. Adams(C.J. アダムズ)氏によれば、ヒマな時間にぼんやりスマホを眺めて画像や記事を延々とブラウズしていることに気づいたことがこのプロジェクトのアイデアのきっかけだったという。アダムズ氏は同じ時間を使うなら自分が興味を持つトピックについて学ぶほうがずっとよいと考えた。つまり深く知りたいと思っていたテーマや学びたかった技能などだ。

このアイデアを発展させるためにアダムズ氏はGoogleの同僚4人を誘った。またPeople and AI Research(PAIR、人間とAI検索)チームの協力を得て作ったのがKeenだという。「人間とAI検索」は人間の活動を中心としてそれを助ける機械学習に焦点を当てたテクノロジーを開発しているチームだ。

KeenはウェブとAndroidで公開されており、利用するにはGoogleアカウントでログインして調べたいトピックを入力すればよい。アダムズ氏はリリースノートでパン焼きバードウォッチングタイポグラフィなどの例を挙げている。

キーワードを入力するとKeenは関連するトピックを提案してくれる。「犬の訓練」と入力すると、「犬の訓練教室」「犬の訓練本」「犬の訓練のコツ」「犬の訓練ビデオ」などが提案されるので適当なものがあればクリックするとそのテーマでKeenが作成される。

後でKeenを開くと興味に合致したコンテンツの画像がピンボードとして表示される。「犬の訓練」の例では、下の画像のように各種記事、YouTube動画、キュレーションされた役に立つソースのリストから、犬の訓練用おやつ製品のAmazonリンクなどが収集されている。

作成されたトピックについてサービスはGoogle検索と機械学習で新たなコンテンツを発見、収集する。ユーザーがKeenにコンテンツを追加、内容を整理すればKeen側からのレコメンデーションも精度もアップする。

使用感はPinterestのAI自動化版といったところだ。

Keenでトピックが作成されたらコンテンツを追加、削除できるのはもちろん、他のユーザーがコレクションを閲覧、編集できるよう共有するオプションもある。コレクションは公開することも、非公開にすることもできる。また新しいコンテンツが追加されたときメールで通知を受け取ることもできる。

実はGoogleアプリのニュースフィードは似たようなテクノロジーを使っている(The Verge記事)。ニュースフィードの場合、ユーザーの検索履歴とユーザーが興味も持っていると入力したテーマを組み合わせて収集された最新ニュースその他の情報がGoogleアプリのホーム画面に配信される。ただしKeenは検索履歴にはタッチせず、ユーザーが直接入力したトピックだけに基づいてコンテンツを収集するという。

またニュースフィードがそのタイトルどおり最新の情報に焦点を当てているのとは異なり、Keenはトピックに関する有用な情報を発表時期によらずに収集する。これは記事だけでなく、イベント、ビデオ、製品カタログなどの関連情報も含まる。

しかしGoogleログインで認証される同社のサービスである以上、収集されたデータは同社と共有される。もちろんKeenも他のGoogleサービスと同様に、同社のプライバシー約款が適用される。

現在のKeenはグーグルという大企業のインキュベータから生まれたばかりのプロジェクトではあるが、インターネットのパーソナル化の一つの方向を示して示しているといえる。テクノロジー企業は、以前から  ユーザーが興味を持つコンテンツを供給することがサービスに対してポジティブなイメージを与え、エンゲージメントを高め、セッションの長さやリテンション率をアップすることに以前から気づいていた。

しかし十分に注意を払わないと、パーソナル化はユーザーにいつも似たような情報を提供、有力な反対意見が出てもそれを伝えることができないといった弊害も起こしやすい。これはユーザーの世界観を狭くするだけでなく、バイアスを強化するフィルターバブル (The Wall Street Journal記事)や同意見だけを集めてくるエコーチェンバー(Cambridge Core記事)などの好ましくない副作用をもたらす。 アルゴリズムに基づいた記事推薦は奇矯なコンテンツを検索しているユーザーを危険な迷路に送り込みいっそう過激化させてしまう(The NewYork Times記事)リスクがある。極端な場合、過激化したユーザーがテロリストになるYahoo News記事)ことさえある。

Keenの場合も機械学習と人間の専門家をペアにするほうが賢明だろう。 しかしKeenではユーザー本人と(もし招待した場合は)友人や家族を以外に人間によるレイヤーは存在せず、AIテクノロジーが情報を集めてくる仕組みだ。

このことは現在のAIシステムに充分な知識を持った人間の専門家のキュレーションが必須であることを示しているが、Keenについていえば野心の範囲を今少し狭くして特定のトピックの情報収集に特化したほうがいいのかもしれない。

原文へ

(翻訳:滑川海彦@Facebook

福岡県が災害対応に向けAIリアルタイム危機管理情報のSpectee Proを採用

Spectee Pro(スペクティプロ)

Spectee(スペクティ)は6月22日、AIリアルタイム危機管理情報サービス「Spectee Pro」(スペクティプロ)が、福岡県の災害対応・危機管理対応に向け採用されたと発表した。

福岡県は、2017年の九州北部豪雨で大きな被害を受けるなど、近年激甚化する災害対応に従来以上の多角的な情報収集が必要と判断。同年より実施中の防災・行政情報通信ネットワーク再整備事業において、ビッグデータのひとつとしてSNS情報を基にした被害状況の把握が重要との考えから、Spectee Proを導入した。

プレスリリースにおいて福岡県防災危機管理局防災企画課は「地域によっては、災害発生時に消防や警察、報道などから情報を得られないため、住民からのSNS投稿による情報は災害発生時の初期対応に有用」という旨のコメントを行っている。

Spectee Proは、AI技術を活用し情報解析を行い、早期かつ正確に緊急情報を配信、被害状況を可視化する危機管理情報サービス。SNSへの投稿情報をもとに、自然災害・火災・事故など緊急性の高い情報、感染症情報など、100以上の事象を市区町村・空港・駅、商業施設・観光地周辺といった対象と組み合わせて、「どこで何が起きているか」をリアルタイムに確認できる。

また同サービスでは、AIを活用し、デマ・誤情報、情報の重要度などを的確に分析するとともに、24時間対応の専門チーム(情報分析官)による情報の精査も合わせて行う。現場で働く職員の方々が情報に惑わされないようサポート体制を敷いている。

関連記事
画像解析で降雪量や路面状態を自動判別、Specteeが日本気象協会と共同開発へ
AIアナウンサー「荒木ゆい」が正式サービスイン、月額9800円で20回分の音声をダウンロード可能
Twitterなどの動画をAIで収集・配信するSpecteeがAP通信社と提携、世界へ動画配信を開始

公共事業向けの現場安全情報を提供するUrbinが20億円超を調達

産業労働者向けの現場安全情報を開発するUrbintは、研究開発能力の拡大、国際的な成長、新しい産業分野向けサービスの開発を目指して、新たなラウンドの資金調達で2000万ドル(約21億4000万円)を調達した。

北米の公益事業市場ですでに大きなシェアを持つ同社が海外に進出するにはいいタイミングだ。このたび、英国の公益企業であるNational Gridのベンチャー部門が同社への投資家に加わったことによって、それが現実になろうとしている。2000万ドルの調達ラウンドのそのほかの投資家は、Energy Impact Partners、Piva、そしてSalesforce Venturesだ。

同社の創業者でCEOのCorey Capasso(コーリー・カパソ)氏がは「公共事業の現場は、インフラの老朽化や極端な悪天候、労働者の不足などによって、数年前から圧倒的な数の脅威に直面していました。しかも、リスク回避のための正しい情報に基づく安全性を確立するための適切なツールがありませんでした。我々は予測AIを活用してこの問題を解決するためUrbintを創業しました。新型コロナウイルスのパンデミックは、インフラと必要不可欠な労働力に対する危険性を増加させ、リソースも逼迫させたことで、我々のサービスのニーズが高まっています。今回の投資により、より多くのコミュニティの安全を守るために、我々の事業が拡がることでしょう」と語る。

カパソ氏はTechCrunchのインタビューで「リソースの配置の適正化のためにはダイバーシティ(多様性)とインクルージョン(無差別化)を強化しなければならない」ともコメントしている。

同氏によるとUrbintは、大量の情報を集めて分析し、天候や今後の建設計画、事故や感染症や災害、疾病など、現場の労働者が今後直面するかもしれないさまざまなリスクを評価することだ。昨今の米国では、これらに新型コロナウイルスによるパンデミックが加わる。現在同社は米国の40社の公益企業が顧客だが、カパソ氏は顧客ベースをもっと拡大したい意向だ。

National Gridのベンチャー部門であるNational Grid Partnersの創業者で社長のLisa Lambert(リサ・ランバート)氏は「このパンデミックの間のリスクを軽減するには、AIを利用する安全性技術が極めて重要である。そのため、Urbintへの投資を増やしていることに、大きな期待と確信を持っている」と語る。

[原文へ]

(翻訳:iwatani、a.k.a. hiwa

マイクロソフトは顔認識技術を米麻薬取締局に販売しようとしていた

最近公表されたメールによると、Microsoft(マイクロソフト)は2017年に米麻薬取締局(Drug Enforcement Administration、DEA)に、同社の顔認識技術を販売しようとしていた。

米国自由人権協会(American Civil Liberties Union、ACLU)はそのメールを、10月に提訴した記録の公開をめぐる訴訟の過程で入手(PDF)した。その訴訟は、顔認識事業を取り巻くDEAの秘密主義に挑戦していた。ACLUは、メールをTechCrunchと共有した。

メールの日付は2017年9月から2018年12月までで、マイクロソフトがDEAの職員をバージニア州レストンのオフィスに秘かに招いて同社の顔認識技術をデモしたこと、のちにDEAがその技術を試験的に導入したことがわかる。

その頃、マイクロソフトの社長のBrad Smith(ブラッド・スミス)氏は、顔認識の使用を対象とする政府の規制を公開の場で求めていた(マイクロソフトブログ記事)。

しかしメールはさらに、DEAがその技術の購入に関して懸念を表明したことを示している。DEAは、FBIによる顔認識の利用が政府の監視の目に止まり(GAO記事)批判を招いた1件を危惧していた。

批判者は以前から「顔を対照させるこの技術は米国人のプライバシーの権利を犯し、またその技術は有色人種に対する異様なほど大きな偏向を示している」と主張していた。しかし、警察や公共の場などで顔認識が広く利用されるようになったにもかかわらず、議会は適切なタイミングで規制を導入することができず、技術は規制も監督機関もないまま放置された。

しかし、George Floyd(ジョージ・フロイド)氏の死に続いて米国内と全世界で起こった抗議運動により事態は変化し、法の執行と人種による不公平に、あらためて人々の注意が集まった。

マイクロソフトの営業がメールで、DEAの職員を同社のバージニア州レストンのオフィスに招待して同社の顔認識技術をデモしようとしているメール(出典:ACLU)

マイクロソフトは先週、国の規制が整うまでは顔認識技術を警察に売らないと発表した。その前にAmazon(アマゾン)は顔認証技術を警察に売ることを1年間留保すると発表し、抑制の口火を切った。IBMはもっと極端に顔認識事業から全面的に手を引くと発表した。一方で、マイクロソフトとアマゾンは「国の省庁やDEAのような機関には今後も売らない」とは言っていない

ACLUの主席弁護士であるNathan Freed Wessler(ネイサン・フリード・ウェスラー)氏は「ドラッグに対する人種差別的な戦いを率いる法執行機関に、マイクロソフトが危険な技術を売ろうとしただけでも十分に劣悪だが、今はもっとひどい。先週、顔監視技術を警察に売らないと遅まきながら約束したあとでさえ、同社はその技術をDEAのような国の機関に今後売るのか売らないのかを言おうとしない」と語る。

「米国の麻薬取締局の履歴を見れば、それだけでも厄介だが、もっとひどいのは、報道によると司法長官のBill Barr(ビル・バー)氏が司法省の監視権限を拡大しようとしていることだ。警察の虐待行為に抗議している人々を秘かに監視するなど司法の権力が濫用されるだろう」と同氏は付け加えた。

その後、一部の議員がDEAによる抗議者の秘かな監視を停止するよう要求(BuzzFeed News記事)したが、その権利は抗議活動が米国と世界に広がった6月初めに司法省が認めたもの(未訳記事)だ。

TechCrunchの質問に、DEAのスポークスパーソンであるMichael Miller(マイケル・ミラー)氏は回答を拒否した。マイクロソフトのスポークスパーソンは、コメントのリクエストに応じなかった。

関連記事:Decrypted: DEA spying on protesters, DDoS attacks, Signal downloads spike(未訳)

[原文へ]

(翻訳:iwatani、a.k.a. hiwa

Adobe CCのアップデートでSensei AIの利用が強化された

Adobe(アドビ)がPhotoshop、Lightroom、Premiere Pro、After Effects、Illustrator、デザインツールのXDなどCreative Cloudアプリ多数をアップデートした。 最近の同社のアップデートの例と同様、今回の重点も社内で独自に開発したSensei AIの活用によるアプリのスマート化に置かれている。ちなみに、最近リリースしたiOSとAndroidのPhotoshop CamerアプリもSenseiプラットフォームを利用している。

スマートAI機能が多数追加されたのに加えて、今回のアップデートでもいつもどおりバグの修正、ワークフローの強化、パフォーマンスの向上などが行われた。

デスクトップ版Photoshopに追加された新しいスマートツールの1つは、「対象の選択」の強化だ。たとえば、人物の顔を背景から切り抜くときなど非常に優れた機能を発揮する。これまでも選択ツールは相当に優秀だったが、人物の髪の毛を選択するときなど慎重な手作業が必要だった。今回のアップデートでユーザー体験は大きく改善された。

 

Photoshopの他のアップデートにはデバイスにインストールしていないアドビのフォントを使ったPhotoshopドキュメントを開いたときにを自動的にアクティベーションする機能が含まれる。また。 各種パターンを回転できるようになり、Sensei AIを利用して写真内のフォントを判定する既存の「マッチフォント」ツールがアップデートされた。

 

iPadでPhotoshopとLightroomを使っているユーザーの場合, 両アプリの統合がさらに進んだというのは朗報だろう。Lightroomで現像した写真を簡単にPhotoshopに送れるようになった。またPhotoshopで編集を行うときにPhotoshopの強力なツール群が利用できる。

写真から色のテーマやパターン、図形を抽出するAdobe Captureは従来はモバイルでのみサポートされていたが、Captureのツールがデスクトップを含めてPhotoshpで利用できるようになった。

Lightroomでの主なアップデートは デスクトップとモバイルでバージョンがサポートされたことだ。名前の通り、同一の写真に対して複数のバージョンの編集を作成する機能だ。写真をコピーして編集することなく1枚の写真にカラー版とモノクロ版を作って編集するなどが可能になった。

Lightroomにはデバイス上で色相を調整する新しいツールが追加された。同社のGreg Zulkie(グレッグ・ズルキー)氏によれば「新しいスライダーを使えば、選択した領域のホワイトバランスを変更せずにピクセルの色相を正確に編集することができる」(アドビブログ記事)という。

 

またRAW画像の編集が効率化された。ISOアダプティブ・プリセット機能により、写真のISOに応じて異なるプリセットを適用して編集作業ができる。

ビデオ編集では、マーキーのアップデートによりAdobe StockのオーディオがPremiere Proに統合され、動画にアドビのストック・オーディオを追加することが簡単になった。

さらに、Premiere Pro、After Effects、Premiere RushにSensei AIを利用した新機能をいくつか予告している。その1つはPremiere Proの新しいシーン編集検出機能だ。これはビデオファイルをSenseiが分析して新しいシーンを検出し、そのつどカットやマーカーを挿入する。After EffectsのRoto Brush 2ではビデオ内のオブジェクトを認識しマスクしてトラッキングできる。

Premiere RushのAuto Reframeは異なるアスペクト比の動画を簡単に作成できる。下の動画のようにSensi AIがビデオを分析、重要な部分を認識してこれを中心にアスペクト比の異なる動画を切り出す。

 Auto ReframeはRushの効果パネルに追加され、今月末にはRushのベータ版で公開される予定だ。

今回のアップデートではほぼすべてのCreative Cloudのアプリが改良されているが、上で紹介した以外の大部分はワークフローの改善や比較的マイナーな機能の追加だ。Creative Cloud の契約者は通常のアップデートを実行するだけで新機能にアクセスできるようになる。

原文へ

(翻訳:滑川海彦@Facebook

オンラインの商談内容をAIが分析、成約につながるかどうかを検定するコグニティの新サービス

テレ検

プレゼンや営業トークなど、ビジネスコミュニケーションのAI解析技術を擁するコグニティは6月17日、新サービス「テレ検」(てれけん)を発表した。提供開始日は7月1日。テレワーク拡大に伴いオンライン商談が急増していることから、従来の営業トークがテレワークにおいても有効かAIがチェックし、成約につながるかどうかを検定できる。

サービス対象は、1トーク15分間以上の商談。月額基本料金は1契約あたり5000円(月1回以上の利用すると基本料金請求なしとなる)。1分間あたり300円で、毎月利用した分数に応じ月末締めでの支払いとなる。

テレ検は、オンライン商談に適したトーク要素の含有量などをチェックする「オンライン商談適性度」を含め、テレワークによる商談特有のトークスキル向上を助ける検定レポートサービス。新たな営業手法としてのオンライン商談トークのスキル向上を期待できるという。

また同サービスは、ビデオ会議システム・チャットシステムを問わず利用可能。利用者は、「テレ検アプリ」で商談を録画または録音しアップロードを行うと、2~5営業日後に検定結果をサイト・アプリ上で閲覧できるようになる。オンライン商談に適したトークの指導・改善にも利用できる。

検定では、1万6000件以上のトークデータベース、1500分31回のオンライン・リアル商談データを比較しながら開発した独自評価アルゴリズムによる分析を行うほか、業界・職種・商談内容を問わないとしている。検定結果では、数値やグラフで示したレポートを提示し、トークの指導にも用いやすいとしている。

関連記事:AIが営業トークを自動解析し“売れるトーク”との違いを提示、コグニティが1.9億円を調達

AI自動販売機のスタートアップStockwellが7月1日に廃業、自販機業界には90%も売上が落ち込む企業も

鳴り物入りで登場したStockwell AI(ストックウェル・エーアイ)は、涙の退場が決まった。2017年に元Google社員によって設立され、生を受けたときはBodega(ボデガ)という社名だったこのAI自動販売機のスタートアップは、家族経営の小さな商店を悪く言い、無残にも一撃でそうした店舗を叩き潰しては大金を手にするというそのやり方(未訳記事)が、とても嫌われた(The Washington Post記事)。結局のところ同社は、新型コロナウイルス(COVID-19)と、それが私たちの生活に与えた影響に対処できなかった。

TechCrunchが調査し確認したところでは、Stockwellは2020年6月末で廃業することになった。コンビニと同じ商品を販売する屋内型のアプリ操作式「スマート」自動販売機は、儲かるビジネスにつながらなかったようだ。

「まことに遺憾ながら、今般の状況により事業の継続が困難となり、7月1日をもって弊社は廃業することとなりました」と共同創設者でCEOのPaul McDonald(ポール・マクドナルド)氏はTechCrunch宛の電子メールで述べている。「私たちはこの事業を可能にしてくれた有能なチーム、素晴らしいパートナーと投資家、そして称賛すべきお客様に深く感謝します。このような形で旅を終えるのはまことに残念ですが、人々の生活の場、職場、遊びの場に店を置くという私たちのビジョンは、他の優れた企業、製品、サービスの中で生き続けるものと確信しています」。

もともと我々は、同社の廃業に関する電子メールを受け取った人物からの内報を受けて取材を行った。Stockwellの販売機は主にアパートやオフィスビルの中に設置されているが、先週、それらの顧客に同社からの廃業の知らせが届いた。

Stockwellを利用しているあるビルの運営会社は、Stockwellに代わって商品の補充をしてくれる業者を懸命に探しなんとか使い続ける道を見つけたそうで、これにはいくぶん慰められるが、厳しいことを言えば、今は売り上げが最大で90パーセントも落ち込む業者が出るほど、自動販売機業界にとって過酷な時期だ。

Stockwellの廃業は、現在の状況では頼れる支援者を数多く有し潤沢な資金があったとしても、誰もが必ず試練を乗り越えられるわけではないと再認識させてくれた点で意義深い。

2019年9月の時点で、Stockwellは少なくとも4500万ドル(約48億3000万円円)の投資をNEA、GV、DCM Ventures、Forerunner、First Round、Homebrewなどから調達していた。そのネットワークは1000カ所もの「ストア」に拡大していた。同社のスマート販売機は、ホテルの冷蔵庫を進化させたようなものだ。取り出した商品はセンサーが認識し、利用者は購入履歴の確認や支払いがスマートフォンで行える。

2019年秋まで、同社はそのビジネスモデルの拡大を目指して準備を進めていた。ビルやオフィスやアパートなどに置かれたStockwellの自動販売機で買える商品について、もっと利用者の意見を受け入れられるようにするというものだ。それは、水や清涼飲料水の他、おつまみ系のスナックや甘い菓子類、洗濯洗剤や鎮痛剤などの生活必需品に至る。

12月にマクドナルド氏の共同創設者であるAshwath Rajan(アシュワス・ラジャン)氏が静かに同社を去り、2020年が幕を開けると当時に新型コロナウイルスの影響が出始めた。

まずは利用者が自宅で仕事をし、家で過ごすようになった。外出が減り、買い物を最小限に抑えるためにまとめ買いをするようになった。そのため、気楽に少量の買い物ができるというStockwellなどの自動販売機の典型的なビジネスモデルに基づく事業の存続が困難になった。

次に感染拡大を抑えるための多くの人がマスクを着用し手洗いを徹底して、やたらと物に触らないように努める中で、人の手を離れた自動販売機をどうやって適切に消毒するのかという大きな問題が浮かび上がった。それは自動販売機の利用を減らしただけでなく、自動販売機に商品を補充したりメンテナンスをする業者にも重大な影響を及ぼした。

自動販売機業界の新型コロナウイルス対応には、おもしろい工夫が見られた。一部の企業は、商品をブレッツエルやスニッカーズから個人用防護具に変更した(Las Vegas Review-Journal記事)。またある業者はこの大変な時期に、簡単に栄養を摂取する方法がない最前線で働く人たちのために健康食品を販売する機会を探っている(EATER記事)。

だが全体的に、自動販売機業界はパンデミックの影響を大きく受けることになった。

通常の年であれば、この大きな市場の価値は年間300億ドル(約3兆2000億円)ほどと見積もられている(Grand View Research記事)。それが、Stockwell(旧Bodega)が投資家の目に留まった理由のひとつだ。しかし、数々の重大な要因が重なり、同社の事業は崖から転落してしまった。

2020年4月にEuropean Vending Association(欧州自動販売機協会)の会長は、政府高官に資金援助を求めた訴えの中で、取引高は最大90パーセント落ち込み、この分野に新型コロナウイルスが「壊滅的な影響」を与えていると説明している( FoodBev Media記事)。世界中のPepsi(ペプシ)やMondelez(モンデリーズ、旧Kraft)にとっても厳しい数字だが、若く有望でありながら当初から疑問を持たれていたAIベースの自動販売機スタートアップには、これが致命傷となったようだ。

画像クレジット:Bryce Durbin
[原文へ]
(翻訳:金井哲夫)

Facebookの判別コンペはディープフェイク抑止に有望な第一歩

深層学習を利用して生成されたフェイク動画であるディープフェイクはますます勢いを増しており、巨大プラットフォームをもつサービスは、ディープフェイクをいち早く見抜く必要に迫られている。

これがFacebookがディープフェイクを見抜くコンテスト、Deepfake Detection Challengeを昨年スタートさせた理由だ。数カ月のコンペを経て優勝者が決定された。その結果はといえば、完全というには遠い。しかし当てずっぽうよりはましだ。ともかく我々はどこからか始めねばならない。

登場したのはここ1、2年だが、ディープフェイクはAIカンファレンスのデモ用のニッチなおもちゃから、政治家やセレブのフェイクビデオを誰でも作れるソフトに進化した。そうしたフェイクビデオは本物と見分けがつけにくく、制作するソフトは誰でもイ簡単にダウンロードできる。

FacebookのCTO(最高技術責任者)であるMike Schroepfer(マイク・シュロープファー)氏はこのコンペについての電話記者会見でこう述べた。「クリックするだけでダウンロードでき、Windowsマシンで動くディープフェイク生成ソフトを私は手に入れている。本物と判別する方法はない」。

今年は米国大統領選挙がある。悪事を企む連中がディープフェイクを使って候補者に言ってもいなないことをしゃべらせ、有権者を誤った方向に誘導しようとする最初の大統領選になるに違いない。このところ一部から非難を浴びているFacebookとしてはディープフェイク対策は極めて重要だ。

去年このコンテストがスタートしたとき、ディープフェイク動画のデータベースも登場した。従来は研究者が利用できるディープフェイクの大型データベースがなかった。ある程度のサイズの偽動画のコレクションはいくつかあったが、このデータベースのようにコンピュータビジョンのアルゴリズムを改良するのに役立つような本格的なデータセットはまったく存在しなかった。

Facebookは3500人の俳優にギャラを払って数千のビデオを製作した。それぞれオリジナル版とディープフェイク版が用意された。ディープフェイク以外にも「雑音」として他の手法による改変も行われた。これはアルゴリズムに偽物を見破ろうために決定的な部分、つまり顔にに注意を集中させようとするためだった。

Facebookのコンペには世界中の研究者が参加し、ビデオがディープフェイクかどうかを 判断するシステムが何千も提案された。下に6種類のビデオをエンベッドしたが、そのうち3つはディープフェイクだ。どれがそうなのか読者は判別できるだろうか(正解は記事末)?

画像:Facebook

こうしたアルゴリズムの精度は当初は偶然より高くなかった。しかし繰り返巧妙なチューニングを施した結果、フェイクを識別する精度が80%以上に達するまでに改善された。残念ながら、システムの製作者に予め提供されていなかったディープフェイク動画でテストした結果は最高で65%程度にとどまった。

つまりコインを弾いて裏表で判断するよりはましだが、その差はあまり大きくはない。 しかしこれは最初から予期されていたことであり、今後の改良を考えれば非常に有望な結果といってよい。人工知能の研究で最も難しいのは、ゼロから何かを生み出す部分だ。その後は猛烈なスピードで改良が進む。ともあれAIで生成されたディープフェイクを判別するという課題がAI自身によって解決可能だということが判明しただけで大きなだ一歩だ。これが実証できた点がFacebookのコンペの最大の成果だろう。

オリジナルと各種の改変を受けたビデオの例(画像: Facebook)

重要な注意点は、Facebookが生成したディープフェイクのセットは単にサイズが大きいだけではなく、さまざまな手法を包括的し、ディープフェイクの最前線を代表するようなものになるよう意図されている点だ。

結局のところ、AIの有効性は入力されるデータ次第だ。AIシステムのバイアスはデータセットのバイアスが原因であることが多い。

シュロープファーCTOは「もしAIのトレーニングセットに現実の人々が遭遇するディープフェイクを代表するようなバリエーションを持っていなければ生成されたモデルも現実のディープフェイクを充分に理解できない。われわれが苦心したのはこのデータセットができるかぎり代表的なものであるようにすることだった」と述べている。

私はシュロープファー氏に「ディープフェイクを判別しにくい顔や状況のタイプがあるか?」と質問したが、この点ははっきりしなかった。この点に関するチームからのコメントは以下のとおりだ。

このチャレンジで利用するためのデータセットを製作するにあたっては自称する年齢、性別、民族等、多数の要因を考慮した。判別テクノロジーはどんな対象であっても有効に機能する必要があるため、データが代表的な例を網羅することが重要だった。

業界の競争を促すため、コンペで優勝したAIモデルはオープンソース化される。Facebook自身も独自のディープフェイク検出システムの構築に取り組んでいるが、シュロープファー氏によれば、これは公開されないだろうという。マルウェア対策同様、この問題は本質的に敵対的だ。「悪い連中」は対策者のシステムから学び、自分たちのアプローチを改良する。つまり何をしているかすべて公開することはディープフェイクを抑止するために逆効果となる可能性がある。

(ディープフェイク画像判定問題の正解:1、4、6は本物。2、3、5がディープフェイク)

画像:Facebook

【Japan編集部追記】上のビデオはダートマス大学で開催されたディープフェイクとメディアについてのフォーラム。右端がTechCruchのDevin Coldeway記者。ビデオでは俳優がオバマ大統領ビデオに合わせてアフレコで別のことを言わせるビデオが紹介されている。

原文へ

(翻訳:滑川海彦@Facebook

OpenAIがテキストベースのAI機能利用が簡単になる汎用APIを開発

これまでにOpenAIご自慢の機械学習ツールセットを試してみたいと思ったことがあるだろうか。それがずっと簡単なものになった。同社は、開発者がAIツールを「事実上どんな英語のタスクに対しても」呼び出すことができるようなAPIを発表した(OpenAIリリース)。

基本的には、英語の単語を理解することを求められるタスクがある場合、OpenAIはそれを自動化したいと考えている。少なくともプライベートベータに参加できれば、自然言語理解モデルのGPT-3ファミリーのさまざまな機能を、開発者は自由に使用することができる。また、アクセスのリクエストはここから可能だ。

実際にどのように見えるものなのかは、何をしたいかに依存するため、説明するのが少し難しい。例えば大量のテキストを一度に調べて、記載に関する質問に回答したり、関連する部分を見つけたりする機能を利用できる。短いデモビデオで、OpenAIはこれがどのように機能するかを説明している。パンに関するWikipedia記事に対して、「なぜパンがとてもふわふわ(fluffy)なのか」と尋ねると、記事の中にあるパンのテクスチャーとその形成に関する部分が返される。

これはシンプルな例だが、GPTを使ったテキストアドベンチャーゲームである有名な「AI Dungeon」はもっと複雑なものだ。AIには多数のD&Dソースブックと冒険が与えられ、そうした基礎に基いてプレイヤーの入力に対して即興的な旅が与えられる。これまでは、こうしたことは基本的にはモデルのバージョンをローカルで実行するという面倒な手段を使って達成しなければならなかったが、今では単純にAPIを経由して入力を送り込むことができるようになった。

基本的に、これはGPT-3の幅広い言語理解と生成機能にアクセスするためのはるかに簡単で単純な方法なのだ。単にテキストを入力して、テキストを出力するだけだ。

関連記事:OpenAIの新たな音楽活動はエルビスの不気味の谷に入った

「私たちは、このAPIがAIを活用した有益な製品を開発するための障壁を大幅に下げ、今日の段階では想像しがたいツールとサービスが生み出されることを願っています」と同社はブログ投稿で述べている。確かに1年か2年前にはAI Dungeonを想像することは困難だっただろう。

また、APIの有害または乱用は直ちに禁止されることも明記されており、OpenAIにとっては、モデルを実際に世の中にリリースするよりも安全なことと思われる。「モデルが実際の現場でどのように利用されるのかを予測することは難しいので、有害なアプリケーションが生まれたときにアクセスを制御できないオープンソースモデルをリリースするよりも、APIを介してリリースを行い、時間をかけてアクセスを広げて行くほうが、本質的に安全だと感じています」とブログには書かれている。

これまでのところOpenAIは数十社と提携して、世の中に広く提供する前にAPIをテストしている。チャットボット、教材、法的調査など言語は私たちが行うほとんどすべての定義と記録に使用されているため、この種の応用には終わりがない。とはいえこのようなAIエージェントが本当に役立つ場所を正確に見つけるためには、多少実験が必要だ。

既にAI Weirdness(AIウィアドネス)のJanelle Shane(ジャネル・シェーン)氏は、犬を評価している別のTwitterアカウントを参照して、無限に犬を評価し続けるボットを作成してアイデアを実験している。

トップ画像クレジット: OpenAI
原文へ
(翻訳:sako)

マイクロソフトは警察には顔認証技術を売らないと公言

Microsoft(マイクロソフト)は、IBMAmazon(アマゾン)との協議を通じて、少なくともより厳しい規制が設けられるまでは、顔認証技術を警察が利用することに反対する立場を固めた。

今朝、ワシントンポストのライブイベントで行われたリモートインタビューで、マイクロソフト社長のBrad Smith(ブラッド・スミス)氏は、同社のテクノロジーを適切に使用するための「原則的立場」を、同社はすでに取っていると話した。

「私たちが導入した原則に従い、私たちは顔認証技術を、現在の米国の警察署には売らないことにしました」とスミス氏。「しかしこれは、もっとよく知り、もっとよく学び、もっと行動せよと私たちが呼び掛けられている時期なのだと、私は強く思っています。それを受けて私たちは、人権に基づいてこの技術を管理できる国法が制定されるまで、米国の警察署には顔認証技術を販売しないことを決断しました」。

さらにスミス氏は、この技術を「他のシナリオ」で使用する場合の管理に用いる新しい「審査要素」を追加するとも話していた。

ワシントンポスト・ライブ:マイクロソフト社長ブラッド・スミス氏は「人権に基づく」国法が制定されるまで、同社は顔認証技術を今の米国の警察署には売らないと語った。

George Floyd(ジョージ・フロイド)氏殺害を受けて発せられたこうしたコメントは、米全国、そして全世界での抗議活動を招き、人種間の平等や法執行に関する幅広い議論を促す結果となった。

マイクロソフトの立場は、より厳重な規制が施行されたときにこの問題を再検討することを示唆したアマゾンの立場に似ている(ただし、どちらの企業も民主党議員が提出した「警察の正義」法案が警察署によるこの技術の使用を制限できるかに関して、明言は避けている)。双方とも、顔認証技術の販売を全面的に取り止めると発表したIBMほど踏み込んではいない。

ACLU(アメリカ自由人権協会)北カリフォルニア支部のテクノロジーおよび人権担当弁護士Matt Cagle(マット・ケイグル)氏は、このニュースに対して次の声明を発表をした(以下は抜粋)。

「顔認証の開発企業ですら、危険だとの理由でその監視技術の販売を拒否した今、政治家はもう、それによる私たちの権利と自由への脅威を否定できなくなりました。全国の議会と規制当局は、警察の顔認証の使用を速やかに禁止しなければなりません。そしてマイクロソフトなどの企業は、人権コミュニティーと(敵対するのではなく)協力して、それを実現させるべきです。これには、警察の顔認証の使用を合法化し全国の州に広めるための法律の制定を推進する取り組みを中止することも含まれます」。

「これらの企業が、ほんのわずかにせよ、またずいぶん時間がかかったにせよ、ようやく行動に出たことを私たちは歓迎します。私たちはまた、これらの企業に、黒人や有色人種のコミュニティーに不条理な危害を加える監視技術を含む、彼らを過剰に監視する卑劣なアメリカの歴史に永遠に幕を閉じるための努力を強く求めます」。

一方、アムネスティー・インターナショナルは、大量監視のために警察が顔認証技術を使うことを全面禁止するよう訴えている。

関連記事:アマゾンが顔認識技術を地方警察には1年間提供しないと表明、FBIへの提供についてノーコメント

画像クレジット:Riccardo Savi / Getty Images

[原文へ]

(翻訳:金井哲夫)

アマゾンが顔認識技術を地方警察には1年間提供しないと表明、FBIへの提供についてはノーコメント

Amazon(アマゾン)はその意外なブログ記事で、同社の顔認識技術を向こう1年間警察に提供しないと発表したが、それがFBIなど国レベルの法執行機関にも適用されるのかについては口をつぐんでいる。

この一時停止措置の2日前にはIBMが書簡で「顔認識技術の市場から全面的に撤退する」と発表した。その中でIBMのCEOであるArvind Krishna(アービンド・クリシュナ)氏は、先月ミネアポリスで白人警察官がGeorge Floyd(ジョージ。フロイド)氏を殺害した事件に触れ、「正義と人種間の平等」に言及した。

アマゾンの声明はわずか102語と短く、一時停止の理由も述べていないが、議会が顔認識技術の利用を統制するより強力な規制に取り組んでいる「ようだ」という注記がある。しかしこの件についても、詳細はない。それは、今審議中のJustice in Policing Act(警察の正義法)へ法案の反応のようでもあり、これが成立すれば警察による顔認識技術の利用が制限されることになる。

アマゾンの無署名ブログ記事には「この1年間の一時停止が、議会が適切な規則を実装するための十分な時間を与えることを期待し、また私たちも、望まれれば協力したい」と書かれている。

しかし声明は、一時停止が連邦政府にも適用されるのかについては何も言及していない。同社の顔認識技術がもっとも酷評されたのは、連邦政府レベルでの利用だった。さらに声明は、1年という期間が終わったあとどうするのかについても触れていない。

同社は、自社開発の顔認識技術であるRekognitionを、移民・関税執行局など連邦政府の省庁に販売してき(The Verge記事)ことで知られている。昨年、アマゾンのクラウド部門のトップであるAndy Jassy(アンディ・ジャシー)氏は「アマゾンはRekognitionを『いかなる』連邦省庁にも提供する」とインタビュー内で述べている(Rreuters記事)。

アマゾンのスポークスパーソンであるKristin Brown(クリスティン・ブラウン)氏はコメントを断り、一時停止が連邦の法執行機関に適用されるのかについても無言だった。

警察に顔認識技術を提供している企業は何十社もあるが、アマゾンはその中でも圧倒的に最大だ。同社の顔スキャン技術であるRekognitionは有色人種に対する偏向を示したため、最も注目を浴び、話題にもなった。

2018年にACLU(米自由人権協会)は、「28名の国会議員をRekogintionが顔写真データベースに載っている犯罪者と判定した」と報告(Medium記事)した。アマゾンは、ACLUが顔認識システムの信頼度閾値を下げたためだと反論したが、その1年後にマサチューセッツ州のACLUは「Rekognitionがニューイングランドのプロのアスリート27名を顔写真データベースの犯罪者とマッチさせた」と発表した。ACLUによると、どちらのテストでもミスマッチの大半が黒人だった。

1年前のアマゾンの株主総会では投資家が、同社が顔認識技術を政府機関や法執行機関に売ることを禁ずる提議を行った。しかし票決ではアマゾンが大差で勝った

ACLUは、同団体が「市民の権利と自由に対する脅威」と呼んでいるRekognitionのアマゾンによる販売休止に賛意を表したが、同社やそのほかの企業に、一時休止以上の前向きな態度を求めた。

関連記事: Amazonの株主たちが顔認識技術を法執行機関に売らないことを要請

[原文へ]

(翻訳:iwatani、a.k.a. hiwa

AIによる医療画像診断のエルピクセル元取締役が逮捕、およそ29億円を着服した容疑

医療や製薬、農業といった「ライフサイエンス」領域の画像解析ソリューションを開発する東大発ベンチャーのエルピクセル。FNNが報じたところによると、6月10日、同社元取締役で経理担当だった志村宏明容疑者が会社の口座からおよそ29億円を着服した疑いで警視庁に逮捕されたことがわかった。着服金額は総額で約33億円と見られている。

事件当時、志村氏はエルピクセルの資金を1人で管理しており、着服した金の大半は個人のFX取引に費やされていたと報道されている。

エルピクセルは2014年3月の設立。同社が2017年11月に発表した「EIRL(エイル)」は、AIを利用して医療画像診断を効率し、MRIなどの医療技術の進歩により、膨大な量の医療画像を向き合うことになった放射線診断医の業務をサポートしようするサービス。

TechCrunch Japanでもこれまでお伝えしてきたように、同社は2016年10月にジャフコ、Mistletoe、東レエンジニアリングらから総額7億円を調達し、2018年10月にはオリンパス、CYBERDYNE、富士フイルムなどを引受とする第三者割当増資により、総額で約30億円を調達している。報道によれば志村氏の着服は2018年4月から2019年1月で複数回に分けて行われたとされており、この資金調達の時期と重なることになる。

TechCrunch Japanはエルピクセルの広報担当者に情報を問い合わせており、返答があり次第記事を更新する予定だ。

関連記事:

恋愛、仕事、健康ーー新型コロナで加速するポストヒューマニズム

編集部注:本稿はMario Gabriele(マリオ・ガブリエル)氏による寄稿記事だ。同氏はCharge所属の投資家であり、The Generalistの編集者でもある人物。

—–

1970年代半ば、Fereidoun M. Esfandiary(フェレイドゥン・M・エスファンディアリ)博士は自分の名前を変える決断をした。そのときから彼は、法律上も正式に「FM-2030」と呼ばれるようになった。

「現在の慣習に従った名前は、祖先、民族性、国籍、宗教など、その人の過去を表すものだ。今の私と10年前の私は違う。「2030」という名前は、2030年前後が魔法の年代になるという私の確信を反映したものだ。2030年には、人間は不老になり、すべての人に永遠に生きる十分な機会が与えられるだろう。2030年は夢でありゴールである」とエスファンディアリ博士は説明した

2030年というと100歳になるが、彼はそんなことは気にしなかった。100歳まで生きる確信があったからだ。

改名した当時、すでに40歳を過ぎていたFM(Future Manの略ではないかと推測する人もいる)は、既存の枠には収まらないタイプの人間だった。イラン人外交官の息子だったFMは、11歳までに17か国を転々とした。1948年のオリンピックで母国のバスケットボールチームの代表選手になった後は、学問の道へと進み、カリフォルニア大学バークレー校とUCLAで学んだ後に、ニュースクール大学で最初の未来学の教授の1人となった。FMが「人類の新概念」を提唱し、ポストヒューマン時代への移行に必要なステップについて考察し始めたのはこの頃だ。ポストヒューマン時代はホモ・サピエンスが肉体の限界をテクノロジーによって超越して「超生物有機体」になる画期的な時代だと彼は説明していた。

FM-2030 (Image Credits: Wikimedia Commons under a Flora Schnall license)

人類は、21世紀の大部分を、FMが半世紀前に予言したことを実現しながら、ポストヒューマン時代に向かって突っ走ってきた。FMは未来学の学者として、3Dプリンター(彼はサンタクロースマシンと呼んでいた)の発明を予見し、さらには遠隔治療、遠隔会議、テレショッピング、遺伝子編集の登場も予測した。

こう見ると、現在、FMの予測どおりにポストヒューマン化のプロセスが順調に進んでいるように思える。しかし、後で2020年を振り返ったとき、我々はコロナウイルス危機がポストヒューマン化への大きな転換点になったと感じることだろう。今、人間性の核心をなす事柄に対する考え方が根本的に作り直されている。とりわけ、アイデンティティー、仕事、健康、愛に対する考え方が良い意味で見直されているように思う。つまり、ポストヒューマン時代が本格的に始まりつつあるということだ。

アイデンティティー

閉鎖された空間にいることが日常になった結果、アイデンティティーを物理的な肉体や場所と切り離して考える傾向が強まった。このような時でもコミュニケーションをとり、人と交流し、遊びたいと感じるが、どれも今はデジタル領域でしか行えない。こうした制約があると、新しい形の自己表現が自ずと形成される。例えば、Zoomの背景を使って自分が興味を持つ事柄を表現したりジョークを飛ばしたりもできるし、現実の世界並みに対話機能が充実したメタバースでアバターを使って交流を楽しむという方法もある。任天堂のAnimal Crossing(どうぶつの森シリーズ)では、数百万人が交流し仮想資産を取引し結婚式会議を開いている。Travis Scott(トラヴィス・スコット)がマルチプレイゲームFortniteにて行った超現実的な世界感のバーチャルコンサートは同時ビュー数1230万総動員数は2770万人を記録した。また、これらの仮想プラットフォームは人間の暗い一面も浮き彫りにしている。どうぶつの森では、一部の住人が、「醜い」と感じた村人をいじめたり虐待したりしているのだ。

このような変化はオフィスでも生じている。Pragliのようなツールの登場がその良い例だ。こうしたツールでは、「Tiger King」や「Love Is Blind」などから拝借した画像をZoomの背景に使うことよりもはるかにいろいろなことができる。Pragliでは、同僚とのテレビ会議に飛び込む代わりに、アニメスタイルのキャラクターで表された同僚のアバターとつながることができる。Pragli上でのアバターはオプションで変更可能だ。最新のアップデートでは、男性でも、髪を編んだり、カールさせたり、ポニーテールに結んだりできるようになっている。「楽しい」とか「悲しい」という表情も設定でき、現実の感情をアバターに投影しやすくなっている。

このような自己表現は、今、家の外ではマスクを着用してソーシャルディスタンスを保ち、個性を見せないという、いわば少し人間味に欠ける姿とは対照的だ。マスク着用のように、自分の一部分を「編集」することがスタイルとして確立されつつあるようだ。例えば、G95の「biohoodie」にはフェイスカバーが組み込まれており、クリエイティブスタジオのProduction Clubは、社交用に設計された防護服を発表している。最悪の事態が過ぎた後でも、これまでにない慎重さと暗黙のソーシャルディスタンシングがファッションに現れるようになるかもしれない。

仕事

「仕事は人に存在意義と目的を与えてくれる。仕事なしでは人生は空虚だ」とStephen Hawking(スティーブン・ホーキング)博士は語った。この言葉に同意するかどうかはともかく、確かに人は人生の大半を仕事との関わりの中で生きている。新型コロナウイルス感染症よって人間から仕事が奪われてロボットへシフトする機械化が加速しているが、同時に、人はそのことに感謝もしている。ロボットのおかげで重要なサービスの提供を継続でき、ウイルスとの接触を回避できるからだ。中国の無人小型トラックメーカーNeolixは、パンデミック以降、引き合いが急増しており、食料や医療用品の運搬や市街地の殺菌消毒などの業務を委託されている。AMPUVD、そしてNuro(ニューロ)やStarship(スターシップ)といったサプライヤーでも同様に需要が増大しているが、Harmonic Drive(ハーモニックドライブ)やファナックなどの業界大手の注文状況を見ると、業界全体で需要が増えていることがわかる。今年の第1四半期のファナックの受注量は昨年の第4四半期から7%増加した。

この傾向は肉体労働に限った話ではない。顧客サポート部門やモデレーション部門が閉鎖される中、多くの企業がAIソリューションを積極的に導入している。Facebook(フェイスブック)とGoogle(グーグル)は自動モデレーションを拡大したし、PayPal(ペイパル)は、ここ数週間の顧客からの問い合わせのうち65%をチャットボットで対応した。これは同社の最高記録だ。

幸い仕事を失わずに済んだ人も仕事の環境がこれまでとは一変するかもしれない。ロボットとの協業を強いられ、機械化されたシステムの一部として扱われることが多くなるだろう。Walmart(ウォルマート)では受付係が自動フロア清掃ロボットと並んで仕事をするようになるだろうし、マクドナルドの調理係はキッチンの至るところでロボット副料理長と一緒に仕事をすることになるかもしれない。Amazon(アマゾン)の倉庫係は、Kiva Systems(キヴァシステムズ)買収のおかげでロボットとの協業にはすでに熟練しているが、今後は、温度カメラで温度管理された倉庫内でパレット運搬係と同じように管理されることに慣れる必要があるだろう。これは、世界各国およびあらゆる業界で取り組みが進んでいる広範な監視キャンペーンのごく一部にすぎない。中国では、人の出入りを監視するカメラの設置台数を増やしており、企業は社員を監視するための「tattleware(上司用監視)」ソフトウェアの購入に予算を割いている。こうした傾向の恩恵を受けるのは、分刻みで社員のオンラインでの仕事ぶりを監視するInterGuard(インターガード)などの企業だ。Sneekでは、最大で1分に1回、作業員の写真が撮影される。SneekのCEOは、「sneeksnapコマンドは、同僚が鼻をほじるなど、ちょっとばつの悪いことをしたときに特に便利だ」と冗談を飛ばした。

健康

人は目覚めている時間の大半を、健康のことを考えて過ごしている。自分の弱い部分に対する意識が強くなると、肉体的な限界を引き上げてくれるテクノロジーに注目し始め、まるでお試しソフトを使うかのように、自分の体でいろいろなテクノロジーを試すようになる。ビタミンCや亜鉛などの免疫力向上サプリメントへの関心が高まっており、そのようなサプリメントの売り上げは今、うなぎ登りだ。さらには、インフルエンサーが宣伝しているオゾン注腸療法などのリスクの高い方法も注目を集めている。トランプ大統領やブラジルのJair Bolsonaro(ジャイール・ボルソナーロ)大統領をはじめとする世界のリーダーたちが推奨したことがきっかけで、ヒドロキシクロロキンの需要も急増し、処方回数は5倍増になっている

大統領の意見や問題となっている療法についてどう感じるかはさておき、これらはスピード重視の反復型治療であり、熟考されるFDAの承認プロセスよりもシリコンバレーの合言葉「素早く動き、破壊せよ!」に近い。健康リスクに対して極めて寛容なことで知られるBiohackingコミュニティは、空き時間にオンラインで協力して新型コロナウイルスワクチンの研究開発に取り組んでいる。「Biohackingはかつては似非科学コミュニティだったが、DIYバイオロジー、コミュニティラボ、ハッカースペースなどの領域で、ある意味大ブレークしようとしている」とあるコントリビュータはいう。

直接試すという方法以外にも、想定外の未来にも対応できるように今から肉体の限界を引き上げておくことにも注目が集まっている。自宅隔離が続く今、生殖能力低下への不安を抱えている、あるいは将来が見通せない今の状況では子づくりは難しいと感じる男性が、Legacy(レガシー)などの企業が提供している在宅精子凍結サービスの利用に関心を示しているという。また、Modern Fertility(モダンファティリティ)とSoFi(ソフィー)が1894人の女性を対象に行ったアンケート調査でも同様の結果が出た。このアンケートでは、31%がパンデミックによって妊活プランが影響を受けたと回答し、41%が新型コロナウイルスが原因で子づくりを遅らせるつもりだと回答した。

​恋愛

「問題は私が独身で、これからも独身でいる可能性が高いことではない。私が孤独で、これからも孤独でいる可能性が高いことが問題なのだ」と小説家のCharlotte Brontë(シャーロット・ブロンテ)は書いた。

現在の状況では、彼女が書いたこの悲惨な状態から抜け出す方法があまり見当たらないため、AIコンパニオンに注目する人もいる。2015年に開発されたReplikaは、共感的なテキストメッセージを送ることでデジタルセラピストとしてのサービスを提供するチャットボットである。月間50万人にのぼるアクティブユーザーたちにとって、Replikaはあまりにも魅力的すぎて抵抗できない存在のようだ。アクティブなユーザーの40%がこのチャットボットを恋人だと思っている。新型コロナウイルスは、人とAIパーソナリティの間の関係を深めるのに理想的な触媒として機能するのかもしれない。本当のパートナーよりもAIパートナーのほうに愛情を感じるという兆候がすでに出始めている。マイクロソフトのチャットボット「Xiaoice」に関する研究によると、Xiaoiceとの会話のほうが人間どうしの会話より長続きするという。

生身の人間との愛を見つけることにエネルギーを注いできた人たちにとって、今回のパンデミックは恋人と会うことの意味をいや応なく考え直す機会となった。対話は、チャットやテレビ電話など、ほとんどオンラインで行われるため、相手に求める条件も変わってくる。住んでいる場所は重要ではなくなり、いつでも話せること、答えがすぐに返ってくることが重要になる。触れたいという願望(気持ち悪い言い方をすれば「肌への渇望」)が御しがたくなると、当事者は何とかして実際に会おうとする。その過程で、人はパートナーを潜在的な脅威、つまり、意図は良くても自分を危険にさらす可能性のある肉体の持ち主とみなす。その際、個人を肉体と切り離して見るようになる。肉体は、交渉する必要のある法的責任を保持する独立した存在となる。パンデミックの期間が長くなると、このような恐怖が無意識の嫌悪感と化し、もっと禁欲的な時代に存在していた、肉体に対する嫌悪感がよみがえってくる。このような道徳観を修正するには時間を要する。

今、自己は壊滅的な被害を受けている。ただ、それは悪いことではないかもしれない。アイデンティティーがオンラインに移り、仕事が奪われ、物理的な肉体がOSのように最適化され、愛から肉欲がそぎ落とされるとき、新しい機会が生まれるだろう。人は新しい自己表現方法に意味を見出し、仕事を超えた目的意識を見つけ(または仕事の意味を定義し直し)、「生物学が世界を席巻する」のにともない肉体的な限界が引き上げられ、新しい存在に愛情を見出すようになるだろう。我々は今、シュンペーター学派のいう「創造的破壊」の時代を生きており、それを産業的なレベルではなく人類学的なレベルで感じている。ここから素晴らしいことが起きるかもしれない。

FM-2030にとって、未来とは驚くべき場所であった。そこでは「人々は特定の家族や派閥に属することなく、地球全体を、さらには地球外まで自由に流れるように動き回る。個人が尊重されると同時に全体性も維持される」と彼は考えていた。新型コロナウイルスがもたらした変化は人類に暗い影を落としたが、FMが描いていたビジョンの中には今、実現しているものもある。人類は今まさに世界中で一致団結し、かつてない結束力で共通の敵に立ち向かっている。おそらく、時間が経てば、FMの残りの夢も実現するだろう。

ただし、FM-2030の先見の明をもってしても、1つの予測だけは大きく外れてしまった。2000年に膵臓がんで亡くなったFMは100歳の誕生日を迎えることはできなかった。享年わずか69歳。もし100歳まで生きていたら、今でも未来を創造する役割を担っていただろう。FMの遺体は人体冷凍によりアリゾナ州スコッツデールに保存されている。もしかしたらそこで、彼は世界が自分に追いつくのを待っているのかもしれない。

関連記事:合成音声に人間の深い感情を吹き込むSonantic、本当に人が泣いているかのような表現も可能に

Category:人工知能・AI

Tag:コラム

[原文へ]

(翻訳:Dragonfly)

IBMが顔認識技術から撤退、CEOは偏向と不平等の廃絶を訴える

米国時間6月8日、IBMのCEOであるArvind Krishna(アービンド・クリシュナ)氏は、今後、同社は顔認識サービスを販売せず、そもそもそれを使うべきか否かに関する「国民的議論」を、と呼びかけた。彼はまた、警察の暴力を減らしその説明責任を高める新しい法案の支持を表明した。

CNBCが報じた書簡の中で、6月8日に導入程された法案「Justice in Policing Act」(米国下院司法委員会プレスリリース)の支持を表明する中で、サービスとしての顔認識技術という議論の余地の大きい事業からの撤退について説明している。

IBMは、監視社会や人種判別、基本的人権と自由への違反のために他のベンダーから提供され、あるいはまたは私たちの価値観および弊社のPrinciples of Trust and Transparency(信頼と透明性原則)と整合しない、顔認識技術などいかなる技術の利用も認めない。私たちは今こそ、顔認識技術を我が国の法執行機関が採用すべきか否か、採用するとしたらどのように採用すべきかに関する国民的対話を始めるべき時であると信じる。

このような技術の実用化に関する慎重なアプローチは、新しいものではない。2019年にIBMは、現在利用できるどんな顔データよりも多様性に富む顔データの新しいデータベース(未訳記事)でそれを強調した。結局のところ、他のプログラムと同様にシステムの価値はそこに供給する情報の価値と同程度しかない。

関連記事:IBM builds a more diverse million-face data set to help reduce bias in AI(未訳記事)

しかしながら、顔認識は同社の収益性にあまり貢献していないようだ。率直にいってこの技術はまだ初期段階であり、IBMのようなエンタープライズベンダーにとって意味のあるアプリケーションはほとんどない。議論を招いたAmazonのRekognitionサービスは一部の法執行機関で試用されたが、評判は良くない。まだ十分な実用性が認められていない製品分野で他社と競合することは、IBMにとって割に合わない事業行為だろう。

クリシュナ氏の書簡ではさらに「AIシステムのベンダーとユーザーは、AIが偏向に関して十分テストされていることに対する責任を共有している。それが法執行機関で使われるときにはなおさらであり、またそのような偏向試験は監査され報告されなければならない」と述べている。この発言は現在この分野に関係する人や企業、中でもAmazonに対する決別のようであり、顔認識技術のお粗末な品質と、それにも関わらず販売を止めようとしない人々に対して投げかけられている。今後、同社がこの方向でAIに関する研究を続けていくかは不明だ。

クリシュナ氏が支持を表明している法案には、下院と上院で相当数の共同起草者がおり、警察と彼らが監視する一般市民が直面する多様な問題をとり上げている。特にテクノロジー方面ではボディカメラの要件を拡大するとともに、それらで撮った写真に顔認識技術を使うことを制限している。ハードウェアに対する政府の補助はありえるが、ただしそれは公的に定められ列挙されたプロトコルの下で使われる場合に限られる。

ACLU(アメリカ市民的自由連合)はこの法案に関する声明で、ほぼ同意しているようだ。声明では「デジタルの格差をなくす技術への投資が必要であり、警察権の濫用や構造的な人種差別を激化させる監視社会のインフラストラクチャを作る技術は要らない」と述べている。

[原文へ]
(翻訳:iwatani、a.k.a. hiwa

ディープフェイクテキストが国家の危機を増幅する

編集部注:本稿はJinyan Zang氏、Latanya Sweeney氏、Max Weiss氏による寄稿記事である。Zang氏はハーバード大学のData Privacy Labの研究者、Sweeney氏はハーバード大学で「政府とテクノロジー」を専門にする教授、Weiss氏は今回のディープフェイクテキスト実験を実施したハーバード大学の学生だ。

—–

米国の連邦政府機関は国内における新型コロナウイルスのパンデミック拡大を阻止しようとさまざまな措置を講じており、その厳しさは増すばかりだ。連邦政府により策定される規則の影響を受ける米国民と企業は、自分たちの意見や経験をどのように政府に伝えることができるのだろうか。移動の制限監視の強化などをはじめとする新たな規則の多くは、施行に際して連邦政府の権限を平時よりも拡大する必要がある。このような場合、米国の法律では、連邦政府が規則案を一般に公開し、国民がオンラインで意見を投稿できるようにすることが義務付けられている。しかし、米国の民主主義にとって不可欠な仕組みである連邦政府のパブリックコメントウェブサイトは、今回のような危機に際して安全に機能するのだろうか。ボットによる攻撃に対して脆弱ではないだろうか。

2019年12月、筆者らは、自動化された攻撃に対するパブリックコメントプロセスの脆弱性に関する実調査についてまとめた新しい研究論文を発表した。この調査では、誰でも利用できる人工知能を使用してディープフェイクテキスト(コンピュータが深層学習により人間の発言を模倣して生成するテキスト)によるコメントを1001件生成し、それを実際にアイダホ州のメディケイド被保険者に就業状況報告を義務付ける連邦規則案に関するパブリックコメントを募集するためにCenters for Medicare & Medicaid Services(メディケア・メディケイド・サービス・センター、CMS)が開設したウェブサイトに投稿するという実験を行った。

ディープフェイクテキストを使用して作成したコメントは連邦パブリックコメント期間中に投稿されたコメント総数1810件の55%以上を占めた。筆者らは、その後の追跡調査で、これらのコメントがボットによるものだと思うか、実際に人が書いたものだと思うかを尋ねるアンケートを実施した。回答者の正答率は50%、当てずっぽうで答えたときの確率と同じだった。

Image Credits: Zang/Weiss/Sweeney

上記はボットによって生成されたディープフェイクテキストの例だ。アンケート回答者全員がこのテキストは人が書いたものと判断した。

筆者らは実験終了後、ディープフェイクコメントを投稿したことをCMSに通知し、それらのコメントを投稿履歴から削除したが、悪意のある攻撃者がそれと同じことをするとは思えない。

連邦ウェブサイトに対する大規模なフェイクコメント攻撃は過去にもあった。例えば、2017年、ネット中立性規制を撤廃する規則案について、連邦通信委員会(FCC)のウェブサイトに対してフェイクコメント攻撃が行われたことがある。

ネット中立性規則に関するパブリックコメント期間中、通信業界団体のBroadband for America(ブロードバンド・フォー・アメリカ)に雇われた複数の企業が、ボットを利用してネット中立性規則の撤廃を支持するコメントを作成したのだ。こうして投稿された数百万件のコメント(中にはすでに亡くなっている有権者や架空の人物になりすましたものもあった)によって、世論がねじ曲げられたのである。

ネット中立性に関するコメントを事後にテキスト解析したみたところ、FCCのネット中立性撤廃案に対する2200万件を超えるコメントのうち実に96~97%がボットを使ったコメント操作だった可能性が高いことがわかった。このコメント操作では比較的単純で目立つ検索・置換方式が使われていたため、FCCのように膨大な数のコメントが投稿された場合でも容易に検出できたはずだ。しかし、調査の結果、簡単な検索・置換方式で作成された不正なコメントであることが判明した後も、FCCはそれらのコメントを正当なパブリックコメントとして受理していた。

このように、比較的単純な方法でも連邦政府の政策決定に影響を与えることができたという前例がある。しかし、ボットによるディープフェイクテキスト投稿がもたらす脅威について筆者らが行った実験から、今後の攻撃はより高度で検出困難になる可能性が明らかになった。

パブリックコメントに関する法律と政策

はっきりさせておこう。自分たちの要求を伝えそれを検討してもらうことができる仕組みは民主主義モデルの根幹である。憲法に明記され、人権擁護団体によって厳密に保護されているとおり、すべての米国民は、投票、自己表現、異議申し立てなどにより、政府に参加する役割を保証されている。

Image Credits: Zang/Weiss/Sweeney

連邦政府機関が全米市民に影響を与える新しい規則を策定する際には、規則案によって最も影響を受ける一般市民、権利擁護団体や企業が連邦機関に対して懸念を表明できるようにパブリックコメント期間を設け、その規則について最終決定を行う前にそれらのコメントを検討することが法律で義務付けられている。このようなパブリックコメントの義務化は、1946年の行政手続法の成立により導入され、2002年には電子政府法により、連邦政府はパブリックコメントを受信するオンラインツールを作成することを求められるようになった。それ以来、投稿されたコメントを実際に調査したことを証明すること、およびパブリックコメントに基づいて下した決定に関連する分析結果や決定の正当性を示すものを開示することを連邦政府に要求する判決がいくつも下されている[Overton Park保護団体対Volpe 401 U. S. 402, 416(1971)Home Box Office対FCC 567 F.2d at 36(1977)Thompson対Clark 741 F. 2d 401, 408(CADC 1984)を参照のこと]。

実は、筆者らがCMSのパブリックコメントサイトでディープフェイクテキスト投稿に対する脆弱性をテストしたのは、2019年6月、米国最高裁が7対1で「CMSは、州内でのメディケイド資格取得規則に就業状況報告義務を追加するという州政府の提案を検討する際に、行政手続法のパブリックコメント検討義務を省略することはできない」という判決を下したからだ。

政治学者の研究によると、パブリックコメントは連邦政府機関による最終決定に大きな影響を及ぼす可能性がある。例えば、ハーバード大学が2018年に行った調査によると、連邦準備制度が定めるドッド-フランク法関連規則についてコメントを投稿した銀行は、コメントしなかった銀行よりも70億ドル(約7600億円)多い超過リターンを獲得していたことが判明した。さらに、同調査においてボルカー規則とデビッドカード交換規則について投稿されたコメントを分析した結果、さまざまな銀行から投稿されたコメントが、初期草案から最終案に至る「不透明なプロセス」に重大な影響を与えたことがわかった。

2017年のネット中立性撤廃規則では、業界団体のブロードバンド・フォー・アメリカが、正式な社名を使って直接コメントするだけでなく、ネット中立性撤廃を支持する数百万件のフェイクコメントを投稿することで、FCCの規則案が米国市民によって広範に支持されているという誤った認識を作り上げた。

ディープフェイクテキストによるパブリックコメントへの投稿を阻止するテクノロジー

筆者らの研究はディープフェイクテキストの脅威がパブリックコメントウェブサイトに混乱をもたらすことを示しているが、これは、長年にわたり米国の民主主義を支えてきたパブリックコメントウェブサイトという仕組みを終わらせるべきだということではない。テクノロジーを活用して、人間が書いたパブリックコメントのみを受け入れ、ボットによるディープフェイクテキストは拒否する革新的なソリューションを実現する方法を見つける必要がある。

パブリックコメントプロセスには、コメントの投稿とコメントの受理という2つの段階があり、どちらの段階でもテクノロジーを活用して問題を解決できる可能性がある。

まず、コメントの投稿という最初の段階にテクノロジーを利用することで、そもそもボットがディープフェイクコメントを投稿するのを阻止できる。そうなると、攻撃者はボットの代わりに大勢の人を使わざるを得なくなり、コストが高くなって攻撃自体が割に合わなくなる。すでに広く浸透しているソリューションの1つにCAPTCHAボックスがある。インターネット上の入力フォームの末尾で、ある単語を視覚的に判読するか音声で判別するように求め、正解した場合にのみ送信をクリックできるようにする仕組みだ。CAPTCHAでは余分な手順の追加によりボットによる送信実行が困難になる。こうしたツールは、障がい者でも使えるように改善する余地はあるものの、正しい方向への一歩といえるだろう。

ただし、海外の安い労働力を使ってCAPTCHAの入力を行わせディープフェイクコメントを投稿するという手段を取られたら、CAPTCHAでは攻撃を阻止できない。これに対抗する1つの方法として、コメントを投稿するたびに毎回厳密な個人情報の入力を求めるという方法が考えられるが、その方法だと、CMSやFDA(食品医薬品局)によって現在行われている匿名コメントの受け付けが不可能になる。匿名コメントは、ヘルスケアなどのデリケートな問題に関する規則案によって多大な影響を被る可能性のある個人がプライバシーを守りつつコメントする方法として有用だ。したがって、ユーザーの認証手順とコメントの投稿手順を切り離して、認証された個人だけがコメントを匿名で投稿できるようにすることが技術的な課題となるだろう。

最後に、第2段階のコメントの受理においては、より高度なテクノロジーによって、ディープフェイクテキストと人間による投稿を識別できる。筆者らの研究では100人を超える調査対象者がディープフェイクテキストの例をフェイクとして判別できなかったが、より高度なスパム検出アルゴリズムが登場すれば、判別率は向上するだろう。今後、機械学習による手法が進歩するにつれ、ディープフェイクテキストの生成アルゴリズム開発と判別アルゴリズム開発がせめぎ合うようになるかもしれない。

当面の課題

将来、テクノロジーの進歩によってさらに包括的なソリューションが可能になるとはいえ、ディープフェイクテキストが米国の民主主義に及ぼす影響は現在進行中の脅威である。そのため、連邦政府のすべてのパブリックコメントウェブサイトで、当面のセキュリティ措置として最新のCAPTCHAを採用することを推奨したい。この方針は、米国上院調査委員会のReport on Abuses of the Federal Notice-and-Comment Rulemaking Process(連邦告知とコメント規則策定プロセスの乱用に関する報告)でも支持されている。

加えて、より優れたテクノロジーソリューションを開発するために、政府、研究者、民間のイノベーターという産学官の連携を確立する必要がある。ハーバード大学が、他の20の教育機関およびニューアメリカ財団、フォード財団、ヒューレット財団と共にPublic Interest Technology University Network(パブリックインタレストテクノロジー大学ネットワーク)に参加したのもそのためだ。このネットワークは、公益に資することを目指す新世代の技術者や政策担当者を支援することに専念している。さまざまなカリキュラム、研究および実験的な学習プログラムを通して、パブリックインタレストテクノロジーという分野を構築するのが目的だ。将来的には、最初から公共の利益を考えてテクノロジーの開発と規制が行われるようになることを目指している。

新型コロナウイルスによって米国社会のさまざまな部分が大きな打撃を受けたが、トランプ政権下の連邦機関が規制緩和規則を提案する動きは弱まっておらず、それらの緩和規則が及ぼす影響は現在のパンデミック収束後も長く続くだろう。例えば、2020年5月18日に環境保護庁(EPA)が、EPAによる規制の支持に使用できる研究調査の制限に関して新しい規則を提案したが、この規制案には2020年4月6日時点で61万件のコメントが寄せられている。また、2020年4月2日には、教育省がオンライン教育と遠隔教育に関する規制を恒久的に緩和する新しい規則を提案した。さらに、2017年に2200万件ものボット生成コメントが投稿されたFCCのネット中立性規則に関するパブリックコメントは、「FCCはネット中立性規則の廃止が公共の安全と低所得者向け携帯電話アクセスプログラムに及ぼす影響を無視した」という連邦裁判所の判決をうけて、2020年2月19日にコメント募集が再開された。

連邦機関のパブリックコメントサイトは、規則の最終案が決定される前に米国の市民と団体が連邦機関に対して懸念を表明する唯一の手段だ。より高度なテクノロジーを活用して不正防止を図ることにより、国家の危機の際に米国の民主主義がディープフェイクテキストによってさらなる脅威にさらされるという事態を防ぐ必要がある。

“新型コロナウイルス

関連記事:Facebookが10億円超を投じてディープフェイクの識別に賞金

Category:パブリック 人工知能・AI

Tag:ディープフェイク ディープラーニング

[原文へ]

(翻訳:Dragonfly)

仕事に必要な情報をメール、Slack、クラウド、リポジトリなどから発掘するAI検索のSearchable.ai

Searchable.ai(サーチャブルai)はアーリーステージのスタートアップで、最初のプロダクトのアルファテストを進めている。同社は、新型コロナウイルスのパンデミックの中でも投資を引き付けるだけの説得力あるアイデアを持っている。同社は6月4日、AI検索ソリューションの開発継続のため、シードマネーとしてさらに400万ドル(約4億4000万円)の調達を発表した。

Susquehanna International GroupとOmicron Mediaが共同でラウンドをリードし、Defy Partners、NextView Ventures、および氏名未公表のエンジェル投資家が参加した。本日の投資は、10月に発表した200万ドル(約2億2000万円)のシードマネーに続く調達となる。

同社の共同創設者兼CEOのBrian Shin(ブライアン・シン)氏は「3月上旬、すべてが閉鎖される前に出席した最後のイベントで投資家にプレゼンテーションを行った際、投資家が追加の投資について持ちかけてきた。経済の不確実性を考慮し、調達することを決めた」と語った。「正直、マクロ環境の不確実性がなければ、追加で調達することはなかっただろう」と同氏はTechCrunchに語った。

同社はエンタープライズサーチのソリューション開発を試みている。会社はまだ売上を計上していないため、追加資金によってプロダクトの開発や市場投入の余裕が生まれると考えた。

「当社は人々の『仕事に必要な情報が見つけられない』という問題を解決しようとしている。この問題は職場で悪化の一途をたどっている。フォーマットの種類が増え、データの格納場所もローカルネットワーク、クラウドリポジトリ、電子メール、Slack(スラック)などと多様化しているからだ」。

現在、アルファプログラムには数千人が参加している。テストしているアプリケーションのパーソナルデスクトップバージョンは、コンテンツがどこにあろうと容易に見つけられる。今後より多くのユーザーに開放する計画だ。

同社のロードマップには、複数の従業員がお互いのリポジトリーを検索できる「チームバージョン」の構想がある。また、検索技術をほかのオペレーションに組み込む「開発者バージョン」もある。そして最終的にはエンタープライズツールだ。Alexa(アレクサ)を利用した音声検索も加えたいと考えている。その根底には、キーワード検索を超えて、より自然言語的なアプローチに移行する必要があるとの考えがある。

「我々は、全く新しいカテゴリーを形成する会話志向の検索、検索会社、検索プロダクトが生まれると信じている。もっと自然に、もっと会話をするような感じで情報と相互にやり取りできるようになる。市場はそういう方向に進むと我々は考えている」とシン氏は述べた。

同社は今、ビジョン達成のため、より多くの資金を手元に確保した。

画像クレジット:Zap Art / Getty Images

[原文へ]

(翻訳:Mizoguchi

AIがカメラ映像から密集度と群衆人数をリアルタイム解析、Elixが新型コロナ対策として開発

Elix(エリックス)は6月4日、群衆人数や人物同士の密集度合いの計測を可能とするAIソリューションを発表した。本日より、法人や自治体などを対象に試験提供を開始する。

同ソリューションは、新型コロナウイルス(COVID-19)感染防止対策の一環として開発されたもので、カメラが捉えた映像内の人物の数や位置情報を把握することで、群衆の検知、人物同士の密集度をリアルタイムで推定する。必要に応じてマスクの有無の検知など、導入企業に併せたカスタマイズも可能とのこと。同社は、ショッピングモールなどの商業施設やイベント会場、公共施設、オフィスビル、工場などでの利用を想定している。

同社代表の結城伸哉氏はニュースリリース内で「有効なワクチンが開発され、世界中の人々に行き渡るまでには 年単位での時間がかかると考えられます。この間、感染者数を抑える上でおそらく最も有効な手段はソーシャルディスタンシングです」と語る。「これ以上経済的損失を拡大させないためにも、ソーシャルディスタンシングを行いつつ経済活動を続けていくことが重要であり、少しでもその役に立てればという想いでこのプロダクトを開発いたしました」と続ける。

Elixは、AIやディープラーニングの技術を擁する2016年11月設立のスタートアップ。これまで、AIによる創薬や材料開発、コンピュータービジョン(画像認識)に注力した事業を展開。そのほか、自動運転やADAS(先進運転支援システム)向けのモデル開発、大企業の研究開発部門などの向けたコンサルティング、モデル開発・改良、モデルのライセンス提供なども行っている。

関連記事
Withコロナ時代の寵児となるか、オフィスの密度センサー開発のVergeSenseが9.7億円調達
群衆写真中の小さな顔の位置を特定する新技術をカーネギーメロン大学が開発

AIは新型コロナを打ち破るだろう、でもプライバシーを犠牲にしてはならない

編集部注:本稿はPhilip N. Howard(フィリップ・N・ハワード)氏とLisa-Maria Neudert(リサ-マリア・ニューデルト)氏による寄稿記事である。ハワード氏はOxford Internet Institute(オックスフォードインターネット研究所)所長。ニューデルト氏は、オックスフォード大学のオックスフォードインターネット研究所でComputational Propaganda Projectに取り組む研究者だ。

—–

韓国は新型コロナウイルスの感染拡大速度を低下させることに成功した。大規模な隔離対策と検査の実施に加えて、革新的な方法でテクノロジーを活用したことが韓国における同感染症の拡大抑止に大きく貢献したと言われている。欧州各国や米国が悪戦苦闘する中、多くの国々は、現在および今後長期にわたって疫学研究を推進し公衆衛生を管理するためのツールとしてAIに注目し始めており、接触者追跡、症状追跡、免疫証明などの用途に利用するための技術ソリューションの開発が進められている。このようなテクノロジーがあると心強いのは確かだが、その利用によって人権が侵害されるようなことがあってはならない。

韓国政府は、クレジットカード取引から、監視カメラ映像や携帯電話の位置情報に至るまで、数百万に及ぶデータポイントを分析し、市民のプライバシーに踏み込んだ個人データを広範囲に集めた。韓国のMinistry of the Interior and Safety(行政安全部)は、自主隔離中の市民のGPSデータを政府職員に通知するスマートフォンアプリまで開発した。隔離中の人が指定された「電子フェンス」の外に出ると、アプリから政府職員に警告メッセージが送信される。このような大規模な監視がプライバシーとセキュリティに与える影響は、深く憂慮すべきものだ。

ウイルス拡散防止のために個人データを活用している国は韓国だけではない。中国、イラン、イスラエル、イタリア、ポーランド、シンガポール、台湾などの国々も、携帯電話から収集された位置情報データを、新型コロナウイルスと戦うために開発されたさまざまなアプリケーションに利用してきた。人工知能と機械学習が駆使されたこれらのデータは、社会統制や社会監視に利用すべきでないばかりか、移動パターンの予測、アウトブレイクが予想されるホットスポットのピンポイント特定、感染経路のモデル化、または免疫予測にも利用してはならない。

人権とデータプライバシーへの影響は、新型コロナウイルスが終息した後もずっと長く続く。差し迫る脅威に立ち向かうための一時的な対策として導入された、大規模なデータ共有、観察、監視が、現代社会における生活の一部として定着する可能性がある。将来起こり得る公衆衛生の非常事態から市民を守るという建前で、期間限定のアプリケーションが恒久化されるかもしれない。少なくとも、政府が焦って未成熟な技術を導入することを決め、場合によってはその使用を法で義務づけるようなことをすると、危険な先例を作ってしまうことになる。

とはいえ、そのようなデータやAIを駆使したアプリケーションは、新型コロナウイルスとの戦いにおいて前進していくうえで有用なものになり得るし、政府は、匿名化されて個人特定が不可能な個人データから、公衆衛生を脅かすこの未曽有の非常事態を乗り切るための貴重な知見を得られる。ホワイトハウスは、携帯電話から収集できる集団レベルの匿名位置データの活用方法について、さまざまなテクノロジー企業と活発に協議しているようだ。英国政府は、位置情報と利用データの活用について携帯電話会社と話し合っている。いつもは先頭に立ってデータ権利を擁護するドイツでさえ、健康管理用の端末やスマートウォッチからのデータ供与を活用して新型コロナウイルスの地理的な拡散状況を見極めるという、賛否両論あるアプリを導入した

大手テクノロジー企業も救助に駆けつけている。Google(グーグル)は140以上の国々で、店舗、娯楽施設、職場、住宅地などの場所における人々の移動傾向を知ることができる「コミュニティモビリティレポート」を公開している。Apple(アップル)とグーグルは接触者追跡アプリを共同開発し、APIなどの開発者ツールキットをリリースしたばかりだ。Facebook(フェイスブック)は、ユーザーの位置情報に基づいて地方自治体、緊急対応機関、法執行機関が通知を送信できる「ローカルアラート」機能を展開している。

市民の健康状態や位置情報に関するデータ開示がこれ以上ないほど個人特定に近づいていることは明らかだ。このようなデータを活用するアプリケーションには大きな潜在的メリットもあるが、その不正利用や悪用に関する懸念も同じくらい大きい。データ保護にはセーフガード(おそらく最も進んでいるのは欧州のGDPRだろう)が存在するが、政府は国家の有事に際して例外措置を設ける権利を持っている。さらに、民主制においてAIを合法的かつ倫理的に利用するための枠組みは(すでに存在していればの話だが)それほど確立されていない

政府が社会統制、アウトブレイク予測、感染追跡を実施するのに役立つ可能性があるアプリケーションは数多くあり、役立ちそうなものもあれば、そうでないものもある。接触者追跡アプリは欧州各国や米国で政府が今最も注目しているものだ。分散プライバシー保護接近追跡(DP3T)という、Bluetoothを使ったアプローチでは、同意したユーザーが、安全な分散型プロトコルを使って、公衆衛生当局にデータを提供できる。すでにEuropean Commission(欧州委員会)が、分散型アプローチを推奨する「接触者追跡アプリケーションに関する指針」を発表している。言うまでもなく、EU加盟国は、このようなツールの導入にあたり、中央集中型かどうかに関わらず、GDPRを順守しなければならない。

オーストリア、イタリア、スイスは、アップルとグーグルが開発した分散型アプローチを採用する計画であることを表明している。ドイツは最近、現在進行中の国民による議論とプライバシー専門家からの厳重な警告をうけて、中央集中型アプリの導入計画を中止し、代わりに分散型アプリを採用することを発表した。しかし、フランスとノルウェーは、機密性の高い個人データが中央サーバーに保存される中央集中型システムを使用している。

英国政府も中央集中型アプローチによるアプリの開発を進めており、現在ワイト島で実証実験を行っている。National Health Service(国民保険サービス、NHS)の一機関であるNHSXはこのアプリを、感染が疑われる市民に保健当局の職員が直接、個人ベースで連絡できる仕様にする予定だ。収集されたデータをどのように使用するか、他のデータソースと結合させて使うかどうか、といったことは現時点ではまだ不明である。現行の規定によると、英国はEU離脱の移行期間が終了する2020年12月まで引き続きGDPRを順守しなければならない。

政府主導の取り組みとは別に、接触者追跡やその他の方法によるアウトブレイク阻止を目的としたアプリやウェブサイトが無数に出現するという困った事態が生じている。このようなアプリやウェブサイトは、個人データの任意提供を市民に求める一方で、プライバシーやセキュリティ性能は(たとえあったとしても)ほとんどないに等しく、機能性に欠けることは言うまでもない。善意により開発されていることは間違いないが、このようなツールは趣味でアプリ開発をしている人やアマチュアのハッカソンイベントによって生み出されている場合が多い。

有用なシステムとそうでないものを選別するのは簡単ではなく、おそらく政府にはその選別能力はない。現時点で、人工知能、特にガバナンスにおける人工知能の使用は、公的機関にとっていまだに不慣れな分野である。切羽詰まった規制当局は、さまざまなAIシステムについて、その正当性やより広範囲に及ぶ影響を民主主義的価値に照らして評価するのに四苦八苦している。十分な調達ガイドラインや法的枠組みがまだ整備されていないため、政府はAI導入に関する決定―今こそ最も必要とされている決定―を下すための準備ができていない。

さらに悪いことに、9・11同時多発テロ事件後の保安強化措置とは異なり、AI主導アプリケーションをひとたび世に送り出してしまうと、それを元に引きもどすことは難しい。新型コロナウイルスの第二波や迫り来る別のパンデミックを回避するには個人データを使用することが必要だと政府が主張する可能性もある

規制当局が新型コロナウイルス危機の間にAIに特化した新たな規制を策定する可能性は低いため、今後も前に進み続けるには、少なくとも今、「公衆衛生の危機に対処するために開発されるあらゆるAIアプリケーションは、公衆衛生研究者や公共科学機関によって公益のために保持される関連データ、アルゴリズム、入出力内容も含めて、最終的には公共アプリケーションになるものとする」という合意を形成しておく必要がある。新型コロナウイルス感染症パンデミックを出しにして、プライバシー規制を破ることや、一般市民から貴重なデータを吸い上げることは許されない。

治療の提供や公衆衛生の非常事態収束に最先端のAIを活用してほしいと、誰もが願っている。新型コロナウイルスによって人々の命が失われている今は、個人のプライバシーやAIの人権に関する短期的リスクへの注目度が下がるのも当然だ。しかし、新型コロナウイルスをめぐる事態が収束したら、すべての人が個人のプライバシーを取り戻し、権利を回復させたいはずだ。民主主義下の政府や企業がこの問題に取り組みつつ、体制の強さを保ちたいなら、アプリがどのように機能するかをすべての人が観察する必要があり、公衆衛生に関するデータが医療研究者のところに集まるようにする必要があり、一般市民が追跡システムの監査や無効化を実行できなければならない。AIは長期的に見て優れたガバナンスに寄与するものでなければならないのだ。

新型コロナウイルス感染症パンデミックは、最優先で取り組むべき公衆衛生の非常事態であり、今後、何十年にもわたってガバナンスに大きな影響を及ぼすことだろう。また、このパンデミックにより、現行システムの大きな欠点も浮き彫りになっている。AIはすでに実用できる段階にあり、これからさらに強力なAI主導アプリケーションが開発されていく。しかし、政府には、その民主的利用を実現する能力がまだ備わっていない。世界規模のパンデミックが及ぼす計り知れない影響を目の当たりにしている今、急場しのぎの政策立案だけでは優れたガバナンスを実践するには不十分だが、でもそれが、現時点で手が届く最善の解決策なのかもしれない。

“新型コロナウイルス

Category:人工知能・AI

Tag:接触者追跡 新型コロナウイルス

[原文へ]

(翻訳:Dragonfly)

山火事のシーズンが近づく中、AIが衛星画像を使って危険な地域を教える

地球温暖化と天候パターンの変化でここ数年の米国は壊滅的な山火事に苦しめられた。そしてこの、本来なら普通の自然現象は、きわめて予測不可能で深刻な災害になった。そこでスタンフォード大学の研究者たちは、機械学習と衛星画像を利用して危険な乾燥地域を調べ予報する方法を見つけた。

これまでの、山火事になりやすい森林や低木地帯の検査方法は、手作業で枝や葉を集め、その水分を調べた。それは正確で信頼できる方法だが、きわめて労働集約的で大規模な調査は難しい。

しかし幸いにも最近は、その他のデータソースを利用できる。欧州宇宙機関(European Space Agency)の人工衛星センティネルとランドサットは、地表の画像を大量に集めており、それらを詳しく分析すれば山火事のリスクを評価するための二次的なデータソースが得られる。しかもこの方法なら、木の枝の棘に刺される心配もない。

衛星画像を利用する観測方法は以前から存在するが、人間の目で判断するため極端にサイト固有の結果になりがちだ。つまり、場所によって分析方法が相当異なっている。棘の心配はないが、広い面積の調査は難しい。スタンフォードのチームが利用した新しい方法では、センティネル衛星の「合成開口レーダー」を利用して森林の林冠を貫き、その下の地表の画像を見る。

スタンフォードの生態水文学者Alexandra Konings(アレクサンドラ・コーニングス)氏はニュースリリースで「私たちの大きな突破口は、これまでよりもずっと長い波長を使う新しいタイプの衛星に着目したことです。それによって森林の林冠のずっと深いところの水分を観測できるようになり、それは燃料水分の含量を直接表しているのです」と語っている。

チームは2016年から定期的に集めたこの新しい画像を、米国林野局が手作業で計測したデータと共に機械学習のモデルに与えた。これによってモデルは、画像のさまざまな特徴と地上の測定値との相関を学習した。

次に彼らは、そうやって得られたAIエージェントに、彼らがすでに答を知っている古いデータで予報をさせ、テストをした。結果は正しかったが、そのほとんどが低木地帯で、それは米国の西部で最も多いバイオームであり、山火事になりやすい植物相でもある。

プロジェクトの結果をこの対話的なページで見ることができる。西部全域の1年の各時期における、モデルから得られた乾燥度の予報を示している。消防士にとって具体的に役に立つ、というものではないが、でも同じモデルに最新のデータを与えれば、今後の山火事シーズンに関する予報ができ、当局が延焼をコントロールし、危険な地域や安全性に関する警報をするための、情報に基づく決定ができるだろう。

研究結果は、Remote Sensing of Environmentに載っている。

画像クレジット: スタンフォード大学

[原文へ]
(翻訳:iwatani、a.k.a. hiwa