自撮りビデオをスターの顔に変えてしまうZaoをWeChatが制限

中国で先週末クチコミで広まったZaoは、ビデオの顔を他人の顔にリアルに変えてしまうアプリだが、そのポリシーをめぐる騒動のあとWeChatは、同社のメッセージングプラットホームの上でそのアプリの使用を禁じてしまった

中国で人気最高のデートアプリであるMomoの開発元が作ったZaoは、ユーザーがアップロードするセルフィービデオ(自撮りビデオ)の顔を、人気映画や音楽ビデオなどの中のセレブの顔に変えてしまう。

今は中国でしか利用できないアプリだが、ユーザーがWeChatやそのほかのソーシャルメディアでビデオをシェアすることによってどんどん広まり、同時にディープフェイク技術の悪用に関する懸念から論争も広まった。現在は削除されているZaoの最初の利用規約では「アップロードされたビデオの所有権やその他の権利がすべて永久にZaoにある」とされていたので論争にいっそう火がついた。

急速に広まったのと、セルフィーが1つだけあれば使える気安さから、ディープフェイク技術に対する関心が高まり、また、誤った情報やいじめなどの拡散も懸念された。なお、この顔変えアプリは元のセルフィーが複数あったほうが結果がいいそうだ。

今現在、Zaoで作ったビデオはWeChatにアップロードできるが、アプリをダウンロードしたり、リンクをほかのWeChatユーザーに送ろうとすると、「このウェブページは何度も報告されており、セキュリティリスクを含んでいる。安全なオンライン環境を維持するためにこのページへのアクセスをブロックした」というメッセージが表示される。

23011567479434 .pic

App Annieによると、Zaoは先週金曜日の8月30日にリリースされたあと、急速に中国の無料iOSアプリのトップになった。9月1日にZaoのWeiboアカウントにポストされた声明によると、「プライバシーに関する皆さまのご心配を十分理解している。この問題は私たちも認識しており、解決方法を考えている。あと少し、お時間をいただきたい」とある。そして今の利用規約では、ユーザーが作ったコンテンツはアプリを改良するためにのみ使用し、削除されたコンテンツはサーバーからも削除される、となっている。

今TechCrunchはZaoにコメントを求めている。

[原文へ]

(翻訳:iwatani、a.k.a. hiwa

10ドル足らずの費用でAIに国連総会の偽スピーチを書かせることができる

国連の研究員たちが、わずか8ドル足らずの費用とMLモデルの13時間の訓練により、国連総会のスピーチのそっくりさんを作るプログラムを開発した。

MITのTechnology Reviewに載ったその研究は、これもまた、今がディープフェイク(deepfake)の時代であることを示唆する例の一つであり、テキストの贋作がビデオの贋作に劣らぬ脅威でありうることを示している。簡単安価に作れるから、ビデオよりも始末に負えないかもしれない。

偽の国連スピーチを作り出すために使ったAI実験の結果

研究員のJoseph BullockとMiguel Luengo-Orozは、1970年から2015年までの間に国連総会で行われた政治家たちのスピーチの、英語による書き起こしを使って、機械学習のアルゴリズムのためのタクソノミー(分類集)を作った。

その目標は、気候変動やテロなどさまざまな話題に関するスピーチの形をしたテキストを生成できる、言語モデルを訓練することだった。

彼らのソフトウェアは、タイトルとなる話題のあるセンテンスを一つか二つ与えるだけで、一つの話題につき50から100ワードのテキストを生成できた。

目標は、一般的な話題でも、あるいは国連事務総長が行った特定の声明でも、それらをもとに本物そっくりのスピーチを作れることを示すこと。そして最終的には、そのソフトウェアが政治的に微妙な話題に関してはスピーチに脱線(主題からの逸脱)を含めることができるか、確認することだった。

やや安心できるのは、一般的で抽象的な主題ほど、アルゴリズムは良い仕事をしたことだ。総試行回数のおよそ90%は、プログラムが国連総会のスピーカーの一般的な政治的話題に関する本物の演説草稿と見紛う、もしくは特定の問題に関する事務総長のスピーチとそっくりな、テキストを生成できた。移民や人種差別などのきわどい話題に関しては、ソフトウェアは脱線をうまく扱えなかった。それは、データがその種のスピーチ発話を実効的に模倣できなかったからだ。

そして、これらの結果すべてを作り出すためにソフトウェアが要した時間は13時間、所要費用は7ドル80セントだった。(訳注: レポート原文より…The language model was trained in under 13 hours on NVIDIA K80 GPUs, costing as little as$7.80 on AWS spot instances. AWSのGPUインスタンスをスポットで使ってモデルを訓練している。)

このソフトウェアの作者たちは、テキストのディープフェイクが現実の政治に及ぼしうる影響について次のように述べている:

AI技術の普及と偏在化により、それがもたらす問題も一層複雑になっている。しかも往々にして、それらがあまりにも複雑で理解も容易でないため、そのもたらしうる危険な影響に対して多くの人びとが無関心になっている。しかしながら私たちは、普通の人間のレベルでこれらのリスクの重大性が確実に認められるよう、努めなければならない。AIに対する法と規制が緊急に必要であり、それによりリスクと危害の可能性を制限しなければならない。このことを念頭に置きつつ、この研究の意図は、AIによるテキスト生成が平和と政治的安定にもたらしうる危険性に関して、認識と意識を喚起することであり、科学と政治の両分野における、これらの問題への今後の取り組みを示唆し推奨することである。

画像クレジット: Damien Meyer/AFP/Getty Images

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

国防総省のDARPA研究所が改悪改竄ビデオを検出する技術で研究助成事業を展開

メンローパークの非営利研究団体SRI Internationalが、国防総省の研究機関DARPA(Defense Advanced Research Projects Agency)から、フェイクニュースと戦うための三つのプロジェクトを受託した。すなわちDARPAのMedia Forensics(メディア犯罪捜査)事業は、ビデオや写真がそのコンテンツを意図的に変えられていることを判定するツールを開発している。

そのようなコンテンツでもっとも悪名高いのが、“ディープフェイク(deepfakes)”と呼ばれているやつだ。通常それは、わいせつな画像やビデオに有名人や人気スターの顔だけ貼り付けるというポルノが多い。ディープフェイクを作るソフトは簡単に作れるし誰にでも使えるが、今あるビデオ分析ツールでは、加工された映像と本物の映像を区別できない。

この難問を解決するために組織されたのが、Media Forensicsグループだ:

“DARPAのMediFor事業は、優秀な研究者を集めてデジタル画像技術のある分野を打ち倒したいと考えている。それは現状では改竄(かいざん)者が優位に立っている分野であり、それを、画像やビデオの真正性を自動的に判定する技術を開発し、エンドツーエンドのメディア犯罪捜査事業に利用することによって崩壊させたい。

その技術の開発に成功したら、MediFor事業は改竄を自動的に検出し、その改竄方法に関する詳細情報を提供し、ヴィジュアルメディアの全体的な真正性に関する判断により、問題ある画像やビデオの使用に関する意思決定を支援できる”。〔これは使えない、という判定を助ける。〕

ビデオがとくに危険なアプリケーションだが、改竄は静止画像においても検出が困難であり、DARPAはそれも研究課題としている。

DARPAのMedia Forensicsグループ、略称MediForは、アプリケーションの募集を2015年に開始し、正式には2016年にローンチ、2020年までの予算がついている。このプロジェクトでSRI Internationalは、アムステルダム大学とスイスのIdiap Research InstituteのBiometrics Security & Privacyグループと密接に協働する。アムステルダム大学については、詳しくは彼らのペーパー“Spotting Audio-Visual Inconsistencies (SAVI) in Manipulated Video”を見よ。Idiapの研究グループは、改悪されたビデオに存在するオーディオビジュアルの齟齬を見つける4つのテクニックにフォーカスしている。それらは、1)唇の同期の分析、2)話者の不整合や矛盾の検出、3)シーンの不整合の検出、4)コマ落ちや挿入の判定、である。

この事業で受託した研究には、有望性が認められる。昨年6月に行われた最初のテストでは、数百のビデオの中から、改悪されたビデオの二つの特徴、“話者の不整合とシーンの不整合”を、75%の精度で見つけることができた。2018年5月には、同様のテストをもっと大規模に行い、そのテクニックを磨き、大量のテストビデオを調べられるようにする。

このプロジェクト自体は軍事目的だが、研究チームは今後この事業の目的が、規制当局やメディアや公共団体などがもっと悪質な種類のフェイクニュースと戦っていくためのメインの武器になる、と信じている。

“近い将来、ビデオの改悪や合成のテクニックが大きく進歩する、と予想している”、SRI Internationalの代表者がこう語った。

“そういうテクニックがあれば、ホビイストやハッカーでも非常にリアルなビデオを作って、その人がしなかった/言わなかったことを、している/言っているように見せかけることができるだろう”。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa