メンローパークの非営利研究団体SRI Internationalが、国防総省の研究機関DARPA(Defense Advanced Research Projects Agency)から、フェイクニュースと戦うための三つのプロジェクトを受託した。すなわちDARPAのMedia Forensics(メディア犯罪捜査)事業は、ビデオや写真がそのコンテンツを意図的に変えられていることを判定するツールを開発している。
そのようなコンテンツでもっとも悪名高いのが、“ディープフェイク(deepfakes)”と呼ばれているやつだ。通常それは、わいせつな画像やビデオに有名人や人気スターの顔だけ貼り付けるというポルノが多い。ディープフェイクを作るソフトは簡単に作れるし誰にでも使えるが、今あるビデオ分析ツールでは、加工された映像と本物の映像を区別できない。
この難問を解決するために組織されたのが、Media Forensicsグループだ:
“DARPAのMediFor事業は、優秀な研究者を集めてデジタル画像技術のある分野を打ち倒したいと考えている。それは現状では改竄(かいざん)者が優位に立っている分野であり、それを、画像やビデオの真正性を自動的に判定する技術を開発し、エンドツーエンドのメディア犯罪捜査事業に利用することによって崩壊させたい。
その技術の開発に成功したら、MediFor事業は改竄を自動的に検出し、その改竄方法に関する詳細情報を提供し、ヴィジュアルメディアの全体的な真正性に関する判断により、問題ある画像やビデオの使用に関する意思決定を支援できる”。〔これは使えない、という判定を助ける。〕
ビデオがとくに危険なアプリケーションだが、改竄は静止画像においても検出が困難であり、DARPAはそれも研究課題としている。
DARPAのMedia Forensicsグループ、略称MediForは、アプリケーションの募集を2015年に開始し、正式には2016年にローンチ、2020年までの予算がついている。このプロジェクトでSRI Internationalは、アムステルダム大学とスイスのIdiap Research InstituteのBiometrics Security & Privacyグループと密接に協働する。アムステルダム大学については、詳しくは彼らのペーパー“Spotting Audio-Visual Inconsistencies (SAVI) in Manipulated Video”を見よ。Idiapの研究グループは、改悪されたビデオに存在するオーディオビジュアルの齟齬を見つける4つのテクニックにフォーカスしている。それらは、1)唇の同期の分析、2)話者の不整合や矛盾の検出、3)シーンの不整合の検出、4)コマ落ちや挿入の判定、である。
この事業で受託した研究には、有望性が認められる。昨年6月に行われた最初のテストでは、数百のビデオの中から、改悪されたビデオの二つの特徴、“話者の不整合とシーンの不整合”を、75%の精度で見つけることができた。2018年5月には、同様のテストをもっと大規模に行い、そのテクニックを磨き、大量のテストビデオを調べられるようにする。
このプロジェクト自体は軍事目的だが、研究チームは今後この事業の目的が、規制当局やメディアや公共団体などがもっと悪質な種類のフェイクニュースと戦っていくためのメインの武器になる、と信じている。
“近い将来、ビデオの改悪や合成のテクニックが大きく進歩する、と予想している”、SRI Internationalの代表者がこう語った。
“そういうテクニックがあれば、ホビイストやハッカーでも非常にリアルなビデオを作って、その人がしなかった/言わなかったことを、している/言っているように見せかけることができるだろう”。