Snapchatは自分の顔でディープフェイクできるCameoをテスト中

Snapchatはビデオクリップの人物の顔を自分のセルフィーに入れ替えられる機能を準備中だ。このCameo機能は簡単にいえば、現在話題になっているディープフェイクの簡易版で、テンプレートのショートビデオから簡単に自分の顔のGIFを作って共有できる。いわばBitmojiのビデオ版というところで、エモーティコンとして自分の感情や状況をユーモラスに表現できる。Cameoが一部フランスのユーザーに公開されていることをSnapのウォッチャーである@Mtatsisが発見した。

Snapchat Cameoであなたもビデオ・スターになれる

TechCrunchがSnapに取材したところ、同社はCameo機能を一部の外国でテスト中であることを認めた。Snapは「Cameoはまだ一般公開の段階ではないが、近く世界デビューする。期待していただきたい」と述べた。以下にフランスのSnapユーザーからのツイートを紹介する。

Cameoを使うにはまず自分のセルフィーを撮ってSnapchatに「自分がどんなふうに見えたいか」を教える。ここで男性または女性ぽい体型を選べる。

Cameoはメッセージ・キーボードのBitmojiボタンからオプションとして選択できる。Snapchatではテンプレートとなるサウンド入りビデオクリップを多数用意しているので好みのビデオを選ぶ。Snapchatは先ほどのセルフィーから得た顔情報をビデオクリップの顔に埋め込む。ビデオクリップの俳優の顔がユーザーの顔に置き換わるわけだ。ユーザーは他のエモーティコンを送信するのと同様、状況に合わせて好みのテンプレートを選ぶだけでよい。

CameoはSnapchatがアメリカでインスタント・メッセージの首位を守るために重要な手段になるだろう。FacebookグループのInstagramとWhatsAppがSnapchatがパイオニアだったストーリー機能をコピーして大成功を収めているため、Snapとしては急追するこうしたサービスとの差別化を図る必要に迫られていた。

もっともCameoのケースはSnapは中国の顔交換アプリ、Zaoをコピーしたと言われるかもしれない。これは中国で大人気となったセルフィー・ビデオをスターやセレブの顔に変えるディープフェイク・アプリだ。またJibJabが何年も前に導入したクリスマスの妖精のGIFにユーザーのアバターを貼り付ける機能も方向としては似ている。

Snapは最近ソーシャル・ゲーム中のSnapchatに広告を導入して収益化を図り始めた。 SnapはARレンズと同様の仕組みで広告主にCameoクリップを販売して収益化を試みるかもしれない。

Cameoはショートビデオの人物の顔を自分の顔に入れ替えて面白い効果を上げようとするテクノロジーだ。 しかしディープフェイクはフェイク情報の拡散やネットいじめにも利用されやすい。ポルノや政治家のビデオなどを自由に加工させるのではなく、Snapでは無害なビデオだけをテンプレートとして提供することで危険を避けようとしている。SnapchatのCameoはディープフェイクのユーモラスな利用法として成功するかもしれない。

画像:Jeff Higgins]

原文へ

(翻訳:滑川海彦@Facebook

Facebookが写真から自動的にアバターを生成する研究結果を発表

アバターの作成。いったい誰が、そんなことに使える時間を持っているというのだ?もちろんその「誰が」はコンピューターだ。もしこのFacebookも研究が製品化されたら、髪型や、肌の色や、ヒゲの長さを選ぶのにただの1秒も無駄に使う必要はなくなる。

コンピュータービジョン国際会議(International Conference on Computer Vision)で発表された論文(PDF)で、Lior Wolfたちが報告したのは、入力した実際の顔から、絵文字ジェネレーターによる最高の出力結果を生み出す、機械学習システムの構築だ。

読者はおそらくこう思っているかもしれない。待て待て、確か今年の始めにGoogleが同じことをやっていなかったか?と。ある意味その通り。しかし、両者には重要な違いがある。Googleのバージョンもクールだが、様々な顔に共通する様々な特徴に関するランク付けと説明を人間の作業に頼っていた。例えば巻き毛、鼻のタイプ、目の形などなど。そして、これらは特定の特徴の表現としてイラスト化されていた(非常によくできていたと私は思う)。

本質的には、コンピューターが目立つ特徴、例えばそばかす、を見つけて、それに対応する部分アートをデータベースから引き出してくる仕掛けになっている。それは上手く行くものの、その結果は特徴を定義する人間の入力に大きく依存している。

Facebookのアプローチはこれとは異なっている。ここで追求されているアイデアは、手元にある道具(顔の部品や調整手段)を総動員して、与えられた顔を最高にそれっぽく表現できるシステムを追求することだった。つまり既存のツールである、emojiでも、Bitmoji(shudder)でも、Miiでも、VRフェイスジェネレーターでも何でも、そうしたタスクを達成するために使うことが可能だということだ。研究者の言葉を言い換えれば、これらはいつでも人間がやっていることだ、ならばなぜAIを使わないのか?ということになる。

システムは、元の顔と生成された表現の両方に対して、あたかも同じ人物の2枚の写真であるかのように、同じ分析と特徴同定アルゴリズムを使用することによって、このことを(ある程度)達成している。結果として、2つの顔から得られた数値が似通っている場合には、それは2つの顔が視覚的にも十分似通っていることを意味している。(この漫画的な顔を使う限り、ある程度以上は良くはならないということでもある)。

論文に掲載されたこの図では、一番左に元の顔の画像があり、左から2番目に手で作成されたemojiがあり(比較のために置かれていて、システムでは利用されない)、そして今回のシステムの異なるアルゴリズムによる例が示されて、さらに3Dアバターシステムによる例が続く。

この技法の優れている点は、特定のアバタータイプに結び付けられていないため、(理論的には)いずれのアバタータイプに対しても動作するということだ。システムは様々な表現を実際の顔と一致させ、どれが良いものかを判定する。

Facebookはこの情報を多くの有用な目的のために使用することができる——おそらく直近に考えられるのは、専用絵文字システムだ。ユーザーが新しい髪型やヒゲを整えた写真をアップロードするたびに、プロファイルが自動的に更新される可能性さえある。しかし、アバターマッチング機能は、他のサイト向けにでも行うことができる——例えばFacebookから他のVRゲームにサインインした際に、即座に説得力のある自分のアバターを登場させることができる。少なくとも、自分の絵文字の肌の色のディフォルトが黄色ではなくて実際の色に近くなることには、多くの人は反対しないだろう。

完全な論文は、AI会議で発表されたものなので、当然ながらかなり技術的なものだ。

[ 原文へ ]
(翻訳:Sako)