機械学習プロジェクトのためのトレーニングデータを生成するSuperb AI

機械学習プロジェクトで開発を行う際の大きな課題の1つは、アルゴリズムをトレーニングするために、十分な数の関連データを用意することだ。この部分を助けようとしているのが、Y Combinator Winter 2019クラスのメンバーのSuper AIである。このスタートアップは、タグ付けプロセスをスピードアップするためにAIを使用して、各企業がプロジェクトの要件を満たすためにカスタマイズされたデータセットを作成する作業を支援する。

スタートアップのCEO兼共同創業者であるHyun Kimは、AIと機械学習をアプリケーションに組み込もうとしている企業にとっての大きな問題の1つは、モデルをトレーニングするための適切なデータセットを手に入れるところにあると言う。「Superb AIは、AIを使って、ハイテク大企業向けにカスタマイズされたAIトレーニングデータを作成します。私たちが一緒に働かせていただいているお客さまは、ご自身で行うよりも何倍も速く機械学習機能を製品の中に組み込むことができています」と、KimはTechCrunchに語った。

Kimと彼の共同創業者たち(CTOのJung Kwon Lee、機械学習エンジニアのJonghyuk LeeとMoonsu Cha、そしてAPACのセールス&オペレーション責任者として韓国のソウルに住むHyundong Lee)が、このデータの問題に気が付き、それを解決するための会社を立ち上げることを決心したのは、全員がこの業界で働いているときだった。

従来は、機械学習プロジェクトに取り組んでいる会社は、データをタグ付けするために人間の労働者を雇っていた。しかしそれはたとえデータを所有していたとしても、費用がかかり間違いも多いものだった。当時AIプロジェクトに関わったり、大学で研究を行ってたりしたKimと彼の共同創業者たちは、課題の中のタグ付け作業にAIを投入するアイデアを思いついた。

「時間がかかり間違いを起こしやすい手作業に依存する代わりに、Superb AIは独自の深層学習AIを利用して人間を助けて、画像や動画のラベリングの速さを最高10倍まで高めることができるのです」とKimは説明した。同社はまた、作業を始めるためのデータそのものを持っていない企業のために、データソースを探す手助けも行う。

Kimは、プロセスから人間を完全に排除しようとしているのではく、人間の作業者と人工知能基盤を組み合わせることで、タグ付けの正確性を高めようとしているのだと語る。彼はこれにはいくつかのステップがあると語る。まず、各ピースを個々に自動化するために、トレーニングデータをできるだけ多くのコンポーネントに分割する。データが複雑すぎて、AIツールがタグ付けを自動化できない場合は、彼らは「ヒューマンインザループ」(作業プロセスへ人間を組み込むこと)と呼ばれる代替アプローチを採用する。人間がデータにラベル付けすることによって、AIは時間が経つにつれて学習し、最終的にはますます多くのプロセスを人間から引き継ぐことができるようになる。

共同創業者たちは、シリコン・バレーで足がかりを築くために、Y Combinatorに参加することを決心した。シリコン・バレーでなら祖国の韓国よりもさらにマーケットを広げることができるからだ。「それは間違いなく、私たちに変革をもたらしました。私たちがYCのパートナーや他の起業家から得た知識と経験の量は、本当に信じられないほどのものです。また、広大なYCネットワークのおかげで、初期の顧客をシリコン・バレーで見つけることができました」とキムは語った。

昨年10月にローンチした同社は、共同創業者たちを含めて最大13人の従業員を擁している。Kimによれば、同社はシード投資で30万ドルを調達し、すでに製品から同額の収益を生み出しているという。

[原文へ]
(翻訳:sako)

FaceAppが人種差別的AIを構築したことを謝罪

すべてのアルゴリズムバイアスがこれと同じくらい簡単に見つけられれば良いのに。フォトリアリスティックなやり方で、自撮り写真の編集をニューラルネットワークで行う写真編集アプリFaceAppは、人種差別的(racist)アルゴリズムを提供したことを謝罪した。

このアプリは、ユーザーが自撮り写真や、撮影済みの顔の写真をアップロードして、その見かけを微妙にあるいは大胆に変えるフィルターの適用を行わせるものだ。風貌を変える効果の中には、老化や異性化なども含まれている。

問題は、アプリには”hotness”(ホットにする)フィルターも含まれていたことで、このフィルターが人種差別主義者だったのだ。あるユーザーが指摘したように、このフィルターは議論の余地がある「美肌化」効果を出すために、肌の色調を明るく調整するのだ。フィルターの適用前後の効果は、上のオバマ大統領(当時)の写真で見ることができる。

人種差別的なアルゴリズムを謝罪する電子メールによる声明で、FaceAppの創業者兼CEOのYaroslav Goncharovは次のように語っている「この疑いようもない深刻な問題に対して深くお詫び申し上げます。これは、意図された振る舞いではなく、訓練セットの偏りによって引き起こされた、基盤を構成するニューラルネットワークによる不幸な副作用でした。この問題を緩和するために、私たちはフィルタの改名を行い、その効果に対する肯定的な含意を排除しました。また程なくリリースされる完全な修正にも取り組んでいます」。

先にGuardianが指摘したように、このアプリはここ数週間で爆発的な人気を得た。恐らくこのことが、フィルターが問題を抱えていることをFaceAppが認識することを助けたのだろう。

FaceAppは一時的に不快なフィルタの名前を “hotness”から “spark”に変更したが、非人種差別的な代替品の出荷準備が整うまではアプリから完全に削除しておいたほうがより賢明だったかもしれない。おそらく彼らはアプリのクチコミパワーの高まりへの対応に手一杯なのだろう(明らかに毎日70万人のユーザーが増え続けている)。

FaceAppのエフェクトを支える基盤となるAI技術には、GoogleのTensorFlowなどのオープンソースライブラリのコードも使われているが、”hotness”フィルターのトレーニングに用いられたデータセットは彼ら独自のもので、公開されているデータセットではないということを、Goncharovは私たちに明言した。そのため何処に責任があるかについては議論の余地はない。

率直に言って、アルゴリズム内に埋め込まれたバイアスによるリスクの(ビジュアルな)例として、これ以上わかりやすいものを探すのは難しいだろう。機械学習モデルは、与えられたデータと同じ程度にしか良くはならない。そしてFaceAppの場合には、モスクワに拠点を置くチームによって行われたトレーニングデータには、明らかに十分な多様性が欠落していたのだ。少なくとも、 潜在的なアルゴリズムバイアスの目に見えない問題を、このような視覚的にインパクトのある方法で提示してくれたという点では、彼らには感謝することができるだろう。

AIがますます多くのシステムの制御を手渡されるようになれば、その審問を完全に行うためにアルゴリズムの説明責任への圧力が高まるし、人間のバイアスが私たちのマシンに埋め込まれることを避けるための堅牢なシステムの開発の必要性も高まる。自律技術とは「人間の欠陥から自由になれる」ものではない、もし人間の欠陥から自由になれると主張しようとする開発者がいるならば、それは嘘を売ろうとしているのだ。

[ 原文へ ]
(翻訳:Sako)