グーグルがAIの進化を「個人の危機」の検出と検索結果の安全に役立てる

Google(グーグル)は米国時間3月30日、AIモデルを強化してGoogle検索をより安全にし、自殺や性的暴行、薬物乱用、DVなど扱いに注意を要するクエリを向上させると発表した。同社は、利用者が明確に露骨な内容や挑発的な内容を探しているのではない場合に、AIテクノロジーでそうした好ましくない内容を検索結果から取り除く機能も強化する。

現在は、利用者が自殺や乱用といった扱いに注意を要する情報を検索すると、Googleは検索結果よりも上に関連する国のホットラインの連絡先情報を表示する。しかし同社は、危険な状況にある人はさまざまな方法で検索することがあり、人間が検索のクエリを見ればフラグが立つとわかるにしても、検索エンジンにとっては検索した人が助けを必要としているかどうかが明らかにわかるとは限らないと説明する。Googleは、MUM(Multitask Unified Model)と呼ばれる同社の機械学習と最新AIモデルのテクノロジーを利用して、自動でこれまでよりも正確に、広範囲にわたる個人の危険に関する検索を検出できるようになると説明する。MUMは人間の質問やクエリの背後にある意図をこれまで以上に理解できるからだ。

Googleは2021年に開催したSearch OnイベントでAIテクノロジーを利用して検索を再設計する計画を紹介したが、今回発表した具体的なユースケースには言及していなかった。同社は、検索する人の意図をMUMがもっと理解して、その人が調べていることについてより深いインサイトを提供し、検索の新しい道筋を示すことに力を入れてきた。例を挙げよう。ユーザーが「アクリル絵画」と検索すると、Googleはアクリル絵画について「知っておくべきこと」を示す。さまざまなテクニックやスタイル、描き方のヒント、掃除のヒントなどだ。「日用品でアクリル絵画を描く方法」のように、ユーザーが検索しようとは思っていなかった別のクエリを提示することもある。この例に関してGoogleは、アクリル絵画に関して350種類以上のトピックを特定できると説明した。

危険な状況にいる人が明らかに助けを求めているとわかる言葉を入力するとは限らないが、そのような人が検索しているかもしれないトピックをもっと理解するために、MUMが前述したアクリル絵画の例と似た方法で今後使われる。

Googleはブログ記事で「正確に認識できなければ、最も有用な検索結果を表示するシステムを作ることはできません。だから機械学習を利用して言葉を理解することが重要なのです」と説明した。

例えば、ユーザーが「シドニーの自殺の名所」と検索したとする。Googleのこれまでのシステムでは「名所」が旅行の検索クエリなどでよく使われる言葉であるため、情報を探すクエリだと理解する。しかしMUMはこれをシドニーで身投げをする場所を探している人に関連するクエリであると理解し、危険な状態にある人の検索かもしれないと判断する。そして自殺相談ホットラインなど行動に結びつく情報を表示する。もう1つ、MUMの向上が見られる自殺に関するクエリとしては「自殺の最も一般的な方法」がある。これも、これまでは情報を探す検索としか理解されなかった。

MUMによって、人間にとっては文脈が明らかでも機械にとっては必ずしもそうではない長い検索クエリもこれまでより理解できるようになる。例えば「私が彼を愛していないというと彼が攻撃してくるのはなぜ」のようなクエリはDVを暗示している。しかし、自然言語で長文のクエリは、高度なAIを使用しないGoogleのシステムでは難しかった。

さらにGoogleは、MUMはそのナレッジをトレーニングしている75言語に移行でき、このようなAIの進化を世界中のユーザーに迅速に拡大できることにも言及した。つまり、前述したような個人の危機に関する検索に対し、現地のホットラインなど信頼できるパートナーの情報を多くの利用者に表示できるようになる。

MUMがGoogle検索に利用されるのはこれが初めてではない。これまでに新型コロナウイルスワクチンの情報に関する検索を向上させるために利用したと同社は述べている。Googleによれば、今後数カ月でスパム保護機能にMUMを使い、トレーニングデータの少ない言語にも拡大していくという。MUMの向上は他にも今後展開される。

AIテクノロジーによって、検索結果から露骨なコンテンツをフィルタリングする機能も向上する。Googleのセーフサーチのフィルタリングをオフにしても、Googleはわいせつなコンテンツを見つけることが目的ではない検索から好ましくない露骨なコンテンツを減らそうと試みている。そしてユーザーが世界中で何億回も検索をする中で、アルゴリズムによって性能が向上している。

現在はBERTと呼ばれるAIテクノロジーで、ユーザーが露骨なコンテンツを探しているのかどうかを判断できるようになってきている。Googleによれば、ウェブ検索と画像検索のクエリからランダムにサンプルをとり、性的な度合いが高い検索結果かどうかを検索品質評価者が判断して分析した結果、この1年間でBERTによって好ましくないショッキングな検索結果が30%減少したという。分析からは、女性、特に有色人種の女性に不当な影響を与えるとGoogleが述べている「人種、性的指向、ジェンダー」に関連する検索で、このテクノロジーが露骨なコンテンツを減らすのに特に有効だったこともわかった。

Googleは、今後数週間でMUMの進化したAIを検索に導入するとしている。

画像クレジット:Jaap Arriens/NurPhoto / Getty Images

原文へ

(文:Sarah Perez、翻訳:Kaori Koyama)

投稿者:

TechCrunch Japan

TechCrunchは2005年にシリコンバレーでスタートし、スタートアップ企業の紹介やインターネットの新しいプロダクトのレビュー、そして業界の重要なニュースを扱うテクノロジーメディアとして成長してきました。現在、米国を始め、欧州、アジア地域のテクノロジー業界の話題をカバーしています。そして、米国では2010年9月に世界的なオンラインメディア企業のAOLの傘下となりその運営が続けられています。 日本では2006年6月から翻訳版となるTechCrunch Japanが産声を上げてスタートしています。その後、日本でのオリジナル記事の投稿やイベントなどを開催しています。なお、TechCrunch Japanも2011年4月1日より米国と同様に米AOLの日本法人AOLオンライン・ジャパンにより運営されています。