2021年5月、Google(グーグル)は年次開発者会議「Google I/O」において「Multitask Unified Model(MUM)」と呼ばれる新しいAIマイルストーンを紹介した。この技術はテキスト、画像、動画など、さまざまな形式の情報を同時に理解し、トピック、コンセプト、アイデアの間の洞察やつながりを導き出すことができる。同社は米国時間9月29日、MUMを自社製品で活用する方法の1つとして、ビジュアル検索「Googleレンズ」のアップデートを発表した。
Googleレンズは、携帯電話のカメラを使って、リアルタイム翻訳、植物や動物の識別、写真からのコピー&ペースト、カメラのファインダーに写っているものと類似したアイテムの検索、数学の問題の手助けなど、さまざまなタスクを実行できる同社の画像認識技術だ。
近い将来、Googleは、MUMの機能を活用してGoogleレンズをアップグレードし、視覚的な検索にテキストを追加して、ユーザーが見ているものについて質問できるようにするという。
実際には、この機能は次のような使い方ができる。例えば、気に入ったシャツの写真をGoogle検索で表示した後、レンズのアイコンをタップして、同じ柄のもの、だが今度はソックスをGoogleに探してもらうことができる。そこに「この柄のソックス」とでもタイプ入力することで、テキスト入力だけでは難しい、関連性のあるクエリをGoogleに指示することができる。
これは、現在のGoogleが苦手としているタイプのクエリ、つまり、言葉だけでは説明しにくい、あるいは異なる方法で説明できるような、探しているものに視覚的要素がある場合には、特に有効だ。画像と言葉を1つのクエリにまとめることで、Googleはより適切な検索結果を提供できる可能性がある。
別の例では、自転車の部品が壊れてしまい、修理のヒントをGoogleで検索する必要があるとする。しかし、その部品が何という名前なのかはわからない。修理マニュアルを調べる代わりに、自転車の壊れた部分にGoogleレンズを当てて「修理する方法」と入力してみることができる。そうすれば、助けになりそうな動画の瞬間に直接つながるかもしれない。
Googleは、このようなAIを活用した取り組みは、新しい検索の仕方を可能にすることで、自社製品をエンドユーザーにとって「より役に立つ」ものにする方法だと考えている。同社は、検索の一部に携帯電話のカメラを利用することで、コアなユースケースの多くが他のプロパティに移行し始めている市場での存在感を維持しようとしている。例えば、今日、ショッピングの検索は多くの場合、直接Amazon(アマゾン)で始まる。また、iPhoneユーザーは、携帯電話で何か特定のことをしたいとき、Siri、Spotlight、App Store、またはネイティブアプリに助けを求めることが多い。そしてApple(アップル)は、Google検索に代わる独自の検索サービスを開発している。iOS 15でアップデートされたSpotlight検索では、Google検索に頼らず、ユーザーが必要とする情報に直接アクセスできるようになった。
Googleは、Google検索やビデオ検索においてもMUMを活用していくと、29日開催されたライブイベント「Search On」で発表した。
なお、Googleレンズのアップデートは今後数カ月のうちに実施される予定だという。そのためには、新しいAIモデルを導入する際には必ず実施される「厳格なテストと評価」を行う必要がある、と同社は述べている。
画像クレジット:Google
[原文へ]
(文:Sarah Perez、翻訳:Aya Nakazato)