グーグルが検索エンジンにAIを活用した新機能を追加、鼻歌、打ち間違い、データソース統合、動画解析など

米国時間10月15日、Google(グーグル)は同社のテクノロジーのコアである検索エンジンに多数の新機能を追加したことを発表した(Googleブログ)。新機能の多くはAIに重点が置かれている。これには新しいアルゴリズムを利用して漠然とした一般的な質問に対し極めて個別的で詳細な回答を与える能力などが含まれている。またGoogleレンズその歌の検索関連ツールもアップデートされた。

アップデートの多くはユーザーの検索を助けるという実用的な目的を念頭においているが、それだけでなく楽しい新機能もある。例えばメロディーをハミングするとGoogleアシスタントはそれが何という曲であるか探そうとする

同社によれば、検索入力10件のうち一件にはスペルミスがあるという。Google検索にはすでに「もしかして」という大変優れたユーザー補助機能がある。同社はAIと深層ニューラルネットワークによる新しいアルゴリズムでこの機能をアップデートし、6800万件にもおよぶパラメーターを利用してユーザーの検索意図を正確に把握しようとする。

次の便利な機能は、多数のデータソースの統合だ。これまではグーグルのオープンデータコモンズのみで利用できたが、これが一般の検索で可能になる。例えばユーザーが「シカゴにおける雇用」を検索すると、同社の知識ベース、ナレッジグラフが起動し、検索結果に多数の情報ソース間の関係の図示が含まれる。

もう1つのアップデートは、範囲を限定した質問に対し結果ページの特定の部分を対応させる能力だ。例えば「どうしたら窓ガラスがUVガラスかどうかわかるのか?」という質問に対し、DIYフォーラムのページの中から適切なパラグラフを選び出す。同社によればこの新機能によって検索の7%が改良されるという。

範囲が広い一般的な質問に対してもAIシステムを用いてユーザーの検索意図を繰り返し、どの検索結果が回答としてふさわしいか把握しようとする。

現在、インターネットでは多数のコンテンツがビデオ形式で提供されている。グーグルは質問に対し、画像認識と自然言語解析テクノロジーを利用してビデオ中で対応する情報がある部分にタグづけする。これは現在の検索でも部分的に実現しているが、新しいアルゴリズムはさらに使いやすくなっているという。ビデオの製作者が内容をタグ付けしていない場合は非常に便利だろう。

また、Googleレンズのアップデートで本の写真の一部分をどんな言語で書かれていても読み上げさせることができるようになった。新しいレンズは数式を読み取ることもでき、ステップバイステップでその解法を教えてくれる。この機能は数学だけではなく、化学、生物学、物理学でも利用できるという。

今年も年末のクリスマス商戦の時期に近づいてきたので、グーグルはショッピング関連の分野でもいくつかのアップデートを発表した。特に注目されるのは、ChromeとGoogleアプリでどんな画像であれ長押しするとそれに関連した商品が検索できる。特にアパレルの場合、関連商品が画像で示されるのはファッションに詳しくない人間にとってありがたい機能だ。

新しく車を買おうと考えている場合、画像をAR化できるため家の前の駐車スペースなどにどのように収まるかを見ることができる。

Googleマップでは、ARを利用した歩行ナビを使っている場合、現実の景色の上にレストランその他のローカルビジネスが表示され、営業時間などがわかる。

またマップにはレストランなど店舗の営業時間や混み具合などのビジネス情報が表示できるようになった。新型コロナウィルスの感染拡大で営業時間などが頻繁に変更される現在、いちいち検索せずにマップ上でビジネス情報を見られるのは大変便利だ。

今回のSearch On 2020イベントは、音楽も含めてごく穏やかなトーンだった。同社の検索部門の責任者であるPrabhakar Raghavan(プラバカル・ラガヴァン)氏は「自然言語理解に関する2019年のBERTアップデートは現在あらゆる検索関連で利用されている」と述べた。また対応する言語も、スペイン語、ポルトガル語、ヒンディー語、アラビア語、ドイツ語、アムハラ語が含まれるようになった。このほか、2019年に検索関連で3600件以上のアップデートを実施したという。

今回の検索テクノロジーのアップデートは各国の規制当局がますます厳しい目を同社に注ぎ始めたという背景を考える必要があるだろう。同社の発表がプライバシーに重点を置いていたのも当然かもしれない。ラガヴァン氏はGoogle検索が無料かつ世界中のすべての人々にに開かれた「オープンなアクセス」のサービスであることを繰り返し述べた。また検索結果表示のランキングのアルゴリズムはあらゆるサイトに公平に適用されていることを強調した。もっともこの最後の点についてはYelpなどのライバルにとっては異論があるかもしれない。

カテゴリー:ネットサービス
タグ:Google、Googleマップ、Googleレンズ

画像: Keith Mayhew / SOPA Images / LightRocket / Getty Images

原文へ

(翻訳:滑川海彦@Facebook

新Googleレンズは外国語を読み取って翻訳結果を合成音声で読み上げてくれる

米国時間5月7日に開幕したGoogle I/O 2019カンファレンスでは、強力なGoogle翻訳をさらに強化する機能がいくつも発表された。その1つがGoogleレンズのアップデートだ。スマートフォンで外国語のメニューや標識の写真を撮ると、Googleレンズがユーザーが指定する言語に翻訳してくれるデモが披露された。

この機能の一部はGoogle翻訳アプリにすでに組み込まれているが、今日はさらに機能が追加された。「聞く」ボタンをタップすると、Googleレンズは翻訳されたテキストを合成音声で読み上げる。また読み上げている箇所がハイライトされるのでユーザーはどの箇所なのか知ることができる。

レンズ開発チームはインドでベータテストを実施し、このテクノロジーが比較的能力の低いデバイスでも作動できるよう軽量化に務めてきた。Googleによればこの機能はわずか100KBで実装されているという。この機能はまだ一般公開されていない。

公開時期が不明なのにデモしたのかという不満も聞こえてきそうだが、ま、これがGoogle I/Oだ。

原文へ

(翻訳:滑川海彦@Facebook