iOSとARCore対応のAndroidスマートフォンでGoogle Lensを使ってる人たちは今後、レストランでのオーダーや外国語のリアルタイム翻訳が便利になる。
その発表は今月初めのGoogle I/Oで行われたが、これからのユーザーはGoogleアシスタントやGoogleフォト、そしてGoogleの検索の中でLensを使える。またPixelスマートフォンでは、その機能がカメラアプリにもある。
その新しいダイニング機能では、ユーザーがスマートフォンをメニューに向けるとLensアプリが人気料理をハイライトしたり、食材の情報を表示したり、そのレストランのGoogleマップのプロフィールにある写真を見せたりする。請求書を撮影して、その分割を即座に計算することもできる。
関連記事: Snap a photo of a menu and Google Lens can tell you what to order(メニューを撮るとGoogle Lensが料理を推薦、未訳)
外国語の翻訳に関しては、前からGoogle Translateアプリには看板や標識などの特殊な書体でも翻訳できる機能があった。今回はそれの軽量バージョンが、Lensに実装された。
関連記事: 新Googleレンズは外国語を読み取って翻訳結果を合成音声で読み上げてくれる
GoogleがI/Oで発表したLens関連の機能は、展開が遅れることが多かった。今回のように、発表の数週間後というのは、ちょっと珍しい。
[原文へ]
(翻訳:iwatani、a.k.a. hiwa)