画像検索のGoogle LensがiOS上のGoogleアプリにやってきた

iOSのGoogleアプリに、ビジュアル検索のLensがやってくる。iPhoneのユーザーは、モバイルでWebを検索する新しい方法を手に入れることになる。

Google Lensのアイコンをタップすると、ユーザーはカメラの中に飛び込む形になり、目の前の空間の中にある何かをタップするとGoogleがそれを認識し、それらのオブジェクトの検索結果を表示する。

Lensは2017年のGoogle I/Oカンファレンスで発表され、徐々に同社の一連のプロダクトに導入されてきた。新しい機能がデビューするのは同社のPixelフォーンの上がいちばん多いようで、その後他のデバイスにも波及した。Google Lensはこれまで、iOS上のGoogle Photosで使えて、画像中のオブジェクトを認識できた。

そのGoogle Photos上のLensにもアップデートがあり、英語以外にスペイン語、フランス語、イタリア語、そして韓国語がサポートされた。また、画像をスタイルで検索できるようになった。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

投稿者:

TechCrunch Japan

TechCrunchは2005年にシリコンバレーでスタートし、スタートアップ企業の紹介やインターネットの新しいプロダクトのレビュー、そして業界の重要なニュースを扱うテクノロジーメディアとして成長してきました。現在、米国を始め、欧州、アジア地域のテクノロジー業界の話題をカバーしています。そして、米国では2010年9月に世界的なオンラインメディア企業のAOLの傘下となりその運営が続けられています。 日本では2006年6月から翻訳版となるTechCrunch Japanが産声を上げてスタートしています。その後、日本でのオリジナル記事の投稿やイベントなどを開催しています。なお、TechCrunch Japanも2011年4月1日より米国と同様に米AOLの日本法人AOLオンライン・ジャパンにより運営されています。