先週のAndroid版公開に続いて、GoogleのAIを利用した新テクノロジー、Google LensがiOSにもやってきた。この機能はGoogle PhotosのiOSアプリに内蔵されている。写っている物体、建物、ランドマークなどを認識してその場所の電話番号、住所、開店時間など様々な情報を表示する。本や美術館の絵画、植物、動物なども認識する。対象物の種類によってはアクションを起こすこともできる。
たとえば、チラシや看板の写真を基にカレンダーにイベントを追加することもできる。あるいは、名刺を撮影して電話番号や住所を連絡先に登録することもできる(写真を連絡先データに変えるといえば、Microsoftがつい最近Pixアプリに追加した機能で、LinkedInでその人を探すこともできる)。
Google Lensは昨年のGoogle I/Oデベロッパーカンファレンスで初めて発表された。最近の機械学習と画像認識技術の進歩によって可能になった機能だ。最終目標は、スマートフォンのカメラを使ってどんな種類の写真に写っているものも認識し、必要なら電話をかけたり連絡先情報を保存するなどのアクションを起こしたり、カメラの向こう側にある世界について学ぶことができる。
I/Oカンファレンスのデモで、GoogleはほかにもGoogle Lensの機能をいくつか披露した。たとえばWi-Fiルーターに貼られたシールを写真に撮って、書かれている情報をWi-Fi設定に貼り付けることができる。外国語の看板を英語に翻訳する機能のデモも行われた。
まだ約束した機能のすべてを十分果たしているとはいえないが、Google Lensの成長とともに可能になっていくのだろう。
Google PhotosのTwitterアカウントが発信したツイートによると、iOS版Google PhotosのGoogle Lensは、最新バージョン(3.15)をインストールしているユーザーに米国時間3/15から順次展開される。
来週のうちには展開が終了する見込みだ。
[原文へ]
(翻訳:Nob Takahashi / facebook )