Google Lensのレストラン機能と翻訳フィルター機能が早くも実装展開

iOSとARCore対応のAndroidスマートフォンでGoogle Lensを使ってる人たちは今後、レストランでのオーダーや外国語のリアルタイム翻訳が便利になる。

その発表は今月初めのGoogle I/Oで行われたが、これからのユーザーはGoogleアシスタントやGoogleフォト、そしてGoogleの検索の中でLensを使える。またPixelスマートフォンでは、その機能がカメラアプリにもある。

その新しいダイニング機能では、ユーザーがスマートフォンをメニューに向けるとLensアプリが人気料理をハイライトしたり、食材の情報を表示したり、そのレストランのGoogleマップのプロフィールにある写真を見せたりする。請求書を撮影して、その分割を即座に計算することもできる。

関連記事: Snap a photo of a menu and Google Lens can tell you what to order(メニューを撮るとGoogle Lensが料理を推薦、未訳)

外国語の翻訳に関しては、前からGoogle Translateアプリには看板や標識などの特殊な書体でも翻訳できる機能があった。今回はそれの軽量バージョンが、Lensに実装された。

関連記事: Googleレンズは外国語を読み取って翻訳結果を合成音声で読み上げてくれる

GoogleがI/Oで発表したLens関連の機能は、展開が遅れることが多かった。今回のように、発表の数週間後というのは、ちょっと珍しい。

[原文へ]

(翻訳:iwatani、a.k.a. hiwa

Google I/O 2019基調講演で語られた全内容のまとめ

先週末に行われたGoogle I/Oカンファレンスの2時間にわたる基調講演で、Googleは、新しいスマートフォンから次世代型の音声アシスタントなど、この1年間で開発してきたものを大量に発表した。

すべてを見ている暇はない? 大丈夫。そんな人のために駆け足で紹介しよう。

Google Pixel 3aと3a XL

噂のとおり、GoogleはPixel 3の廉価版を発売する。

価格を下げるために、プロセッサーのランクをちょっとだけ下げ(Snapdragon 845をSnapdragon 670に)、ストレージを64GBに制限し、無線充電機能をなくした。その代わりに、空いたスペースに3.5ミリのヘッドフォンジャックが付くという嬉しいオマケがある。

Pixel 3aは399ドル(約4万4000円)より。5.6インチディスプレイ、12.2メガピクセルのリアカメラ、そして、最初からAndroid Pが走る。Pixel 3a XLは479ドル(約5万2800円)から。こちらは画面が6.0インチになる。

TechCrunchのBrian Heaterが、今週初めにこのスマートフォンを試用している。彼のレビュー記事はこちら

Nest HubとNest Hub Max

Google Home Hubは、Nest Hubと名前を変えて、価格も149ドル(約1万6400円)から129ドル(約1万4000円)に下げられた。

同時に兄貴分も登場した。Nest Hubの画面を7インチから10インチに拡大してカメラを追加した、その名もNest Hub Maxだ。Nest Hub MaxはNestアプリに接続できるため、Nestの他のカメラと同じように使える。Googleによると、背面のスイッチでカメラとマイクをオフにできるという(残念ながらカメラかマイクのどちらかを生かすというのはダメみたい)。価格は229ドル(約2万5000円)。今年の夏に出荷予定だ。

Nest Hub Maxに搭載された新しいFace Match機能は、顔認証ができ、その反応をカスタマイズできる。この機能に関するGoogleのブログ記事には「Face Matchの顔認証は、デバイスに内蔵された機械学習機能によりローカルで処理されるため、カメラのデータは一切外に出ません」とのことだ。

検索に拡張現実

一部の検索結果、たとえばあるモデルの靴や「大きなホワイトシャーク」などでは3Dモデルが見られるようになる。モデルをタップすれば、AR(拡張現実)を使って現実の映像の上にそれを重ねて見ることができる。

Google Lensのアップグレード

Google Lensにも、いくつか新しい機能が増える。レストランのメニューにGoogle Lensを向けると、人気の料理がハイライトされる。レシートに向ければ、チップや合計金額を自動的に計算してくれる。

ウェブ上でDuplex

昨年のI/Oで、GoogleはDuplexを発表した。スモールビジネス(レストランや美容院など)向けのAIを使った顧客サービスツールで、大量の電話に対応したり、よくある質問に応答したり、予約を管理したりできる。

今年はこれを拡大して、ウェブ上で公開する。例として示されたのが、インターネットによるレンタカーの予約だ。「(レンタカー会社)のレンタカーが欲しい」と言うと、そのレンタカー会社のウェブサイトが開かれ、自動的に予約が行われる。そこには、カレンダーに書き込んだ出張の日程がすでに入力されていて、Gmailに残っている前回のレンタカー予約確認のメールをもとに、好きな車種が選択されていた。

Googleの「次世代」アシスタント

Googleは、音声認識モデルのサイズを数百ギガバイトから500メガバイトほどに圧縮することができた。スマートフォンに搭載できる十分に小さいサイズだ。

音声認識モデルをローカルで持つことで、クラウドとのPingのやりとりによる遅延がなくなる。アシスタントとの会話も、ほぼ瞬間的に行えるようになる。デバイス上で走っているため、機内モードでも使える。Googleは、矢継ぎ早に命令(「Lyftを呼んで」や「懐中電灯を点けて」など)を連発してその様子を披露していたが、しっかりと応答していた。

Googleによれば、この次世代の音声アシスタントは、今年の後半に新型Pixelに搭載されるという。

GoogleアシスタントがWazeに

GoogleアシスタントがWazeに組み込まれ、「ほんの数週間以内」に使用可能となり、事故や道の陥没の通報などが声で行えるようになる。

Googleアシスタントのドライビングモード

「ヘイ、Google、ドライブしよう」と言えば、アシスタントはドライビングモードに切り替わる。画面には、チラッと見てわかるように、目的地の方向や音楽の操作系など、運転中に必要最低限の情報だけが表示される。

Googleマップのシークレットモード

ブラウザーのシークレットモードと同様に、Googleマップに追加されるシークレットモードでは、場所の検索結果や経路がGoogleアカウントの履歴に残らないようになる。

ライブ字幕とライブ筆記

Androidには、間もなく、スマートフォンで再生したメディアにその場で字幕を入れる機能が追加される。保存したポッドキャストや録画した動画にも字幕が付けられる。

Live Relay(ライブ中継)とGoogleが名付けた機能を使えば、電話での会話をリアルタイムで筆記させたり、文字で応答したりできるようになる。

下の動画は、Live Relayで実際に会話している様子だ。

https://platform.twitter.com/widgets.js
声に出したり耳で聞いたりしなくても電話ができるように、Live Relayは、デバイスに内蔵された音声認識と文章音声変換を使って、電話の音声のやりとりを代行します。

Project Euphonia

Googleは、そのAI音声アルゴリズムを使って、ALSや脳卒中の後遺症などのためにうまく話ができない人を支援する研究を続けてきた。それぞれの人の話し方にモデルを調整することで、コミュニケーション能力を向上させることができる。

https://platform.twitter.com/widgets.js
非営利団体とボランティアの協力のもとで行われているProject Euphoniaは、音声による会話に障害がある人たちのコミュニケーションを迅速化し自立を支援する活動です。

ダークなテーマ

Android Qにダークモードが追加される。手動で切り替えることもできるが、省電力モードになったときに自動的に切り替わるようにもできる。

集中モード

仕事が忙しい? それならFocus Mode(集中モード)だ。仕事の邪魔になるアプリの一覧を作って、スイッチを切り替えれば、集中モードをオフにするまで、それらのアプリは表示されなくなる。今年の秋にAndroidに搭載される。

PixelのGoogleマップにARモードが登場

数カ月前、GoogleはGoogleマップで使える新しいAR(拡張現実)モードを披露した。その目的は? 確実に正しい方向に歩行を開始できるようにするためだ。スマートフォンを目の位置に掲げると、画面に目の前の光景が映し出される。Googleマップはその映像とストリートビューのデータとを照合して、現在位置と方向を正確に割り出す。GPSだけを使った場合よりも確かだ。そして、正しい方向に矢印を表示する。

しばらくベータ版だったが、今日からPixelに搭載される。

消費者向けの基調講演の後、Googleはこれとは別に、開発者向けの基調講演を行った。内容は次のとおりだ。

  • Android開発の主要プログラミング言語はKotlinになったとGoogleは話した。
  • Kotlinでの開発用の新しいUIツールキットJetpack Composeを発表。
  • 今回発表されたNest Hub Maxなど、Googleのスマートディスプレイ・デバイス用のゲーム開発が可能になった。
  • 速度と安定性を向上させたGoogleのAndroid Studio IDEの新バージョンを発表。
  • Androidの開発者は、作動を続ける前にアプリの更新をユーザーに要請できるようになった。去年発表されていた機能だが、やっと実現した。

[原文へ]
(翻訳:金井哲夫)

画像検索のGoogle LensがiOS上のGoogleアプリにやってきた

iOSのGoogleアプリに、ビジュアル検索のLensがやってくる。iPhoneのユーザーは、モバイルでWebを検索する新しい方法を手に入れることになる。

Google Lensのアイコンをタップすると、ユーザーはカメラの中に飛び込む形になり、目の前の空間の中にある何かをタップするとGoogleがそれを認識し、それらのオブジェクトの検索結果を表示する。

Lensは2017年のGoogle I/Oカンファレンスで発表され、徐々に同社の一連のプロダクトに導入されてきた。新しい機能がデビューするのは同社のPixelフォーンの上がいちばん多いようで、その後他のデバイスにも波及した。Google Lensはこれまで、iOS上のGoogle Photosで使えて、画像中のオブジェクトを認識できた。

そのGoogle Photos上のLensにもアップデートがあり、英語以外にスペイン語、フランス語、イタリア語、そして韓国語がサポートされた。また、画像をスタイルで検索できるようになった。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Google、画像検索にLensを適用し、画像の公告活用を推進

Googleのアナウンスによれば、AIを活用したLens技術を画像検索で利用できるようにしたそうだ。検索したイメージ写っている物の情報を入手して、買い物の際に役立てることができるようになるとのこと。たとえば格好良いリビングルームの写真には、おそらく素敵なソファも写っていることだろう。そのソファに関する情報(購入できる場所など)を教えてくれるようになるのだ。

Pinterestを使っている人には、Google検索がPinterest風の機能ももつようになったのだといえばわかりやすいかもしれない。

Google Lensが生成した写真上の「dot」や、あるいは気になるものを手動で囲んで指定したエリアをタップすれば、Google検索が、指定したアイテムの関連情報を検索してくれるようになている。類似の画像、特定アイテムのウェブページ、ないし指定アイテムが写っている映像などを検索してくれるようになる

利用範囲はショッピングにとどまらない。写真に写ったランドマークや動物、あるいは旅行予定地についての詳細情報を得たりするのにも役立つはずだ。

さまざまな活用シーンが考えられるとは言っても、もちろんGoogleの主目的はグッズについての情報を提供することだろう。Googleの公告主のページへ閲覧者を誘導できる可能性も増えるわけだ。Pinterestの成功にあやかろうと考えているのだろう。

Pinterestは先月、月間アクティブユーザーが25%増加した旨をアナウンスしている。上場に向けて加速中ともいえる状況だ。Pinterestの利用者は、ファッションや家庭用品、旅行プランなどの情報を得て、Pinterestから商品やサービスを購入をする頻度を高めているらしい。公告主のプロダクトに、興味をもってもらえる仕組みも強化しているところだ。たとえば今年になってからは、公告製品のプロモーションビデオなども流すようになっている。

さらにPinterestは、1週間前に製品購入を便利にするための機能を増強した旨をアナウンスしている。テスト段階において、Pinterestからの製品ホームページへのアクセスが40%も増加したのだそうだ。

FacebookおよびInstagramは、次々にクライアントを販売店のサイトに送り込みつつある。またAmazonも広告ビジネスへの参入度合いを深めつつある。Googleもまた、公告主サイトへのクリックスルーレートを高めるなどの企業努力が期待される時期となっているわけだ。

画像検索でのLens活用は、まずアメリカにおける英語を利用するモバイルユーザー向けに公開したとのこと。他の国および言語へのサポートも広げていく予定であるとのことだ。

原文へ

(翻訳:Maeda, H

Google Lensが画像検索にやってくる――自分が見ているのが何なのか即座に分かる

今日(米国時間9/24)、Googleがサンフランシスコで開催した小さなプレスイベントで、検索に重要な新機能が準備されていることが判明した。近く画像検索でGoogle Lensがサポートされるという。

念のため復習しておくと、現在はGoogle Lens(Googleフォトの一部、あるいは専用アプリ)をタップするとGoogleのコンピューター画像認識機能が対象画像に関連する詳しい情報を提供してくれる。これによりユーザーは自分が見ている画像が何であるかを知ることができる。

Googleがデモした例でいえば、 育児用品(nursery)で検索するとベビーサークルや乳母車の画像がヒットする。ユーザーは表示された乳母車の一つを買いたいと思うかもしれない。しかし現在の検索インターフェイスではその画像だけを頼りに買おうとするとかなり難しいことになる。「乳母車」プラス、好みの色その他のキーワードを入力して改めて検索する必要がある。

しかしLensボタンが表示されていれば簡単だ。ボタンをクリックするとGoogleはコンピュータービジョン能力を総動員して画像を解析し、それが何であるか突き止めようとする。乳母車ではなく、背景に写っているランプが気に入ったのなら、指でランプを押さえればその部分にフォーカスが移る。

解析可能なのは乳母車や照明器具ばかりではない。写っている犬の種類から名所旧跡、アパレル、自動車、その他さまざまなカテゴリーがカバーされる。十分詳細な画像が得られGoogleの人工知能がそれを認識できる場合、Lensは対象の画像がどこから来たかを遡って調べ、詳しいデータを教えてくれる。

Google画像検索にLensがやってくるのは今週後半になる予定。

原文へ

滑川海彦@Facebook Google+

Google Lens、iOS版も公開

先週のAndroid版公開に続いて、GoogleのAIを利用した新テクノロジー、Google LensがiOSにもやってきた。この機能はGoogle PhotosのiOSアプリに内蔵されている。写っている物体、建物、ランドマークなどを認識してその場所の電話番号、住所、開店時間など様々な情報を表示する。本や美術館の絵画、植物、動物なども認識する。対象物の種類によってはアクションを起こすこともできる。

たとえば、チラシや看板の写真を基にカレンダーにイベントを追加することもできる。あるいは、名刺を撮影して電話番号や住所を連絡先に登録することもできる(写真を連絡先データに変えるといえば、Microsoftがつい最近Pixアプリに追加した機能で、LinkedInでその人を探すこともできる)。

Google Lensは昨年のGoogle I/Oデベロッパーカンファレンスで初めて発表された。最近の機械学習と画像認識技術の進歩によって可能になった機能だ。最終目標は、スマートフォンのカメラを使ってどんな種類の写真に写っているものも認識し、必要なら電話をかけたり連絡先情報を保存するなどのアクションを起こしたり、カメラの向こう側にある世界について学ぶことができる。

I/Oカンファレンスのデモで、GoogleはほかにもGoogle Lensの機能をいくつか披露した。たとえばWi-Fiルーターに貼られたシールを写真に撮って、書かれている情報をWi-Fi設定に貼り付けることができる。外国語の看板を英語に翻訳する機能のデモも行われた。

まだ約束した機能のすべてを十分果たしているとはいえないが、Google Lensの成長とともに可能になっていくのだろう。

Google PhotosのTwitterアカウントが発信したツイートによると、iOS版Google PhotosのGoogle Lensは、最新バージョン(3.15)をインストールしているユーザーに米国時間3/15から順次展開される。

来週のうちには展開が終了する見込みだ。

[原文へ]

(翻訳:Nob Takahashi / facebook

AIで視覚的に情報検索「Google Lens」が全Android端末に対応。iOS版も間もなく

eng-logo-20152017年5月のGoogle I/Oで発表され、その後Pixel端末でのみ利用可能となっていたGoogle Lens。それが他のAndroid端末でも使えるようになります。

AIで世界を認識する新技術Google Lens発表。被写体の情報をその場で調べ、AR表示やアクションを実行

Google Lensはカメラで写したものをAIが認識し、それに関連する情報を検索して表示したり、文字を認識してテキストとして取り込むことができる機能。

発表時には、カメラで写したものをリアルタイムに認識するとアピールされていましたが、現状では撮影したものをGoogleフォトで開いてから認識する必要があります。ただ、Google Lensはまだプレビュー版とのことで、現在も機能追加や改良がおこなわれている最中です。最近では、動物や植物の種類の違いを認識できるようにもなりました。今後さらに使いやすくなっていくと考えられます。

そのGoogle Lensが、Googleフォトアプリの最新版でPixel以外のAndroid端末でも利用可能になるとのことです。Googleの新機能展開ではよくあることですが、ユーザーごとに段階的に有効化をしており、いまこの時点で使えなくても、今後数日のうちには利用可能になるはずです。

気になるのは、日本語でも利用できるのかどうかです。先日のARCore 1.0を発表したGoogleのブログ記事では、「すべてのGoogleフォトの英語ユーザー」が利用可能になるとされていました。このため、日本語設定では利用できない可能性もあります。ただし、Pixel 2のGoogle Lensは日本語でも利用できるので、日本でも使えるようになることを期待したいところです。

なお、iOS版への対応も近々に実施されるとのことです。

Engadget 日本版からの転載。

画像検索エンジン、Google LensがAndroidのGoogleフォトにやって来る

Googleのビジュアル検索エンジン、Google Lensは写真をスキャンして「何が写っているのか」を認識する。たとえば名刺をカメラで撮影するとLensは自動的に内容を認識し、連絡先に追加したりできる。

このGoogle LensがAndroidのGoogleフォトのユーザーに公開された。これはGoogleにとって最初の本格的なLensの普及の試みだ。これまでLens機能は最新のPixelスマートフォンでしか使えなかった。PixelではGoogle Assistantを通じてLensが利用できたが、他の機種のAndroidユーザーはアクセスできなかった。

GoogleではiOS版のGoogleフォトでもLensが「近々公開される」としているが、正確なスケジュールは明らかになっていない。

Lensは非便利であることもあれば、失望させられることもある。絶対に必要なツールかといえば今のところそこまでの完成度はないが、うまく作動するときはすばらしい能力を見せる。もちろんエッフェル塔の前に立っているときにGoogleレンズが「エッフェル塔です」と認識してくれても(時差ボケがよほどひどくない限り)それ自身ではあまり役に立たない。しかしいちいち文字を入力しなくても即座にエッフェル塔に関する詳細情報、歴史とか開館時間を知ることができるのは非常に便利だ(Googleマップからの検索でも有用な情報を手早く知ることができる)。

一方名刺スキャン能力はビジネスに大いに役立つ(相手が名刺の代わりにLinkedInのプロフィールで済ませている場合はダメだが)。

個人的にはLensの能力が不可欠だったという経験はまだしていない。最初は面白がってもやがて存在を忘れてしまいそうだ。しかしGoogleのことだから日々能力が改良されていくに違いない。やがて世界のどこで何を撮っても、名所であれレストランであれ、即座にそれが何であるか検索できるようになるのだろう。

画像: nurphoto/Getty Images

〔日本版〕右側のカット写真はサンフランシスコのテレグラフヒル地区の名所、コイト・タワー。

[原文へ]

(翻訳:滑川海彦@Facebook Google+

Googleの仮想現実プラットホームARCoreが1.0に達し、13の機種で可利用に、Lensのプレビューも対象を広げる

これまで実験で遊んできたGoogleの拡張現実プラットホームARCoreがいよいよ1.0のリリースとなり、全世界で1億を超えるAndroiddバイスで使えることになった。

新しいPixelスマートフォンを持ってる人は、Star WarsやStranger Thingsの世界を現実世界に重ねるGoogleのARステッカーで遊んだことがあるかもしれない。今日のARCoreのローンチでは、デベロッパーが自分の作品をPlay Storeに置くことができ、プレビューできなかったスマートフォンの持ち主もスマートフォンの拡張現実を初体験できる。

GoogleはすでにSnap, Sony, Wayfare, Porscheなどの企業に声をかけて、ARCoreの本格的なアプリを共に作ろうとしている。

ARができるためには、次の機種のどれかが必要だ: Pixel, Pixel XL, Pixel 2, Pixel 2 XL, Galaxy S8, S8+, Note8, S7, S7 edge, LGEのV30, V30+(Android Oのみ), ASUS Zenfone AR, OnePlusのOnePlus 5。これは、今あるAndroidスマートフォンのごく一部、と言わざるをえないが、Googleの最終的なターゲットはあくまでも、1億のスマートフォンなのだ。

またGoogleによれば、同社は目下“Samsung, Huawei, LGE, Motorola, ASUS, Xiaomi, HMD/Nokia, ZTE, Sony Mobile, Vivo”と共同で、彼らの次の新機種にARCoreを載せようとしている。ということは、Galaxy S9は買ったときからARCoreをサポートしていることになりそうだ。

AppleのARKitとの比較、という話になると、Googleかなり同じようなものをローンチした、と言える。違いといえば、Googleの方がデジタルモデルを投影する面のサイズに柔軟性があり、そしてARCore 1.0は、“環境を正しく理解するのでユーザーは仮想オブジェクトをどんな質感の面にも置ける”そうだ。

ARKitは床やテーブルや壁など、大きな水平/垂直面を前提しているが、ARCoreは何が面であってもよい。そこで、AR作品を手のひらや枕の横などにも置けるだろう。もちろん、壁や床の上でもよい。

ARCoreはプレビューを終えて1.0になるが、コンピュータービジョンツールLensに関してはまだプレビューをやっている。でも、今後はもっと多くのユーザーが使えるようにする、と言っており、まず近日中にAndroidと9より上のiOSのGoogle Photosアプリに導入される。そうすると撮った写真に対していろんな機能がLensの機能を使えるようになり、Google Assistantのライブ機能もSamsung, Huawei, LG, Motorola, Sony, HMD/Nokiaの今後の新機種に載ることになる。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Google Lensが多機能化してPixelスマートフォンのGoogle Assistantにやってくる

今や時間の問題だと誰もが思っていたGoogle Lens、それがついに今日(米国時間11/21)、Google Assistantの機能としてPixelスマートフォンに搭載される。そのことはすでにGoogleのハードウェアイベントで発表されていたが、今日までその日時等は不明だった。

Google Assistantを開いてLensが見えない人も心配ご無用。この機能の展開は徐々に進める、とGoogleも言っているが、とにかく“数週間以内に”アメリカとイギリス、オーストラリア、カナダ、インド、そしてシンガポールのPixelフォーンにやってくる。Assistantの画面の右下にLensのロゴが見えたら(右図)、Lensがある、使える、という意味だ。

これまでは、Lensを使う唯一の方法が、Pixelフォーンの上のGoogle Photosからだったから、まず写真を撮ってPhotosを開き、その写真を見ながらLensのアイコンをタップする必要があった。

それはとても面倒だったし、しかも多くの場合Lensは、ユーザーがすでに知ってることを教えるか、あまり多くのことに答えられないか、どちらかのケースだ(それがシドニーのオペラハウスであることを、知らない人はいないよ!)。だからGoogle Photosから使うLensには、かなりがっかりした(デザインは良かったけど)。

でもAssistantに載ったLensは、やや多機能になった。名刺(古語か?)の情報を保存したり、URLをフォローしたり、電話番号を呼び出したり、アドレスを認識したりする。ランドマークも認識するが、誰もが知ってるランドマークであることが多いだろう。背表紙やポスターを見て、映画や本に関する情報を教えてくれる。バーコードのスキャンもできる。どれぐらい上手にできるか、早く実機で試してみたいね。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

画像認識リアルタイム百科事典Google Lensが今年の終わりごろPixelスマートフォンで実用化

Googleが、Google Assistantに接続する画像認識アプリLensを初めてデモしたのは、5月に行われたデベロッパーカンファレンスGoogle I/Oだった。当時それは、大いに人気を博したが、そのときの発表の多くがそうであったように、リリースの日程などは明らかにされず、“近く”(soon)という言葉だけがあった。それからほぼ5か月になる。

今日(米国時間10/4)のGoogleのハードウェアイベントでは、Lensの最初のプレビューが同社のPixelスマートフォンに今年の終わりごろ登場する、と発表された。あくまでも、プレビューだ。そしてそのほかのデバイスには、“随時”ということだ。

LensはGoogleのさまざまな機械学習サービスを利用している。画像認識の能力にGoogle Translateのリアルタイム翻訳と、Google Assistantを結びつける。たとえば花のスナップと撮ると、Lensが花の名前を教え、そのほかのことも教えてくれる。ランドマークや名所旧跡、それにレストランですら、情報を教える。

I/Oで拍手の音がたぶんいちばん大きかったのは、Wi-FiルーターのSSIDとパスワードを読んで、ユーザーのスマートフォンをそこに自動的に接続するLensの機能だった。



[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Google I/O: Lensは「たこ焼き」の看板をリアルタイム翻訳―スマートフォンのカメラが賢くなる

今日(米国時間5/17)、Google本社に隣接するショアラインアンフィシアター野外劇場で開幕した Google I/Oデベロッパー・カンファレンスのキーノートで、CEOのスンダー・ピチャイはGoogle Lensという新しいテクノロジーを発表した。

これはGoogleのコンピューター・ビジョンと人工知能を統合し、スマートフォンのカメラからダイレクトに有益な情報を得ることができるシステムだ。Googleの説明によれば、スマートフォンのカメラは単に目に見える情報を撮影するだけでなく、写された対象を理解してユーザーが適切な行動を取るために役立つ情報を提供する。

Googleはユーザーが花を撮影しようとしてカメラを向けるとLensが即座に花の種類を教えてくれるところなどをデモした。

ピチャイはLensは日常のタスクでも役立つ例も挙げた。たとえばスマートフォンでルーターのラベルを撮影するだけで簡単にWiFiに接続できる。 Google LensはルーターのIDとパスワードを読み取り、タップするだけで自動的にそのWiFiに接続するアイコンを表示してくれる。

その次の例では 通りがかりの店舗を撮影すると、Google Lensが店名を読み取り、ウェブを検索して各種のビジネス情報をカード形式で表示する。

このテクノロジーはスマートフォンのカメラを撮影だけでなくモニタに写った対象に関する情報を得ることができるツールに変える。

Pichaiの説明の後、 Scott HuffmanはGoogle Homeのデモ中でGoogle Assistantに組み込まれたLensの能力を示した。Assistantアプリに追加された新しいボタンをタップするとLensを起動し、Assistantを通じてLensと会話し、写真の内容を尋ねることができる。

Scott HuffmanがカメラをStone Foxesのコンサートのポスターに向けるとGoogle Assistantはチケット・セールスを含めてコンサートに関する情報を表示した。Huffmanがオンラインでチケットを購入し「これをカレンダーに追加」と命じるとその通りにスケジュールが設定された。

LensとAssistantの統合は翻訳にも威力

Huffmanがカメラを〔「たこ焼き 6個 130円」という〕日本語の看板に向けて「これは何?」と尋ねるとGoogle Assistantは即座に正しく英語に翻訳した。

 

ピチャイはまたGoogleのアルゴリズムが写真の質を改善することができることも示した。たとえば金網越しに子供の野球試合のシーンを撮影したような場合だ。Googleの人工知能は目障りな金網を自動的に取り除いてくれる。また暗い場所で撮影した場合、Googleはピクセルノイズやブレを補正し、写真を見やすくしてくれる。

GoogleはI/OカンファレンスではLensがいつ一般公開されるか日時は明らかにしなかった。しかし「すぐに」手に入るようになるという。


[原文へ]

(翻訳:滑川海彦@Facebook Google+