Googleフォトの新機能発表、iCloudやFacebookから写真を移動、保管する便利なインポートオプションなど追加

米国時間3月22日、Google(グーグル)はモバイル端末向けの人気アプリ「Googleフォト」で今後追加される変更点を多数発表した。今回のアップデートにより、アルバムの整理、インポート、分類、そして共有コンテンツやスクリーンショットへのアクセスがより簡単になるという。新機能の中には、Googleフォトアプリとデバイス上のフォルダとの連携を強化するものもあれば、年月を経て大きく、扱いにくくなってしまったライブラリの整理に重点を置いたものもある。

例えば、アプリのライブラリタブのデザインが変更され、写真をグリッドやリストで表示できるようになる。アルバム、共有アルバム、お気に入り、デバイス上のフォルダなどでフィルタリングして、好きなように分類できるようになる。この変更は、ギャラリーが多すぎて把握しきれない人や、写真を探すときに絞り込む方法が必要な人に歓迎されそうだ。

画像クレジット:Google

もう1つの機能は、写真をGoogleフォトという保管場所で一元管理してもらうというものだ。アルバムグリッドの下に、(最新版の)ロックフォルダ、ユーティリティ、アーカイブ、ゴミ箱機能のボタンと並んで、新しく「写真のインポート」セクションが追加される。このインポートオプションにより、iCloud(アイクラウド)、Facebook(フェイスブック)、Pixieset(ピクシセット)などの競合するサービスからの写真のコピー、写真、ビデオ、フィルムのデジタル化、デバイスフォルダからのバックアップ、カメラからGoogleフォトへの写真の移動、Google Photos Scan(グーグル・フォトスキャン)を使った写真のスキャンができるようになる。

インポートオプションはすべてが新しいわけではない。例えばPhotoScanは、以前はユーティリティの下にあった。また、iOSユーザーは、iPhoneのフォトギャラリーのお気に入りをGoogleフォトのお気に入りと同期することもできる。また、FacebookやiCloud内の他のサービスからGoogleフォトにインポートする方法もある。しかし、Googleフォトアプリ内には、写真をインポートするさまざまな方法を一覧する、専用の場所がなかった。

画像クレジット:Google

一方、アプリの「共有」タブもアップデートされる。パートナーと写真を共有する共有アルバムや会話などのセクションが追加される。これにより、さまざまな共有写真や動画を簡単に検索、表示、管理できるようになるという。このアップデートは、Android(アンドロイド)では米国時間3月22日から、iOSのユーザーには近い将来提供される予定だ。

Androidユーザーには、Googleフォトでデバイスに保存したスクリーンショットへのアクセスも付与する。Googleフォトのユーザーの多くは、ストレージ容量を節約するためにデバイスのスクリーンショットをバックアップしていないが、それでもそうした写真を見たい場合がある。Googleによると、間もなくメインの写真グリッドの上部に表示される新しいショートカットをタップしスクリーンショットに直接アクセスできるようになるとのことだ。

画像クレジット:Google

もう1つのAndroid限定機能は、スクリーンショットを閲覧する際に、テキストのコピー、切り取り、Googleレンズの使用などの文脈的な提案をユーザーに提示するものだ。これは、Apple(アップル)のLive Text(ライブテキスト)機能の開始に続くもので、写真からテキストをコピーして貼り付けることができるようになる。

Googleフォトは写真を改善する方法を提案することが多いが、そのヒントはユーティリティメニューに埋もれてしまう。普通、スクリーンショットアプリは「整理すべきもの」の対象として削除が推奨される他に焦点が当たることはない。しかし、今回の機能は、ユーザーが実際に何かをしたいからスクリーンショットとして保存しているのであって、必ずしもすべてを使い捨てにするとは考えていないことを認めている。この特別な機能は、Androidに「間もなく登場する」とGoogleは述べている(iOSではすでに導入されている)。

特に断りのない限り、新機能はiOSとAndroidのGoogleフォトユーザーに今後数週間で徐々に展開される予定だ。

画像クレジット:Jaap Arriens/NurPhoto / Getty Images

原文へ

(文:Sarah Perez、翻訳:Nariko Mizoguchi

グーグルがウェブサイトの写真を購入可能な商品に、「検索」に新たなショッピング方法を追加

Googleは、オンラインおよびGoogle検索モバイルアプリを利用した新たなショッピング方法を紹介した。近日に行われるiOS用「Google検索」アプリのアップデートでは、デバイス上での処理を利用した新しい機械学習モデルを活用して、ウェブサイト上の画像に含まれる商品を認識し、即座に「ショッピング可能」な状態にする。これにより、オンラインショッピングをするユーザーは、検索結果から洋服やアクセサリーを見たり、近くの店舗に在庫があるかどうかを確認したりすることが簡単になる。

iOS用のGoogleアプリでは間もなく、ユーザーはウェブサイト上の画像をGoogleレンズでショッピング可能な商品に変える新しいボタンを目にすることができる。ウェブサイトを見ていて、写真の中に気になるものがあれば、タップしてその商品の購入先を確認することができるのだ。この機能は、すでに画像内の商品を識別できる「Googleレンズ」の技術を拡張したもので、これまでと違う新たな文脈での利用となる。

画像クレジット:Google

Googleによると、デスクトップのChromeにも「Googleレンズ」が登場し、ユーザーは「レンズ」でウェブサイト上の画像、動画、テキストコンテンツを選択すると、同じタブで検索結果を見ることができるようになる。

別のアップデートでは、モバイル端末で服や靴、アクセサリーを見ているときに検索結果から簡単に買い物ができるようになる。

例えば「クロップドジャケット」といった検索条件にマッチする商品が、複数の色やスタイルでビジュアルフィードとして表示される。また、スタイルガイドや動画、購入場所の詳細情報なども表示される。さらにスタイル、ブランドなどで検索結果をフィルタリングしたり、評価やレビューを確認したり、価格を比較したりすることもできる。

画像クレジット:Google

この機能は、Googleが提供する「ショッピンググラフ」によって実現される。ショッピンググラフは、現在240億件以上の商品情報をリアルタイムで提供している。

また「在庫あり」のフィルターを選択すると、近くの店舗で今すぐ購入できる商品を確認することができる。この機能は、忙しい年末商戦の前に、プレゼントや子どものおもちゃを買う際に特に役立つだろう。

今回のアップデートは、本日開催されたGoogleのイベント「Search On」で発表された。同社はGoogleマップ、レンズ、検索の他の製品アップデートについても詳細に説明しており、その中には新しいAIの機能強化を活用するプロダクトもある。

画像クレジット:Google

原文へ

(文:Sarah Perez、翻訳:Katsuyuki Yasui)

ビジュアル検索「Googleレンズ」アップデート、グーグルがAIで画像とテキストを1つのクエリにまとめる新検索方法を近々導入

2021年5月、Google(グーグル)は年次開発者会議「Google I/O」において「Multitask Unified Model(MUM)」と呼ばれる新しいAIマイルストーンを紹介した。この技術はテキスト、画像、動画など、さまざまな形式の情報を同時に理解し、トピック、コンセプト、アイデアの間の洞察やつながりを導き出すことができる。同社は米国時間9月29日、MUMを自社製品で活用する方法の1つとして、ビジュアル検索「Googleレンズ」のアップデートを発表した。

Googleレンズは、携帯電話のカメラを使って、リアルタイム翻訳、植物や動物の識別、写真からのコピー&ペースト、カメラのファインダーに写っているものと類似したアイテムの検索、数学の問題の手助けなど、さまざまなタスクを実行できる同社の画像認識技術だ。

近い将来、Googleは、MUMの機能を活用してGoogleレンズをアップグレードし、視覚的な検索にテキストを追加して、ユーザーが見ているものについて質問できるようにするという。

実際には、この機能は次のような使い方ができる。例えば、気に入ったシャツの写真をGoogle検索で表示した後、レンズのアイコンをタップして、同じ柄のもの、だが今度はソックスをGoogleに探してもらうことができる。そこに「この柄のソックス」とでもタイプ入力することで、テキスト入力だけでは難しい、関連性のあるクエリをGoogleに指示することができる。

画像クレジット:Google

 

これは、現在のGoogleが苦手としているタイプのクエリ、つまり、言葉だけでは説明しにくい、あるいは異なる方法で説明できるような、探しているものに視覚的要素がある場合には、特に有効だ。画像と言葉を1つのクエリにまとめることで、Googleはより適切な検索結果を提供できる可能性がある。

別の例では、自転車の部品が壊れてしまい、修理のヒントをGoogleで検索する必要があるとする。しかし、その部品が何という名前なのかはわからない。修理マニュアルを調べる代わりに、自転車の壊れた部分にGoogleレンズを当てて「修理する方法」と入力してみることができる。そうすれば、助けになりそうな動画の瞬間に直接つながるかもしれない。

画像クレジット:Google

Googleは、このようなAIを活用した取り組みは、新しい検索の仕方を可能にすることで、自社製品をエンドユーザーにとって「より役に立つ」ものにする方法だと考えている。同社は、検索の一部に携帯電話のカメラを利用することで、コアなユースケースの多くが他のプロパティに移行し始めている市場での存在感を維持しようとしている。例えば、今日、ショッピングの検索は多くの場合、直接Amazon(アマゾン)で始まる。また、iPhoneユーザーは、携帯電話で何か特定のことをしたいとき、Siri、Spotlight、App Store、またはネイティブアプリに助けを求めることが多い。そしてApple(アップル)は、Google検索に代わる独自の検索サービスを開発している。iOS 15でアップデートされたSpotlight検索では、Google検索に頼らず、ユーザーが必要とする情報に直接アクセスできるようになった。

Googleは、Google検索やビデオ検索においてもMUMを活用していくと、29日開催されたライブイベント「Search On」で発表した。

なお、Googleレンズのアップデートは今後数カ月のうちに実施される予定だという。そのためには、新しいAIモデルを導入する際には必ず実施される「厳格なテストと評価」を行う必要がある、と同社は述べている。

画像クレジット:Google

原文へ

(文:Sarah Perez、翻訳:Aya Nakazato)