ガン診断に特化して医師を助けるGoogleのSMILY

ガンの発見と診断は、それで生計を立てている医療専門家にとってさえ複雑で難しいプロセスである。Googleの研究者たちが開発した新しいツールは、不審なまたは既知の癌性細胞に対する画像検索を提供することによって、このプロセスを改善することができるかもしれない。だがそれは、単純なマッチングアルゴリズム以上のものだ。

多くの場合診断プロセスの一環として行われることは、顕微鏡下で組織サンプルを検査して、ガンの特定の形態を示している可能性のある、特徴的な兆候または形状を探すことだ。ガンも体も全て異なっているので、これは長くて骨の折れるプロセスになる可能性がある。そしてデータを検査する人間は患者の細胞を見るだけではなく、それをデータベース中の(場合によっては書籍に印刷された)既知のガン組織とも見比べなければならない。

これまで何年もの間十分に実証されてきたように、類似の画像をお互いに照合することは、機械学習エージェントにとても適した仕事である。それは、1枚の画像を投入すると視覚的に類似のものを発見してくれる、Googleの画像検索を実現しているものと同じ技術だ。そして、この技術は医療プロセスを自動化するためにも使用されており、コンピューターシステムは自身が認識するように訓練されたパターンまたは特徴を有する、X線またはMRI画像上の領域を強調することができる。

関連記事:中国の医療系スタートアップ、Infervisionが日本進出へ、機械学習と画像認識をがん診断に適用

これらは十分役立つものだが、ガンの病理学の複雑さは2つのサンプルの単純な比較を許してくれない。例えば1つは膵臓から、もう1つは肺から取られたサンプルの場合、視覚的には類似していたとしても2つの状況は完全に異なっている可能性がある。経験豊富な医師の「直感」は機械に置き換えられるべきものではなく、医師もまた自分が置き換えられてしまうかもと悩む必要はない。

こうした可能性と限界の両方に気が付いたGoogleの研究チームは、SMILY(Similar Medical Images Like Yours)というシステムを開発した。これは特に組織検査とガン検査のために重点的に拡張された画像検索システムの1種である。

利用者は、患者からの新しいサンプルをシステムに投入する。染色された組織の切片が広げられた、大きな高精細度のスライド画像だ(この方法は標準化されており、長い間使用されている。そうでなければどうやって2つのサンプルを比較すればいいだろう?)。

smilygif

サンプルがツールに投入されたら、医師は通常行うように、それを拡大したり上下左右に眺め回すことができる。興味がそそられるセクションを見つけたら、医師はその周りにボックスを描くことができる。するとSMILYは画像マッチングの魔法を行い、そのボックスの内側の画像をCancer Genome Atlas(タグ付けられ匿名化された膨大なデータベース)全体のデータと比較することができる。

サイドバーに似たような領域が表示され、ユーザーはそれらを簡単に精査することができる。そうした用途に対して、それは役立っている。しかし、SMILYを開発している間に研究者たちは、医者たちが本当に必要としていたものは、もっとはるかに粒度の粗いレベルの情報を得られるようになることだということに気が付いた。全体的な視覚的類似性が唯一の重要なものではないのだ。四角の中のある特徴や、ある種の比率、もしくは細胞のタイプなどが、利用者が探しているものだったりするのだ。

研究者たちが書いているように、

ユーザーが探しているものを実際に見つけるためには、ケースバイケースで検索結果をたどり、絞り込む機能が必要だった。この繰り返し検索の絞り込みの必要性は、医師がしばしば行う「繰り返し診断」を実行する方法に基づいている。すなわち仮説を立て、その仮説を検証するためのデータを収集し、対立する仮説の探索を行い、そして以前の仮説の再検討または再検証を繰り返し行うやりかたである。SMILYが実際のユーザーの真のニーズを満たすためには、ユーザーとの対話に別のアプローチをサポートする必要があることが明らかとなった。

この目的のために、チームはユーザーが興味のあること、つまりシステムが返すべき結果の種類をより厳密に指定できるようにする、拡張ツールを追加した。

まず第1に、ユーザーは彼らが関心のある領域内で1つの形状を選択することができ、システムはそれだけに焦点を合わせて、おそらく気を散らすだけの他の特徴を無視する。

第2に、ユーザーは検索結果の中から有望と思われるものを選択することができ、システムはそれにより近い(ただし最初の照会とはあまり密接に結びついていない)ものを返す。これにより、ユーザーは細胞の複雑な特徴を掘り下げて行くことが可能となり、上で研究者が述べていた「繰り返し」プロセスを行うことができる。

改良点

そして第3に、システムは、融合腺や腫瘍前駆細胞などのような一定の特徴が検索結果に存在する場合に、それを理解できるように訓練された。これらは検索に含めることも除外することもできる。したがって、それがあれやこれやの特徴に関連していないと確信している場合には、それらのサンプルを対象から外すことができる。

病理学者を使ったツールの試用の結果は有望なものだった。医師たちは、そのツールに素早く適応し、公式機能を使うだけでなく、結果を検証したり、ある特徴がありふれたものなのか、それとも実際に厄介なものなのかに関する直感が正しいか否かを確かめるために、問い合わせ領域の形を変えたりしていた。「このツールは、診断の正確さを損なうことなく、従来のもののインターフェースよりも好まれていた」と研究者らは論文に記載している。

これは良いスタートだが、明らかにまだ実験段階に過ぎない。診断に使用されるプロセスは慎重に監視され、吟味されている。人びとの命が依存している流れを、ただ好き勝手に新しいツールを持ち込んで、変えてしまうことはできない。むしろ、これは「専門家の意思決定のための、人間とMLの未来の協調システム」に向けての明るいスタートに過ぎない。いつの日か病院や研究センターのサービスとして組み込まれることだろう。

以下で、SMILYについて説明した論文と、医師向けにSMILYを詳細に説明した論文を読むことができる。これらの論文はもともと今年はじめにグラスゴーで開催されたCHI 2019で発表されたものだ。

画像クレジット: Google

[原文へ]

(翻訳:sako)

モバイル ファースト インデックスに向けて、構造化データと画像の代替テキストをお忘れなく!

「モバイル ファースト インデックス」の取り組みについて最初にお知らせしてから 2 年が経過しました。これは、ユーザーがウェブにアクセスする際に最も使用しているデバイスを考慮してスマートフォン用 Googlebot でクロールを行う取り組みです。あらゆる種類のデバイスに対応する素晴らしいウェブサイトが作られ、世界中で数多くのウェブサイトがモバイルウェブに対応しました。まだすべきことは多くありますが、ここに、モバイル ファースト インデックスに移行したページがグローバルでの検索結果の半数を超えたことをお知らせします。

モバイル ファースト インデックスの確認

通常、モバイル ファースト インデックスへのサイトの移行は、移行準備が完了したことをテストで確認できたときに行います。サイトを移行させた場合には、Search Console のメッセージを通じて、サイト所有者への通知が行われます。サイトの移行はサーバーログでも確認できます。移行後はスマートフォン用 Googlebot からのリクエストが大半を占めているはずです。また、URL 検査ツールを使用することでより簡単に確認できます。サイト所有者は同ツールでサイトの URL が最後にどのようにクロールおよびインデックスされているかを確認できます(確認はサイトのトップページだけで十分です)。

レスポンシブ デザインの手法がサイトに採用されているのであれば、特に準備は不要です。レスポンシブ ウェブデザインが採用されていないサイトでは、評価時に次の 2 種類の問題が比較的多く見られました。

モバイル版ページの構造化データの欠落

構造化データは、ページのコンテンツを把握しやすくする上で便利なものです。また、検索結果で自身のページをより効果的に強調できるようにもなります。デスクトップ版ページで構造化データを採用しているのであれば、モバイル版ページでも同じ構造化データを使用する必要があります。これは、非常に重要なことです。モバイル ファースト インデックスでは、インデックスの対象となるのはモバイル版ページのみになるため、モバイル版ページで構造化データが使用されていないと、構造化データが見落とされてしまいます。

なお、この問題に関しては、ページのテストの際に気をつける点があります。テストに際しては、構造化データの一般的な検証を行い、次にモバイル版ページの構造化データと比較することをおすすめしています。モバイル版ページに対しては、モバイル端末のシミュレーションを行ってソースコードを確認したり、モバイル フレンドリー テストツールで生成した HTML を使用したりすることをおすすめしています。一点ご留意いただきたいのは、モバイル ファースト インデックスに関して言えば、ページがモバイル フレンドリーである必要ありません、という点です。

モバイル版ページの画像代替テキストの欠落

画像に alt 属性(「代替テキスト」)を指定することで、スクリーン リーダー(モバイルでも使用されます)を使うユーザーや検索エンジンのクローラに対して、画像の内容を説明できるようになります。画像に代替テキストが指定されていない場合、Google 画像検索でページ上の画像のコンテキストを把握することが非常に難しくなります。

ウェブサイトの主要なモバイル版ページで、ソースコードの「img」タグを確認してください。上述のとおり、モバイル版ページのソースコードは、ブラウザでモバイル端末のシミュレーションを行って表示させることも、モバイル フレンドリー テストで、Googlebot が生成するバージョンを確認することもできます。ソースコードの「img」タグを探し、Google 画像検索で表示させたい画像に alt 属性が適切に指定されているか再度確認してください。

たとえば、次のように指定します。

代替テキストが適切に指定されている例:
<img src="cute-puppies.png" alt="ブランケットの上にかわいい子犬がいる写真">

代替テキストが指定されていない例:
<img src="sad-puppies.png">

多くの素晴らしいウェブサイトが、モバイルでも適切に表示されるようになるのは喜ばしいことです。より多くのウェブサイトがモバイル ファースト インデックスでインデックスされ、サイトへのアクセスに最も使用されるスマートフォンでより多くのユーザーがウェブを検索できるようになることを願っています。Google はこの変更を慎重に確認して評価し続けます。ご不明な点がございましたら、ウェブマスター フォーラムまたはイベントでご質問ください。

Amazonは、Echo ShowやEcho Spot上での画像検索のために、Gettyに対して映像の提供を求めている

Getty一族がGetty Imagesのコントロールを取り戻したこと(およそ30億ドルと報じられている)に続いて、同社はその画像がさらに多くの人に目に触れるようにするための、拡大の動きを発表した。同社は現在Amazonと協力して、2億枚のデジタルイメージのカタログから画像を提供し、スクリーンを持つEcho ShowとEcho Spotデバイスでの検索に投入しようとしている。

この取引は、スクリーンを持ちEcho Showに対抗するGoogle Homeデバイス(検索の覇者Google製造)発売の噂のど真ん中に投入された。Googleのデバイスはホリデイシーズン前の投入が予想されている。

Gettyとの契約が、Echoデバイス上でGettyカタログにアクセスできるスキルを開発するものなのか、あるいは単にAmazonの基本的な検索に対応するだけのものなのか、あるいは何かその中間のものなのかははっきりしていない。私たちはAmazonとGettyに対して質問をしている。何らかの回答があった場合はこの投稿を更新する。

Gettyが説明しているように、その画像は、利用者の問いかけに対してAlexa(AmaoznのAIアシスタント)が「Alexaのビジュアルスタイルを形作る」ために反応するやり方を向上させるために使われる。

「私たちのエディトリアル、クリエイティブ、アーカイバルのコンテンツを集めた最高のコレクションは、Amazon Echo製品に対する自然な調和を実現します。Echoのユーザーの皆さんにクラス最高のビジュアルをお届けします」と語るのは、Getty Imagesの戦略開発担当SVPのPeter Orlowskyだ。 「Echoのスクリーン付き製品と結びついて、私たちの深いコンテンツライブラリを使い、Alexaにこれまでにない最高の外観を提供できることは、大変光栄なことです」。

検索には、時事問題と一般知識の両者が含まれる(Gettyが挙げた例としては:「誰が受賞した?」に対する答としてアカデミー賞の受賞者の写真、「この国(あの国)の首都は何処?」という問いかけに対する都市の写真、そして最新のタッチダウンやサッカーのゴールの写真を見せるなどだ)。

この取引は、いくつかの理由から興味深い動きである。Amazonにとっては、この取引は同社に幅広い画像のカタログを提供し、その結果より安価な音声のみのデバイスに加えて、もしくはその代りに、人びとにEcho ShowやEcho Spotの利用を(そして購入を!)促すことになるだろう。

昨年Echo Showが発売された直後には、魅力的なスキル(Echoアプリ)が十分にないという初期段階の批判が見られた。現在はそうしたスキルも増えているが、音声ベースのEchoスピーカーは引き続き同社の主力商品であり続けている ―― たとえ最近はGoogle Homeのセールの方がEchoのペースを上回っているようであっても ―― それ故にこの取引は、Amazonがスクリーン付き製品販売に関する活路を見出す手助けをしてくれる可能性がある。

Amazonがビジュアル検索での早期の進歩を手に入れ、そのデバイスのためのより強力な基本アプリケーションを確立したいと考えている点も興味深い動きだ。1年前私たちは、GoogleがスクリーンベースのHomeでEcho Showに対抗しようとしていると報じた。そして今やそれは、今年のホリディシーズンの前に登場する可能性があると報じられている。

これが意味することは、Amazonが(何よりも検索の巨人である)Googleが優位に立つ前に、少しでも印象的に見える自身の製品を投入する可能性が高まるということだ。

Gettyの側に目を向けると、同社はここ数年に渡ってその巨大な画像カタログから収益を生み出すための、様々なアイデアを試行してきている。だがそのほとんどは上手く行っていない。これまでに33億ドルを支払ったオーナーから、その資産をGetty一族が30億ドルで買い取ったということからもそれは裏付けられる。しかしそのビジネスに関わる大きな数字 ―― 3億枚の画像、デジタル化された2億枚 ――はそれ固有の価値も持っていることを示している。

実際に、これはGettyにその資産の価値を活用する手段を与え、強力なGoogleに対抗するAmazonのためのテコとなるのだ。

私の目を惹いたのは、プレスリリースにはAmazonからの直接の声明は書かれていなかったことだ。私はAmazonにコメントを求めてきたが、他の統合の例からもわかるように(先週のMaplillaryのニュースなど)、ときどきAmazonはそのサービスと製品のカードの手の内を見せないように、パートナーとの協業に対して沈黙を守ることを好むことがあるのだ。

[原文へ]
(翻訳:sako)

Google 画像検索の参照元 URL の変更について

Google 画像検索を使って日々ウェブ上のコンテンツを視覚的に探索するユーザーはかなりの数に上ります。次に焼くクッキーのアイデア、視覚的にわかりやすいタイヤ交換の手順など、ときおりテキスト検索より画像検索のほうがずっと役立つ場合があります。

参照元 URL の変更

これまで、サイトへのトラフィックのうち Google 画像検索がどれだけ貢献しているかを把握するのは簡単ではありませんでした。そこで Google では、Google 画像検索専用の新しいリファラー URL を導入し、これから数か月かけて順次ロールアウトしていくことにしました。リファラー URL とは HTTP ヘッダーの一部で、これを見るとユーザーが 1 つ前にいたページ(目的のウェブページを訪れるためにクリックしたページ)がわかります。

ウェブサイトへのトラフィックの追跡や分析を行うソフトウェアを開発している場合は、ぜひこの変更にご対応いただければと思います。新しいリファラー URL を取り入れて、Google 画像検索からのトラフィックを識別できるようにしてください。新しいリファラー URL は https://images.google.com です。

サイトデータを Google アナリティクスで追跡している場合は、特に対処の必要はありません。新しいリファラー URL が自動的に適用され、Google 画像検索からのトラフィックを正しく識別できるようになります。なお、この変更は Search Console には影響しません。サイトへのトラフィックに貢献している上位検索クエリの集計リストは、これまでどおりご利用いただけます。

国別のクエリへの影響

新しいリファラー URL には、Google 画像検索で使用する URL と同じ国別コード トップレベル ドメイン(ccTLD)が含まれています。つまり、世界中のほとんどのユーザーは images.google.com からのアクセスとなります。昨年実施した変更(英語)で、世界中のユーザーが検索するとき、デフォルトで google.com が選択されるようにしたのはそのためです。ただし、一部のユーザーは引き続き、国別のサービス(日本なら google.co.jp)に直接アクセスしている可能性があります。その場合は、その国の TLD(たとえば images.google.co.jp)が使用されます。

この変更により、ウェブ上の視覚的なコンテンツがさらに充実することを願っております。ウェブページを Google 画像検索に最適化する方法については、画像公開に関する Google のガイドラインをご覧ください。ご質問、ご意見、ご提案などございましたら、ウェブマスター  ヘルプ フォーラムからお寄せください。

コンピュータービジョンで家具を特定するGrokstyleは200万ドルを調達済

こんな技術があればいいのに、といつも思っていたことの1つは、携帯電話を何かに向けて写真を撮れば、それが何であるかということと、どこでそれが買えるかを教えてくれるような機能だ。そんな私の贅沢な大量消費の夢が叶い始めているようだ。Grokstyleはその夢の実現に取組んでいる企業の1つだが、同社の技術はどんな角度の写真からでも家具や家庭の装飾品を自動的に特定してくれる。

基本的なアイデアは以下のようなものだ。アプリやウェブインターフェイスを開き、写真を撮影するかアップロードする。椅子でもランプでもお好みのものを選ぶことができる。好きな角度、好きなスタイルで構わない。Grokstyleサービスは、即座に最も似通ったものを答えてくる。そのものだけでなく、それに似通ったものも一緒に。

これはもちろん、インテリアコーディネーターにとってとても便利な機能だが、一般の買い物客も役立てることができる。Restoration Hardwareで素敵なランプを見かけたが、それに500ドルは支払えない?おそらくCB2には似たような何かがあるだろう…Grokstyleは個々の店の在庫を示し、類似品や相当価格のものをチェックできるようにする。

ビジネスとしては、同社は小売アプリやウェブインターフェイスが呼ぶことのできるAPIとしてそのサービスを提供する。そして多くのデザイナー、部屋、地域を組み合わせた深い知識を使って、例えば、今見たカウチとこのエンドテーブルがお似合いだ、といったことを勧めることもできる。

当然だが、こうしたことの中心にはコンピュータービジョンとマシンラーニングが置かれている。それが何の写真なのかを判別し、対象の輪郭を抽出し、寸法を測り、色やその他の特徴を調べ、同社が集めた数百万ものライブラリとマッチングを行う。

「私たちの会社はコーネル大学での研究からスタートしました」と共同創業者兼CEOのSean Bellが言う。「私たちは『それは何か?』という問に焦点を当てました。そして、その問題のための最高の技術を開発したのです」。

それは簡単なことではない。照明、組み合わせ、奇妙な角度…ユーザーの意図は言うまでもない。テーブルを撮影したのか、それともその隣の椅子が狙いだったのか?それはクルミなのかサクラなのか?

簡単だろうが何だろうが、彼らはそれらを実現した。そして得られたシステムは本当に素早く動作するのでまるでトリックがあるようにも見える(そうではないが)。動作中のプロトタイプの動画を以下に示そう。

共同創業者のKavita Balaが研究所を率い、大学院生のBellが加わった。そして彼らはGrokstyleの技術基盤を2015年のSIGGRAPHで発表した。大変な将来性が見込まれたので、コーネル大の公式な承認の下、彼らは自身の会社をスピンアウトすることを決めた。

「コーネル大学における起業活動は、ここ数年でとても重要になって来ています」とBala。「私たちは時代の波に乗っています、大学は私たちの成功を望んでいるのです」。

もちろん、この活動の一部は、お金を持っている人びとと関係している。Grokstyleは国立科学財団からの22万5000ドルの助成金でスタートし、様々なファームやエンジェルたちから合計200万ドルを集めた。取りこぼしはしたくないので、Seanによるサマリーを引用することにしよう。

Canaan Partners、Amino Capital、Neuron.VC、Krishna Bharat(元Google News責任者)、Amit Singhal(元Google検索責任者)、Luc Vincent(Lyftのエンジニアリング担当副社長)、Red Bear Angels(コーネル大エンジェルネットワーク)、その他のエンジェル投資家たち。

CB Insightsは彼らをAI 100リストに取り上げて賞賛している。今日のAIスタートアップの数を考えると、決して小さな扱いではない。現在は家具の世界に集中しているが、決してそこが物語の終わりではない。

「私たちは、このアルゴリズムは一般化できるものだと思っています」とBala。「複数のひとがユースケースとしてテレビを挙げています。もし適切なパートナーをご存知なら…」。

この手の技術が、ファッション、旅行、その他の高度に視覚的なマーケットにどれほど良くマッチするかは言うまでもない。家具の場合、バラエティには富んでいるものの、対象は少なくとも静止しているし比較的硬い。風にたなびく織物や、バースツールチェアがずっと同じ位置にあり続けるかどうかを心配する必要はない。しかし彼らは靴とハンドバッグあたりから、手を出すのかもしれない。

現在同社はパートナーシップの獲得と運営(相手が誰かは教えて貰えなかった)に取組んでいる。そして「本当に多数のエンジニア」を雇うことで、アルゴリズムの正確性と柔軟性に取組んでいる。

Grokstyleのシステムと、彼らの取り組み(そしてAPIアクセス)に関しては、同社のウェブサイトで情報を得ることができる。

[ 原文へ ]
(翻訳:Sako)

Valossaはビデオの登場人物の感情までも検索可能にする


ビデオ分析プラットフォームのValossaは、ビデオ制作者、広告業者、その他のビデオ専門家たちがビデオ内の映像を把握する際の手助けとなるプラットフォームVal.aiを立ち上げた。コンピュータビジョンに対する巧みな検索(「ビーチの男性」「車のインテリア」「びっくりする子猫 」)に加えて、このプラットフォームは感情分析(この人は幸せ/この人は悲しい/この人は混乱している)を行うことができ、HD画像ストリームから心拍数の分析を行うこともできる。

私はTechCrunch Disruptでプラットフォームを試して、同社の技術が単なるビデオフィードから、どれだけ多くのことを探り当てられるかに圧倒された。特に心拍を測定する機能は、ほとんど魔法のようだった。同社の技術はイメージフィードの中に起きる顕微鏡的変化を使って、いつ拍動が起きているかを検知している ‐ もし私のApple Watchの心拍数モニターは正しいとすれば(おそらく違うかもしれないが)、それは驚くほど正確だった。もしそれ絶対的な基準に照らして100%正確ではないということが分かったとしても、ビデオ映像を分析する人々が相対的変化(心拍が上昇した/心拍が下降した)を検知するためには有用だろう。

  1. img_2390

    97%ハッピー
  2. img_2391

    76%の悲しさ
  3. img_2392

    78%の当惑
  4. img_2393

    「Haje、その脱いだズボンを穿いたらどうだ」。意味しているのは93%の驚き。

「私たちのテクノロジーには沢山の用途があります」と説明するのは同社のチーフコマーシャルオフィサーのVille Hulkkoだ。「特に巨大なフィルムプロジェクトに取り組んでいる人たちのためのものです。例えば、あなたが、ビーチ上の犬とビーチボールの映像の、特定の部分を探していると想像してみてください。もしそれがいつ撮影されたかを覚えていない場合には、目的のビデオクリップを探すのにとても長い時間を費やすことになります。当社の技術を使えばそれは簡単です:ただそれを検索するだけです」。

同社の感情分析エンジンの優秀さは気味が悪いほどだ。あなたはそれをWhat is my Movieというサイトで試すことができる(昨年のDisruptでローンチされた) ‐ 例えば「dog gets lost」とか、「hero wears a suit」とか、「money is burned」といった文字列で検索してみて欲しい。素晴らしい。そう思わないか?

[ 原文へ ]
(翻訳:Sako)

Pinterestが画像検索機能を追加、スマホカメラを使って類似商品などが探せるように

img_1338

Pinterestは本日(米国時間6月28日)、購入したい商品を探すための新ツールを発表した。商品は現実世界で見ているものから探すことができる。

使い方はこうだ。Pinterestの検索にある、画像検索ボタンをタップする。興味がある物にカメラを向けると、アプリは写っているものの画像検索を自動で行う。認識できる物には全部オブジェクトを追加する。ユーザーは追加されたドットをタップすると、類似商品のレコメンドを見ることができる。

この画像検索ツールは次の数ヶ月で展開するとPinterestは説明する。この画像検索ツールは、一連のアップデートの一部に過ぎないと今朝サンフランシスコで開催したイベントでPinterestが伝えた。

画像検索ツールは全体の画像検索機能アップデートの一部だ。今後、ユーザーはPinterestで写真を開くと、写真に写るものを判別し、Pinterestが類似商品があると判断した物を自動で検出する。ユーザーが画像検索ボタンをタップすると、ドットが表示される。ユーザーは画像の指定範囲を調整し、より精密な画像検索を行うことも可能だ。

これは、Pinterestの抱えるオンライン・コマース企業をさらに活かすための施策だ。Pinterestは画像検索ツールに大々的に投資し、ユーザーは画像から商品やPintrerestのピンを探したりすることができる。ウェブには他の画像検索ツールもある。だが、Pinterestは画像検索に大きな焦点を当てていると公に発表している数少ない企業のうちの一社だ。

カメラから画像検索できるという今回のアップデートは、ユーザーが購入体験において初めて商品に関心を持つ瞬間にPinterestが近づくことを意味する。これまでユーザーが現実世界の何かを見て、購入をすぐに決断する瞬間にEコマース企業が入り込むことは難しかった。どこの販売店でも、この重要だがあまりに小さなチャンスを得ることは難しいが、それでも物理店舗の方が有利だった。今回、カメラからの検索テクノロジーを用いたツールを追加することで、Eコマース企業がその瞬間に訴求し、オンライン購入へとつなげることが可能となる。

Pinterestがこのような施策を取るのは自然なことだろう。Pinterestはほぼ全てが画像による体験を提供していて、それはテキストの情報よりユーザーを惹きつける。また、企業がそのユーザーを潜在的なカスタマーに転換する助けにもなる。Pinterestはユーザーの購入プロセスのどの場面にも入り込むことができる。特定の商品やブランドに興味を持つところから、商品の検索し、購入の意思を固め、最終的に購入に至るまでだ。Pinterestには全てのタッチポイントがあるため、パートナーと協力して、広告を打つことが可能だ。Pinterestは他のネットワークにはない広告ツールが提供できる。

pinterest visual search

画像検索の他に、Pinterestは新たなコマースツールも展開する。このツールはユーザーのウェブを使う場面についていき、ユーザーがどの媒体からでもプロダクトを検索したり、購入したりすることを可能とする。

Pinterestの新たな「ショッピング・カート」機能も今回の重要なアップデートとうまくつながる。Pinterestから購入可能な商品で、気に入ったものをユーザーはショピングカートに追加することができる。カートはアカウントをアクティブにしている他のどのプラットフォームからでもアクセスすることが可能だ。例えば、スマホで気に入った商品を見つけたが、まだ購入を迷っている場合、あとでiPadから購入したりすることができる。あるいは、ウェブからも購入できる。Pinterestはウェブバージョンにも購入機能を展開し、アプリだけに留まらない購入体験を広めたい考えだ。

Pinterestはブランドに、コンシューマーとの新たなタッチポイントを提供する。ブランドページだ。ユーザーが特定のバッグを探しているなら、販売店のページに直接アクセスし、その販売店が取り扱っている類似商品も合わせて見ることができる。

New Merchant profile

コマースツールがPinterestにとって重要なのは、前述したようにPinterestはコンシューマーの購入体験の全過程にアクセス可能だからだ。Pinterestは他の類似サービスと同じように、広告パートナーやコマースパートナーとして多くの事業者を集めたい。Pinterestのコンテンツの大部分は商業用コンテンツであり、スムーズな購入体験はPinterestのサービスにとって重要だ。

Pinterestのようなスタートアップしか、このような画像検索エンジンを用いた購入体験という大幅なアップデートを展開することはできないだろう。他のコマースサイトにはこういったツールは存在しない。Pinterestは大規模なソーシャルネットワークであり、1億人以上のユーザーがいる。ユーザーはキュレートショップやオーガニック検索、あるいはPinterestの進化し続ける広告ツールによる高度なターゲット広告から欲しい商品を見つけ、購入に至っている。

[原文へ]

(翻訳:Nozomi Okuma /Website