どんどん増える画像や動画に特化したデータベースを開発するApertureDataが約3.5億円のシード資金を調達

Vishakha Gupta(ビシャカ・グプタ)氏と、後に共同創業者になるLuis Remis(ルイス・レミス)氏は2016年にIntel Labsでともに働いていた頃、どんどん増えるビジュアルデータ(画像やビデオ)をどう管理するかを解決する業務を任されていた。2人はこの問題に精力的に取り組み、研究者やデータサイエンティストとも協力して、大量のビジュアルデータに適したインフラの開発を始めた。

結局、画像を扱い、データサイエンティストが利用する要件を満たす新しいデータベースが必要であるとの結論に達した。データサイエンティストは画像データを処理するために複数のシステムを扱う必要があり、これは非効率で時間がかかることがわかった。2人はもっと良い方法があるはずだと考え、Intelにまだ在籍していた2017年に、1カ所であらゆる処理ができるデータベースを構築するためのシステムに取り組み始めた。

2人はこの仕事がスタートアップになる素地を備えていると考え、2018年にIntelを退社してApertureDataという企業を始めた。正式に創業したのは2018年後半で、現在も引き続きこの問題に取り組んでいる。

最終的に開発したソリューションはApertureDBという名前のクラウドアグノスティック(特定のシステムに依存しない)データベースで、画像を処理することに関連するあらゆるデータ(メタデータなど)を1カ所で扱うことに特化して設計され、自動化することで手作業でデータを検討する時間のかかるステップを省くことができる。

グプタ氏は「もし私がデータサイエンティストで、データを見て何が起きているかを把握する立場だとしたら、データの検討に(相当長い)時間を費やさなくてはならないでしょう。(これまでは)このようなタイプのデータやこのようなタイプのユーザーを理解できるデータベースがなかったからです」と説明する。

さらに同氏はこう続ける。「それがこの問題を解決しようとするきっかけになりました。私と共同創業者はIntelにいたときにこの問題に直面していました。そして自分たちのためにこの問題を解決するのであれば、このインフラを構築している間にどうすればもっと多くの人のためにこの問題を解決できるかを探ろうと考えました。その結果としてApertureDataを創業し、ApertureDBをプロダクトとして提供することになりました」。

同社の従業員数は現在8人で、2022年末までに15〜20人にすることを目指している。グプタ氏は、女性創業者として多様性のあるチームを構築することの重要性を、そして2人の子を持つ母としてワークライフバランスの重要性も強く認識している。

同氏は「スタートアップで働くなら私的な部分は犠牲にしなくてはいけないというシリコンバレーの古い考え方があることをご存じでしょう。(私たちの考えでは)実はバランスをとることもできるし、多様性も実現できます。最初から多様であることが重要です」と述べた。

米国時間2月8日、ApertureDataはプロダクト開発を継続するための300万ドル(約3億4500万円)のシード資金調達を発表した。このラウンドを主導したのはRoot Venturesで、他にWork-Bench、2048 VC、Graph Ventures、Alumni Ventures Group、Magic Fundと、業界のエンジェルも参加した。

このラウンドがクローズしたのは2021年10月だった。それ以前は、全米科学財団の助成金、友人や家族からの資金、そして昔ながらのブートストラップでプロダクトを開発していた。

画像クレジット:Dimitri Otis / Getty Images

原文へ

(文:Ron Miller、翻訳:Kaori Koyama)

グーグルで18歳未満やその親が検索結果からの写真データ削除を申請可能に

Google(グーグル)は、18歳未満のユーザーとその親が、同社の画像検索結果から写真を削除することを申請できる機能を導入する。

この新しいプライバシーオプションは、Googleが2021年8月に発表した多くの変更点の1つで、18歳未満のユーザーをより厚く保護するために先行導入される。この他にも、アップロードされた動画をデフォルトで非公開にしたり、開封動画などの「過度に商業的な」YouTubeキッズコンテンツを無効にしたり、排除したりすることが計画されている。

関連記事:グーグルが検索やYouTubeなどの自社プラットフォームにおける未成年者保護を強化


18歳未満のユーザーまたはその親や保護者は、このリクエストフォームに必要事項を記入して、検索結果に表示される画像の削除をGoogleに依頼できる。その際「現在18歳未満の個人が写っている画像」を削除して欲しいと明示し、個人情報、画像のURL、検索結果に表示される検索クエリを示す必要がある。

Googleは、すべてのリクエストをレビューし、フォローアップのために必要に応じて確認のために追加で質問するという。問題のある画像が削除されたら、同社から通知が来るため、待たされたままになることはない。

米国をはじめとする多くの国では、オンライン上の「忘れられる権利」を扱う国内の法的枠組みが存在しない。強力なプライバシー規制の金字塔として広く知られているEUの包括的ルール「GDPR」では、写真を含むある種のオンライン識別情報の削除を要求する手段が用意されている。

Googleの新しいリクエストツールは便利で、世界中で利用可能だが、GDPRが定める要件には及ばない。Googleの場合、写真の削除を要求するには、対象となる人物が18歳未満でなければならない。GDPRはさらに進んでおり、画像がアップロードされた時点で本人が未成年であった場合、本人の要求に応じて画像を削除することをインターネット企業に義務付けている。

Googleが発表した上記の画像削除オプションをはじめとする一連の変更は、米国で同社や他のテック企業に対する規制当局の監視が厳しくなっていることを反映したものだ。10月26日には、YouTubeは上院商務委員会で同社の動画プラットフォームを利用する若くて脆弱なユーザーを保護する取り組みについて証言し、最近発表した変更点をアピールした。

画像クレジット:Alex Tai/SOPA Images/LightRocket / Getty Images

原文へ

(文:Taylor Hatmaker、翻訳:Nariko Mizoguchi

ミームの元画像を検索し、自分で新たなミームが作れるAntimatterのアプリ「Reverse Meme Search」

好むと好まざるとにかかわらず、今やインターネット・ミームは私たちのコミュニケーション手段の一部となっている(我々も見出しに使うほどだ)。しかし、既存のミームを繰り返し使用するためには、必要以上に面倒なユーザーエクスペリエンスが求められる。まずはミームの元になった画像を見つけ、次にテキストを追加する方法を考えなければならない。そのためには、Instagram(インスタグラム)の図案を写真編集ソフトウェアで逆変換する必要さえある。

しかし、最新流行のミームの元画像を探してGoogle(グーグル)画像検索を漁るのも大変だ。代わりに使えるのが、米国時間10月22日にウェブとiOS向けにリリースされたAntimatter(アニマター)の「Reverse Meme Search(リバース・ミーム・サーチ)」アプリだ。ミームをアップロードするだけで、このアプリはテキストの入っていない元画像を探してくれる。あるいはReddit(レディット)やTwitter(ツイッター)などのアプリで写真を長押しし、iOSが画像の共有先を選択する画面を表示したら、このアプリのアイコンをクリックしてもよい。ミームの元となった画像を確認したら、アプリに内蔵されているフォトエディターを使って文字を追加して、文字のフォント、色、サイズ、位置を選ぶことができる。このアプリでは「Comic Sans(コミック・サンズ)」を使うことができないが、これは意図的に排除されたものだろう。

TechCrunchでは、このアプリの機能をテストしてみた。スパイダーマンが指さすミームは簡単に逆変換した元画像を見つけることができたが、Owen Wilson(オーウェン・ウィルソン)のいわゆるディープフライドエフェクトを施したミームでアプリはすぐに躓いてしまった(「deep-fried memes」とGoogleで画像検索すると最初の検索結果で見つかるが、元画像はなかなか見つからないのだ)。しかし、心配いらない。このアプリには無料で利用できる「Meme Concierge(ミーム・コンシェルジュ)」が備わっている。リクエストを送信してから1時間もしないうちに「We found your template(あなたの元画像を見つけました:Owen Wilson Deep Fried Meme)」という件名のメールが届いた。

正直なところ、大学で美術を専攻しその頃からAdobeを利用しているが、Photoshopでディープフライドエフェクトをかけたミームのテキストや絵文字をきれいに編集することはできないだろう(というか、我々には他にやるべきことがある)。たとえ「ミーム・コンシェルジュ」が、メールにあるように「16GBのRAMと2つのUSB-Cポートを持つ人間」であったとしても、これは実際に有用なサービスだ。

TechCrunchによるスクリーンショット(画像クレジット:Antimatter)

Antimatterの創設者であるJonathan Libov(ジョナサン・リボフ)氏は、このアプリが機能する仕組みを教えてはくれなかった。基本的には画像の逆引き検索で、探しているミームを認識して元画像を送り返してくるのでだろうか?それとも、画像からテキストを自動的に消去する技術が使われているのだろうか? ディープフライド・オーウェン・ウィルソンでアプリを悩ませたことを考えると、おそらく逆画像検索だと思われる。だが、ディープフライド・オーウェン・ウィルソンの画像を使ってミームを自分で作ろうとする人は、もうコンシェルジュを使う必要はない。なぜなら、これでディープフライド・オーウェン・ウィルソンの元画像が、Antimatterのシステムに保存されたからだ。筆者は彼らの仕事をチェックして、テキストを追加した画像のコピーをアップロードした。

画像クレジット:TechCrunch

「私たちはこのアプリを、Instapaper(インスタペーパー)とPinterest(ピンタレスト)にFigma(フィグマ)を加えたようなものだと考えています。その2つの重要な機能は、(A)画像を収集し(最終的にはミームの元画像に留まらず、有用で意味のあるあらゆる画像)、(B)ライブラリに保存することです」と、リボフ氏はTechCrunchにメールで語ってくれた。「Antimatterは、実際にはP2Pの学習・教育企業であり、Reverse Meme Searchは、私たちがいち早く世界に利用してもらいたいと思った創造体験の一部なのです」。Antimatterは自社のウェブサイトで「インターネット上の多くのすばらしいミーム学習コミュニティに触発された」と述べている。

Antimatterの新しいリバース・ミームのアプリを試すことができました。

確かに、これはテクノロジーが解決すべき世界で最も重要な問題というわけではない(例えば、たった1滴の血液で何十もの予防的血液検査ができるとしたらどうだろう? )。しかし、ミームは明らかに現実世界の力を持っている。というわけで、あなたも逆検索してみてはいかがだろうか?

画像クレジット:Antimatter

原文へ

(文:Amanda Silberling、翻訳:Hirokazu Kusakabe)

グーグルがウェブサイトの写真を購入可能な商品に、「検索」に新たなショッピング方法を追加

Googleは、オンラインおよびGoogle検索モバイルアプリを利用した新たなショッピング方法を紹介した。近日に行われるiOS用「Google検索」アプリのアップデートでは、デバイス上での処理を利用した新しい機械学習モデルを活用して、ウェブサイト上の画像に含まれる商品を認識し、即座に「ショッピング可能」な状態にする。これにより、オンラインショッピングをするユーザーは、検索結果から洋服やアクセサリーを見たり、近くの店舗に在庫があるかどうかを確認したりすることが簡単になる。

iOS用のGoogleアプリでは間もなく、ユーザーはウェブサイト上の画像をGoogleレンズでショッピング可能な商品に変える新しいボタンを目にすることができる。ウェブサイトを見ていて、写真の中に気になるものがあれば、タップしてその商品の購入先を確認することができるのだ。この機能は、すでに画像内の商品を識別できる「Googleレンズ」の技術を拡張したもので、これまでと違う新たな文脈での利用となる。

画像クレジット:Google

Googleによると、デスクトップのChromeにも「Googleレンズ」が登場し、ユーザーは「レンズ」でウェブサイト上の画像、動画、テキストコンテンツを選択すると、同じタブで検索結果を見ることができるようになる。

別のアップデートでは、モバイル端末で服や靴、アクセサリーを見ているときに検索結果から簡単に買い物ができるようになる。

例えば「クロップドジャケット」といった検索条件にマッチする商品が、複数の色やスタイルでビジュアルフィードとして表示される。また、スタイルガイドや動画、購入場所の詳細情報なども表示される。さらにスタイル、ブランドなどで検索結果をフィルタリングしたり、評価やレビューを確認したり、価格を比較したりすることもできる。

画像クレジット:Google

この機能は、Googleが提供する「ショッピンググラフ」によって実現される。ショッピンググラフは、現在240億件以上の商品情報をリアルタイムで提供している。

また「在庫あり」のフィルターを選択すると、近くの店舗で今すぐ購入できる商品を確認することができる。この機能は、忙しい年末商戦の前に、プレゼントや子どものおもちゃを買う際に特に役立つだろう。

今回のアップデートは、本日開催されたGoogleのイベント「Search On」で発表された。同社はGoogleマップ、レンズ、検索の他の製品アップデートについても詳細に説明しており、その中には新しいAIの機能強化を活用するプロダクトもある。

画像クレジット:Google

原文へ

(文:Sarah Perez、翻訳:Katsuyuki Yasui)

ビジュアル検索「Googleレンズ」アップデート、グーグルがAIで画像とテキストを1つのクエリにまとめる新検索方法を近々導入

2021年5月、Google(グーグル)は年次開発者会議「Google I/O」において「Multitask Unified Model(MUM)」と呼ばれる新しいAIマイルストーンを紹介した。この技術はテキスト、画像、動画など、さまざまな形式の情報を同時に理解し、トピック、コンセプト、アイデアの間の洞察やつながりを導き出すことができる。同社は米国時間9月29日、MUMを自社製品で活用する方法の1つとして、ビジュアル検索「Googleレンズ」のアップデートを発表した。

Googleレンズは、携帯電話のカメラを使って、リアルタイム翻訳、植物や動物の識別、写真からのコピー&ペースト、カメラのファインダーに写っているものと類似したアイテムの検索、数学の問題の手助けなど、さまざまなタスクを実行できる同社の画像認識技術だ。

近い将来、Googleは、MUMの機能を活用してGoogleレンズをアップグレードし、視覚的な検索にテキストを追加して、ユーザーが見ているものについて質問できるようにするという。

実際には、この機能は次のような使い方ができる。例えば、気に入ったシャツの写真をGoogle検索で表示した後、レンズのアイコンをタップして、同じ柄のもの、だが今度はソックスをGoogleに探してもらうことができる。そこに「この柄のソックス」とでもタイプ入力することで、テキスト入力だけでは難しい、関連性のあるクエリをGoogleに指示することができる。

画像クレジット:Google

 

これは、現在のGoogleが苦手としているタイプのクエリ、つまり、言葉だけでは説明しにくい、あるいは異なる方法で説明できるような、探しているものに視覚的要素がある場合には、特に有効だ。画像と言葉を1つのクエリにまとめることで、Googleはより適切な検索結果を提供できる可能性がある。

別の例では、自転車の部品が壊れてしまい、修理のヒントをGoogleで検索する必要があるとする。しかし、その部品が何という名前なのかはわからない。修理マニュアルを調べる代わりに、自転車の壊れた部分にGoogleレンズを当てて「修理する方法」と入力してみることができる。そうすれば、助けになりそうな動画の瞬間に直接つながるかもしれない。

画像クレジット:Google

Googleは、このようなAIを活用した取り組みは、新しい検索の仕方を可能にすることで、自社製品をエンドユーザーにとって「より役に立つ」ものにする方法だと考えている。同社は、検索の一部に携帯電話のカメラを利用することで、コアなユースケースの多くが他のプロパティに移行し始めている市場での存在感を維持しようとしている。例えば、今日、ショッピングの検索は多くの場合、直接Amazon(アマゾン)で始まる。また、iPhoneユーザーは、携帯電話で何か特定のことをしたいとき、Siri、Spotlight、App Store、またはネイティブアプリに助けを求めることが多い。そしてApple(アップル)は、Google検索に代わる独自の検索サービスを開発している。iOS 15でアップデートされたSpotlight検索では、Google検索に頼らず、ユーザーが必要とする情報に直接アクセスできるようになった。

Googleは、Google検索やビデオ検索においてもMUMを活用していくと、29日開催されたライブイベント「Search On」で発表した。

なお、Googleレンズのアップデートは今後数カ月のうちに実施される予定だという。そのためには、新しいAIモデルを導入する際には必ず実施される「厳格なテストと評価」を行う必要がある、と同社は述べている。

画像クレジット:Google

原文へ

(文:Sarah Perez、翻訳:Aya Nakazato)