日本でも販売されているスマートグラスのNrealが1年間で約244.2億円を調達

中国のARスタートアップ「Nreal」(エンリアル)が好調だ。軽量で明るいスマートグラスを作ってARの普及を目指す同社はシリーズC拡張ラウンドで6000万ドル(約73億2600万円)を調達し、この1年間で2億ドル(約244億2000万円)の大型調達を果たした。

今回のラウンドを主導したのはAlibaba(アリババ)だ。Alibabaは投資に関しては最大のライバルであるTencent(テンセント)よりも、これまでずっと実用性を重視しつつTencentほど積極的ではなかった。Alibabaは、その巨大な小売エコシステムを補完するピースになり得るスタートアップの経営権に関わる持分を獲得すると言われている。

しかしNrealに対するAlibabaの投資は純粋に資金面でのことだ。理論的には、両者が戦略的なシナジーを生み出す可能性はある。Alibabaが自社のゲームやビデオのストリーミング部門とNrealの協業に乗り出したり、最近音声コントロール付きヘルメットを着用するようになった膨大な数のフードデリバリーのライダー向けにスマートグラスをNrealに開発してもらうことは容易に想像できる。しかし中国では独占禁止法の取り締まりが厳しくなり、中国のテック大手が不公正な競争を助長すると受け取られかねない投資に注意を払うようになっていることは間違いない。

それに、Magic Leap(マジックリープ)の従業員だったChi Xu(徐驰、カイ・シュイ)氏が創業したNrealには、すでに注目すべきパートナーたちがいる。Nrealの戦略的投資家には、中国の新興EV企業のNio(ニーオ)、TikTok(ティックトック)の中国での最大のライバルであるショートビデオアプリのKuaishou(快手)、Baidu(百度)が支援するビデオストリーミングプラットフォームのiQIYI(爱奇艺)などがある。Qualcomm(クアルコム)は投資はしていないが最先端のSnapdragonプロセッサを供給し、開発者エコシステムの構築に関して緊密に連携している。著名な機関投資家であるSequoia Capital China(セコイアキャピタルチャイナ)、Jack Ma(ジャック・マー)氏のYunfeng Capital(雲鋒基金)、Xiaomi(シャオミ)の創業者Lei Jun(レイ・ジュン)氏のShunwei Capital(順為資本)の他、プライベートエクイティ大手のHillhouse(高瓴資本)、CPE(CPE源峰)、CICC Capital(中金資本)もNrealを支援している。

Nrealは中国を拠点としているが、中国市場をターゲットにするのではなく、消費者の購入意欲を日本や米国など海外の6カ国で最初にテストした。同社はデバイスの販売に関して各国の通信事業者の協力を得ている。例えば米国ではVerizon(ベライゾン)がNrealの複合現実グラスであるNrealLightの販売に協力している。NrealLightは600ドル(約7万3000円、日本ではauオンラインショップで6万9799円)と比較的手頃な価格で、5G対応のAndroidデバイスに接続できる。

Nrealは今回調達した資金で、ついに2022年に中国での事業に乗り出す。また今回の資金は研究開発や、ユーザー獲得に欠かせないコンテンツやアプリのエコシステムの成長にも使われる。

画像クレジット:Nreal

原文へ

(文:Rita Liao、翻訳:Kaori Koyama)

ARグラス用ディスプレイ・モジュール開発などのCellidが5億円調達、研究開発強化や量産開始に向け組織・開発体制の強化

ARグラス用ディスプレイ・モジュールや空間認識ソフトウェアの開発などを手がけるCellidは11月11日、第三者割当増資による総額5億円の資金調達実施を発表した。これにより累計調達額は7億円となった。引受先はアクサ生命、エプコ、一般事業会社(社名非公開)。調達した資金により、ディスプレイ・モジュール研究開発の強化、本格的マーケティング活動の開始、量産開始に向けた組織体制・開発体制の強化にあてるという。2022年には、ディスプレイ・モジュール試作品の製造から、量産化へと開発フェーズの移行も予定している。

Cellidは、独自AR技術「Cellid SLAM」の2020年12月ローンチ以後、SLAMを応用した「Position Finder」や「AR Tag」の実用に向けた技術検証を建設業や製造業など領域で進めているという。Position Finderは、単眼カメラの映像から、作業者の3次元位置情報を可視化できるサービスで、AR Tagは3Dモデル上にデジタル情報を付与できるサービスだ。

また2021年11月に、薄型化・広視野角化を達成できる表示方式「Waveguide」(ウェイブガイド)を用いて、対角視野角(FOV)60度を実現したシースルー・ディスプレイと、約1.2cm立方センチの超小型プロジェクターを組み合わせたディスプレイ・モジュール「Cellid Waveguide 60」をサンプル出荷。国内外の顧客へ販売を開始した。2022年1月5日(現地時間)から開催のCESにおいて、Cellid Waveguide 60を内蔵したメガネ型モックアップの出展を行う。米国を中心とした本格的なマーケティングを予定しているという。

ARグラス用ディスプレイ・モジュール開発などのCellidが5億円調達、研究開発や量産開始に向けた組織体制・開発体制を強化

「Cellid Waveguide 60」

フェイスクブックの研究者がAIの訓練のために何千時間もの一人称視点の動画を収集

テック企業の多くが目指しているように、ARメガネやその他のウェアラブルに搭載されたAIが人間の目を介して物事を見るようになるのであれば、未来のAIは人間の視点をきちんと理解できるようになる必要がある。自身の視点というのは当然、我々にとっては自然なものだが、意外なことに日常的な作業を映した1人称視点のビデオ映像はほとんど存在しない。そこでFacebookは、数千時間に及ぶ映像を新たなデータセットとして公開するため収集した

Facebookが取り組んだのは、現在最も優れた物体・シーン認識モデルであっても、そのほとんどが三人称視点でのみ学習されているという課題だ。つまりキッチンに立っている場面を見れば、料理をしている人として認識することができても、料理をしている人の視点から見た場合では認識する事ができない。自転車を認識するにしても、自転車が映し出されれば認識できるが、自転車に乗っている人の視点では理解ができないわけだ。我々人間にとっては当たり前のことで、これまで見過ごされてきたことだが、コンピューターにとってはまだ難しい課題なのである。

機械学習の問題を解決するには通常、データを増やすかより優れたデータを得るかのどちらかが必要になる。今回の場合は両方あっても損はないだろう。Facebookは世界中の研究パートナーに協力を依頼し、料理や買い物、靴ひもを結ぶ様子から仲間と遊んでいる様子まで、一般的な行動の1人称映像を集めた。

13のパートナー大学が9カ国700人以上の参加者から何千時間ものビデオを収集。参加者はみんなボランティアで、自身の関与やアイデンティティのレベルをコントロールすることができた。これら数千時間にもわたる映像は、研究チームによって3000時間にまで縮小され、研究チームが映像を見て編集し、手書きで注釈を加え、さらに現実世界では撮影できなかった環境を演出した独自の映像も追加された。この研究論文にそのすべてが記されている

映像はメガネ型カメラ、GoPro、その他のデバイスなどさまざまな方法で撮影されている。研究者の中には、活動している環境を同時に収録した人もいれば、視線の方向やその他の指標を追跡した人もいる。これらのデータはすべてEgo4Dと呼ばれるFacebookのデータセットにまとめられ、研究コミュニティに広く提供される予定だ。

コンピュータービジョンが物体の識別に成功しているものと、1人称映像での識別に失敗しているもの(画像クレジット:Facebook)

「AIシステムが人間と同じように環境と関わり合うためには、AI分野が1人称視点の知覚というまったく新しいパラダイムに進化する必要があります。そのためには人間の目を通したリアルタイムの動き、関わり合い、多感覚の観察の中で、AIに日常生活の動作を理解することを教えなければなりません」と、主任研究員のKristen Grauman(クリステン・グラウマン)氏はFacebookのブログ中で話している。

Facebookは1人称視点での理解力があらゆる分野でますます重要になっていると考えてはいるものの、何とも信じ難いことにこの研究とRay-Ban Storiesのスマートシェードはまったく無関係とのこと(この3Dスキャンは同社のハビタットAIトレーニングシミュレーターに使用されるかもしれないが)。

「弊社の研究では、拡張現実やロボット工学への応用を強く意識しています。特にARメガネのようなウェアラブル製品が人々の日常生活や移動に不可欠な要素になるにつれ、将来AIアシストを実現するためには1人称視点の知覚が不可欠です。もし、あなたのデバイスに搭載されているアシスト機能が、あなたの目を通して世界を理解し、生活から認知的過負荷を取り除くことができたらどれほど有益か想像してみてください」とグラウマン氏はTechCrunchに話している。

世界中から映像を集めたというのは意図的な戦略である。1つの国や文化の映像だけを集めるようでは近視眼的だ。米国のキッチンはフランスのキッチン、ルワンダのキッチン、日本のキッチンとはまるで別物であり、また同じ食材を使って同じ料理を作ったり、同じ作業(掃除や運動)をしたりしても、個人間はさることながら、文化間となれば大きく異なるのは当然である。つまりFacebookの投稿にあるように「既存のデータセットと比較して、Ego4Dのデータセットは、シーン、人、アクティビティの多様性が高く、背景、民族、職業、年齢を問わずさまざまな人に向けてトレーニングされているため、モデルの適用性が高い」のである。

Facebookの1人称視点のビデオとその環境の例(画像クレジット:Facebook)

Facebookが公開しているのはデータベースだけではない。データ収集においてこのような飛躍的な進歩がある場合、あるモデルがどれだけこの情報を活用できているかをテストしたベンチマークを公開するのが一般的になっている。例えば犬と猫の画像があったとして、どちらがどちらかを見分けるというモデルの有効性をテストした標準的なベンチマークが知りたい場合もあるだろう。

しかし今回のような場合はもう少し複雑になる。1人称視点で物体を識別するというのはそれほど難しいことではなく、目新しさや便利さもない。「これはトマトですよ」と教えてくれるARメガネなど誰が必要だろう。他のツールと同様に、ARデバイスは私たちが知らないことを教えてくれるものでなければならないのだ。そのためにARデバイスは、意図、文脈、連動したアクションなどをより深く理解する必要がある。

そこで研究者らは、1人称視点の映像を分析することで理論的に達成可能な5つのタスクを考えた。

  • エピソード記憶:物体や概念を時間と空間の中で追跡し「私の鍵はどこにあるか」といった任意の質問に答えられるようにする。
  • 予測:一連の出来事を理解することで「レシピの次の手順は何か」といった質問に答えたり「車の鍵を家に忘れた」といったことを事前に指摘したりすることができる。
  • 手と物体のインタラクション:人がどのように物を掴み、操作しているのか、またその際に何が起こっているのかを把握することで、エピソード記憶やそれを模倣したロボットの動作に反映させることができる。
  • オーディオ・ビジュアル・ダイアライゼーション:音をイベントやオブジェクトに関連付けることで、音声や音楽をインテリジェントに追跡し「カフェでかかっていた曲は何だったのか」「会議の最後に上司は何と言ったか」といった質問のソリューションに適用する(「ダイアライゼーション」が「言葉」である)。
  • 社会的相互作用:誰が誰に向かって話しているのか、何が語られているのかを理解し、他のプロセスに情報を提供する目的と、複数の人がいる騒がしい部屋で字幕を表示するなどの瞬間的な使用の両方に対応する。

当然、このような活用法やベンチマークに限られているわけではなく、上記の例はAIモデルが1人称視点のビデオで何が起きているかを実際に理解しているかどうかをテストするための初期アイデアに過ぎない。論文に記載されている通り、Facebookの研究者らはそれぞれのタスクについてベースレベルの実行を行い、それを出発点としている。さらにこの研究をまとめた動画には、それぞれのタスクが成功した場合を想定した、非現実的とも言えるような例が挙げられている。

現在公開されているデータは、25万人の研究者が手作業で丹念に注釈を加えたという3000時間ものデータ数にははるか及ばないものの、まだ成長の余地があるとグラウマン氏は指摘する。今後もデータセットを増やしていく予定であり、パートナーも積極的に増やしていくという。

このデータの活用に興味がある読者は、Facebook AI Researchのブログをチェックして論文に掲載されている莫大な数の人々の1人に連絡を取ってみるといい。コンソーシアムが正確な方法を確定した後、数カ月以内に発表される予定だ。

画像クレジット:Facebook

原文へ

(文:Devin Coldewey、翻訳:Dragonfly)

Snapが同社のARグラスに技術を提供するWaveOpticsを545億円以上で買収

米国時間5月20日にAR(拡張現実)メガネ「Spectacles(スペクタクルズ)」の最新バージョンを発表したSnapは、その翌日にさらなるニュースを発表した。それは同社の躍進を後押しする技術を持つスタートアップ企業を買収するというものだ。

写真共有アプリ「Snapchat(スナップチャット)」で知られるこの企業は、ARメガネに使われる導波管とプロジェクターを製造するARスタートアップのWaveOptics(ウェーブオプティクス)を買収する。ARメガネは、それをかけた人が見ている現実世界の景色の上に、バーチャルな画像を重ね合わせて見ることができるというもので、Snapはその最新モデルをWaveOpticsと協力して開発した。

この動きはThe Verge(ザ・ヴァージ)が最初に報じたもので、TechCrunchはSnapの広報担当者に直接その詳細を確認した。SnapはWaveOpticsの買収に、現金と株式交換で5億ドル(約545億円)以上を支払うという。そのうちの半分は、買収が正式に完了した時点で株式の形で支払われ、残りは2年後に現金または株式で支払われる予定だ。

これはWaveOpticsにとって大きな飛躍だ。同社はこれまで、Bosch(ボッシュ)やOctopus Ventures(オクトパス・ベンチャーズ)、そして英国のベテラン起業家で、現在はFiveAI(ファイブAI)に在籍するStan Boland(スタン・ボランド)氏や、初期ARスタートアップのBlippar(ブリッパー)創業者の1人であるAmbarish Mitra(アンバリッシュ・ミトラ)氏などの個人を含む投資家から、約6500万ドル(約70億8000万円)の資金を調達していたが、直近の評価額は1億500万ドル(約114億円)程度にとどまっていた

WaveOpticsはオックスフォードで設立されたが、我々が知る限りでは、今後も英国を拠点に置くようだ。

TechCrunchでは、この会社がホログラム物理学とフォトニック結晶をベースにした導波路という、非常に興味深く、時代を先取りした技術を展示した初期の頃から取材してきた

重要なことは、同社の技術が、画像の処理と表示に必要なハードウェアのサイズと負荷を、劇的に圧縮するということだ。これは、WaveOpticsの技術をベースにしたARハードウェアのフォームファクタが、より幅広く、より適応性が拡大することを意味する。

買収後もWaveOpticsが他の企業と協力を続けていくかどうかは不明だが、Snapにとっては、このスタートアップ企業の技術を自社だけのものにすることが、大きなアドバンテージになることは明らかだと思われる。

Snapはここ最近、同じような買収を繰り返している。1月以降だけでも、eコマースへのAR活用を目指してFit Analytics(フィット・アナリティクス)を買収した他、3Dマッピング技術のPixel8Earth(ピクセルエイトアース)や、位置情報プラットフォームのStreetCred(ストリートクレド)など、少なくとも3社のスタートアップ企業を買収している。

しかし、今回の取引は、Snapにとって評価額の面ではこれまでで最大の買収となる。

これは、基礎的な人工知能技術に依然として高い価値がある(加えて、WaveOpticsを設立した科学者たちのチームは12件の出願済みおよび進行中の特許を保有している)ということを示すだけではない。SnapがARを使用するソーシャルアプリだけに留まらず、ハードウェアにおいても影響力のある地位を築き上げ、その技術を使うだけでなく、どこでどのように展開するかという進行と計画を握る中心的存在でありたいという、財務的な、はっきり言いえば実存的な、コミットメントの表明だ。

これは粘り強い取り組みであり、必ずしも報われるものではないが、しかしSnapは(同社は長い間、自らを「カメラ会社」と表現してきた)、ハードウェアを将来の戦略に不可欠な要素として位置づけている。

関連記事
SnapがARグラス「Spectacles」の新世代バージョンを発表
Snapがマッピング・位置情報スタートアップのStreetCredを買収、Snap Map関連機能強化か

カテゴリー:VR / AR / MR
タグ:SnapARグラス買収Snapchat

画像クレジット:Snap

原文へ

(文:Ingrid Lunden、翻訳:Hirokazu Kusakabe)

SnapがARグラス「Spectacles」の新世代バージョンを発表

Snap(スナップ)が、事前録画されたPartner Summit(パートナーサミット)で、Snapchat(スナップチャット)のユーザー、クリエイター、企業向けの新しいツールをひと通り紹介した。そのプレゼンテーションの最後にSnapは「もう1つ」という言葉を投げかけて、数年前に手痛いスタートを味わった同社が、ハードウェアの野望をまだ諦めていないことを示した。

Snapが発表したのは最新世代のSpectacles(スペクタクルス)グラスだ。60年代風味の黒を基調とした最新式デザインで、これは同社がこれまでに開発してきた拡張現実技術(AR)の一部を、それに合う特定のデバイスに融合させる、これまでで最大の試みとなる。

Snapの共同創業者でCEOのEvan Spiegel(エバン・スピーゲル)氏は、Spectaclesのことを「拡張現実を生活にもたらす初のグラス(メガネ)」と表現している。もし以前のバージョンのグラスを所有したり試したりしたことがあるなら、今回のグラスはより直感的でシームレスなものになっているように思える。

第4世代のこのグラスは、一度の充電で30分間動作することができると彼はいう。デュアル3D導波路ディスプレイを搭載し、視野角は26.3度で「目の前の世界に自然に重なっているように感じる」没入感のあるレンズ体験を実現している。屋内外で使用できるようにディスプレイは明るいものとなっており、マイク、ステレオスピーカー、タッチパッドを内蔵している。また、134gと比較的軽量だ。

Snapはこのデバイスを、これまで同社のハードウェアがターゲットとしていたコンシューマー向けではなく、Snapプラットフォームを利用するクリエイター向けにマーケティングしていくようだ。今回のSnapのリリースは、その基礎となる技術がまだ大量に市場投入できる状態ではないにもかかわらず、公開してしまうという、他社も採用している戦略に沿ったものだ。

ハードウェア自体の性能は、先行したMagic Leap(マジックリープ)のようなARスタートアップがリリースしたものよりは劣るものの、Snapは機能性を犠牲にしてフォームファクターを追求し、他のARヘッドセットに比べて、ヘルメットのような外観が抑えられたデバイスの提供を選択したようだ。

スピーゲル氏によると、このグラスには同社の新しい空間エンジンが搭載されており「6つの自由度、ハンドトラッキング、サーフェストラッキングを活用し、デジタルオブジェクトを物理的な世界にリアルに置く」とのことで、より高い応答性を実現するために、動作から視覚への遅延は15ミリ秒になっているそうだ。また、このグラスはSnapのLens Studio(レンズスタジオ)と統合されており、クリエイターはこのデバイス用のカスタムレンズを作ることができる。すでに一部のアーリーユーザーにグラスは提供されているので、やがてさまざまなレンズやその他のカスタマイズが、あらかじめ組み込まれた状態で出荷されることになるだろう。

Snapは、拡張現実を大きなチャンスと捉えてきたが、巨大な競合他社の規模に比べると、この分野ではまだ劣勢だ。

今回のAR対応Spectaclesは、Facebook(フェイスブック)がRay Ban(レイバン)と提携して製造を予定しているスマートグラスに先駆けて登場する。そちらのグラスにはディスプレイは内蔵されず、他の入力手段に大きく依存することが予想されている。また、Appleも以前から拡張現実グラスの開発に取り組んでいると噂されており、何千人もの従業員がその製造に携わっていると伝えられている。

関連記事:FacebookがARが日常生活になるスマートグラスを2021年に発売、Ray-BanブランドのLuxotticaともコラボ

カテゴリー:VR / AR / MR
タグ:Snap拡張現実ARグラス

画像クレジット:Snap

原文へ

(文:Ingrid Lunden, Lucas Matney、翻訳:sako)

ポケモンGOのNianticジョン・ハンケ氏がARメガネ画像をちら見せ、AR OSの責任者募集

これは驚き。Niantic(ナイアンティック)からARヘッドセットが登場するようだ。ポケモンGoの開発者でNiaticのファウンダーであるCEOのJohn Hanke(ジョン・ハンケ)氏がNianticブランドのウェアラブルARヘッドセットらしきデバイスの部分的画像を公表した。Nianticはこのところ拡張現実デバイスの開発に積極的に取り組んでいる。

メガネのテンプル部分には鮮やかなオレンジ色でNianticというブランド名が刻印されており、画像付属の説明でハンケ氏は「我々のプラットフォーム上に新種類のデバイスを実現するテクノロジーの進歩を目の当たりにして興奮しています」と述べている。

Nianticはこれまで拡張現実のハードウェア分野に積極的に注力してきたが全力投球というほどではなかった。つまり新たなテクノロジーを持つスタートアップと提携してブランドを貸すことにした可能性はある。しかしこの謎めいた予告編画像はNiantic独自のプロダクトを予告しているように見える。ディスプレイを搭載せずオーディオとカメラ機能をメガネに搭載した「スマートグラス」カテゴリーの製品の可能性もある。Nianticは以前、XRコンソーシアムのリファレンスハードウェアの策定ためにQualcommと協力していることを発表している。

TechchCrunchではNianticにコメントを求めている。

この発表はTwitterへの投稿で、AR OS開発の責任者を募集する次のような求人広告を受けたものだ。

Nianticは世界を拡張現実のキャンバスとして、そこにゲームなどアプリケーションを描くという野心的なミッションに取り組んでいます。この未来はARのHMD(ヘッドマウントディスプレイ)で完全なものとなります。NianticのエンジニアリングチームはHMD用のAR OSを構築して、Nianticでは何百万ものユーザーのためのアプリケーションを可能にするAR OSの開発の方向性を決定し、インスピレーションを与えるリーダーを求めています。

Nianticは当初Googleの社内プロジェクトとしてスタートしたがスピンアウト後は任天堂と協力することで大企業に発展した。先週はポケモンGOに続く任天堂提携プロジェクトとしてピクミンをテーマにしたプロダクトをリリースすることを発表した。また2021年3月に入って、MicrosoftのHoloLens 2上で動作するPokemon Goのコンセプト実証版を公開している。

関連記事:任天堂とNianticがARの「ピクミン」シリーズ新作を共同開発

NianticのARプラットフォーム関連の活動はほとんどの部分が秘密にされたままだ。拡張現実がメインストリームとなり同社として全力でプッシュするのに適当となるタイミングを計っているらしい。

ただしARの普及はハードウェアのエコシステムによって決められる部分が大きいかもしれない。AppleとFacebookという両巨人がそれぞれエコシステムの支配権を得ようとしてデバイスを準備している中で、Nianticのようなプレイヤーが自社開発のデバイスに自社のソフトウェアを搭載するというファーストパーティー路線を取った場合、サードパーティのための機会が減少する。これはプラットフォームの普及を妨げる要因となるかもしれない。

関連記事:NianticはARの未来のためによりスマートな世界地図を構築したいと訴える

カテゴリー:VR / AR / MR
タグ:NianticARグラス

画像クレジット:Niantic

原文へ

(文:Brian Heater、Lucas Matney、翻訳:滑川海彦@Facebook