AndroidのMotion StillsアプリにAR StickersのようなAR機能を実装アップグレード

GoogleのビデオやGIFを編集するアプリMotion Stillsのアップグレードで拡張現実の機能が加わり、Pixel 2のAR Stickersのような楽しさが、そのほかのAndroidデバイスにも実現した。

このアプリにはかなり本格的な拡張現実のサーフェストラッキング(surface tracking, 表面追跡)機能があり、Google Polyのいろいろな3Dモデル(鶏、ロボット、恐竜など)を、本物の環境の中にある面に載せることができる(下図)。そして、アプリの中でそのGIFやビデオを記録できる。ARCoreのサポートを必要とするそのほかのAR機能と違ってMotion Stillsアプリは、Android 5.1以上が動いているさまざまなAndroidスマートフォンで利用できる。

GoogleのエンジニアJianing WeiとTyler Mullenがブログに書いている: “ARモードはリアルタイムのモーショントラッキングが駆動している。その自由度が6方向のトラッキングシステムは、Motion Stills iOSのMotion TextやYouTubeのプライバシーぼかしに使われている技術を利用し、静的なオブジェクトや動いているオブジェクトを正確に追う。われわれはこの技術をさらに改良して、ジャイロスコープのあるAndroidデバイスならどれの上でも楽しめるAR体験を実現した”。

GoogleがAR StickersをPixel 2に載せたのは12月で、それは最新のStar Warsと時期が一致し、生きた広告としてPorgs and Stormtroopersを人びとの家庭にリリースした。

このモードは、Googleの拡張現実開発プラットホームARCoreをAndroid上でプロモートするための機能の一つだった。AppleのARKitと同様にARCoreも、物の表面を感知して、その上に仮想のオブジェクトを置くことができる。まだARKitの最新機能のような壁の検知はできないが、でもAndroidデバイスは実装の相当な多様化が進んでいるから、そこでの製品開発はかなりの難関なのだ。

Motion StillsもARCoreと同じ技術に多くの機能を依存しているが、でもその最新のアップデートではGoogleのAR体験技術も相当高度になり、もっと多くの人やデバイスで十分楽しめるものになったのだ。

Motion Stills for Androidはここでダウンロードできる。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Facebookの全身トラッキングの研究からはAR/VRへの大きな意欲が感じられる

ARとVRのエンターテインメントとコミュニケーションの両方の目的で、Facebookが大きな投資をしていることは、今や誰もが知っている。そしてその新しい研究は、顔を変えたり置き換えたりするだけでなく、全身を対象とするARアプリケーションに同社が取り組んでいることを示唆している。

今日のブログ記事では、 AIカメラのチームが、VRまたはARで全身の置換や追跡を明らかにねらっていると思われる成果を紹介している。

その記事で研究員たちはこう書いている: “われわれは最近、体のポーズを正確に検出し、人と背景を分ける新しい技術を開発した。われわれのモデルは今はまだ研究の段階だが、数メガバイトしか必要とせず、スマートフォン上でリアルタイムで動かせる”。

もちろん、これまでにも同様の研究はある。たとえば骨格トラッキングはいろんな産業でよく使われている。それにこのブログ記事は、大きな進歩を主張するというより、この特定のシステムとそのニューラルネットワーク部位の操作について書かれている。

でもしかし、Facebookは明らかに、モバイルにおける効率的で容易な実用化をねらっている。つまりそれは、センサーのデータ、画像の解像度、リフレッシュレート、処理能力などの点で制約のある環境だ。彼らがMask R-CNNと呼ぶこのテクニックは、その方向での良い前進だ。

これからは、Facebookからこのようなものが、続々と出てくるのだろう。同社は、このような研究に配置する研究インターンまで募集しているのだから。

画像提供: Facebook

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

このスタイルの良くないARヘッドセットは世界中を魚だらけにする、抜群の視野角だ

香港のRealMaxはCESに、同社がすべての人の顔に取り付けたいと願っている拡張現実ヘッドセットを展示した。ちょっと粗い仕上げのプロトタイプだが、これまでに見たどんなARデバイスよりも広い範囲を、デジタル画像で満たす。

そのプロトタイプは、どんなARヘッドセットよりも視界が広い。MicrosoftのHoloLensは視野角40度足らずだが、RealMaxは100度以上の視界を満たす。

光学系はそれほど高度な技術を使っていないし、解像度もあまりシャープでない。でも、オールインワンタイプで広い視界が欲しければ、RealMaxで決まりだろう。海中シーンのデモを数分見てみたが、そこには人魚がいるだけでなく、ぼくのまわりじゅう全体に、すごい数の魚が泳いでいるのだ。

家庭用のデバイスなら、すっきりコンパクトは優先課題にならない。あの高度な光学技術を持つMagic Leapも、まだかなりでかいから、外ではあまり使われないだろう。しかし視界の広さは、ユーザー体験にとってきわめて重要だ。その視野はOculus RiftやHTC Viveを装着しているときのそれに近い。位置追跡機能があり、Leap Motionセンサーもあるから、ユーザーの手の動きとの対話がユーザー体験に加わる。

しかし名もなき小さな企業が、今同社が考えているように、デバイスとコンテンツを作って売るまでのすべてを自社だけでやるのはきついだろう。開発キットは今年後半に1500ドルで出すというが、しかし消費者向けには、ヘッドセットの価格をハイエンドのスマートフォンより安くしたい、と言っている。



[原文へ]
(翻訳:iwatani(a.k.a. hiwa

WayRayの車載AR HUDは一味違うプロダクトだ

スイスの拡張現実(AR)テクノロジープロバイダーWayRayは、そのユニークなアプローチで何をすることができるかを示すために、車載ヘッドアップディスプレイ(HUD)ソリューションをCES 2018で発表した。同社は当初NAVIONのアフターマーケットソリューションを提供し、さらに誰でも利用できる、OEM向けにデザインされたホログラフィックARフロントガラス製品を提供している。

私はそれを自分で試して、その結果に感銘を受けた。このディスプレイは、鮮明で読みやすく、自動車メーカーのOEMとして直接フロントガラスに組み込まれたり、アフターマーケットデバイスに組み込まれるようにデザインされたりしている。アフターマーケットバージョンは、シンプルな赤と緑の2色オーバーレイを使用していたが、同社のCEO Vitaly Ponomarevは、すぐに青色も導入する予定だと私に語った。わずか2色であっても、システムによって示されるすべての重要な情報を識別するのは、非常に簡単だった。

WayRayの技術が、既存の平均的な車載HUDと比較して非常に優れている理由の1つは、より広い視野を持っているということだ。ドライバーはビルトインソリューションでは11度の範囲で見ることができる。これは普通の自動車HUDで典型的な8度よりもはるかに良いものだ。アフターマーケット版では、独自のディスプレイを使用しているため、奥行きが短く、視野は8度しかないものの、投影される情報が道路に実際に「はまって」いるように見えるため、やはり通常の場合よりも遥かに優れている。

これは、WayRayが提供するSLAM(同時ローカライゼーションならびにマッピング)技術に特有のものである。この製品は、位置情報とマッピング情報を含むデータと、正面カメラが収集した視覚データを組み合わせて、実世界に対する視覚効果を、より効果的に車の前に置くことができる。

私が使った他の自動車メーカーのOEM製品や、Navdyのような他のアフターマーケットデバイスと比較して、WayRayのシステムは、はるかに優れ、そしてドライバが実際に見ているものと、より密接に結びついているように感じられた。Ponomarevは、不十分な情報による曖昧な効果をでっち上げる、他の効果の薄い手法と、自分たちの手法を区別するために、自分たちの製品を「真のAR 」と呼んでいるのだと教えてくれた。

WayRayは、将来の車両フロントガラスにその技術を組み込むために、中国のSAIC、ホンダ、その他のメーカーを含むOEMと話し合っているが、まだ公表できる段階にはない。同社はまた、今年後半にアフターマーケットソリューションを出荷する計画もしている。

また、CESでWayRayは、他の人々が車載用のARアプリケーションを構築できるようにするための、自社製開発プラットフォームであるTrue AR SDKのデモンストレーションも行った。これを使って、興味のある場所を表示し、ナビゲーションを強化し、お買い物に関するお得情報などを提供するソフトウェアを開発することができる。Ponomarevは、彼らのプロダクト向けのアプリストアを立ち上げる予定だと語った。また、各OEMがぞれぞれのAR HUDハードウェアと共に、自社の車両にWayRayのソフトウェアを組み込んだ場合にも、このストアから独自ブランドを提供したいと考えていると述べている。

WayRayは既に3000万ドルを調達しており、スイスのローザンヌに本拠地は残したまま、シリコンバレーに新しいオフィスの開設を予定している。Ponomarevはまた、終了していないので投資家の名前を明かすことはできないが、現在5000万ドルのラウンドが進行中であると語った。

[原文へ]
(翻訳:sako)

AR/VRは空ブームが去って小休止、巨額な投資の大半は大物企業の底入れに向かう

拡張現実や仮想現実の技術に取り組んでいるテクノロジー企業は2017年に、30億ドルあまりのベンチャー資金を調達した。このニュースを報じたアナリティクス企業Digi-Capitalのデータによると、ARやVRをめぐる空騒ぎは下火になったものの、そこに注ぎ込まれるキャッシュの量は相変わらず増え続けている。

たしかに2017年の金額は2016年の投資額に比べて増えているが、しかしディールフローそのものは軽くて、わずか4つの案件が総額30億ドルの大半を占める:

億単位の資金を調達したNiantic, Improbabl, Unityなどの大物はAR/VR技術の将来性を投資家たちにうまく売り込んだと思われるが、それだけの資金量を獲得できた背景には、強力で伝統的なゲーム業界がある。

その中にあってMagic Leapは、業界の最大の一匹狼だ。彼らの最初の製品がどんなものか、そろそろわかりかけてきた今日では、彼らがだんだん、まともな企業に見えてきている。その製品がいつなんぼで出るのか、それはまだ不明だが、もっと分からないのは、彼らが企業市場と消費者市場のどっちに軸足を置くのか、という点だ。

2016年と2017年にVRのプロジェクトでシードラウンドを稼いだ小さめの企業は、Crunchbaseが示すように案件は徐々に減少し(右図)、泡沫企業の整理と、AR/VRスタートアップに対する継続投資の先細り、そして廃業が続くものと思われる。

2017年の後半はヘッドセットを使うVRからモバイルのARに焦点が移り、AppleのARKitやGoogleのARCoreなどが関心を集めた。しかし実際のアプリケーションは単なる視覚化があまりにも多く、平凡なものばかりだったので、受けはあまり良くなかった。消費者向けARヘッドセットは市場が大きく枯渇し、AppleやMicrosoft、Magic Leapなどが10年後の消費者に向けて今年以降何をやるか、様子見モードに入った。

今後伸びるであろう芽はいくつかあるが、AR/VRの空騒ぎは2017年で一掃され、勢いはなくなった。次の一歩は、Google, Apple, Facebook, Microsoftなどの大金持ちたちの動静次第だ。スタートアップのための資金は今年も潤沢と思われるが、AR/VRのような新興技術は、落ち込みがしばらくは続くだろう。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

AR技術でSFアニメの世界観が現実に、キャラクターに会えるライブ配信アプリ「hololive」がリリース

ここ数年でSHOWROOMLINE LIVEツイキャスなどリアルタイムに視聴者とコミュニケーションがとれるライブ配信サービスは一気に普及した。今年はそこにコマースの要素を掛け合わせてライブコマースサービスも盛り上がりをみせているが、配信を行う演者は基本的に人間だ。

でも人間だけではなく、キャラクターによるライブ配信にもニーズがあるのではないか。本日リリースされた「hololive(ホロライブ)」は、まさにキャラクターが生きているかのような感覚を味わえるライブ配信アプリだ。

hololiveではVRやARの技術を活用して、キャラクターによるライブ配信を実現。キャラクターの3D映像を現実空間にAR投影すれば、まるで自分と同じ空間でライブが行われているかのような体験ができる。ライブを視聴しながらコール&レスポンスを楽しんだり、キャラクターの写真や動画を撮影したりすることも可能だ。

キャラクターの操作にはVRデバイスを使用。装着した人間の顔や体の動きなどがリアルタイムに表示される仕組みになっている。

対応機種はARKitに対応するiPhoneとなるが、その他のデバイスでも非ARモードでライブ配信を視聴できるようにしていく方針。合わせて今後はゲームやアニメのキャラクター、バーチャルアイドルによるライブ配信を随時追加していく予定だ。

hololiveを提供するカバーは2016年の創業。2017年8月にはみずほキャピタル、TLMおよび個人投資家数人から約3000万円を調達しているほか、VR・AR関連のスタートアップを対象にしたHTCのアクセラレータープログラム「VIVE X」に日本企業として唯一採択されている。カバー代表取締役の谷郷元昭氏は、地域情報サイトの「30min.(サンゼロミニッツ)」を手がけた(現在はイードに譲渡)サンゼロミニッツの創業者。また、アエリア元取締役でエンジェル投資・スタートアップ支援を行う須田仁之氏、アジャイルメディア・ネットワーク元CTOの福田一行氏が参画している。

なおカバーでは、ARKit非対応環境のユーザーにもhololiveを体験できるよう、12月21日20時からLINE LIVEでの配信も行うとしている。

Magic LeapがARヘッドセットMagic Leap One ‘Creator Edition’をお披露目、出荷は2018年の予定

お待ちかね。ようやくその日が来た。 Magic Leapが、GoogleやAlibabaなどから集めた現金で開発しているものの、最初の姿を披露したのだ。

本日(米国時間12月20日)、この恐ろしく評価額の上がっている拡張現実スタートアップが、そのMagic Leap One “Creator Edition” の、最初の詳細を公表した。これは開発者のための(「クリエイターのために作られた」)ARヘッドセットで、同社によれば2018年に出荷されるということだ。まだ価格については不明だし、コンシューマー版がいつ登場するのかの情報もないが、ともあれ、何かはあるってことだ!

おそれくこれまで世間が目にしたプロダクトの中で、一番控え目ものとは言えないと思うが、少なくともヘルメットではない。Magic Leap One “Creator Edition”は、3つのハードウェアで構成されてる。

  • Lightwear:同社の”Digital Lightfield”表示テクノロジーを利用するヘッドセット。空間情報を収集するための複数の統合センサを備えている。
  • Lightpack:ヘッドセットにコンピューティングパワーを供給し、ゴーグルに接続される、かなり重い丸型のベルト式ヒップパック。
  • Control:ユーザーのメニュー選択やMagic Leapが構築する世界を、空中でナビゲートする手助けをするために、利用されるハンドヘルドコントローラ。
  1. magic-leap-one-b57ca9e203ff7d82143811866148b89c.jpg

  2. magic-leap-one.jpg

  3. magic-leap-one-7b2ebd93818a9d3e79320e726f4ac0ea.jpg

ヘッドセットのデザインは、特許やリークによって以前から伝えられきたものに、かなり似ているが、ヘッドセットの前面のゴツさは少々驚きだ。しかしフレームのサイズは、Magic Leapがヘッドセットの視野をどの程度広げることができたのだろうか、という疑問を生じさせる。同社は”Digital Lightfield”(デジタル光照射野)テクノロジーを使用しているとは語っているものの、それが実際に何を意味しているのかを私たちは知らないし、真に光照射野テクノロジーを利用しているのか、それともそれを単純に模倣しているだけなのかということについても分かっていない。スタートアップは、コントローラ以外の入力として、ヘッドセットから、音声、ジェスチャ、頭部のポーズ、および視線追跡を取り込むと説明している。

Rolling Stoneとのインタビューで同社は、ユーザーは処方レンズを購入することができ、ヘッドセット自体は2つのサイズになると述べている。

ソフトウェア側では、Magic Leapはプラットフォームの能力を強調している。2018年初頭にはCreator Portalが登場する予定で、開発者たちにはより多くの文書、ツール、リソースなどが提供される筈だ。

同社がコンシューマー向けリリースで目指していることはまだ不明な点が多いが、このデザインはMagic Leapが達成できると考えていることを基にしているということは間違いない。もちろん「製品は継続的に進化しており、出荷時には異なるものになる可能性があります」というアナウンスにも注意しておこう。

[原文へ]
(翻訳:sako)

Googleの先進的ARプラットホームTangoが閉鎖、汎用のARCoreを主力に

Googleが今日(米国時間12/15)、ハイエンドなスマートフォンの拡張現実(augmented reality, AR)プラットホームTangoを閉鎖して、マスマーケット指向のARCoreに集中する、と発表した。そのことは、8月にARCoreが発表されたときすでに確認されていたが、今回はTangoの終結の公的日程が決まった。

Tangoのサポートは、2018年3月1日で終わる。

Googleはこんなツイートを: “これまでの3年間、Tangoの大きな進歩に貢献された、デベロッパーのみなさまの素晴らしいコミュニティに、感謝申し上げたい。みなさまとの旅路を、ARCoreで続けたいと願っている”。

2014年に導入された“Project Tango”は、それ自身が先駆者であり、AppleのARKitなどよりもずっと早くから、スマートフォンとタブレットというモバイルの世界にARのソリューションを持ち込み、深度(奥行き)専用カメラなど複数台の高度なカメラハードウェアを使って、今のMicrosoftのHololensにも似たやり方で3D空間のメッシュを作った。しかしスマートフォンのメーカーの実際の製品に、このかなり高価な機能性を実装させることは、Googleにとって見果てぬ夢に終わり、Tangoは3年間でごく一部の新奇なデバイスに載っただけだった。

今年のGoogleは、iOS 11におけるApple ARKitの成功に背中を押された形だ。GoogleはAndroid上のARにコストの高い入り口があるという状態を廃し、8月にARCoreを導入した。しかしTangoとARCoreの両者には多くのクロスオーバーがあるから、Tangoは単純に無に帰したわけではない。ARCoreはTangoを単純化して、3D空間(奥行きのある空間)のメッシュを作るよりも、プレーン(面)の検出にフォーカスしている。そのためARCoreは、Galaxy S8やPixelのような人気のスマートフォンでも動き、TangoのようにマルチカメラやIR(赤外線)といったクレージーなセットアップは要らない。

8月の時点でGoogleのAR/VRのボスClay Bavorはこう語った: “Tangoの目標はわれわれのコア技術を証明して、それが可能であることを世間に示すことだった。もちろんスマートフォンのARは他社もやっているが、Tangoの目標はあくまでも、その能力を(いずれは)できるだけ多くのデバイスで実現することだった”。

というわけなので、今回の閉鎖はきわめて論理的だ。ARのプラットホームを単一化することがすでに困難になっていたAndroidのようなプラットホームのために、Tangoのような要素がばらばらに多様化している開発プロセスを維持しても意味がない。まともなユースケースも確立していない現状では、商機もかなり乏しい。だから、先へ先へと進みすぎた技術を、もっと扱いやすいレベルに戻すことが妥当だ。しかしもちろん、Tango実装機を買ったユーザーはがっかりするだろう。たとえば数か月前に出たばかりのAsus ZenFone ARは、その最大のセールスポイントとして、Tangoを実装している。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

FacebookがARプラットフォームと‘World Effects’を全デベロッパーに開放

Facebookはサードパーティの開発者たちの助けを借りて、Snapchatとの間に横たわる拡張現実機能のギャップを埋めようとしている。Augmented Reality Camera EffectsプラットフォームとAR Studioツールを、F8会議で発表してから8ヵ月、本日(米国時間12月12日)Facebookは、すべての開発者ががFacebookカメラのARエクスペリエンスの構築を始めることを可能にした。これらの機能の中には、FacebookによるSnapchatのWorld Lenses機能のコピーである”World Effects”が含まれている。これを使えば単に自撮りだけでなく、環境までも含んで、3Dオブジェクトで拡張することが可能になる。

AR Studioは本日から、すべての開発者によって利用可能となり、World Effectsは数日後にはFacebookとMessengerで利用できるようになる。たとえば、Messengerの中で、3Dのハートを誰かの頭の上に浮かべて追加したり、矢印を追加してパノラマの中の何かを指し示したり、地味なビデオを音楽で盛り上げるロボットを追加したりすることができる。

Facebookの新しいWorld Effects

「私たちはアーティスト、開発者、ブランド、さらに沢山のクリエイターの皆様が、素晴らしいARエクスペリエンスを作成し、共有できるようにしたいと考えています」と、FacebookのディレクターFicus Kirkpatrickは述べている。「AR Studioをすべてのクリエイターに開放することで、私たちはARを日々の生活の一部にするためのステップを踏み出しました」。

Facebookにとってのチャンスは、Snapchatの見せる反デベロッパーの姿勢に、つけ込めることだ。Snapchatは、いくつかの基本的な画像フレームを取り込むこと以上には、サードパーティのARコンテンツを完全には受け入れておらず、Jeff Koonsのような少数の素晴らしいアーティストたちと協力するだけに留まっている。一方、Facebookは、10年以上にわたって開発者のプラットフォームを運用しており、Facebookの膨大な20億人のユーザーの目の前に、コンテンツを提供しようとするコーダーたちの巨大なコミュニティを育んでいる。

Facebookは、Camera Effectsプラットフォームを開始して以来、ARの体験を生み出すために、2000以上のブランド、出版社、アーティストたちと協力してきた。これによって「スポンサー付きWorld Effects」の下準備が整えられた。これは企業がお金を払って、Facebookの中でARのギミックを提供できるようにする仕掛けだ。

FacebookのAR Studioを使えば、アニメーションや画像を、例えば誰かが眉を上げるといった特定のきっかけと、結びつけることができるようになる。

「私たちは、顔追跡機能の改善、新しいグラフィックス機能、優れたスクリプト機能、そして今度はWorld Effectsを使って、プラットフォームの機能を継続的に進化させてきました。とはいえ、これは始まりに過ぎません。クリエイターたちがAR Studioを使って、アートを生み出してくれることが、待ちきれません」。

ユーザーは、FacebookやMessenger Cameraを開き、World Effectsの中をスクロールして、見ているものにタップで効果を追加することができる。現時点で利用可能な体験には、操作することのできるユニコーンや、空中に浮かんだ3D文字(”love”, “babe”, “heart”, そして “miss you”など)といったものも含まれる。

Facebookは、ARの探求では幾つもの困難に出会っている。Cameta Effectsのコンテンツがシェアされることの多いFacebook Storiesは、Instagram Storiesのような成功は収めていない。現在はInstagramやMessengerからFacebook Storiesにクロスポストすることができるようにしているものの、やはり今でも多くのビューを得ることはできていない。一方、アップルのARKitとGoogleのARCoreは、開発者たちにFacebookにおんぶすることなく、自身のアプリの中にOSレベルでARを構築するための代替手段を提供する。

本質的に、Facebookが開発者を魅了する最大の理由は、既存の膨大な聴衆へのアクセスが容易だからだ。しかし、Facebook Storiesが人気を得ることができないならば、その聴衆にも簡単にはアクセスすることができない。おそらく、沢山の人びとがStoriesを見ているInstagramにCamera EffectsプラットフォームとWorld Lensesを開放した方が、効果が高いだろう。

現実世界は、単一の会社が拡張現実で盛り上げるにはあまりにも広すぎる。しかし、クラウドソーシングを使った開発によって、Facebookは最終的に、あらゆる場所、実世界のオブジェクト、休日、またはアクティビティに接続された、ARエクスペリエンスを提供することができるだろう。その幅広い提供が、人びとがAR世界を探索する標準的なやり方に対しての、鍵となるだろう。どんなアプリが提供するにせよ、最も成功と呼べる体験は、誰かに確認のために空中に手を伸ばさせるようなものになるだろう。

[原文へ]
(翻訳:sako)

AppleがARヘッドセットのスタートアップVrvanaを3000万ドルで買収

2020年に拡張現実感(AR)ヘッドセットを出荷する作業を進めていると噂されているAppleは、その作業を助けてくれるであろう、モントリオール(カナダ)のスタートアップを買収した。TechCrunchは、AppleがTotemヘッドセットのメーカーであるVrvanaを買収したことを知った。同ヘッドセットは様々なレビューでは話題になっていたものの、これまで出荷されてはいなかった。この取引額は約3000万ドルであったことを、2つの情報源がTechCrunchに明かしている。

私たちはAppleに連絡したが、同社はコメントを拒否した。しかしストーリーそのものは否定していない。Vrvanaは私たちからのコメント要求に答えていない。取引に近い情報源によって私たちは買収の事実を確認している。

AppleがARハードウェアに対して持つ興味に関する、報告や噂を見聞きしてきた私たちにとって、この取引は重要な意味を持つ。Appleは口が堅く、特に完全に新しい未来のプロダクトに対しては、一般にとても秘密主義だからだ。この買収は、おそらく同社が開発したいと考えているものを最も明白に示唆するものだ。

スタートアップの多くの従業員たちはカリフォルニアのAppleに加わった。Vrvanaのサイトは、現在まだ稼働しているが、今年の8月にはソーシャルアカウントとニュースの更新が中止されていた。

Vrvanaの既存製品、製品ロードマップ、または現在のビジネス(同社はNDAの下に、Valve、Tesla、Audiなどと協力していた)のうちの、どれがAppleに向かうのかは明らかではない。

Vrvanaがそのサイトで披露している唯一の製品は、未発売のTotemヘッドセットだ。これはARとVR(仮想現実感)の両方のキーテクノロジーを利用して、単一のヘッドセットで両者の体験を可能にする「拡大現実感」(extended reality)デバイスである。

VrvanaのTotemプロモーションビデオの1シーン

接続されたデバイスは、現在市場にある多くのVRヘッドセットと似通った大きさを持つ。しかしユニークな特徴として、複数の前方にパススルーカメラを備えていて、外部の世界をヘッドセット内部のOLEDディスプレイ上に映すことが可能だ。このヘッドセットのカメラシステムは、3D空間内でのデバイスの位置を把握する6DoF(six degrees of freedom)トラッキングを提供し、同時に赤外線カメラを用いてユーザーの手の位置を追跡することができる。

VrvanaのカメラベースのARアプローチは、Microsoftのような競合相手のアプローチとは異なっている。例えばMicrosoftの場合には、透明で投影可能なディスプレイをそのHoloLensヘッドセットに採用している。Totemはそうした競合システムに対して数多くの利点を持っている。最も素晴らしい点は、実世界上に完全に不透明で意図した色彩を持つアニメーションを表示することができるということだ。他のヘッドセットでは黒が投影できないために、映像は幽霊のような投影画像となる。このことによって、ヘッドセットは、VRとAR環境間の移行に際して、同社が「シームレスブレンド」と呼ぶ自然な移行を可能にする。

どうしても大型になってしまう外観はさておくとして、この種のシステムの主要な欠点は、外界をキャプチャするカメラとヘッドセット内に表示される速度との間にしばしば顕著な遅れが出てしまうことだ。VrvanaのCEOであるBertrand Nepveuは、この夏の談話でこの問題を詳述し、スタートアップはこの遅れを3ミリ秒にまで短縮したプロトタイプを作成していると語った。

TotemがいかにARモードとVRモードの間をスムースに移行できるかを示すアニメーション。

このような 「拡大現実感」テクノロジーのためのコンシューマアプリケーションがある。たとえば、ゲームやその他のエンターテインメントなどだ。しかしVrvanaが主に注力していたのは企業での利用だ。

「Totemのハンドドラッキングと、環境の中での位置トラッキングによって、従業員たちが仮想オブジェクトを何処ででも扱えるようになります」と、同社はヘッドセットの宣伝素材のなかで語っている。

これはAppleの関心――自分自身が、あるいは他のITプロバイダーたち、例えばIBM、Cisco、SAPなどと組んで、異なる企業のビジネスプロセスに入り込もうとする試み――から考えると注目に値するものだ。8月には、CEOであるティム・クックは、ARを使った野望の中心的な目標の一つとして、企業向け利用を選び出した。そして最新の業績では、Appleの企業向け用途への成長率が2桁を超えていることが公表されている。同社の企業向けセールスが伸び始めたのは2015年である、クックはそれを250億ドルのビジネスだと表現してみせた。

しかし、事業拡大はスタートアップ(特にハードウェアのスタートアップ)にとっては、最も難しいことの1つだ。これは特にまだ主流とはなっていない新興テクノロジーに取り組んでいるスタートアップにとっては更によく当て嵌まる。

2005年に創業したVrvanaは、その調達資金について多くを公開していない。情報源の1つは、TechCrunchに対して、このスタートアップは、ハードウェアの世界では控え目な200万ドル以下の調達を行っていると語った。PitchBookによれば、投資家に名を連ねているのは、Real Ventures(そのパートナーであるJean-Sebastian Cournoyerは、Montrealの野心的なAIスタートアップでありインキュベーターでもあるElement.aiに参加している)、Canadian Technology Accelerator、他のVRスタートアップでも活躍しているエンジェルのRichard Adler などだ。

これまでのところ、Appleは今日の市場におけるVRとARハードウェアへの取り組み状況をかなり批判されていて、ゲームに対する取り組みも控え目なものである。

「現在のテクノロジー自身は、まだ十分なものではないと言わなければなりません。このディスプレイテクノロジーは、あなたの顔の周囲に十分なものも配置しなければなりませんが、これは大変な挑戦なのです」と、クックはヘッドセットを作っているのかという問に答えてThe Independentに対して語っている。「視界や、ディスプレイの品質そのもの、いずれもまだまだです…私たちは最初の体験がラットを使った実験のようになることを望んではいません、私たちは最高のものでありたいのです、そして人びとに素晴らしい体験を提供したいと思っています。しかし、この先すぐにマーケットに出てくるようなものは、どれも私たちを満足させてくれるようなものにはならないでしょう。それだけでなく、世の中の多くの人びとも満足させることはできないと思います。

もちろんこれはAppleが拡張現実空間に熱中していないという意味ではない。しかしこれまでのところ、この関心は主に、専用のデバイスではなく、ソフトウェア(特に同社のiOSベースのARKit SDK)や、ますます洗練されたiPhoneのカメラアレイによって表現されてきている。とはいえAppleの所有する膨大な特許はそうした専用デバイスの存在を潜在的に示唆しているのだ。

Appleはまた、ハードウェアを強化する技術の開発に関心を持っていることを示す、他の買収も行っている。6月には、AppleはSMIを買収した、これはVRとARヘッドセットのための視線追跡ソリューションに取り組んでいる会社である。その他のARならびにVR関連の買収として含まれているのは以下のような企業だ、Flyby MediametaioEmotient、そしてFaceshiftである。

[原文へ]
(翻訳:Sako)

ミニロボットがAR環境で戦うMekaMonがApple Storeに――背景に日本のアニメ

最初のバッチ、500台を売った後、 イギリスに本拠を置くReach Roboticsは750万ドルの資金調達ラウンドを成功させた。これによりAR環境で現実のミニロボットを戦わせるプラットフォームがさらに手頃な価格で一般消費者向けに販売できるようになる。このスタートアップに注目していたのはベンチャーキャピタルだけではなかったようだ。AppleもMekaMonに強い関心を示していたことが判明した。

今日(米国時間11/15)から、MekaMonロボットはApple Storeのチャンネルを通じて独占的に販売される。今日はまずオンライン・ストアに登場するが、明日からは現実店舗でも販売が始まるという。Appleはスタートアップのハードウェアの製品が同社独自のテクノロジーを利用するのに適しており、大きな人気を集めそうだと考えた場合、これをプロモートするため同様の契約を結んだことがある。

Reach Roboticsの場合、Appleにとって相乗効果があるのは明らかだ。MekaMonは現実のトイ・ロボットが戦う環境を作るためにARテクノロジーを利用している。つまりAppleが全力で普及を図っているARKitと対象までの距離を把握できるカメラのユースケースとして理想的だ。

ファウンダーのSilas AdekunleはTechCrunchのインタビューに答えて、「サンフランシスコで開催されたGame Developers Confereceでロボットをデモしたとき、わが社への4人の投資家の一人が〔Appleとの〕ミーティングを設定してくれた。Appleはすっかり気に入ったようだった。当時私はARKitがすぐに発表されることを知らなかったが、発表されたものを見て、これは使えると感じた。正しい方向だと思った」と述べた。この時系列を考えると、現行バージョンのMekaMonはARKitを利用しているわけではないようだ。しかしReachは将来のバージョンではARKitを使うことになるだろう。Apple Storeで独占販売されるとはいえ、ロボットの操縦、主観表示、AR環境の表示、距離の測定などすべてiOSとAndroidの双方で作動する。ロボット本体はBluetoothで接続され、対戦あるいは協調モードでさまざまな動作が可能だ。

MekaMonはAppleのSwift Playgroundsと完全に互換性がある。ユーザーはロボットの動作をカスタマイズしたり、アニメーションに利用するプログラミングを書き、アプリ開発を学ぶことができる。Adekunleは「Swiftベースのプログラミングをさらに追加してロボットを進化させたい」と述べている。

ロボットは今日から発売されるのでクリスマス・プレゼントにも間に合うだろう。1セット300ドルだ。

〔日本版〕 MekaMonのキット内容はこちら。MekaMon1台、ARマット、電池、充電器、カスタマイズ用パーツが含まれる。発売はEU、イギリス、アメリカのApple Storeで、日本から入手できるかどうかは情報がない。ファウンダーは上のビデオで1:30あたりからMekaMon開発の背景について触れ、「日本のアニメ」を挙げている。

[原文へ]

(翻訳:滑川海彦@Facebook Google+


【以上】

Apple、iPhoneの背面カメラにもTrueDepth機能を採用か

Appleは、iPhone Xのノッチ(切欠き)部分に山ほどのセンサーを詰め込んだ。TrueDepthカメラシステムは、Face IDからAR Kitを使った顔追跡まで 数多くの機能の基盤を提供している。さらにはセルフィー撮影時のポートレイトモードも可能にした。Bloombergの最新記事によると、Appleは3Dセンサーを使って背面カメラも強化しようとしている。

Bloombergは、Appleが背面センサーに全く同じ技術は使わないだろうと言っている。現在iPhone Xは、何千個ものレーザーのドットからなる格子を照射して、顔に映ったドットの歪みを調べている。

噂されている3Dセンサーは、照射したレーザードットが反射して戻ってくるまでの時間を測定する。現在Appleは2基のカメラを使って対象との距離を認識している。

しかしこの新システムの方がはるかに正確だ。iPhoneは周囲の状況を理解してユーザー周辺の大まかな3Dマップを作ることができる。これはARKitをはじめとする拡張現実(AR)機能にとって非常に有益だ。

Appleは拡張現実に本腰を入れ始めている ?? Bloombergは同社がARヘッドセットを手がけていることも報じている

GoogleのProject Tangoが思い出される。結局離陸することはなくGoogleはARCoreに方向転換した。しかしProject Tangoの背景にあった考え方はAppleの次期スマートフォンにも生かされているのかもしれない。センサーやチップは安くて小さいので薄型のフラグシップ機に問題なく内蔵できる。

Bloombergによるとこの新しい3Dセンサーは来年のiPhoneには間に合わないらしい。出荷は2019年になりそうだ。

[原文へ]

(翻訳:Nob Takahashi / facebook

交通騒音も路上と室内では違う…3D空間内の複雑な音響編集を助けるResonance AudioをGoogleが発表

拡張現実(augumented reality, AR)は、コンピューターとの対話を三次元化するという展望により、徐々に伸びつつあるが、すでにいろんなプラットホームを提供しているGoogleは、その三次元空間に視覚だけでなく五感のすべてを持たせたいようだ。

今日(米国時間11/6)Googleは、同社のVR Audio SDKをベースとして、より総合的な空間オーディオプロダクトResonance Audioをモバイルとデスクトップ両用に作っていることを発表した。

Googleの説明によるこのSDKの用途は、“本物の音が人間の耳や環境と対話する”様相を再現することだ。たとえば、現実の音が物や環境によって歪むという現象も、ARの仮想的シナリオにおいて再現する。

たとえばあなたが大型ラジカセを持って歩いている仮想キャラクターだとすると、何かの曲を鳴らしながら開放的な空間を歩いているときと、吹き抜け階段を降りているときとでは、音はどう違うのか? Resonance Audioが対応しているこのような多様な状況により、ユーザー(デベロッパー)もそんな状況を三次元の奥行きの中で音で再現できるようになる。

またResonanceはデベロッパーがシーン中の音源を指定できるだけでなく、音源が動く方向も音質の変化で表すので、たとえばあなたがデジタルのキャラクターのうしろを通るときと、顔の前を通るときでは、反響音を変えられる。

上で例を述べたようなさまざまな状況の変化は、ゲームのデベロッパーにとってはおなじみのものだが、しかし複数の(数十の)音源が同時にいろんな状況で対話的に鳴るといった複雑な設定では、その対応も難しい。CPUはビジュアルにかかりっきりで忙しいことが多いから、音の表現のこのような複雑性は予想外の困難性をもたらし、結局ベーシックなオーディオだけで発売してしまうこともありえる。Resonanceはたとえば、一部の音のリバーブを、いろんな環境ごとに事前に作っておくといったトリックにより、音のリアルであるべき対話性が時間的にずれる、といった問題を解消する。

ResonanceはUnityやUnrealのようなゲームエンジンとも併用でき、またいろんな音響編集作業のためのプラグインも用意しているから、既存のワークフローとの相性も良いだろう。

GoogleはVRやARの基盤的技術への関心をベースとして、さらにそれらをゲームの開発に応用しようとしているようだ。先週Googleが見せたPolyは、3Dのアセットや環境のためのホームだ。そしてResonance Audioが空間的オーディオを提供し、よりリアルな音の開発を容易にする。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

“波動”を打って闘うARスポーツ「HADO」開発のmeleapが3億円を資金調達、海外へ本格進出

ストレスがたまってイライラ、もやもや……ああ、こんなときに“波動拳”や“かめはめ波”が打てたらいいのに!と誰しも一度ぐらいは思ったことがあるのではないだろうか。今はいい方法がある。手からビームが出せて、しかも体を思い切り動かして、誰も傷つけずにストレス解消になる、AR(拡張現実)技術を使ったスポーツ「HADO」がそれだ。

HADOを開発するmeleapは11月6日、総額3億円の資金調達を実施したと発表した。引受先はインキュベイトファンドDBJキャピタルと、SMBCベンチャーキャピタルが運営するファンド。

meleapは、2014年1月の設立。KDDI ∞ LABOの第7期に参加し、2016年5月に開催されたSlash Asia 2016では、ファイナリストに選ばれ、PR TIMES賞を受賞している。2017年8月には、インキュベイトファンドが開催するシードアクセラレーションプログラム「Incubate Camp 10th」で総合1位を獲得した。

HADOは、ヘッドマウントディスプレイ(HMD)とアームセンサーを装着して、3 on 3(または2 on 2)で競い合うゲームだ。手から繰り出した「エナジーボール」を相手プレイヤーにぶつけ、敵のライフを削りながら得点を重ね、勝利を目指す。相手からのエナジーボールを防ぐ「シールド」をジェスチャーで作り出して、防御することもできる。

対戦は、プレイヤー以外の観戦者も映像で楽しむことができる。下の動画は、meleap創業者チーム(CEOの福田浩士氏・CAOの新木仁士氏)と投資家チーム(インキュベイトファンドの和田圭祐氏・DBJキャピタルの河合将文氏)による競技の模様だ。

meleapでは、HADOを国内外のショッピングモールやテーマパーク、レジャー施設などにフランチャイズ展開している。PvP型でなくモンスターを倒すタイプのゲーム「HADO MONSTER BATTLE」、「HADO SHOOT!」などのシリーズを含めると、常設店舗は世界9カ国、25店舗、プレイヤー数は延べ60万人に及ぶ。12月には、昨年開催された第1回大会に続き、最大6カ国からの選抜チームが集う世界大会「HADO WORLD CUP 2017」も東京で開催される。

今後さらに海外展開を加速させたいmeleapでは、調達資金により、アメリカ・ロサンゼルスとマレーシアのクアラルンプールに支社を立ち上げ、店舗開拓と顧客サポート体制の強化を目指す。またHADO以外にも、ARを使った新競技の開発を進めていて、来年のリリースに向けて開発体制の強化も行っていくという。

Amazon、iOSアプリにARショッピング機能を追加

本日(米国時間11/1)Amazonは、AR Viewと呼ばれる新機能を公開した。ユーザーはスマートフォンのカメラを使ってオンラインの製品を実生活空間の中で見ることができる。AR Viewは今日からiOSデバイス用Amazonアプリに追加され、家庭やオフィス向け製品数千種類 ―― 家具、電子機器、おもちゃ、ゲーム、室内装飾等々 ―― を拡張現実の中で見られる機能を提供する。

同社は以前にも自社アプリでAR技術に手を出したことはあったが、AR stickerという方式だった。この”shoppable stickers”は対象商品が少なく、太くて白い縁取りがなされたマンガ的デザインはまるで本物のステッカーのようで、あまり役に立つとはいえなかった。

しかし他の多くの小売業者がARの導入に力を入れており、中でも家具販売では特に積極的なのは、実際に家に置いたときどう見えるかがわからないのでオンラインでの販売が難しいからだ。多くの客はショウルームへ行ってランプやじゅうたんなどの装飾品とあわせて部屋に置かれている家具を見ることを好む。

拡張現実(AR)はこうした行動を変える可能性を秘めている。消費者は展示用に作られた部屋ではなく、自分の部屋に置いたところを想像できるからだ。

最近、TargetWayfairIKEAなどいくつかの小売業者が、ウェブサイトやアプリにARショッピング機能を導入している。

IKEAの実装方法と同じく、AmazonのAR ViewはAppleのARKitを利用している ―― サードパーティー開発者がモバイルアプリにAR機能を簡単に付加できるソフトウェアだ。このため、AmazonアプリのAR ViewはiPhone 6s以降のハードウェアで最新オペレーティングシステムのiOS 11が動作していないと使用できない。

新機能を使ってみるには、まずAmazonアプリのカメラアイコンをタップする ―― これまでバーコードをスキャンしたりビジュアル検索していたのと同じアイコンだ。次に表示されたメニューで “AR View” を選ぶ(AR ViewはAR stickersを置き換えたのではないようで、まだ残っている)。

表示された画面でトップメニューをスワイプしていくと、リビングルーム、室内装飾、ベッドルーム、キッチン、電子機器、おもちゃとゲーム、などのカテゴリーを選べる。”top pick”[厳選]セクションもあって現在はEchoスピーカーも入っている。

ただし、商品セレクションの中にはどこまで役に立つのかわからないものもある ―― 黄色いおもちゃのトラックやEcho Dotを買う前に、ビジュアル化する必要があるか?しかし家具などの大きなものやキッチン家電などカウンタートップに置くものに関しては便利かもしれない。

AR Viewの画面では、商品を移動、回転させて360度ビューで見ることができるとAmazonは言っている。

AR Viewは現在iOSデバイス向けに公開中で、Amazonのブラックフライデーセールニュースとともに発表された。

発表文の中で同社は、これでAmazonにはARを含め様々なショッピング方法が揃ったことを強調した。おすすめ商品を一覧できるInteresting Findsや、実際に町を走る “Treasure Trucks” 、リアル世界のAmazon書店、ホリデー・トイ・リストギフトガイドハンドメイドショップなどが用意されている。

[原文へ]

(翻訳:Nob Takahashi / facebook

AR/VRのWeb上の標準的なサポートとは?…Mozillaがそれを独自のJSライブラリWebXRで実験中

現時点ではVRやARの有用性を疑問視する声もあるが、開発とデプロイをもっと容易にしろ、という意見では全員が一致するだろう。とくに問題なのが、Web上だ。そこでMozillaは、総合的なフレームワークに取り組むことによってデベロッパーに、ユーザーが選んだ(多様な)混成現実のプラットホームにアクセスするための、標準的でドキュメンテーションの充実したツールを提供しようとしている。

Web上では基本的に何でも、デスクトップブラウザーとモバイルの両方に容易にデプロイしようとすると、難しくなる。これにVRやARのヘッドセットなど混成現実の要素が加わると、さらに難しい。だからWeb上でVR/ARが本格化するためには、容易なデプロイが必須条件だ。

Mozillaは以前、Googleなどと共にWebVR APIを作った。それにより昨年は、ブラウザーが面倒なプラグインなしでVR体験を提供することができた。上述の‘総合的なフレームワーク’仮称WebXRは、そのAPIの拡張で、WebVRに拡張現実(AR)の要素を加える。だからここでは、‘総合的’とは‘混成’という意味だ。

つまり、AR/VRのいろんな概念、たとえばオブジェクトのアンカーリングなどの実装が、ARCore, ARKit, Hololensなどプラットホームごとに異なっていても対応できる共通言語を作ろう、というのだ。けっこう、たいへんな仕事である。今回Googleはパートナーしていないが、しかしMozillaのこの仕事は、ほかの企業の既存のデモに対する補完および互換性をねらっている。

Mozillaの主席研究サイエンティストBlair MacIntyreは、こう説明する: “WebでARをどうやって実装するか、前にGoogleの連中と話し合ったことがある。そのときは彼らがWebARでやった実装例に対するフィードバックを彼らに見てもらったが、そのときの経験から、今作っているJavaScriptのライブラリWebXRは、彼らのアプリでも使えて、また一般的にデベロッパーが自由に自分の好きなアプリで、これらのWeb上の新しい技術〔AR+VR on Web〕を実験できるものでなければならない、と思っている”。

WebVRを完全にリプレースするものではないが、今後のことはまだ分からないから、そのスタンダードでARの実装が相当変わったりしたら、その実用性が危ういのではないか。

MacIntyreはこう語る: “長期的には、WebVRが進化してARもできるようになることが、最良の結果かもしれない。それほど大きな変更にはならないし、APIはそのままWebVRと呼ばれるだろう。あるいはコミュニティが、もっと広範な抜本的な変化を望めば、それがWebXRあるいはWebMRと呼ばれるかもしれない”。

というわけで現状のそれは、本格的な提案というより、デベロッパーたちによる自発的な実験だ。それはデスクトップのFirefoxをサポートしており、iOSのApp StoreにはWebXR Viewerがある。それらを試してもよいが、でもデベロッパー以外の人は単純に待つべきかもしれない。

提案および、わずかばかりの実験は、GitHubでチェックできる。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

秘密主義のMR/AR企業Magic LeapがシリーズDで5億200万ドルを調達

複合現実と拡張現実のスタートアップMagic Leapは、本日(米国時間10月17日)シリーズDで5億200万ドルを調達したことを公表した。このラウンドはTemasekによって主導され、EDBI、Grupo Globo、Janus Henderson、Alibaba Group、Fidelity Managementなどが参加している。ちょうど先週デラウェア州の記録によってMagic Leapの調達は最大10億ドル分に達することが判明していた。

「私たちはTemasekとその他の新しい投資家の皆さんを、Magic Leapファミリーにお迎えすることができて感激しています」と、Magic Leapの創業者で社長であるRony Abovitzはリリースの中で語っている。「私たちはまた、既存の株主の皆さまからの、強力なサポートとパートナーシップに対しても感謝しています」。

Magic Leapが何をしているのかは、いまだに完全には判明していない。しかし同社が、現在行っているもののために、既に莫大な資金(19億ドル以上)を調達したことは確かである。これまでのところ、私たちが知っているのは、同社が”Magic Leap One”という名前のデバイスを発売するだろうということである。そして先月にはBloombergが、Magic Leapが次の6ヶ月程の間にデバイスを「少数のユーザーグループ」に対して出荷するかもしれないと報じている。

先週Equityポッドキャストのキャスターが、Magic Leapの野望について語った内容は、以下のリンクから聞くことができる。

原文へ
(翻訳:sako)

東大発AR/MRスタートアップのGATARIが4000万円の資金調達、新時代のUI/UX開発を目指す

Amazon EchoやGoogle Homeなど、音声で操作するAIアシスタントが現実のものとして身近に広がりはじめた現在。この環境がさらに進化した先には、どんな未来が待っているのだろう。GATARI(ガタリ)は、音声を使ったコミュニケーションが、AR(Augmented Reality、拡張現実)/MR(Mixed Reality、複合現実)環境にも広がることを予測し、MR時代に最適なUI/UXを模索・開発する、東大発のスタートアップだ。

10月18日、そのGATARIが総額4000万円の資金調達を実施したと発表した。引受先はVenture United三井住友海上キャピタルKLab Venture Partners、Nikon-SBI Innovation Fund、および個人投資家。今回の調達はシリーズAラウンドに当たる。

GATARIは2016年4月に設立された、東京大学の学生を中心とするAR/MRスタートアップだ。2016年には、Tokyo VR Startups(TVS)のインキュベーションプログラム第2期に採択された。TVSプログラムでは、しゃべった声がテキストの形になってVR空間上に現れ、話者の母語に翻訳されたものを見ることができるコミュニケーションツール「コエカタマリ」を開発している。

GATARI代表取締役の竹下俊一氏はコエカタマリについて、こう話している。「元々は音声を使った、未来のMRコミュニケーションツールを作りたかった。ただデバイスの発達がまだ進んでいないので、この時点ではMRよりはVRの方が実装が楽だと判断して、VRのコンテンツを制作している。とはいえ、VRでもリアルな空間をCGで用意して、MRっぽい、MRにつながる操作感を実現しようとした」(竹下氏)

プログラム終了後の現在、GATARIでは企業向けにHoLolensなどを使ったMRソリューションを開発するほか、ARKitを利用したスマートフォン向けARアプリを開発中で、年内にもストーリーテリングアプリをリリースしようと準備しているそうだ。「VRでは空間内を“見渡す”ことが必要だが、ARでは見渡さなくてもよい。前にある画面を自分で動かして変わるという、カメラワークが楽しい点が特徴だ。その楽しさを反映したプロダクトにしたい」(竹下氏)

竹下氏は「AR/MRを実現する環境は活発化していて、スマートフォンやHoloLensなどのデバイスも進化している。市場規模までは予想しきれないけれども、ARKitから始まって、スマホ連携のAR/MR環境が実現し、いずれは一体型のウェアラブルMRデバイスが来るだろう」と予測する。「そうした状況に合わせて、声による操作や入力をしっかり使ったプロダクトを用意したい。LINEやSnapchatは、スマホ時代のコミュニケーションのデファクトスタンダードとなった。我々は、MR時代のデファクトスタンダードとなるようなUI/UXを開発・提供したい」(竹下氏)

竹下氏は、現在も東京大学在学中。GATARIを設立後にも東京大学を中心としたインターカレッジのVRサークル「UT-virtual」を立ち上げ、全国のVR関連サークルをつなぐ日本学生バーチャルリアリティ連盟の設立・運営を行うなど、若い世代のVRコミュニティ醸成にも力を入れている。

「今回の調達では、エンジニアやデザイナーに加え、ユーザーへのヒアリング体制も強化しようと考えている。その中でも、インターンを採用しての開発や、学生へのヒアリングを通して、若い人の感性を生かしていきたい」(竹下氏)

Jeff KoonsによるSnapchat上のARアート作品が「破壊」された

先週の初めSnapchatは、アーティストJeff Koonsとのコラボレーションの一環として、拡張現実アートを展示する新しい機能の提供を開始した。ARTと呼ばれているその機能は、ジオタグを付けられた世界中の物理的な場所に、アーティストたちによるデジタルアートワークや彫刻を貼り付け、Snapchatアプリ内のLensを使って見ることができるというものだ。

しかしアートコミュニティからは既に、潜在的に収益を上げる可能性のあるデジタルアートを、企業が好きな場所に「置く」ことに対して、反発の声も挙がっている。議論を呼び起こす手段の1つとして、先週の初めにはニューヨークに拠点を置くアーティストのグループが、Jeff KoonのAR Balloon Dogの「破壊された」バージョンを作り上げた。公平のために言うならば、これは明らかに2017年特有の課題である。しかし私たちが物理的なデジタルロケーションの所有権についての疑問を抱くにつれて、多くの議論を巻き起こす問題であることは間違いない。

このグループは、Snapのサーバーをハックして彫刻を破壊したわけではなく、単純に作品の3Dデジタル複製を、同じジオタグの場所に置かれたKoonの作品の上に重ねて置いただけだ。

グラフティアーティストのSebastien Errazurizは、このCross Lab Studioによる作品を取り上げて、拡張現実感体験には物理的な空間を賃借する場合と同様のルールが適用されるべきか否か、という興味深い問いを投げかけた。

Instagram Photo

企業によるジオタグ利用と、これからの拡張現実について

この破壊アートのイメージで、彼はさらに問いかけを行っている。

企業が自ら選択したコンテンツを、私たちのデジタルパブリックスペースに置くことを許すべきでしょうか?セントラルパークはニューヨーク市の持ち物です。なぜ企業がそのGPS座標を無料で使うことができるのでしょうか?彼らはGPS座標をブランドに貸し出して収益を得て、私たちを広告漬けにするのです。彼らは賃借料を支払うべきです、私たちは私たちのデジタルパブリックスペースならびにプライベートスペースに何が置かれるのかを選べるべきです。

こうした議論は、真剣に行なうにはまだ早すぎるかもしれない。しかし拡張現実がより普通のものになり、より収益性のあるものになるにつれて、パブリックスペースでの広告は巨大な産業へと成長するだろう。アーティストたちが、アートプラットフォームを作る企業に対する、政府の規制を期待するのを見ることは興味深いことだ。しかしそれはまた、テクノロジー企業たちが、AR技術を用いてデジタル世界を公的な物理ロケーションと関係させようとしているやり方に対して、私たちの多くが抱いている違和感を表してもいるのだ。

[ 原文へ ]
(翻訳:Sako)

ReactとJavaScriptで仕事をしているデベロッパーがアプリに容易にAR効果を導入できるViro Media

ARやVRも、ゲームを作るならUnityやEpic Gamesなどに最高のツールがある。でもそれらは、ゲームのデベロッパー以外の人にとっては、ちょっと近寄りがたい。そこでViro Mediaは、Webやモバイルのデベロッパーに、ゲーム以外のAR/VRアプリを簡単に作れる方法を提供する。

Viroは、ふだんJavaScriptとReactを使ってお仕事をしているデベロッパーを、拡張現実の楽しさに近づける。そしてiOS 11のARKitを完全にサポートしているので、ARによる自撮りフィルターとか、Magic Portalsのようなアプリを容易に作らせてくれる。

同社のVR志向については、今年の3月にSoftbank NYやLowercase Capital, Betaworksなどから250万ドルを調達したときに本誌も取り上げた。そして今回はARKitをサポートし、近くGoogleのARCoreもサポートするそうだから、ARという新しい技術に向けて最適化されている非常に多くのデバイスにアクセスできることになる。VRのヘッドセットはまだそれほど多くないけど、ARKitは世界中で5億台もあるAppleのデバイスをサポートしている。

同社のサンプルアプリFigment ARを見ると、このプラットホームの実力を理解できる。デベロッパーは彼らの新旧のアプリに簡単にいろいろなイフェクトを導入できる。しかも遊びやゲームだけでなく、Viroはエンタープライズの顧客向けにも最適化されている。

これまでのAR体験は、相当小細工的なものが多かったが、WebとモバイルをサポートするViro Mediaを使えば、既存のアプリにAR機能を容易に付加できる。そしてデベロッパーたちは、すぐにでも実験を始められる。

ViroのARプラットホームは、無料で今から利用できる。ここで、ユーザー登録をしよう。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))