アップルが2020年にARヘッドセットをローンチするという噂

9to5macが紹介している最強のApple(アップル)預言者Ming-Chi Kuo(郭明錤氏)の最新記事によると、同社は拡張現実のヘッドセットを開発中であり、近くそのデバイスはローンチされる、ということだ。このメガネ型のデバイスは2019年第4四半期(10〜12月)から大量生産が始まり、2020年の前半には一部の地域で入手できるらしい。

この神秘のヘッドセットで何ができるのか、それはまだ未知数だ。郭氏によると、その機能はだいたいApple Watchと同じで、ARとしての計算処理はiPhoneが担当する。つまり、iPhoneがないと使えない。

そのグラスはiPhoneの外付けディスプレイのようなものとして、情報をユーザーの眼前に送り出す。インターネットへの接続や位置機能、コンピューティングなどヘビーな仕事はすべてiPhoneが担当する。ARヘッドセットとiPhoneの通信は、たぶんBluetoothを使うのだろう。

郭氏の記事にヘッドセットの詳細はない。ユーザーのまわりにあるものを表示したり感知しなければならないから、ディスプレイとセンサーはあるだろう。センサーで環境を感知しないARデバイスは、ありえない。

AppleはiOS上のARKitフレームワークですでに拡張現実の実験をしている。デベロッパーは、現実世界にデジタル成分を統合するアプリを、それで作ることができた。そしてその様子を、ヘッドセットでなく、スマートフォンのカメラで見るのだ。

そうやって多くのアプリがAR機能を加えたが、その多くは見掛け倒しで本物の価値はなかった。ARネイティブのアプリも、ほとんどない。

拡張現実の面白いユースケースのひとつが地図だ。Googleは最近、Google Mapsの拡張現実モードを発表した。スマートフォンを顔の前に構えると、矢印が出て行き先を教えてくれる。

Appleも、Apple Mapsを独自のデータで作り変えてきた日本語関連記事)。地図を描くだけでなく、LiDARセンサーと8台のカメラを車の屋根に乗せて、現実世界のデータを大量に集めた。そのApple Mapsが、噂のARヘッドセットの重要な部分になるのか、そういう話なら面白い。

[原文へ]
(翻訳:iwatani、a.k.a. hiwa

HoloLensの軍用利用に関する5億ドルの政府契約事業、マイクロソフトCEOは擁護

マイクロソフト(Microsoft)に、同社の拡張現実技術「HoloLens」を米陸軍に納める5億ドルの政府契約を反故にする気はない。

CNNのインタビューでマイクロソフトのCEO サティア・ナデラ(Satya Nadella)氏はこう言っている。「わが社は、自分たちが今エンジョイしている自由を護るために民主主義に基づいて選んだ諸機関に対しては、技術の供与を拒否しない、という道義的意思決定を行った。その意思決定に関してわが社はきわめて透明であり、(反戦的な)社員たちとの対話も継続していく」。

関連記事: Group of employees calls for end to Microsoft’s $480M HoloLens military contract…Microsoft社員グループがHoloLensの軍用契約に反対(未訳)

現在200名あまりの社員が総額4億7900万ドルの政府契約の廃棄を求める経営陣に対する書簡に署名しているが、それに応じないとするCEOのこの言い分はまったく意外ではない。マイクロソフトは以前、政府の契約事業の遂行に関する社内精査を行っている。それに基づいて今回はまだ新しいAR技術が、テクノロジーの力で戦闘の最前線における米軍の殺傷能力を強化する、と称する契約事業に利用されることになった。

米国時間2月22日、社員グループから上層部に送られた書簡は、その4億7900万ドルの軍用契約の停止を求めている。グループの主張によれば、書簡に署名したマイクロソフト社員は200名を超えている。

「入社時の契約業務内容に武器の開発はなかった。自分の仕事の使われ方に関しては、自分に発言権がある」と書簡に書かれている。

その書簡の発表の数日前には、同社はあるイベントで、同社の拡張現実技術の進歩を強調した。

関連記事: Microsoftが大きく改良されたHoloLens 2を発表

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

IntelがロボティクスやAR/VRハードウェア用のインサイドアウトトラッキングカメラを発表

このほどIntelが発表したRealSenseカメラは、主にハードウェアメーカーに、彼らの製品が今世界のどこにいるかを自分で理解する能力を提供する。そのRealSense Tracking Camera T265(上図)で、ロボティクスやAR/VRのハードウェアにインサイドアウトトラッキングの能力を簡単に与えることができる。

このトラッキングカメラはSLAM(simultaneous localization and mapping)の技術を利用してデバイスの向きを制御し、同時に今自分が歩いている環境の詳しい空間レイアウトを作りだす。そして当然ながらコンピュータービジョンチップセットMovidius Myriad 2を搭載し、カメラのデータ処理をさせる。

インサイドアウトトラッキングはますます、計算集約的ではなくなりつつある。そしてこれこそが、IntelがT265で大きく進歩しつつある分野だ。

T265は2月末に199ドルで発売される。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

魚を拡張現実を生成するタンクに入れてみたらそれを本物の現実と区別できた

ニュージャージー工科大学の研究者たちが、グリーングラス(glass knifefish)の“姿勢維持”機能を調べているとき、動物の電気的感知器官をリアルタイムで騙(だま)すための拡張現実を作った。その魚はさまざまな穴を自分の家にして身を隠す習性があるが、研究者たちは、魚が自分を安全に保つために利用している自動的自律的なセンサー機能を、このやり方で知りたいと思った。

准教授のEric Fortuneはこう語る: “いちばん興奮したのは、この研究によって、われわれが10年以上前から夢見ていたやり方で、フィードバックを調べられるようになったことだ。ほとんどすべての動物が、自分の体を動かすことによってまわりの環境を感知しているが、この、運動によるアクティブな感知の基本的な過程を、拡張現実を利用してリアルタイムで調べたのは、おそらくこれが初めてだろう”。

魚がARのヘッドセットを装着したのではなく、研究者たちは水中で揺れる隠れ家の動きをシミュレートした。

Fortuneは曰く: “この魚が隠れ家の位置をフォローすることは前から分かっていたが、ごく最近分かったのは、人間の目の動きにも似た小さな動きを彼らが生成することだ。そこでわれわれは、拡張現実のようなものによって、魚の感知システムと運動システムとの関係を撹乱することはできないか、と考えた。しかし両者の結びつきを維持したままそれをやるのは、きわめて難しかった”。

その試験では、魚を管の中に入れて(上図)、管の動きと魚の目の動きが同期するようにした。魚が前や後ろへ動くとき、その動きは隠れ家の動きにも及ぶ。その動きを魚が見たとき、何が起きるのか。隠れ家の動きと魚の動きが同期したとき、魚はその動きが隠れ家の“リアル”な動き(単独の動き)でないことを、感知できた。つまり魚は、自分が仮想環境の中にいることを知っていた。

“動きの刺激の起源が独立のものであるときと、自分の動きのフィードバックであるときとを、魚は区別できた。この実験により、われわれが観察していた現象が、魚が自分の動きから受け取るフィードバックによるものであることが分かった。基本的にその動物は、自分のまわりの感覚世界を自分がコントロールしていることを、知っているようだった”。

もしかしたら魚は、Job Simulatorをプレイできるかもしれない。

“同じような実験を、人間の視覚についてもできるのではないか。それにより、神経生物学の貴重な知識が得られるだろう。また、視覚と運動のコントロールに関しては、人工的なシステムより動物の方がずっと上手だから、われわれが公開するデータを技術者が機械の制御に利用できたら、とても強力なフィードバックシステムが可能になるだろう”。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Boseのサングラス型新製品は‘オーディオAR’を提供する(ディスプレイはない)

オーディオ(スピーカー、ヘッドフォン)の名門Boseが新しいウェアラブルSDKを立ち上げて、拡張現実(augmented reality, AR)に手を染めたのは3月だった。そして近ごろやっと製品市場化のめどが立ち、最初のヘッドセットを来月発売することになった。

でも、ARという言葉に釣られるのは禁物。そのFramesと呼ばれる製品は、いかにもBoseらしく、あくまでも“オーディオによる”拡張現実だ。つまりそれはサングラスのような形はしているけど、ヘッドアップディスプレイはない。むしろそのねらいは、すごく没入的なオーディエンス体験をユーザーに提供することだ。

このハードウェアは、頭の動きを捉える9軸モーションセンサーとAndroidまたはiOSデバイス上のGPSにより、ユーザーがどこにいてどっちを向いてるかを検出する。そして位置や方向の変化に応じてオーディオを内蔵ヘッドフォンへ注ぎ込む。

このグラスには、イヤーバッドや骨伝導ではなく、小さなスピーカーグリルがある。だからユーザーには環境音も聞こえる。そのことは、良くもあり、悪くもある。耳を完全に覆うヘッドフォーンのように完璧なオーディオは楽しめないが、まわりによく注意することはできる。

さて肝心のコンテンツだが、その発表はまだない。それは来年からだ。でも同社によると、ゲームや学習、旅行情報などが提供されるらしい。ツアーガイドなんかも、あるのだろう。でももちろん、あなたはそのコンテンツが対応している場所にいなければならない。

お値段は199ドルで、まだ未知数の製品にしては高いが、もともとBoseの製品は高いから、誰も違和感を感じないかもしれない。電池は一回の充電で3.5時間、スタンバイタイムは12時間だ。

上図のようにFramesは二つのスタイルがある。アメリカでは1月に発売。そのほかの市場には春だ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Google、デジタルアート・ギャラリーにARを導入

Googleは、アートの世界をもっと間近で見て欲しいと思っている。

同社のアプリ、Arts & Cultureは長きにわたりGoogleでもっともクールなニッチアプリのひとつで、私はこれを再発見するたびに見過ごしていたことに罪悪感を感じることがしょっちゅうある。本日(米国時間12/3)同社は、オランダの巨匠ヨハネス・フェルメールの作品に焦点を当て、収集品を一箇所にまとめた 体験を新たに加えた

同社の多くの作品集と同じく、展示には深く掘り下げられた研究や、事実情報のリスト、専門家のインタビューや論説などが備えられている。この表現方法でいちばんの特徴は、ミニチュアの3Dアートギャラリーを実際に構築したことで、見学者はスマートフォンのAR機能を使って眼の前の物理的空間でギャラリーを見ることができる。

ユーザーはARCoreまたはARKitを使ってこの「ポケットギャラリー」の中を動き回り、高解像度で取り込まれた絵画を間近で見られるとともに、作品に関する情報も得られる。

しかしちょっと試してみた限りでは、正直なところこれはスマホのARを使う意味をあまり感じないもののひとつだ。フルレンダリングされたギャラリーがリビングの目の前に広がるしくみは興味深いが、ARは移動可能なフルレンダリング3D環境に使うか、あるいは没入的体験はVRにまかせてスマートフォンでは2D体験にとどめておくほうがよかったかもしれない。

とはいえ、これが興味深い実験であることに間違いはなく、Googleがデジタルアートの没入的体験をさまざまな方法で試しているのはすばらしいことだ。GoogleのArts & CultureアプリはiOSおよびAndroid版が提供されている。

[原文へ]

(翻訳:Nob Takahashi / facebook

Oculus GoにYouTube VRアプリが登場

本日(米国時間11/12)YouTube VRアプリが199ドルのOculus Goに登場した。これでウェブ最大のVRコンテンツライブラリーがFacebookの入門用VRデバイスで使えるようになった。

YouTubeは、通常のビデオでも没頭的ビデオのタイプでも大量のコンテンツを提供している。ここが360度コンテンツやVR180などのネイティブフォーマットを提供する最大のハブであることは間違いない。しかし、Oculusプラットフォームにとっては、ライブラリー全体を自由にアクセスできることの方がずっと重要だろう。

Oculus Goの戦略で興味深いのは、ゲームでの利用はメディア消費と比べて少数派であることだ。そんなに多くの人たちが360度ビデオを大量消費しているとは信じられない、と思うかもしれないが、実際そうではない。多くのユーザーはこのデバイスの能力の一部のみを利用して、通常の映画やテレビを見る装置として使っている。NetflixやHuluのアプリもあるほか、FacebookはOculus TVというApple TV風の環境を提供するアプリを提供しており、ソーシャルメディアにある大量の2Dコンテンツを見ることができる。

今年のOculus ConnectカンファレンスでCTO John Carmackは、ユーザーがGoで消費した時間の約70%はビデオの視聴で、30%がゲームだと話した。これまでOculusは自らをゲーム会社と位置づけてきたので、モバイルプラットフォームを成長させることによって、VRビジネスのビデオ利用をいかに魅力的にしていけるのかが注目される。

YouTubeによって、Oculusは大量のコンテンツを揃える容易な手段を手に入れた。YouTubeはOculus TVにとっても偉大なパートナーとなる可能性をもっているが、専用アプリはユーザーに多くのものをもたらすだすう。Googleは自社のVRハードウェアDaydreamが伸び悩んでいることから、スタンドアロンのYouTubeアプリをDaydreamにのみ提供するのではないかとも思われた。しかし、どうやらいまのところは外部プラットフォームに力を注ぐつもりのようだ。

YouTube VRアプリはここでダウンロードできる。

[原文へ]

(翻訳:Nob Takahashi / facebook

WalmartのiOSアプリにARスキャナーを搭載して棚の上の商品の価格や評判を比較できる

Walmartが、拡張現実を試そうとしている。今日(米国時間11/1)同社は、そのiPhoneアプリの中に、顧客の製品比較を助けるARスキャナーをローンチしたことを発表した。それはふつうのバーコードスキャナーのように品物の価格をひとつずつ比較するのではなくて、WalmartのARスキャナーはお店の商品棚をパンして、製品の下に価格と顧客の格付けに関する詳細を表示する。

この技術は最初、Walmartの社内ハッカソンで、あるチームが、AppleのARKitを使って開発した。当時のねらいは、スキャンが速くてお客が速いと感じることだった。価格以外の情報を提供することも、目的とされた。

この機能のローンチを発表する記事でWalmart LabsのシニアエンジニアリングマネージャーTim Searsはこう言っている: “Walmartのお店で買い物する人たちは、モバイルアプリのバーコードスキャナーを使って価格をチェックすることが好きだ。でも将来に向けての可能性は、今回のプロダクトの方が大きいと思う。顧客がこのスキャナーを立ち上げると、デジタルの世界(情報)とフィジカルな世界(棚の商品)が直接結びついて、画面とカメラがその結びつきを映し出す”。

そのチームはハッカソンで優勝し、アプリはその後の設計変更などを経て、今日のWalmartのアプリへとたどり着いた。

そのスキャナーを使うにはWalmartのアプリの中でスキャナー機能を立ち上げ、棚の上の比較したい製品を指す。スマホを次の品物へと移動すると、画面下の情報も更新される(製品名、価格、星の数など)。関連製品のリンクもある。

このARスキャナーはすでにスキャンした物にはドットを付けるが、小さなドットなので、狭い場所で複数の品物を一緒にスキャンしても大丈夫だ。

ARによるスキャンは単純なバーコードスキャンより便利なはずだが、消費者がどれぐらい利用してくれるか、それを今後見守らなければならない。

ARを使おうとしているリテイラーはWalmartだけではない。Amazon, Target, Wayfairなどなど多くの企業が、いろんな使い方でARを採用している。家に帰ってからでも製品を見られる、という使い方もあるし、TargetのARシステム“studio”は、自分の顔の上でいろんなメイクを試せる。

それらに比べると、WalmartのARスキャナーはARのもっと実用的な使い方だ。

このAR Scanner機能は、iOS上のWalmartアプリの18.20以降にある。iOSは、11.3以上であること。後者の条件は、ARKit 1.5を使ってるためだが、ユーザーを新しいiPhoneのオーナーに限定してしまう。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Magic LeapがメッシュコンピューティングのComputesを買収、そのココロは?

Magic Leapが、分散メッシュコンピューティングのComputesの買収を発表した。契約の条件は公表されていない。

Magic Leapのブログ記事より:

Chris MatthieuとJade Meskillは最初から、次世代のコンピューティングをもたらす原理に基づいてComputes, Inc.を創業した。Magic Leapはこのビジョンを実現するための完璧な拠点だ、とわれわれは信じている。

なぜMagic Leapは、この企業を手にしたいのか? そう、言うまでもなく、現実の世界の上に“デジタルの層”を築くことは、単純に計算集約的という言葉で片付けられるゴールではない。メッシュコンピューティングは、複数のシステムの集まりがリソースを、それをもっとも必要とするデバイスに割り当てていくという、魅力的な未来を提供する。

同社のWebサイトにある説明は、あまり分かりやすいとは言えないが、ここでは同社のホワイトペーパーから引用してみよう:

Latticeプロトコルにより、有資格のコンピューターの群が自己をメッシュコンピューターへと編成する。メッシュの数はメンバーの数で決まり、その能力はコンピューター群のパワーで決まる。Latticeはワークを、そのタスクの要求に基づいて、メッシュのベストメンバーにインテリジェントに割り当てる。。

これは、ARヘッドセットのシステムにとって興味深いシステムだ。そこでは究極的に、それらの多くが平均的なスタンバイモードに居て、そのコンピューティングパワーを他のシステムに使わせるだろう。おそらくいちばんあり得るのは、強力なPCのグループがヘッドセットたちを駆動する、という構図だ。もっと地味な側面としては、スタートアップのシステムがバックエンドサービスの階層をドリルダウンしていく、というタスクも考えられる。

彼らがやってることに関心がある人や、その、控えめに言っても分かりにくい説明に関心を持たれた方は、このビデオで、ComputesのCEOのお話を聴くべきだ。ただしそれもまた、Dharma Initiativeのビデオに似ているけどね。

 

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

MozillaのVR用ブラウザーFirefox Realityが完成、VRがWebのふつうのコンテンツになる日も近い?

Mozillaが構想したVRファーストのWebブラウザーがついに完成し、一般消費者のダウンロードと判定を待っている。

そのFirefox Realityは、完全に仮想現実のために作られたブラウザーだ。デスクトップのFirefoxやChromeにWebVRのサポートを加える、という話は読んだことがあると思うが、Firefox RealityはVRヘッドセットの中だけで使うブラウザーだ。いろんなURLを訪ねたり、何かを検索したり、そのほか2Dや3Dのインターネットをこの新しいブラウザーの中で、マウスを使わずに閲覧できる。VRの手動コントローラーを使うだけだ。

関連記事: MozillaがFirefoxのVR/AR専用バージョンのデモを公開、Web上にまったく新しいメディアが出現か?

Firefox Realityが使えるのはOculus, Viveport, そしてDaydreamのプラットホームで、最新の単品のモバイルヘッドセットOculus GoやLenovo Mirage Soloに向けて最適化されている。

これはバージョン1.0で、まだこれから使い方をめぐる質問や問題をかき分けかき分け、前へ進まなくてはならない。なにしろVRだから、完成度が高いことが、当然追求すべきスタンダードだ。実験作ならUXの不安定も許されるかもしれないが、ユーザーにかなり奇妙なものを与えてもよい、ということにもなる。

このブラウザーの第一作は、ユーザーがコントローラー上でテキストをタイプしなくてもすむための音声検索など、クールな機能がいくつかある。

MozillaはWebVRのスタンダードに心血を注ぎ、おかげでかなりの数のVRデベロッパーたちが、このスタンダードを良く知るようになった。

VRはWebに似合うコンテンツだが、残念なことにこれまでは、仮想現実のコンテンツの多くが各プラットホームに限定されていて、それらの各サイトにユーザー登録したり、ダウンロードしたり、それをWebからでなく自機ローカルから立ち上げる、という面倒がつきまとっていた。このプラットホーム限定主義は、利益を追う企業やコンテンツを開発するデベロッパーには都合が良いかもしれないが、ユーザーにとっては、WebVR用のヘッドセットだけで、もっとシンプルなコンテンツを楽に見たいだろう。

そういう、VRの中のWebが実現するためには、多くのことを再検討しなければならない。今は当然のように、2DのWebコンテンツが圧倒的に多いけど、MozillaやGoogle、Appleなどのブラウザー提供者がもっとAR/VRに力を入れるようになり、多くの3Dモデルやライブのレンダリングが日常的に見られるようになれば、ずっとおもしろいだろう。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

AppleがARグラス用の導波路レンズを作っているAkonia Holographicsを買収

【抄訳】
Appleが、Akonia Holographicsを買収した。拡張現実用の導波路レンズを作っているデンバーのスタートアップだ。このニュースを最初に報じたReutersに対して、Appleが買収を確認した。

Appleからの詳細説明は例によってないが、同社が拡張現実用の軽量ヘッドセットの開発を支える技術に投資していることの、これは明らかな確認だ。Appleが数年以内に消費者向けARグラスを発売する、という噂や報道は数年前からいろいろとあった。

関連記事: Apple、ARヘッドセットを2020年出荷を目標に研究中

2017年に本誌TechCrunchは、Appleが混成現実のヘッドセットを作っているVrvanaを買収したことを報じた。同社のデバイスは、ふつうの不透明なディスプレイの上で透視型の拡張現実を提供した。しかし今回の買収は、Appleの消費者向けARデバイスが、頭にかける、ないし、かぶるタイプのものであることを、示しているようだ。

導波管(ないし導光板)ディスプレイは、拡張現実ヘッドセットの光学技術のデファクトスタンダードになっている。種類はいくつかあるが、基本的に共通しているのは、画像がガラスの横へ投光され、エッチングなどレンズの中の不規則性によって反射し、最終的にはその画像をユーザーの目に投光することだ。Magic LeapやMicrosoftなどが売っているARヘッドセットも、導波路レンズを使っている。

反射型導波管ディスプレイ, Lumus製.

人気があるのは、薄くておおむね透明なデザインが可能だからで、ただし色の再現性と、ディスプレイが大きくなると像が歪む、という問題がある。Akoniaのマーケティング素材は、同社の“HoloMirror”が、“生き生きとしたフルカラーでワイドな視界の画像を表示する”、と言っている。

Crunchbaseによると、同社はこれまで1160万ドルを調達している。

Appleの大手コンペティターたちは、その多くが、ARヘッドセットの実験をすでに行っているが、Appleはあくまでも、スマートフォン上の消費者向けARにこだわってきた。それは、目の前の空間に合わせて、それらの面の上に解説情報などのデジタルオブジェクトを“投射する”技術だった〔例: 観光・名所案内など〕。

AppleのARKit

AppleのARでまだはっきりしないのは、それがMagic Leapのようなヘビー級のハイエンド路線で行くのか、それともユーザーに通知を表示したり、軽い対話を可能にする、いわば“頭に着る”Apple Watchのような、おとなしい製品になるのか、だ。

しかし導波路レンズの技術は視野角が大きくなくて、ウィンドウも小さくなるので、今後画期的な新技術や超長期の開発プロジェクトが出現しないかぎり、AppleのARは後者の路線で行く、と予想できる。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

コミック界の巨人、グラント・モリソンがARゴーグルのMagic Leapとコンテンツ契約

コミックライター、Grant MorrisonのSquare Slice StudiosがMagic Leapとコンテンツ契約を結んだ。過去20年間にコミック本を読んだことがある人なら、このニュースにかなり興奮している可能性が高い。Morrisonといえば、今日のコミックメディアで最もエキサイティングなライターの一人だ。

スコットランド出身のライターは、90年代のショッキングな作品、The Invisiblesで一躍有名になり、それ以前にもAll-Star SupermanからNew X-Menまで人気のスーパーヒーロー本の多くで指揮をとっていた。一方のMagic Leapは——少なくとも、実際に試したことのあるごくわずかな人たちは非常にクールだと言っている。

最近Morrisonはさまざまな物語メディアを試行している。同氏は人気のSyFyシリーズ、Happy! のほか、Brave New Worldの製作にもかかわっている。拡張現実にも少々手を染めていて、早い時期からMagic Leapのコンサルタントを務めている。

「ストーリーテリングは私の情熱であり、新しいプラットフォームは私の創造の限界を広げてくれる」とMorrisonはDeadlineに話した。同誌は今週のSan Diego Comic Conでこのニュースを報じた。「Magic Leapはストーリーテリングの新しい優れたプラットフォームであり、われわれの見果てぬ夢を近々実現するコンテンツを協力して作っていくのを楽しみにしている」

それは遅かれ早かれ実現しそうだ。Magic Leapは今月、ヘッドセット、Magic Leap Oneをこの夏ようやく出荷開始すると発表した。この発表にいたるまでに同社は、何年にもわたって驚くような金額を調達し、会社の評価額は63億ドルに達した。

Morrisonは2016年にSquare Sliceを共同設立し、RockstarのStewart Watersonらのゲーム業界のベテランたちも参加した。

[原文へ]

(翻訳:Nob Takahashi / facebook

MicrosoftはXbox上のVRの約束を破りWin 10上のPCゲームに没頭か

[筆者: Sarah Wells]
Microsoftが2016年に約束した仮想現実機能をまだ待ってる人に、不幸なニュースがある。先週のE3でMicrosoftのチーフマーケティングオフィサー(CMO)Mike NicholsがGamesIndustry.bizに、同社にはその約束を果たす計画がない、と語った。

彼は同誌に、“仮想現実や混成現実のXbox固有の計画はない”、と述べている。

しかし2年前にはXboxのチーフPhil SpencerがThe Vergeに、Xbox One X(当時はXbox Scorpioというドラマちっくな名前だった)は、“今PCにあるようなハイエンドのVRを”サポートする、と言っている。

Xbox One XのリリースにはVRを統合するというニュースが伴わなかったが、しかしそのころMicrosoftは、Windows 10用のヘッドセットWindows Mixed Realityをリリースして、PCゲームのVRや混成現実に踏み出していた。

今日のNicholsの説では、Microsoftは当面、PCゲームの世界に固執するらしい。

“PCは没入的なVRやMRにとってたぶん最適のプラットホームだ。しかしXboxに関しては、ノーだね”、と彼は言っている。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

サッカーのゲームをテーブルの上の拡張現実の3D映像で見る

ワールドカップのシーズンなので、機械学習の記事もフットボールを取り上げないわけにはいかない。その見事なゲームへの今日のオマージュは、試合の2Dビデオから3Dのコンテンツを作り、すでに拡張現実のセットアップのある人ならそれをコーヒーテーブルの上でも観戦できるシステムだ。まだそれほど‘リアル’ではないが、テレビよりはおもしろいだろう。

その“Soccer On Your Tabletop”(卓上サッカー)システムは、試合のビデオを入力とし、それを注意深く見ながら各選手の動きを追い、そして選手たちの像を3Dモデルへマップする。それらのモデルは、複数のサッカービデオゲームから抽出された動きを、フィールド上の3D表現に変換したものだ。基本的にそれは、PS4のFIFA 18と現実の映像を組み合わせたもので、一種のミニチュアの現実/人工ハイブリッドを作り出している。

[入力フレーム][選手分析][奥行きの推計]

ソースデータは二次元で解像度が低く、たえず動いているから、そんなものからリアルでほぼ正確な各選手の3D像を再構成するのは、たいへんな作業だ。

目下それは、完全にはほど遠い。これはまだ実用レベルではない、と感じる人もいるだろう。キャラクターの位置は推計だから、ちょっとジャンプするし、ボールはよく見えない。だから全員がフィールドで踊っているように見える。いや、フィールド上の歓喜のダンスも、今後の実装課題に含まれている。

でもそのアイデアはすごいし、まだ制約は大きいけどすでに実動システムだ。今後、複数のアングルから撮ったゲームを入力にすることができたら、それをテレビ放送のライブ中継から得るなどして、試合終了数分後には3Dのリプレイを提供できるだろう。

さらにもっと高度な技術を想像すれば、一箇所の中心的な位置からゲームを複数アングルで撮る/見ることも可能だろう。テレビのスポーツ放送でいちばんつまんないのは、必ず、ワンシーン==ワンアングルであることだ。ひとつのシーンを同時に複数のアングルから自由に見れたら、最高だろうな。

そのためには、完全なホログラムディスプレイが安く入手できるようになり、全アングルバージョンの実況中継が放送されるようになることが、必要だ。

この研究はソルトレイクシティで行われたComputer Vision and Pattern Recognitionカンファレンスでプレゼンされた、FacebookとGoogleとワシントン大学のコラボレーションだ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

このARグッピーは人間の感情を餌にして育つ

Indiecadeは、雑踏で暑苦しいE3カンファレンスの展示フロアの中で、いつもほっと一息つかせてくれる。独立デベロッパーたちのたちの緩いつながりによる集団は、大規模スタジオシステムにはない興味深く独特なゲーミング体験を提供してくれる。

TendARはその中でも今年特に期待される事例だ。一言で言えば、人間の感情をARを通じて常食とするペットフィッシュだ。なぜこれが素晴らしいのか説明できないが、とにかくそうなのだ。これはビデオゲームなのだからただ受け入れて先へ進むしかない。

アプリを作っているTender Clawsはロサンゼルスの小さなゲーム会社で、Virtual Virtual Realityで最もよく知られている。Oculusのタイトルで、その「重要な特徴」は、50種類以上のユニークなバーチャル・バーチャルリアリティーとこちらにむかって金切り声を浴びせるアーティチョークだ。

TendARは、不条理主義の枠組みにしっかり収まってはいるが、たまごっちやDreamcastのカルト的ヒット作シーマンなどのバーチャルペットと共通点が多いかもしれない。ペットのグッピーが顔認識を通じて検出された人間の感情を餌にするシステムには、ダグラス・アダムスの要素も少々入っている。

ゲームは2人のプレーヤー向けにデザインされていて、一つの端末を2人で持ち。おしゃべりな魚に促されてはさまざまな感情を模倣する。望まれたものを与えるのに失敗すると魚は傷つく。試してみたところ私のグッピーはあっという間に死んでしまった。私は悲しみを真似る能力を著しく欠いていたようだ。

アプリはAndroid用で今年中に公開される予定。

[原文へ]

(翻訳:Nob Takahashi / facebook

AppleはWWDCで拡張現実の大きなアップデートを発表した、Googleとの技術競争がおもしろい

Appleは今年のWWDCの冒頭で、同社の拡張現実プラットホームのアップデートを強調し、iOS 12におけるARKit 2を紹介した。それには重要な技術的アップグレードがいくつか含まれている。

ARKitに新たに加わるもののすべてをデモすることはできなかったが、取り上げた重要な新機軸は、顔認識の改良やリアルなレンダリング、3Dオブジェクトの検出、持続的ユーザー体験や共有ユーザー体験などだ(上図)。

マルチプレーヤーはAppleのARの大きなアップデートだ。とくにゲームにとって重要だが、そのほかのカテゴリーにも今後利用していくだろう。

・関連記事: Apple’s AR bet still has a lot to prove(未訳)

Google I/Oでは、Cloud Anchorsという新しい技術を見せられた。それは二人のスマートフォンユーザーがクラウドで見ているものを同期してマルチプレーヤーを実現する。Appleがこれをどうやるか、まだ不明だが、Googleのこの方法ではCloud Anchorsによるマルチプレーヤーが複数のプラットホームを横断するから、AndroidユーザーとiOSユーザーの両方が参加できる。その点が、おもしろい。

AppleはARKitを1年前にリリースした。その開発プラットホームは複数のAppleデバイスの慣性センサー間の関係を合成する技術がベースで、カメラが空間内のそれらの位置を追う。この位置トラッキングによりユーザーはデジタルオブジェクトのまわりを動けるだけでなく、それらのオブジェクトを環境内の物理的なスペースに固定できる。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

フィラデルフィア・イーグルスのためにプレイするならホワイトハウスを仮想ツアーするこのアプリ

ホワイトハウスとその周辺を仮想ツアーできるAndroidとiOSのアプリがある。CuseumとWhite House Historical Associationが共同開発したそのアプリで、三つのツアーを体験できる。オーバルオフィスやリンカーンベッドルーム、プレスオフィスなどの各部屋を、MAGAハットをかぶるプレッシャーもなく訪問できる。

White House Historical Associationがメラニア・トランプとクレジットされている声明文をリリースした:

“White House Historical Associationの前向きなお考えにより、より多くのアメリカ人にPeople’s Houseを訪問できる機会を提供されたことを、とても嬉しく思います。White House Historical AssociationとAmazon Web ServicesとCuseumのみなさまに、このアプリの設計におけるクリエイティブで革新的なコラボレーションを感謝いたします。実際に、または仮想的に来訪されるみなさまに、この新しい機能はどなたにも、すばらしい邸宅の多くの歴史的な居室、居住区やイーストウィング、そしてウェストウィングをお見せできます。”

Cuseumは前から、こんなアプリが得意だ。同社ははSFMOMA(サンフランシスコ近代美術館)や, MF Houston, ICA Bostonなど100を超えるパートナーのために、このような仮想ツアーアプリを開発している。

ホワイトハウスのアプリには、新しい機能がある。ユーザーが自撮り写真を撮ると、歴代のどの大統領またはファーストレディーと似ているか、アプリが判断する。比較するのは、White House Collectionにある大統領らの肖像画だ。ただし、手のサイズまでは比べてくれないようだ。

〔訳注: 国家斉唱のとき一部の選手が抗議のため起立しなかったフィラデルフィア・イーグルスは今年のスーパーボウルで優勝したがトランプは彼ら“非国民たち”のホワイトハウス表敬訪問を断った。〕

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

AppleのMemojiで自分の顔のアニメが使えるようになる

今日(米国時間6/4)Appleは、Animoji(アニメ文字)の大きな改訂を発表し、人間的ルックスのMemojiのほか、あのばかばかしいiPhone Xアニマルには舌検出機能が加わった。

同社のAnimojiは昨年9月に発表されたiPhone Xの大きな目玉機能の一つだった。まぬけなマンガの豚やニワトリがiPhone Xの新しい前面カメラを使ってユーザーの顔を追跡し、録画されたメッセージを楽しく伝える。

当初の提供以来、Appleはアニメキャラクターのレパートリーをいくつか増やしてきたが、今回初めてそのルックスと動きに大きな変化があった。

今日発表されたのは、幽霊、コアラ、トラ、TレックスのAnimoji(舌トラッキング付!)。しかし、さらに興味深いのが新たに加わったMemojiだ。ユーザーが自分だけのAnimojiを作れるカスタムツールで、SamsungのGalaxy S9の機能に似ている。

自分の顔を驚くほど細かくカスタマイズすることが可能で、ヘアスタイルだけでなくさまざまな特徴を微調整できる。

Bitmojiによく似ているが、Animojiのライブ顔追跡機能のマジックを生かして非常に楽しくて多様な体験が可能だ。メッセージの中で使うことも、カメラアプリでリアルタイムに顔を置き換えることもできる。

[原文へ]

(翻訳:Nob Takahashi / facebook

拡張現実用ディスプレイのメーカーDigiLensが自動車部品大手から$25Mを調達、そのココロは?

拡張現実(augmented reality, AR)はまだ、モバイルのプラットホームが初期的段階にあり、決定的なユースケースを欠いているが、それでも大企業やハードウェアメーカー企業は、消費者用ARヘッドセットというものを市場に定着させるために、さまざまな技術開発に明け暮れている。

そんなスタートアップのひとつが、拡張現実用のディスプレイを作っているDigiLensだ。同社は今日(米国時間5/17)、シリーズCで2500万ドルの資金を調達したことを発表した。その投資家は、自動車部品メーカーの大手、ドイツのContinentalだ。

DigiLensは、導光板ディスプレイ(waveguide displays)というものを作っている。それは前からある技術だが、ARのヘッドセット用には最適、とされている。

VR(virtual reality, 仮想現実)のヘッドセットなら、前からある液晶やOLEDのディスプレイにカメラからパススルーされるフィードを入れて“混成現実”をシミュレートできるが、しかしスマートグラス的(メガネタイプ)なARヘッドセットを醜悪でないデザインで作りたいハードウェアメーカーは、導光板技術に頼らざるをえなかった。それはふつうのバックライト液晶のように裏面に光源を置くのではなく、液晶版の側面から光を入れる〔参考記事〕。ここではその技術的な詳細は省略するが、側面から光を得るとパネルそのものは透明にできることを、お分かりいただけるだろう。つまり、画面に表示される「現実」の向こうに、本物の実在する「現実」を見ることができるのだ。まさに、ARにぴったし!

そしてDigiLensの技術が独特なのは、導光板の反射成分をガラス板に直接、印刷することだ。これにより、競合製品よりもコストを低くできる。

サニーベールのDigiLensは、第一世代のARヘッドセットにぴったりの小さな導光板ディスプレイで大きく報道されたが、ほかのディスプレイメーカーと同様に同社も、車やオートバイのヘルメットの、ヘッドアップディスプレイにもっと至近の機会があることを理解している。Continentalから得た大金により、同社の株式の18%を自動車部品メーカーが持つことになっているのだ。

DigiLensのこれまでの資金調達総額は6000万ドルで、CrunchbaseによるとSonyやFoxconnも投資している。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Appleが8+8=16Kの超精細VRヘッドセットを開発中か

Appleはかなり前から、拡張現実グラスを開発していると噂されていたが、今日はある記事が、同社は仮想現実でもGoogleやMicrosoftやFacebookと競合しようとしている、と示唆している。

そのCNETの記事によると、AppleはARとVR両用のワイヤレスヘッドセットを2020年に出すつもりらしい。その記事は、T288というプロジェクトのコードネームまで挙げている。そしてCNETの情報筋によると、そのヘッドセットはディスプレイが片目8Kで、専用の“ボックス”にワイヤレスで接続する。

VrvanaのTotemヘッドセット

市場ではこれまで、Appleはユーザーと現実世界との間にライフスタイルにフォーカスしたARを置くことに関心があるので、エンターテインメントにフォーカスしたVRは“スキップする”、という想定が一般的だった。

ぼくも、この記事のAR/VR両用説には懐疑的だ。むしろそこで“AR”と呼ばれているものは、MicrosoftがそのVRヘッドセットで実装した“混成現実”(mixed reality)に近いものではないか。それは、ヘッドセットの中で体験するVRの世界を、まわりの現実の情報でコントロールしたり、より豊かにする技術だ。Appleが昨年買収したVrvanaは、まさにそれをやろうとしていた。Appleが本当にARとVRをその解像度で合体させようとしたら、ARとは思えない相当でっかいデザインになってしまうだろう。

片目で8Kの画像は、microLEDだろう。それは現状ではものすごく高価なものになり、電力消費もすごいだろう。今の8Kのディスプレイを二台並べてテストすることを想像すると、複数のハイエンドのGPUをつないで動かすことになる。記事によれば、これはワイヤレスで、Appleが設計したチップが動く外部システムに接続する。二本の8Kフィードをワイヤレスで送るとなると、それもまたたいへんなチャレンジだが、アイトラッキング(eye-tracking)によるレンダリングだから、そのストリーミングの負荷はそれほど大きくはないかもしれない。

Magic Leapのライトウェア(lightwear)

今から2年先とは遠い話だが、Appleはディスプレイのコストを下げる技術に自信があるのだろう。Bloombergの最近の記事では、Appleは、ある特定タイプのディスプレイの製造工場をひそかに作り、その重要なユースケースがヘッドマウントディスプレイだ、という。レンズがあって、しかも人間の目にとても近いから、画素の高密度が重要な要素になる。

その記事でも、このディスプレイの完成を2020年としている。もちろん、それが変わることもありえるが。

VRは着実に改良が進んでいるようだ。初期のブームの原動力だった誇大な扱いは萎えてしまったが、実力に余裕のある大手のテクノロジー企業は、今もVRをひとつの産業に育てようとしている。FacebookとOculusの取り組みは、ある面ではとても洗練されている(限界はまだとても多いけど)。そしてAppleは、バスに乗り遅れたときの大損害を、今から意識しているようだ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa