任天堂とNianticのPokemon Goのリリースは今月末頃か—Go Plusデバイスは35ドルと判明

2016-06-16-pokemon-go

すでにかなりのことがPokémon Goについて報じられている。Ingressの開発チームが任天堂と協力してiOSとAndroidでプレイできるクレージーな拡張現実ゲームを開発した。実際、私はもうプレイしてみた

しかし一つだけミステリーが残っている。リリースの日付」だ。開発したNianticはリリース・スケジュールに関してはスーパー沈黙を守ってきた。それでも若干のニュースが聞こえてきた。

今朝(米国時間6/15)、任天堂、The Pokemon Company、Nianticは共同でライブのQ&Aセッションをアメリカに配信した。この中で任天堂の伝説的なゲーム・プロデューサー、宮本茂氏は大方の意表を突いてPokemon Go Plusのリリースのスケジュールを明らかにした。Go Plusはこのゲームのオプションとなるハードウェアだ。屋外でスマートフォンの画面を見続けなくても、このGo Plusがあればポケモンの位置を知ったり、捕まえたりすることができる。

go plus

宮本氏によれば、Go PlusはJuly月末まえにリリースされ、価格は34.99ドルだという。

ライブ画像ではこのニュースに対してパネリストたちが驚いて身じろぎする様子を見ることができた。つまり、このデバイス自身はゲームと連動するのでなければ、見た目がクールだという以外に役に立たない。それが7月末に出荷されれるのであれば、ゲーム本体は当然それより前にリリースされていなければならない。

The Pokemon Companyの石原恒和CEO・社長はすぐにこの意味に気づき [通訳を介して]こう述べた。

「宮本さん、あなたはGo Plusデバイスの出荷日をお話になったのだと思いますが…そうなると当然アプリはその前に出ていないといけない。皆さんを失望させないために、われわれは全員これからハードワークをこなす必要がありますね。」

もちろんこれは具体的な日付ではない。しかしリリース・スケジュールに関して今のところいちばん詳しい情報だ。Nianticの社員の1人は私の取材に対して、「最終的なローンチ日付はまだ公開できる段階になっていない :(」と返事してきた。

また石原氏は私が前回の記事で書いたこのゲームの詳細をいくつか確認した。リリース当初、プレイヤーはPokemonをトレードすることはできない。しかしその機能は将来追加される、などだ。

このゲームについて簡単におさらいしておくと、Pokemon Goはわれわれにとって馴染み深いGameboy/DSゲームからのゲーム・コンセプトのドラスティックな転換といえる。われわれは画面の中に入り込むのではなく、現実の世界に出る。われわれはiPhone/Androidのカメラを通じて拡張現実の世界を見ることができ、そこでPokemonを探すことになる。詳しくは私のゲーム体験レポートで。

〔日本版〕こちらはTechCrunch Japanの5月下旬のPokemon Go記事

[原文へ]

(翻訳:滑川海彦@Facebook Google+

明日から始まるGoogle I/O 2016の発表テーマを予想する

2016-05-18-google-io

Googleは年に1度、Androidの新バージョンから自動走行車まで(秘密の守られ方はそれぞれだが、ともかく)厳重な秘密にしてきた新プロジェクトをお披露目することにしている。そして明日がその日だ。Google I/Oのキーノートが予定されている。さて何がテーマとなるのだろう?

もちろん確かなことは分からないが、あらゆる種類の噂が渦を巻いている。その中には当たっているものもあるだろう。

われわれは明日朝10時から〔JST 5/19 AM2:00〕からGoogle I/Oを会場で取材する予定だ。ライブブログも用意されている。ここでは何がテーマになりそうか予想してみよう。

Android Nの詳細

android n

これはいわば既定事実だ。Googleは以前からAndroid Nについて語ってきた。これはAndroid OSの次世代メジャー・プラットフォームで、デベロッパー向けにプレビュー版が提供されている。

I/Oではリリース日時、新機能など新バージョンの詳細が発表されるのが通例だ。

われわれもすでにAndroid Nについては繰り返し報じてきた。新OSにはディスプレイの分割表示(LGとSamsungはすでに分割表示できるアプリを発表しているがOSレベルで公式にサポートされたものではない)、通知のデザインの改良、プルダウン窓を利用したインライン返信、電力消費を自動的に低減させる新たなロジックなどが含まれている。

興味の中心は、Google CardboardやSamsung GearVRのような拡張現実システムがAndroid NではOSレベルでサポートされるかどうかという点に集まっている。

Android Wearのアップデート

Android Wear Watchfaces

Android Wearが発表されてから数ヶ月経つのでそろそろ何らかのアップデートがあっていい時期だ。

事実、 I/Oの2日目には「Android Wearの新機能は?」というパネルが用意されている。

ChromebookのAndroidアプリ

chromebooks
スクリーンショット: InauspiciousPagan on Reddit

情報を総合すると、ChromebookノートパソコンでAndroidアプリが作動するようになることは間違いなさそうだ。それも数十個などではなく、Androidアプリのすべてではないとしても何百万のアプリが作動するようになる。

誰かがredditに 、「AndroidアプリをChromebookで作動させる」というチェックボックスのスクリーンショット投稿してからまだ1月にならない。

今回のI/Oかどうかは別として、この機能が登場するのも確実だ。

Google独自のVRヘッドセット

android-cardboard

われわれはこのところずっと Googleのウルトラ低価格な段ボール製VRヘッドセットがこれだけ成功しているからには、もう少し高機能で造りもしっかりしたシステムが登場してもいいはずだと考えてきた。

しかし具体的にどんなものかとなると推測は各人各様だ。【略】

Wall Street Journalの記事によれば、Googleは完全に独立な(スマートフォンやパソコンや煩わしいケーブルを一切必要としない)拡張現実ヘッドセットを開発しているという。

さてどうなるだろう?

Android VR

cardboard-iphone

スタンドアロン型のVRヘッドセットが開発されているなら、そのプラットフォームがあるはずだ。

先週、GoogleはAndroid VRの一端をちらりと見せた。GoogleはAndroidにVR能力を持たせることによってあらゆるガジェット、サービスにVRを導入する考えらしい。

プロジェクトTango

このプロジェクト自体は最近始まったものではない。これはコンピューター・ビジョン・システムでスマートフォン(やVRヘッドセット)に現実世界での位置を正確に認識させるためのテクノロジーだ。動く対象にマーカーを貼り付けたり外部センサーを利用したりせずにすむコンピューター・ビジョンなら位置認識以外にもありとあらゆる応用が考えられる。

Amazonに対抗するGoogle Chirp

音声認識で作動する家庭用アシスタントのAmazon Echoは大人気だ。Echoに話しかけるとUberを呼んでくれる! 天気、交通情報、ニュースを教えてくれる! 明かりも消してくれる!

音声認識が日常生活を便利にする技術であることはわかった。では音声認識を得意とするのはAmazonの他にどこだろう? もちろんGoogleだ。Uberを呼んだり(買収したNestを通じて)電気を消したりするテクノロジーに優れているのもGoogleだ。【略】

噂や情報を総合すると、GoogleはコードネームChirp〔おしゃべり、さえずり〕というEchoのライバルとなるシステムを開発中だという。I/Oはそのデビューの舞台としてうってつけだ。

そして…

それは明日のお楽しみだ。われわれは早くから会場入りする(私とTito はTechCrunchのSnapchatアカウントを利用してリアルタイムで報告する)。ライブブログは午前10時前にはスタートさせる。では明日!

(原注) I/Oは開催場所が変わった。これまではサンフランシスコ最大のコンベンション・センターの一つ、Moscone Centerで開催されていた。今年の I/OはGoogleのマウンテンビュー本社キャンパスに隣接するショアライン・アンフィシアター(Shoreline Amphitheater)という野外劇場に変更になった。これまでにも耳を聾する大音量のコンサートがたびたび開かれてきた会場だ。われわれはI/O 2016をしばらく前からGoogle Warped Tour”と呼んでいる。

[原文へ]

(翻訳:滑川海彦@Facebook Google+

360 Photosはスマートフォンカメラでニュースフィードにパノラマをアップできる―Gear VRにも対応

2016-05-12-facebook-360-photos

パノラマ写真やビデオのファンも増えてきたが、Facebookでのユーザー体験にはデスクトップであれモバイルであれ、デバイスの中に閉じ込められているという限界があった。そのユーザー体験はニュースフィード上とOculusのアプリを利用したSamsung Gear上で大きく改善されることになる。

これを期にFacebookはGear VRの利用統計を初めて公表した。これによると月間ユーザーは100万の大台に到達した。またユーザーは1日当たり平均25分利用している。このプラットフォームを使おうとしているデベロッパーには心強い数字だ。

Facebook 360 Photos 2

iPhoneやGoogle Photospheresその他 360°パノラマ写真を多く見かけるようになっているが、Facebookの次回のアップデートでは360 Photos機能が追加され、ユーザーは2次元のパノラマ写真を簡単にアップロードできるようになる。Facebook ではデータを処理し、ニュースフィード中の360 Photosで表示できるようにする。通常表示の場合、ユーザーは画面長押しやマウスによるドラグなど視点を移動することができる。 Gear VRを装着している場合は周囲を見回せばよい。

360 PhotosはVRコンテンツを誰でも作れるものにする。通常のパノラマ写真から生成されるのでユーザーは特別のVRカメラを持っている必要がない。iOS 6以降のiPhone、v4.2以降のAndroidならどれでもよい。また360°写真用アプリは無数に存在し、ダウンロード可能だ。事実、多くの人々がこれまでもパノラマ写真を撮影していたが、それをFacebookで見られるようにするのが一苦労だった。

GoogleはAndroid向けにPhoto Sphereシステムを開発し、ユーザーが簡単に 360°パノラマを撮影し、段ボール製のGoogle Cardboardのような簡易なヘッドセットでVR体験ができるようにした。

Facebookでは昨年9月からニュースフィードに 360°パノラマを導入している。しかし360°パノラマを撮影するのはかなり難しく〔800ドルのBubblCamなどの〕高価なハードウェアを必要とした。今後はほとんどのスマートフォンで仮想現実が撮影できることになる。

Gear VRのユーザー、100万の大台

Samsungは6ヶ月前に全世界でGear VRをリリースした。この価格99ドルモバイル用ヘッドセットはFacebook傘下のOculusのVRテクノロジーを利用している。ユーザーは最新の
Galaxyスマートフォンをヘッドセットに装着するだけで仮想現実が楽しめる。今回FacebookはOculusのテクノロジーの利用状況の一端を明らかにした。

nomads_2560_v002

Facebookによれば、先月のGear VRのユーザーは100万人以上だったという。デベロッパーはMinecraftなどのゲームを含む250種類以上のアプリを開発し、多様なVR体験を提供している。

gear-image-7

VRはゲーマー専用のテクノロジーだという偏った考えを打破すべく、ユーザーの80%はGear VRのトップ10ビデオ・アプリのうちの7種類を使って毎日ビデオ・コンテンツを視聴するとFacebookは指摘している。

Gear VRには新しいビデオ番組もやって来る。Felix & Paul StudiosのNomadsシリーズはモンゴルとケニヤの遊牧生活をする人々を描写している。Discovery Channelはアラスカ沖でのカニ漁をテーマにしたヒット番組、『ベーリング海の一攫千金(Deadliest Catch)』のVR化を準備している。

Oculus自身もGear VRのOculus Homeをアップデートし、最新のコンテンツが探しやすくなるなど使い勝手が改善される。Oculus Mobileアプリには「最新のコンテンツ(What’s New)」セクションが設けられ、新しくアップされたコンテンツがハイライトされる。新しいVR体験を待っている人々には朗報だ。

The new Oculus Home design

新しいOculus Homeデザイン

Oculus RiftのようなハイエンドのVRは大きな話題になっているものの、VRをメインストリームにするのはGear VRのような手軽なモバイル・デバイスだ。しかしVRの人気を盛り上げるためには、優れたコンテンツが大量に必要だ。こちらにFacebookの2016年のトップ360°ビデオがリストされているが、ユーザーはVRコンツの数が少ないことに苛立っている。あるユーザーは「〔優れたコンテンツは〕もう全部見てしまったので最近はVRを使う時間が減っている」と私に語った。

Facebookのオープンソースの360サラウンドVRカメラなどはプロ志向のアイテムだったが、新しい360 photo機能はもっと一般向けだ。iOS、AndroidデバイスでFacebookを使っている数多くのユーザーがコンテンツをアップロードするようになればVRヘッドセットに手を伸ばす機会も増えることになるだろう。

Screen Shot 2016-05-11 at 1.02.04 PM

[原文へ]

(翻訳:滑川海彦@Facebook Google+

Movidius、今度はFathomを発表―どんなデバイスもUSBスティックでニューラルネットワークが利用可能

2016-04-29-fathom-movidius

数週間前にFLIRと提携してBostonスマート・サーマルカメラを発表し、大きな注目を集めたMovidiusが再び重要な製品を発表した。 同社はサーマルカメラでも使われたMyriad 2プロセッサのメーカーだが、新たな応用分野を発見した。Fathom Neural Compute Stickと名付けられたスティックはUSBをサポートするあらゆるデバイスにニューラル・ネットワークによるコンピューティング能力を与える。

ユーザーはFathomを文字通りどんなデバイス(コンピューター、 GoPro、Raspberry Pi、Arduino etc)のUSBポートにも挿してそれらをスマート化できる。Fathomeに内蔵されたMyriad 2プロセッサが画像をニューラルネットワークに読み込む(結局このチップがカギとなる)。

簡単にいえば、Fathomをプラグインとしたデバイスは認識能力を備える。カメラないし他のデバイスからの画像を高度なコンピューター・ビジョンで処理し、プログラムに従って独自の知的判断を下せるようになるという。重要なのは、こうした処理がすべてUSBスティック内で自己完結的に実行可能だという点だ。いちいちクラウド上の資源を呼び出す必要はない。

fathomnew

このUSBスティックに加えて、MovidiusはFathom Deep Learning Software Framework〔Fathom深層学習ソフトウェア・フレームワーク〕と呼ばれるアプリケーション開発プラットフォームも提供する。ユーザーはこのフレームワークを用いてアルゴリズムを最適化し、コンパイルすることができる。生成されたバイナリー・ファイルはきわめて低い消費電力でMyriad 2プロセッサ上で¥各種のコンピューター・ビジョンを実現できる。 Movidiusではフルパワー、ピーク・パフォーマンスは1ワットで、このとき画像16枚を処理できるとしている。Fathomeスティックの利用分野はもちろん画像処理だけにはとどまらない。

Movidiusではテスト用に1000個のスティックを用意しており、一部の企業、研究者、スモール・ビジネスに対しここ数週間のうちに無料で配布する。第4四半期には大量生産の開始が予定されている。価格は100ドル台になるもようだ。

ここまでが発表されたニュースだが、ではこのニューラルネットワークというのはいったいどんな仕組みで、どんな応用が考えられているのだろう?

Fathomは何ができるのか?

ニューラルネットワークの仕組みやFathomデバイスが現実にどのようなケースに応用できるのか理解するのはたいへん難しい。私は何時間も苦闘して(Movidiusには何回も電話した)やっとある程度のイメージをつかむことができた。以下は問題を大幅に簡単にした比喩的な理解だということを承知していただきたい。

コンピューターがある種のに画像をリアルタイムで認識し、プログラムされたとおりに反応することができれば非常に便利だ。たとえばドローンのコンピューターにどのような場所なら着陸に適しているか、広さや平坦さを覚えさせることができたらどうだろう? ドローンは適切な地点を自ら発見して着陸することができる。

こうしたことを実現するためには非常に複雑なコンピューター・システムを構築しなければならない。 GPUも大量に必要とするだろう。またユーザーはTensorFlowのようなオープンソースのライブラリーを用いて機械学習のためのニューラルネットワークを開発することになる。ソフトウェアが完成したら、次に何百、いや何万という画像をシステムに読み込ませ「着陸可能地点」の特徴を学ばせる。しかしドローンの着陸に適した場所としては裏庭、船の甲板、取り付け道路、山頂…あらゆるバリエーションが考えられる。

努力を重ねていけば、やがてシステムは自ら学習を進め、「着陸可能な地点を認識する」という目標に向けてアルゴリズムを改良していくだろう。だがこうしてシステムが完成したとしても、リモートのデバイスからシステムに接続しリアルタイムでの処理を実現するのは難事業だ。クライアント/サーバー・モデルではある程度の遅延は避けられず、情報の欠落も起きる。ドローンを着陸させようとしている場合、こうした遅延や脱落は致命的な問題を引き起こしかねない。

Fathom

Fathom Neural Computeスティックが解決しようとしているのはまさにこの種の問題だ。Fathomはニューラルネットワークに基づいたコンピューティング・パワーを自己完結的に内蔵し、リアルタイムで結果を返すことができる(どのように反応すべきかはFathomソフトウェア・フレームワークで アプリを開発する必要がある)。Fathomスティックを装着したデバイスはあたかも内蔵されたシステムであるかのようにコンピュータ・ビジョンを利用できる。

この例でいえば、ドローンは着陸可能地点を認識するためにクラウドと通信する必要はなく、デバイス内で判断を完結させることができるわけだ。しかも必要な電力は非常に少ない。

ひとことで言って、これはすごい。

さらなる応用

低消費電力で高度な画像認識機能を備えたハードウェアという点を理解すれば、あとは多少の想像力を働かせてFathomが利用できる応用分野をいくつも考えることができる。知的判断ができるドローンはその一例だが、コンテキストを認識するセキュリティー・カメラ、自動走行車、進化したレベルの自然言語認識等々だ。

またUSBスティックという小型軽量で接続にきわめて汎用性が高いフォームファクターはウェラブルデバイスが利用するにも適している。各種のヘッドセットへの応用がまず考えられるだろう(量産レベルとなればUSBスティックが外付けされることはなく、デバイスに内蔵されることになるだろうが)。仮想現実、拡張現実がメインストリームに参入しようとしていることを考えればFathomの影響は非常に大きくなりそうだ。

コンピューター・ビジョン (CV)のアルゴリズムは拡張現実、仮想現実、混合現実を実現するたの大きな柱の一つだ。したがってCVの機能を向上させ、フットプリントを小さくするような改良はどれも大きなインパクトを持つことになる。

ビジネス戦略的に考えても、MovidiusのUSBスティックは潜在的顧客獲得の手段として適切だろう。 拡張/仮想現実の実現を目指す大企業はすでにGoogleその他の大企業と提携している。しかしスタートアップや小規模メーカーは手軽に利用できるCVハードウェアを探している。モジュラー性が高く、安価であり手額に追加できるFathomモジュラーはそうしたメーカーにとって理想的なソリューションになる可能性がある。

画像: Movidius

[原文へ]

(翻訳:滑川海彦@Facebook Google+

Augmedixが1700万ドルを調達、Google Glassによって医療の現場に「再び人間味を持たせる」

doctor-patient-3

すでにGoogle Glassの一般消費者向けの販売は停止されているが、同製品のエンタープライズ向けのビジネスはペースを加速している。今日、Google Glassを利用したメディカルサービスの有力企業の一つであるAugmedixが、重要な資金調達を発表した。同社のCEOによれば、医師の顔をコンピューターの画面から引き離すことによって、医師と患者との交流に「再び人間味を持たせる」ことが目的だ。

サンフランシスコ発のスタートアップであるAugmedixが開発したプラットフォームでは、顧客である医師は患者のリアルタイムに医療データを集め、アップデートし、取り出すことができる。今回、その同社がストラテジック・ラウンドにて1700万ドルを調達した。

この資金調達のすごいところは、その出資者の顔ぶれだ。米国でもっとも規模の大きいヘルスケア企業の5社である、Sutter Health、Dignity Health、Catholic Health Initiatives(CHI)、 TriHealth Inc.が出資者であり、もう1社の名前はまだ公表されていない。これらの企業は、ヘルスケア業界において互いに競合する関係にある。このグループが運営する病院などの医療機関には合計で10万人の医師などの医療提供者が所属し、そこには何十万もの患者が通っている。Augmedixのアイデアは、インターネットに接続されたアイウェアをその医療従事者に提供するというものだ。

この資金調達はシリーズAの後に位置するが、シリーズBの前になる。(CEOのIan Shakilはインタビューで、このシリーズBでの資金調達はまだ開始していないと話した)。そして、この資金調達によって同社の合計調達額は4000万ドルとなった。前ラウンドで1600万ドルを調達したあと、Augmedixのバリュエーションは約1億ドルだった。Shakilは企業価値について公表をしていないものの、私に今回の資金調達は「前回より高い評価を得た、健全なアップラウンドだった」と話してくれた。私の理解では、現在のバリュエーションは1億2000万ドルから1億6000万ドルの範囲であり、おそらく後者に近い金額になるだろう。

Google Glass(とその他のウェアラブル端末)に対するおもな批判の一つは、顔にデバイスを取り付けることによって、交流している人からあなたを遠ざけるというものだ。話し相手もデバイスを装着した人と話をするのは嫌だし、着用者にしても目の前にいる人に集中することを妨げるからだ。

皮肉にも、現在までのAugmedixの成長の背景には、これとは正反対の理由がある。米国の医療システムが抱える大きな問題の一つは、医療従事者が入力し、参照しなければならない各患者ごとのデータの量が膨大であることだとShalkiは述べた。

「Google Glassを装着していない医師は、画面をクリックしたり、図面を描くことに長い時間を費やせねばならず、目の前の患者に集中することができません」と彼は話した。「Google Glassを使って情報を集め、参照することができれば、医師と患者とのより良い交流を促すことができます」。またShalkiは、Augmedixのシステムでは、「みなさんが思っている以上に素早くバックグランドで資料を処理し、そのプロセスに人間味を持たせます」と付け加えた。

これがストラテジック・インベスターたちを惹きつけたようだ。たとえ、それが競合と横並びに資金を投資することを意味するとしてもだ。

Dignity HealthのChief medical information officerであるDavin Lundquist博士は、「Dignity Healthは、外部とのパートナーシップの構築に取り組んでいます。それらのパートナーシップによって、テクノロジーが持つポテンシャルの有効活用ができます。そして、テクノロジーを医療の現場に適用することで、日々の治療において、患者と医療従事者がより良い決定を下すことができるのです」と述べた。「医師がGoogle GlassとAugmedixを利用することで、コンピューターに患者の医療データを入力する時間を省くことができ、より長く患者と接することができます。これによって医師は患者にもっと集中することができ、結果的に患者がより良い医療体験を得ることになるのです」。

Sutter Healthのバイスプレジデントであり、Chief of digital patient experienceでもあるAlbert Chan博士は、「私たちは、患者の皆様がSutter Healthに期待しているような、ハイクオリティで価値の高い医療経験を創り出す事を目指しています。そのために新しいテクノロジー・ツールとサービスを導入することで、より効果的でかつ安価な、患者用にカスタマイズされた治療を提供することができます」と語った。「特に、診察室における医療体験の価値を高めることにおいては、ウェアラブル端末には大いに期待できます。私たちは患者と協力していきます。そして、私たちのデジタル医療のイノベーターのネットワークが成長し、患者と医師の関係を新たな方法で強化することに価値を感じています」。

興味深いことに、「人間化」はこのシステムにおける患者側の側面に限ったことではない。Augmexが利用するソフトウェアは、人間によって構成された大規模なチームがバックエンドで情報を入力し、アップデートすることによって成り立っている。「現状では、このソフトウェアはAIや音声認識機能によってではなく、人間によって支えられています」とShalkiは語る。

しかし、今回調達した資金でAugmedixはその分野における新しいテクノロジーを取り入れたシステムを構築しようとしている、と彼は付け加えた。「将来的には自然言語処理をさらに取り入れたシステムを導入していくつもりです。それによってシステム効率を高めることができます」。Googleの自然言語処理テクノロジーを採用する可能性もあるが(Googleはこの分野に注力している)、Nuanceやその他の企業によるソリューションを採用するかもしれないと彼は話した。

これまで、そしてこれからもGoogle Glassはニッチな製品として扱われている。それでは、現時点でのAugmedixの規模はどれほどの大きさなのか?Shakilによると、現在は「数百の」医師がAugmedixのソフトウェアを搭載したGoogle Glassを利用しており、その大半はカリフォルニア州の南部および中部に集中しているという。この数字はそこまで大きなものには聞えないが、Shakilによると、それぞれの医師は毎月「数千ドル台の前半の金額」を支払っており、これによって「かなり正当な」年間収支が形成されているという。

来年までには数千の医師が同社のサービスを利用する予定だと話し、5年以内には1万人の医師を顧客にするというより大きな目標を語った。今回の新しい出資者たちが合計で10万人の医師や開業医を抱えていることと、これまでに彼らが医療のITに対して費やしてきた金額の大きさを考えれば、10%の市場シェアという数字はそう突飛なものでもないだろう。

現状ではGoogle GlassがAugmedixのビジネスの根幹ではあるが、長期的にはそれが必ずしもGoogle Glassだとは限らないようだ。いかにも、Google Glassはこの分野における先駆けではあるが(そして賢くもエンタープライズ版によってその敷居を下げたが)、それ以降、ユーザーに情報を与えるヘッドセットという分野において、世界は進歩した。現在では、FacebookのOculus、Meta、Microsoft、Samsungといった企業から生まれた拡張現実および仮想現実のハードウェアが存在している。

Shalkiは、今後しばらくはAugmedixのサービスとビジネスはGoogle Glassに特化したものになると語る。(注: DCMやEmergenceなどのVCが同社に出資するなか、GoogleはAugmedixに出資していない)しかし同社は、Shalkiが言うところの「軽いAR」の利用実験もしているという。

Augmedixは、将来的に同社のプラットフォームに機能を追加して、患者と医師とのより良いコミュニケーションを実現したいと考えている。そういった機能の中には、「患者が家に帰って落ち着いてからも、医師の話をもう一度聞ける」という患者志向の機能や、セルフケアのデモンストレーションを提供する機能などが含まれる。

また同社は、医師に対するガイダンスも追加したいと考えている。たとえば禁煙治療や、その他の診療における重要なポイントを医師が思い出すことを助けるためだ。将来、このような機能が、たとえば手術など、ほかの領域にも導入されることも想像できる。

[原文]

(翻訳: 木村 拓哉 /Website /Twitter /Facebook

フロリダ大の世界初の脳波コントロール・ドローン・レース、ESPNで放映

最近ではドローンの飛行レースは珍しくない。しかしドローン・コミュニティーで始まった小さな実験がESPNテレビとの提携を含めた大掛かりなイベントに発展した

脳波でコンピュータを制御するBCI(brain-computer interface)は以前から各地で研究されている。まだ実用化としては早期の段階ではあるが、このテクノロジーは運動機能に障害を持つユーザーが義肢を操作するために用いられている。

しかしBCIテクノロジーで飛行するドローンを操作するとなると、これはまったく新しい応用だ。

先週、フロリダ大学ではBCIソフトウェアを利用してDJI Phantomドローンを操作する初のコンテストを開催した。ドローンは映画のように高速で飛び回るというわけにはいかなかったが、16人パイロットは10四方の屋内飛行区画でドローンを操縦するために努力した。

レースの見た目はやや平凡だったが、なんといっても飛行が脳で直接コントロールされているというのは驚きだ。

その仕組はこうだ。

ドローンのパイロットは個人別にカリブレーションされた脳波を電子的に読み取るヘッドセットを装着する。装着者に「何かを前方に動かす」ことをイメージするよう求めると、そのニューロン活動が脳波として読み取られる。これがドローンの操縦桿を前方に倒すデータとして記録され、次に同様の脳波が読み取られると実際にドローンを前進させるわけだ。

原理としては新しいゲームをプレイする際に固有のキーボード操作を覚えるのと変わりない。ただこの場合は用いられるのがキーボードではなく脳波を読み取るヘッドセットだという違いがある。

ビデオを見ればわかるとおり、脳波コントロール・ドローンはまだ本気のレースに使えるほどの反応速度に達していない。しかしテクノロジーの進歩は速い。近い将来BCIはわれわれの日常生活に入り込み、さまざまなデバイスを操作するのに利用されるようになるだろう。

[原文へ]

(翻訳:滑川海彦@Facebook Google+

VRゲームがどんなものかよく分かる―HTC Viveを紹介する優れもの複合現実ビデオ

2016-04-06-htcvivevideo

体験したことない人にVRゲームの魅力を紹介するのは非常に難しい。まだまだ高価な拡張現実デバイスを一般の消費者に購入させようとするメーカーにとってこれは大きなハードルになってきた。

何ヶ月も、いや何年も前から噂になっていたHTC Vive拡張現実ヘッドセットがとうとう公式にリリースされた。詳しくは私のフル・レビュー記事を読んでいただきたいが、ViveとRiftの比較やVRというバズワードが実際にどういう体験なのか等が論じられている。

Viveのリリースと同時にHTCとSteamVR OSの開発などで密接に協力してきたValveからVR紹介の優れものビデオが公開された。消費者にViveを使うのがどういう体験なのか伝えるには格好の予告編となっている。

ゲームそのものの紹介に関してはValveの公式サイトが詳しい。Viveは799ドルで販売中だ。Fantastic Contraption、Job Simulator、Tilt Brushという拡張現実ゲームがバンドルされており購入者は添付のパスコードを利用して無料ダウンロードができる。

〔日本版〕ビデオでは専用のグリーンバックを張ったスタジオでユーザーの代表がさまざまなVR体験をするところが描写されている。拡張現実と実写を複合したビデオなので専用コントローラーを使ったVRゲーム体験がどいういうものかよくわかる。VRの銃や弓矢などを使った1人称3Dシューティング・ゲームはかなりの完成度のようだ。

[原文へ]

(翻訳:滑川海彦@Facebook Google+

すまない、Oculus。HoloLensを買うことにしたよ

今週、マイクロソフトのHoloLens Dev KitOculus Riftの両方が顧客への発送を開始したことで、頭に取り付けるヘッドセット同士の闘いは煮えたぎっている。

最新鋭のテクノロジーを愛するものであれば、その両方のテクノロジーを待ち焦がれているのではと思われるかもしれないが、実はそうではない。HoloLensは私に、Oculusが与えてくれなかったものを与えてくれた。それは、言いようもない歓喜とともに未来にむかって跳躍するような感覚だ。

AR vs VR

hololens-color-haje

HoloLensを装着すると、まるでヘッドバンドに取り付けられた重たいサングラスを着けているようだ。それだからこそ、着けている事を簡単に忘れてしまうという事実はとても興味深い。

この2つのデバイスは、フランケンシュタインの人造人間実験のように頭にスクリーンを取り付けるという点では似ている。だが似ているのはそこだけだ。これらのデバイスを比較するうえで最も重要なのは、この2つはまったく違った用途を持つという点だ。Oculusの仮想現実(VR)は、物語を観たり、ゲームをしたり、または鉄のような度胸を持っている人であればジェットコースターを1つか2つ楽しんだりするためのものだ。

その一方でHoloLensは拡張現実(AR)の典型だ。このデバイスは、本質的には大やけどの失敗をしたGoogle Glassのハイテク版のようなものだ。だが、Google Glassはコンピューターが馴染めないところにまで、それを無理取り入れようとした一方で(ゴホンゴホン)、HoloLensの使われ方は少しちがう。あの不運なメガネとは違って、HoloLensは「いつでもどこでも」装着するためのものではないのだ。

600ドルというOculus Riftの価格は、HoloLens Dev Kitの3000ドルと比べるとかなり安いが、後者のヘッドセットにはコンピューターが搭載されている。逆に言えば、グラフィック処理も難なくこなす高機能のゲーミングコンピューターとRiftを接続する必要がある。Riftを動かすために差額分の2400ドルを費やす必要はないが、費やそうと思えば簡単だ。そう考えると、この2つの実質的な価格の差はなくなる。

しかし、問題はお金の事ではない。単純に、私にはOculusの価値が理解できないのだ。映画はシェアする体験だが、顔の周りにマスクを取り付けた状態ではそれもできない。私にはゲームをする時間もない。それに、「Henry」のような物語は確かにVRでしか得られない体験ではあるものの、それは必ずしも私が探し求めているような体験でもない。しかも、それに2500ドルかそれ以上ものお金を費やさなければならないとしたら、なおさらだ。

HoloLensを顔に装着して異世界へとつなぎこまれる時も、私の頭にはそんな考えがあった。絶対に気に入らないと思っていたのだが、それは間違いだった。私は夢中になった。言葉にできないくらい夢中になったのだ。このテクノロジーは、自分を現実世界から隔離したいのではなく、このテクノロジーを使って自分の生活を高め、向上させ、そしてその名の通り拡張したいと考えている人には最適なものだ。

マイクロソフトはHoloLensのデモで、ARは現実世界の中で、社会的で協同的なものになり得ることを示した。もっと重要なのは、それを装着しているということさえも忘れてしまうということだ。

はるかに自然な体験

現実にデータが被さった世界に、あなたがどれだけ早く慣れることができるのかということを説明する方法はない。始めてそのデバイスを装着してから、ものの20分以内にはそれが普通なことのように感じる。「自然」と言ってもいいかもしれない。

hololens

写真の赤い部分はスピーカーになっていて、耳に向けられている。イヤホンなどを装着しないので、このデバイスは興味深いほど拡張世界の体験を阻害しない。

ある時、私たち6人は皆HoloLensesを装着して、同時に同じ3Dモデルを見ていた。マイクロソフトの専属担当者が歩いてきて、「それでは、エネルギー・ポータルはどこにあるでしょうか?」と尋ねてきた。私は彼の方を向いて顔をしかめ、こいつはいったい何を言っているんだと不思議に思った。

「ここにあるじゃないか」と私は鋭い口調でそう言って、指をさした。その時私は、彼はHoloLensを装着していないので、当然ながらどこにそのポータルがあるのか分かるはずがないことにはっと気がついた。私が、なぜARがVRよりはるかに理にかなった製品なのかという理由に気がついたのは丁度その時だ。たとえ視界に何だかよく分からないものが浮かんでいたとしても、現実世界にいることはとても自然なことだ。完全に人の手で作られた世界にいることは、そうではない。

HoloLensが常に直面するであろう問題は、それを装着している人が誰にも見えない物を見ているとき、その人がとても滑稽に見えてしまうことだ。BuildカンファレンスでのHoloLensのデモンストレーションがその例だ。

そう、このビデオの中でHoloLensesを装着している人はとても愚かな人に見える。それを避ける方法はない。だが一度装着したら、見た目など、どうでもよくなってしまう。

留意すべき重要な点は、このデバイスはGoogle Glassと違って、周りに人がいる時に装着されることを意図して製作されたものではないということだ。そのために存在するのではない。オフィスだとか、むしろデザインスタジオのようなコントロールされた空間のなかで現実世界と対話するときに装着するものなのだ。

私にとってこのテクノロジーの魔力とは、現実世界と拡張された世界が交差しているということだ。私はどこか遠いワンダーワールドに没頭することにはまったく興味がない。でも、自分の周囲の世界を変えられるキットが3000ドルだって?その話、のった。

Buildでは、まるで未来が突然に、予告もなく押し寄せてきたようだった。納得した。VRは確かにすてきなものだが、これまでのところ誰からも、それが何のためにあるのかという説得力のある説明を聞いたことがない。ARはそれとはまったく別の話しだし、その物語の次章では何が見られるのか、待っていられない。

[原文]

(翻訳: 木村 拓哉 /Website / Twitter

Googleの新ツール、ボール箱ビューワーで360°VRを簡単に体験できる―SDKにiOSサポート追加

2016-03-31-vrview8

仮想現実(バーチャル・リアリティー)はゲームや映画にとって効果的であるのは間違いない。しかし現実に日常使われるソフトでの有用性となると、まだ証明されていないというのがコンセンサスだった。

Googleはバーチャル・リアリティーの普及を加速させようと 360°VRコンテンツのデバイスへの表示を簡単にするツールをリリースした。新しいツールによる体験はユーザーにとっても非常に扱いやすく、VRの世界を日常的に見ることができるものにしそうだ。

今日(米国時間3/30)、GoogleはVR Viewという新しいツールを発表した。デベロッパーはこのツールを利用して360°写真やビデオを今までよりずっと簡単にサイトのページにエンベッドし、GoogleのCardboard〔ボール箱ビューワー〕のネーティブ・アプリで表示できるようになる。また単一レンズ用のMagic Windowも利用できる。デベロッパーがVRをさらに利用しやすくするため、Cardboard SDKがiOSをサポートすることも発表された。

Googleのプロダクト・マネージャー、Nathan Martzは私の取材に対して、「VRはエンターテイメント分野で優れた効果を発揮する。しかしVRががわれわれが望むような変革を起こすためには、同時に有用性も必要だ」と語った。

VRの日常的な有用性にとって最大のハードルは、コンテンツの表示にたどり着く前にユーザーの側で非常に面倒な準備が必要なことだ。VRを体験したいなら、通常ユーザーはやっていることを中断して専用ヘッドセットを取って来る必要があるだけでなく、専用アプリを立ちあげねばならない。こういう状態では日常生活への普及はおぼつかない。

デベロッパー側の立場からすると、VRの表示に実際に関わっている企業の数が少ないのに驚くだろう。独自のVRネーティブ・アプリを開発するためにはたいへんなリソースを必要とする。

Googleが解決しようとしているのは雇用な問題だとNathan Martzは述べた。「〔企業が〕サイトやアプリにVRをエンベッドするのが今よりはるかに簡単になったらどうなるだろう? ほとんどの企業は本業の追求に全力を挙げており、専任のVRの開発チームなどを持っている余裕はない。一方、ゼロからVRアプリを開発するには莫大な投資が必要だ。われわれのVR Viewプロジェクトは企業のVRニーズとその実現の間に存在するこの大きなギャップを埋めようとするのが主な目的の一つだ」とMartzは説明した。

Googleのオープンソース・ソフトのおかげで、デベロッパーは数行のコードを追加するだけでVRコンテンツをサイトで直接表示できるようになった。取り扱っている部屋や家を体験させたい不動産ビジネスや最新のファッションを展示するアパレル産業ではこの機能はことに役立つだろう。 また世界各地の絶景をよりリアルに体験してもらいたいトラベル・ビジネスにとっても魅力だ。

もうひとつの地味ではあるが、あるいは今回の発表でいちばん重要だったニュースは、GoogleがとうとうCardboard SDKのターゲットにiOSをサポートしたことだ。

「われわれがCardboardを開発した目的は当初から『みんなが使えるVR』だ。 ところが、みんなが使っているスマートフォンの相当部分がiPhoneだった」とMartzは言う。Martzのブログ記事によると、iOSむけCardboard SDKはAndroid向けSDKと全く同じ機能を備えているという。【略】

Googleのボール箱ビューワー、Cardboardシステムの利用者は世界で500万人以上だという。現在世界で段違いに普及しているVRシステムであるのは間違いない。ユーザーにとってもVRがどんな体験か試すのにもっと手軽な選択肢だろう。Googleは今回発表されたのツールによってデベロッパーがアプリを含むVRシステムを開発するプロセスを大幅にコストダウンするだけでなく、ユーザーにとってCardboardビューワーをいつも手元に置かせる効果がありそうだ。

[原文へ]

(翻訳:滑川海彦@Facebook Google+

住宅リフォーム店Lowe’sが多様な顧客オプションのプレゼンのためにMicrosoftのHoloLensを利用へ

27624915_max-1024x707-1

MicrosoftとLowe’sが今日、パイロットプロジェクトとして、MicrosoftのHoloLensによる拡張現実バイザーを、Lowe’sの一部の住宅リフォーム店で利用する、と発表した。Lowe’sの計画では、HoloLensを使って買い物客に、キッチンや調理台、家電設備などの、いろいろなデザインを見ていただく。目の前でいちいち、実物を組み立てることなく。

Lowe’sが最初にHoloLensを利用するのは、シアトル地区の数店のパイロットショップで、そこでは主にキッチンのリフォームで使用する。顧客はHoloLensのホログラムを見て、蛇口を選んだり、キッチンアイランド(テーブル型調理台)のサイズを決めたり、リフォームのいろんな要素を検討する。シアトルの次は、ノースカロライナでパイロットを行う。

hololens

これがあると顧客は、ステンレスの蛇口にしようか、それともTrumpみたいなゴールドの蛇口がいいか、迷わなくて済む。お店に再び行くことも、なくなるだろう。

プロジェクトのもっと大きなビジョンは、住宅リフォームの未来像を描くことだ。Microsoftの主張によると、混成現実(mixed reality)(同社は拡張現実(augmented reality)よりもこの語を好む)があれば顧客は、物理的なキッチンモデルの中にいる状態で、その物理的なスペースに合うさまざまなオプションを、ホログラムで見ることができる。長期的には、キッチン以外のリフォームでも利用したい意向だ。

HoloLensのゼネラルマネージャーScott Ericksonが、今日の発表声明に書いている: “キッチンとシャワールームは手始めにすぎないが、われわれはこのようなソリューションが、個々の住宅におけるリフォームのオプションを見て検討するための、理想的な方法だ、と思い描いている。同様に、これまではリビングルームの場合も、テープやボール紙などを利用して家具の配置などを検討していたが、ホログラムを使えば、もっと高品質で、多様な変更の検討ができる方法を、そんな原始的な作業に代わるものとして提供できる”。

HoloLensのデベロッパーエディションは3月30日に3000ドルで発売される。それは、Microsoftの年に一度のデベロッパーカンファレンスBuildの初日でもある。そこでは‘ホログラフオペレーティングシステム(holographic operating system)’に関するMicrosoftのプランも聞けるだろう。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Microsoft、HoloLensのデベロッパー向け開発キット予約開始―実機を含めて価格は3000ドル、出荷は3月30日

2016-03-01-mshololens

MicrosoftはHoloLensのデベロッパー向け開発キットの予約受付を開始する。今回の発表を機に、MicrosoftはHoloLens版Skypeと何本かのゲームソフトなどHoloLensの可能性をデモするアプリをいくつかリリースした。

開発キットはデベロッパーごとに1セットを注文できる。ただし当面は招待されたデベロッパーのみで、価格は3000ドル。アメリカとカナダのデベロッパーに製品が出荷されるのは3月30日からとなる。

またHoloLensについていくつか新たな情報が公開された。

hololens_front

注意すべきなのは、今回はあくまでデベロッパー向けリリースで、消費者版の発表ではないという点だ。これまでMicrosoftはHoloLensアプリ開発に関心のあるデベロッパーと水面下でやり取りをしてきたが、いよいよ正式にデベロッパーを開発プログラムに招待する運びとなったようだ。最初に招待されるのは誰なのか、広報担当は詳しいことを明らかにしなかったが、デベロッパーは数回に分けてまとめて招待されるようだ。

まだHoloLensプログラムへの参加を申し込んでいない読者も今からでも遅くないので申し込んでみるとよい。今後のバッチで招待される可能性は十分にある。

さて大枚3000ドルをはたくと何が手に入るのか? HoloLensのデベロッパー・エディションのパッケージには、まずHoloLensの実機が含まれている。クリッカーと呼ばれるループに指を通してクリックするコントローラー、キャリングケース、ノーズパッド、オーバーヘッド・ストラップ、バッテリー充電器、それにマイクロファイバーの布も含まれる。HoloLensヘッドセットはコンピューターに接続されなくても独立で作動する。64GBのフラッシュメモリーと2GBのRAM(これは少々サイズが小さすぎるようだ)を内蔵する。ヘッドセットの重量は576gだという。

hololens-motorcycle

Microsoftによれば、バッテリー駆動時間は2時間から3時間で待受時間は最長2週間だ。HoloLensは自然空冷なのでファンがうるさく回るということはない。Intel の32ビットCPUとMicrosoft独自のHPU(Holographic Processing Unit)ハードウェアを備える。

もちろんこれ以外に大量のセンセー、カメラが内蔵されている。HPUはHoloLensのセンサーが収集した情報を解析し、必要な映像をリアルタイムで生成する。

ディスプレイは16:9のHD2台で、230万画素の「ホログラフィック解像度」を備えるということだ。【略】

HoloLensのデモ・アプリとゲーム

MicrosoftのAlex Kipmanのブログ記事によれば、 HoloLensはUniversal Windows 10アプリであるという。つまりWindows 10で正常に作動する現代のアプリはすべてHoloLensでも表示される(ただしHoloLens固有の機能は利用できない)ということだ。

今回のリリースを機に、MicrosoftではHoloLensのデモのためにいくつかのアプリを発表した。当初からHoloLensのデモに使われてきたSkypeが含まれるのは当然とだが、今回HoloLensからSkypeを使うユーザーは自分の見ているものを普通のデスクトップ・パソコンを使っているユーザーとも共有できるようになった。

またいくつかのゲームも公開された。

FragmentsはAR/VRのミックス・リアリティーの犯罪ドラマ仕立てで、舞台は「居間」だ。Microsoftによるとユーザーはこの部屋を歩きまわり、ソファに腰掛け、チャットができるという。

もう一つのゲームはYoung Conkerというプラットフォームで、ユーザーは自分がいる場所をベースにユニークなゲームを作成できる。どちらのゲームもAsobo Studioが開発した。

これに加えてMicrosoftは近くRoboRaidというゲームもリリースする。ユーザーは(もう見当がついただろうが)自宅をロボットの襲撃から守る。またHoloStudio 3Dモデリング・ツールや世界の絶景を360度パノラマで体験できるHoloTourも公開されるという。夏には「誰でもユーモラスで感情移入ができる3Dビデオ」を作れるActiongramのリリースも予定されている。

残念ながらHoloLens版のMinecraftに関する新情報はない。

HoloLensは私が久々に興奮して期待しているMicrosoftの製品だ。これまでのところは非常によくできたデモというレベルだったが、いよいよデモの世界を出るようだ。HoleLensが現実の環境でどんな能力を発揮するのか楽しみだ。

[原文へ]

(翻訳:滑川海彦@Facebook Google+

ソニー、3/15(日本時間3/16)にサンフランシスコのゲームショーでPlayStation VRをプレス発表

2016-02-25-sony-morpheus

Oculus Riftの予約受付開始までに残すところ1週間となり、HTC Viveも近く消費者のリビングにお目見えするだろう。このタイミンでソニーは特別イベントへの招待状をプレス向けに送ってきた。サンフランシスコで3月15日(日本時間3月16日)に開催されるイベントでソニーはPlayStation VRを発表する。

イベントは2016年のゲーム・デベロッパー・カンファレンス内で行われ、時刻は現地時間午後2時(日本時間は翌日午前7時)が予定されている。発表の後、デモが数時間用意されている。

去年のカンファレンスでソニーはMorpheusプロジェクトと呼ばれていたVRプラットフォームの開発状況のアップデートを発表している。

ソニーのVRについてはまだ不明な点が多い。特に製品版の出荷時期と価格が分かっていない。ソニーでは「2016年上半期中になる可能性が高い」 と示唆している。価格についてBloombergは「ソニーの幹部、Andrew Houseが新しいゲーム・プラットフォーム(として適切な価格)になると語った」と報じている。

3月のイベントで重要な事項が明かされるとしたらまず第一は価格だろう。Oculus Riftヘッドセットは599ドル、つい最近発表されたHTC Viveの価格は799ドルといずれもかなり高価だ。ソニーにはメインストリームのアイテムとして適切な価格を検討するのに十分な余裕がある。

PS4VRにはヘッドセットとして明らかに有利な点がいくつもある。VRを接続可能なハードウェアとしてすでに3600万台のPS4が出荷ずみというのはその中でも最大のものだ。ゲーマーは必要なコントローラーを購入ずみなので、ソニーはこのエコシステムでも有利だ。

ソニーが3月のゲームショーでVRヘッドセットに関して何を明らかにするのか大いに興味が持たれるところだ。ヘッドセットの特長、スペック、ゲーム・タイトルには一般消費者も強い関心を持っているだろう。TechCrunchはプレスイベントに出席し、入手できた情報は即座にツイートしていく。期待していただきたい。

[原文へ]

(翻訳:滑川海彦@Facebook Google+

53台ものGoProで撮った動画が360度表示される―SketchfabがTimeSliceのテクノロジーを採用

DCIM105G3D_L

3Dファイルを表示するためのプラットフォームSketchfabはここ数ヶ月、精力的に新機能を追加してきた。 CGアニメのサポートやVRヘッドセットで3Dのフィギュアを表示するためのVRボタンの追加などだ。今日(米国時間2/17)、SketchfabはTimeSlice Filmsと提携して、いわゆる4D動画の表示を開始した。4Dというのは3D動画だが、多数のカメラで撮影しており、ユーザーは対象を前後左右上下あらゆる角度から見ることができる。

TimeSlice Filmsはなんと53台のGoProカメラを用いて撮影装置を組み立てた。撮影された動画ファイルはTimeSliceのカスタム・ソフトで 3D動画ファイルに変換される。Sketchfabはこのファイルをユーザーがウェブサイトにエンベッドしてブラウザ内で表示できるようにした。下にサンプル動画を貼ってある(マウスで対象をドラグしてみるのを忘れないように)。

コンピューターで生成された3Dアニメは基本的にワイヤーフレームのスケルトンにテクスチャーを貼り付けたもので、それと比べて4D動画の表示ははるかに複雑な作業だ。CGアニメよりむしろ昔の手描きアニメに近いかもしれない。以前、ディズニーではアーティストたちが手描きで多数の原画を作成し、それを撮影して秒速24コマでスムーズに動くアニメを作っていた。

上にエンベッドしたサンプル動画もユーザーが選んだどの角度からでも人物の頭部が3Dでスムーズに動くよう、多数のGoProで撮影した静止画を注意深く組み合わせている。

現在、VRヘッドセットで表示するための360度ビデオのコンテンツが多数制作されている。しかしこうしたコンテンツは本当の意味で 3Dではない。すっかりお馴染みとなったGoogleのストリートビューと同じで、なるほどユーザーは前後左右あらゆる方角にパンできるが、結局のところ2D画像が非常に多数表示できるというにすぎない。

その点、TimeSliceのリアル3D動画は印象が強い。またSketchfabのプラットフォームもユーザー対話型3Dをブラウザ内でスムーズに表示するという困難な作業を巧みにこなしている。ビデオ・クリエーターがこのテクノロジーを使ってどんな作品を生み出すか楽しみだ。

〔日本版〕処理が複雑なため記事中ほどの4D動画が表示されるまでにかなり時間がかかる可能性がある。

[原文へ]

(翻訳:滑川海彦@Facebook Google+

MicrosoftがHoloLensのデベロッパ向け体験コーナーをニューヨークのお店にセットアップ

hololensexperience

Microsoftは、デベロッパたちが、同社の拡張現実(augmented reality, AR)ヘッドセットHoloLensのポテンシャルに早めに目覚めてほしいので、このたびニューヨークのマンハッタン5番街にある同社の小売ストアに、HoloLens体験コーナーを作った。

HoloLensはOculus RiftやSamsung Gear VRのような仮想現実(virtual reality, VR)のプラットホームではない。そうではなくて、HoloLensは仮想的な画像を現実の環境の上に投射するから、どちらかというと拡張現実的な体験だ。

と聞くと誰もがゲームへの応用を考えると思うが、でも実は、いろんな業界業種でいろんなユースケースがありえる。その一部はエンタテイメントに使われ、他は仕事の効率を上げるために利用されるだろう。

でも新しいハードウェアが普及するための唯一の鍵は、デベロッパがそれに関心を抱いて、いろんなすばらしいアプリケーションを作ってくれることだ。MicrosoftはWindowsでも、やはりデベロッパを巻き込むために苦労をしたのだ。今回は、そのときの教訓を生かそうとしている。

HoloLensは2016年第一四半期にDeveloper Editionが3000ドルで発売されるので、そのためのポータルもすでに作ったが、実際に触ってみたい人は、ここで申し込むと、5番街のお店に招待される。

[原文へ]。
(翻訳:iwatani(a.k.a. hiwa)。

未来の拡張現実(AR)を今日見せてくれるMagic LeapがシリーズCで$827Mの巨額を調達

screen-shot-2015-12-09-at-11-38-14-am

Forbesの記事によると、ほとんどステルス(お忍び)状態なのに、回りが激しく騒いでいるスタートアップMagic Leapが、シリーズC*で8億2700万ドルを調達中だ。〔*: シリーズBでは5億4200万ドル。〕

Magic Leapのプロダクトは、MicrosoftのHoloLensとOculus Riftの交配種みたいで、10月のデモではこうなっている:

でも、世間をあっ!!と言わせたのは、こちらの、3月のデモだ:

これでMagic Leapの資金調達総額は約14億ドルになる。これまでの投資家は、Google, Qualcomm Ventures, KKR, Vulcan Capital, KPCB, Andreesen Horowtiz, Obvious Venturesなどなどだ。GoogleのCEO Sundar Pichaiは同社の取締役だ。誰もが毎日、現実というものの姿を、こんなものだと思っているかもしれないが、未来にはそれがまったく違った姿になる。しかも、あなたが求めたとおりの姿に。…そう思わせてくれる企業だ。

[原文へ]。
(翻訳:iwatani(a.k.a. hiwa)。

Niantic Labs、Ingressにユーザーが新しくミッションを作れる機能を追加

GoogleのNiantic Labsは、人気のAndroid版、iOS版の拡張現実ゲーム、Ingressユーザー生成のミッションという新機能を追加した。ユーザーは友達あるいは一般プレイヤーのために、独自のミッションを作れるようになった。作成にはブラウザ・ベースのミッション・クリエーターを利用する。

といっても、すべてのユーザーがすぐにこの機能を利用できるわけではない。Niantic Labsは、レベルの高いプレイヤーから順次機能を公開していくという。そうしたプレイヤーの反応や作成されたミッションの実績を見ながら徐々に利用範囲を広げていくようだ。Niantic Labsのプロダクト担当副社長、John Hankeは「この機能は当初、一定の基準をクリアしたユーザーに対して公開される。将来は一般ユーザーも利用できるようになるだろう」と述べた。

ミッション作成ツール自体はかなりシンプルだ。Ingressのスキンを載せたGoogleマップが表示されるので、作成しようとしているミッションでプレイヤーが行かねばならない場所にマーカーを落とせばよいだけだ。場所の特定にはNiantic LabsのField Tripアプリのデータを用いてもよいし、非常にあいまいにして、ヒントだけを残しておくこともできる。 現実の世界である地点に到達したとき、プレイヤーはその地点を「スキャン」しなければならない。この動作でプレイヤーが目的地を実際に踏んだことを確認する。

他のプレイヤーが作ったミッションの表示はAndroid版でアプリではサポートされている(iOSでは近くサポートされる)。ただし表示されるミッションは自分がプレイしている都市中のものに限られる。たとえばオークランドの自宅でベッドに寝そべったままサンフランシスコのミッションを表示することはできない。これに対して世界中どこにいてもあらゆる場所でのミッションの作成が可能だ。外国で素晴らしい休暇を過ごして帰ってきてから自宅で現地でのミッションを作ることもできる。自分が気に入った景色や名所旧跡をミッションに逐一追加して、現地を訪れた友達を案内するなどということも可能だ。

IMAGE BY Niantic Labs

[原文へ]

(翻訳:滑川海彦@Facebook Google+