NianticがポケモンGOユーザーがアップした画像データで独自の3Dマップ構築へ

ポケモンGOを開発したゲームデベロッパーのNiantic(ナイアンティック)は会社評価額40億ドル(約4300億円)で4億7000万ドル(約505億円)の資金を調達し、AR(拡張現実)サービスの構築に乗り出すことを宣言した。

NianticはポケモンGOの成功で一般消費者にも認知されるメインストリーム企業になった。このブランド力とここで得たノウハウを活かしてFacebook(フェイスブック)やApple(アップル)のものに匹敵する本格的なARプラットフォームを制作するという。

米国時間5月26日にNianticはポケモンGOプレイヤーからの情報を3Dデータ化することを発表した。ユーザーは他のユーザーがアップした実際のポケストップやジムの画像、動画を共有できるようになる。Nianticはこのクラウドソーシングで詳細な3Dマップを作成する。

Nianticのブログ記事によれば「コンピュータで処理可能な3Dマップにより各種デバイス(スマートフォンや将来はスマートヘッドセットなど)を通じて、現実世界をその複雑さのままに立体的に把握できるようになる」という。

Nianticがユーザーからのリッチデータを収集し高度に処理を行うことなるため、このプロジェクトはプライバシー上の議論を引き起こす可能性がある。データ収集のターゲットをポケストップとジムに限定したのは、個人の家の中などのプライベートな場所のデータを収集してしまうリスクを最小化するためだ。プレイヤーは(少なくとも当初は)この機能を利用するために事前承諾する必要がある。同社によればサーバーにアップロードされたデータは匿名化され、顔やナンバープレートは自動的にぼかされる。

この発表は、世界の3Dマップをクラウドソースで構築することを目標としたARスタートアップ6D.aiをNianticが買収してからわずか2カ月後に行われた。

ポケモンGOは2016年に発表され大評判となったが、このタイトルはNianticにとって現在も金の卵だ。アナリストの推定によれば、ポケモンGOの2019年にこのゲームとして最高の9億ドル(約967億円)の売上を記録したという。

Nianticは3Dデータ収集のターゲットを多くのユーザーに拡大することでARプラットフォームの構築でライバルに対する優位性を確立しようしている。「ハリー・ポッター」をベースにした新しいゲームタイトルに加えて、同社はNiantic Real World Platformを構築中だ。サードパーティデベロッパーはこのプラットフォームを利用して独自のゲームやソフトウェアを開発できる。

デベロッパーを集める上で、NianticはアップルのARKitプラットフォームやフェイスブックがスタートさせたSpark ARプラットフォームとの厳しい競争に直面している。3Dマップのデータへのネットワークアクセスをデベロッパーに提供できる点を同社のプラットフォームの優位性のカギとしようとしているのかもしれない。これにより大規模かつ画期的なARプロジェクトが可能となる。そのサービスのユーザーがデータをNianticに送り返してくればプラスのフィードバックがかってプラットフォームはさらに強化されるだろう。

3Dデータの収集機能はレベル40以上のポケモンGOユーザーに対して、2020年6月に公開される。その後すぐに他のユーザーにも拡大される計画だ。

画像クレジット:LLUIS GENE / AFP / Getty Images

原文へ

(翻訳:滑川海彦@Facebook

最新iPad Proは旧モデルからの乗り換えるほどではないが、マウスとキーボードは快適で便利

iPad Pro

新モデルは魅力的だが、すでに所有している人にとってはそうでもない

過去18カ月間、iPad Proは私の自宅から持ち出した唯一のマシンである。私は最近まで世界中で開かれるイベントに参加するため、またサンフランシスコ、ニューヨーク、ロンドンにある当社のオフィスを訪れるため、自宅を離れて何度も国内外を移動した。自宅のデスクにいないときは、常にiPad Proが私のメインのポータブルマシンであった。

乗り換えたのは、カンファレンスとStartup Battlefieldコンテストへ参加するためにブラジルへ旅行した時だった。それはほんの気まぐれだった(話は逸れるが、そのコンテストが最高だったのは、コンピュータービジョンによる牛の体重測定が優勝したことだ)。この1週間の旅行において、iPad Proが仕事用デバイスとして機能するかどうか実際に使って確かめたかった。その後、また信頼のおける13インチMacBook Proに戻ると思っていた。

ところがこの旅でTechCrunchの運営をタブレットからできるかという点において、私の考え方はすっかり変わってしまった。軽くてスムーズに手早く簡単に仕事ができ、いたるところで私のMacBookよりも進んでいることがわかったのだ。私はもう元には戻れなくなってしまった。

iPadPro

iPad Pro、2018年、ブラジル

初めのうち、iPadと私の双方にとって悩みの種が尽きなかった。その時点では共有シート、自動化ツール、新しく導入されたショートカットなどをつなぎ合わせてワークフローを再構築したことが、実用的な作業用マシンとして生まれ変わらせるのに大きな役割を果たした。また、Slide Over(スライドオーバー)、Split View(スプリットビュー)、ホーム画面などを刷新したiPadOSに伴う変更は、デバイスをより柔軟に感じられるものであり、歓迎すべきものであった。

過去の1年半もの間、iPad Proの絶対的な目玉機能について多くのことを学ぶことができた。その一方で、ラップトップよりも軽くて高速なマシンを持ち運ぶことで、得られるものと失うもののトレードオフについて知ることができた。

新しいマシンで過ごした1週間のうちにこれらはすべて整えた。

この新しい2020年のiPad Proは、2019年に発売されたモデルと大部分においてほとんど同じに見える。正方形のカメラアレイ以外は、ほとんどそっくりだといっても過言ではない。その中でも良いニュースは、初めてApple(アップル)がID認証を行って2年経った今でも超サクサクと未来的な感じがすることだ。まさにコンピューターの理想的なかたちである。軽くて、手に持てる大きさで、強力で、機能的なのだ。

私がテストした12.9インチのiPad Proには、私が今まで使用していたモデルとほぼ同じレベルで動作する新しいA12Zチップが搭載されている。Geekbench 4では、5015超のシングルコアと1万8000超のマルチコアスコアを記録した。クラスに関係なく、所有可能で最も強力なポータブルコンピューターの1つであることに変わりはない。1TBモデルには引き続き6GBのメモリーが搭載されているようだが、それより下のモデルでは4GBなのかもしれず、詳細は不明だ。

iPadPro

このバージョンには追加のGPUと「強化されたサーマルアーキテクチャ」が追加された。負荷がかかった状態では熱分散に優れているかもしれないが、iPad Proはめったに熱くならないので、私にとってはよくわからなかった。私は分解した結果が気になった。おそらく新しい排気口、配線、部品などが配置されているのだろう。もしくは何らかの回路かもしれない。

当然のことであるが、このプロセッサーが(少なくともCPUレベルでは)A12X Bionicチップに非常に近い性能を持つことは興味深い。GPUにおいても、AppleはA12Xよりも高速だというのみで、いつものように具体な倍数について言及していなかった。

このことからわかるのは、これがiPad Proを本当に「リフレッシュ」したものだということだ。新しい機能を次に紹介するが、全体的に見るとこれはある意味で「新しいモノ」であり、めったにあるものではない。ただし、ときにはアップルデバイスの真実ともいえる機能だ。ご覧いただくのは、ハードウェアの設計や実装を大幅に見直しなくても、現在ハードウェアから学び、実行できることばかりだということだ。

私がここで注意するとするなら、A12Xがいまだに非常に早く、それほどパワーが欲しいと思ったことがないことであろう。私は使いやすさを犠牲にして、スピードアップを図ることにずっと反対してきた。だからこそ今はその議論を重ねるときであるし、うまく機能しているものに不満をいうべきではないと思っている。

カメラとAR

新しいiPad Proで最も大きく変わったところは、もちろんカメラアレイだ。1000万画素の超広角と1200万画素の広角の2つを備えている。これらの機能は仕様どおりであるが、最も興味深いのは新しいLiDARスキャナの追加である。

これによって我々は、世界を一度に何層もの奥行きをもって体感できるようになるのは間違いない。我々が認識している物理的な層は、レッドウッドの年輪のようなデータの輪によって増強される。

実際のところ、その未来は我々にも到来している。たとえそれを気付いているかどうかが問題ではない。これらの層の存在を要求することにより、今すぐそのほとんどを非同期で体験することができる。どこに行くべきか伝えるために、データオーバレイが必要だって?ターンバイターンで地図を呼び出してみよう。言葉や天候の定義を知りたいって?ボイスアシスタントに聞いてみよう。

ただし、これを超えた次の時代は、受動的なコンテクストに応じた情報レイヤーが視覚的かつ聴覚的に、積極的に提示される時代なのだ。

我々はこれを拡張現実とかMR(複合現実)などと呼んでいるが、どちらも最終的にどうなるかを明らかに説明しているわけではない。拡張ヒューマンエクスペリエンスはスマートフォンから始まったが、スクリーンから透明なディスプレイ、レンズ、義眼、脳幹の結合までをチェーンでつなぐかのように、ゆっくりと小脳に近づいている。

あなたがこの現実を受け入れられなくても、私は責めはしない。ただ、私が正しくないという意味でもない。この記事をブックマークして、2030年に議論しようではないか。

ただし、短期的にはARテクノロジーの発達は主にスマートフォンのエクスペリエンスによって前進することになるだろう。そしてそれらはGoogle(グーグル)とアップルによって急速に発展している。ARをアプリやデバイスに合うハードウェアに組み込むように開発者にフレームワークを提供しているのだ。

AR体験を非常に現実的なものにするための最大のハードルはオクルージョンだ。これはあるオブジェクトが別のオブジェクトと現実的に交差することを可能にするエフェクト。「これはそれより後ろにある」と脳に伝えるためにオブジェクトを不明瞭にしたり、隠したりする。オクルージョンは共有されたエクスペリエンス、リアルな世界とデジタルな世界の相互作用、一般的な信憑性といった面白さにつながる。

これこそがiPad ProのLiDARの見せ場でもある。LiDARを使用すると、ARアプリケーションで2つの大きな前進が可能になる。

  1. 初期化の時間はほぼ一瞬:LiDARは光の速さで動作するため、放った光のパルスを読み取り、その「飛行」時間を測定することで対象物または環境の形を判定する。これはとても速い。典型的な「アプリを開いて、端末をかざして周りを見渡すが、使えるかどうかは運次第」といったAR特有のユーザーエクスペリエンスの悪さは、LiDARによって理論的に取り除くことができる。
  2. オクルージョンは自動:オブジェクトの形や相互関係を「推測」するためにカメラ、小さな手の動き、コンピュータービジョンを使用して計算を行う必要がなくなった。開発者は基本的にこれを無料で、しかも驚きの速さで手に入れることができる。LiDARがたくさんの自動運転自動車システムや半自動運転システムに使われていることには理由がある。高速で比較的信頼性が高く、強力なマッピングツールだからだ。

ARKit 3.5には、平面と表面を検出することにより、環境の完全なトロポジカル3Dメッシュを作成する機能がある。しかも、シンプルなカメラファーストのアプローチよりも高い精度で提供されているのだ。

残念ながら、私はこのシステムをテストすることができなかった。Appleによると、多くはHot LavaのようなゲームからIKEAのような家具販売用アプリへと移行しつつあるとのことだが、それを活用したアプリケーションはまだないとのことだ。2020年か遅くとも次のiPhoneに搭載される可能性が高いため、この追加機能がどれほどiPadに効果的であるのか私は興味がある。

iPadPro

唯一、iPad Proの背面カメラがポートレート写真を撮れないことには驚いたが、大きなショックは受けなかった。フロントカメラのTrueDepthだけが、このポートレートモードを搭載している。

iPad Proには、はるかに正確なポートレートモードが搭載される予定であり、LiDARアレイとカメラを利用するが、まだ準備ができていないようだ。アップルがテーマと背景との関係を理解しているにもかかわらず、ポートレートスタイルの撮影を実行できないようにする理由はない。

LiDARは非常に有望で、たくさんの将来性のあるアプリを生み出すテクノロジーだ。デバイスに外部の世界を取り込むためのより正確な方法があれば、そのうちAppleと開発者にいろいろなチャンスが広がるであろう。しかし、私はそれが一気に広がるのではなく、今後数年にわたって徐々に行われることになると考えている。

TrueDepthカメラの位置が変更されていないことには失望した。iPad Proのデザインに関してアップルが選択したものの中で、カメラを横向きモードのときに手で覆われる場所に配置したのは実にもったいない。

iPadPro

私がiPad Proをポータブルマシンとして使ってきた間、ポートレートモードにしたことはほんの数回しかない。たいていはアプリが単に横向きに対応していなかったからだ。

このデバイスは横向きが前提であり、カメラにもそれを反映すべきだ。5月に出荷される「フローティング」デザインの新しいMagic Keyboardは、カメラを浮き上がらせて手元から離すことができるようになり、私はそれによってかなり使い勝手は良くなるのではないかと思っている。

キーボードとトラックパッドに対応

マウスとトラックパッドへの対応については、現時点でもかなりの人がいくつかの意見を述べている。一般的に反応は非常に好意的であり、私もその評価に同意する。アップルがボタンやアクションをカーソルに合わせる際にどれほど柔軟性があるかにはやや疑問があるのだが、全体的な効果としては信じられないほど快適で便利である。

カーソルを鋭い矢印や手のアイコンではなく、順応性のあるオブジェクトで再現したことは、タッチ環境において大いに納得できる。我々は、自分の指が鉛筆や消しゴム、ときにはボタンを押す道具として必要なツールになることに慣れている。iPadのカーソルも状況に応じて認識されるのだが、それは理にかなっている。

いまのところはMagic Trackpadしか使えないのだが、Magic Keyboardが発売されたときには、これが通常の作業フローになってくれることを期待している。

そしてキーボードのデザインについては、以前よりもはるかに高い位置にあるスクリーンを、キーボードを使いながら指で突かずに済むのは素晴らしいことだ。

Surfaceとの比較

iPad Proにトラックパッドが追加されたことで、「結局のところSurfaceは正しかったのでは?」という直感が正しかったことが証明されたようだ。今となってはほとんど毎日iPadを触っているので、私はこのことについてある時期から2、3年は考えていたことである。

この議論については2018年に評価をしたことがあるので、ここでは端的にそれを引用させていただこう。

関連記事:iPad Proレビュー:Appleの新しいタブレットは、成熟の予兆を見せ始めた

iPadPro

簡単にまとめると、Microsoft(マイクロソフト)はラップトップのタブレット化に、アップルはタブレットのラップトップ化に取り組んでいて、他はよくわからないことをしようとしている。

まずはOSを切り離し、先にタブレットを開発してから元に戻る必要がある。そのことをマイクロソフトは理解することができないでいる。マイクロソフトは以前のマイクロソフトよりもはるかに有能だと思うが、しかしそれは他で議論すべき問題である。

アップルはOS Xをかなり早いタイミングで切り離し、それ以来、別の方向にゆっくり向かっている。しかし、Surface ProがiPadと同じくらい満足できるレベルのタブレット体験を提供してくれたことはない。

たしかにSurfaceのほうがより柔軟性があるかもしれない。しかし、それは統一感と確かな機能性の犠牲の上で成り立っている。それは冷蔵庫やトースターでも同じである。

今でも私はそう思っている。

基本的に、iPadがSurfaceのすぐそこまで追いついていると考えるようになった。なぜならiPadはハードウェアに焦点を当てているのでアプローチが広い。そしてWindowsはタッチ操作向けに適切に調整されたことはない。アップルは先にタッチ操作に合わせており、その後でカーソルのサポートを追加した。

前述したことを繰り返すが、私はここで「Surfaceのアプローチが悪い」と言っているわけではないので、その点は信じて読み進めていただきたい。業界のほぼ全体が別の方向に向かっていたときに、SurfaceのチームがコンバーチブルPCに最大限尽力していたことは、非常に賞賛すべきことだと思う。しかし、iPadが「Surface」化するという意見には絶対に同意しない。なぜならSurfaceのタッチエクスペリエンスはタブレットの中でも最悪であり、iPadのそれは(インターフェイスの欠点も含めて)間違いなく最高だからだ。

これは最近のコンピューターデザインにおいて、異なる両端から同様の問題を解決しようとする明確な例の1つである。

ただし、iPad Proを数年間使用して、何も問題がなかったというわけではない。

iPadPro

iPadへの期待

2020年の1月のこと、アップルに関するライター兼評論家のJohn Gruber(ジョン・グルーバー)は、iPadがその潜在能力を完全に引き出されていない理由について詳しく解説した。アップルがソフトウェアのマルチタスクの部分で失敗したというのが大筋の結論だった。その当時、ジョンや他の追随する人たちから良い指摘をされていたように思う。私にも意見があったが、思いを表明するまでには至っていなかった。しかし、今なら言える。私の意見は次のとおりだ。

iPad Proは、使いやすさよりもスピードと能力に焦点を合わせているに違いない。

MacBookやラップトップを1日か2日、もしくは10日間も置いたままにしたことがなかったか思い出してみてほしい。開けてみたら一体どうなっただろうか? アラート、通知、アップデート、メッセージの数々がお出迎えしてくれたのでは? マシンから離れていた時間の長短に関係なく、開いてすぐに作業を開始できただろうか?

iPad Proなら、どこにいても何をしていてもパカッと開いて上方向にスワイプすれば、数秒以内に最初の指示を出すことができる。めまぐるしい業界で、荒々しいビジネスをしている私たちにとって、その確かな動作は文字どおりプライスレスだ。

一方で、私が使いやすさを望んだことは一度もない。

あなたはハンマーがもっと使いやすかったらなどと思ったことはあるだろうか?そんなことはないだろう。正しく持ち、正確に打つことを覚えるだけだ。iPadの場合はもっと複雑なことにも利用できる。

現在、iPadOSは批判を許されないレベルにまでシンプルさが高められている。皮肉なことに、iPadソフトウェアチームに代わって物事をシンプル(同じアイコン、同じグリッド、同じアプリスイッチングパラダイム)に維持し、元の意図に忠実にであろうとする努力が、打って変わって一種の複雑さをもたらした。

iPad Proのマルチタスクシステムを取り巻く問題のほとんどは、プロフェッショナルのユーザーに対してアプリやワークスペースを不変に固定する方法を提供することで解決することができると思う。つまり、何年にもわたってiPadの役割であった自分のワークスペースを所有しているようなマルチタスクの方法論を「ぶち破る」能力をユーザーに提供すればいいのだ。ドックを完全に捨て去り、タップで移動できる固定されたスペースのリストを作成しよう。アプリアイコンを保護するステータスをなくし、そのスペースでまさに起こっていることを反映させよう。

これらはひどいアイデアかもしれないが、私の議論の核心はしっかりしている。タッチインターフェイスは70年代に初めて登場した。そして少なくともここ十数年間は非常に人気だ。

今日のiPad Proユーザーはタッチベースのインターフェイスには慣れており、タッチインターフェイスのないコンピューティングライフを知らない可能性が高まっている。

信じられないのなら、子供たちが6つの異なるアプリを操って、簡単なミームやメッセージをまとめて友達に送る様子を観察してみて欲しいい。子供たちはそれを1日に数十回も行うような名人なのだ。こういったユーザーはまさにタッチネイティブである。肉の味を知ってしまった子どもたちは、もうミルクを飲めなくなってしまっているのだ。

iPadPro

このデバイスは依然として絶賛せずにはいられない。とにかく、私が2018年に挙げた理由すべてにおいて、現在でも同じように強く感じている。しかしこれまでのところ、2018年のiPad Proから最新モデルにアップグレードする理由はほとんど見当たらない。Magic Keyboardに下位互換があることを考慮しても、結論は変わらないであろう。

現在iPad Proを所有しておらず、仕事に使えるか悩んでいる人には、可能だと私は答えるし、実際に私はそうしているとお伝えしよう。複雑で多面的な論説、イベント、サブスクリプションビジネスの編集面を管理しながら、さまざまな大陸やタイムゾーンで働く30人もの従業員と話している。

iPad Proとともに(飛行機で)16万kmを移動したが、一度も不具合を起こすことがなかった。バッテリーは常に十分であった。スピードは常に一定だ。キーボードは素晴らしいだけではなく、液体をこぼしても大丈夫で、さらに耐衝撃性能を備える。私がこれまで所有していたどのラップトップにも当てはまるものではない。アップル製品であったとしてもしかりである。

統合されたトラックパッドの将来性とiPadの存在理由のレベルアップにより、Magic Keyboardと新しいiPad Proは、現在の市場に出回っている中で最も魅力的なパッケージの1つになっている。

私はMacBook Airが大好きで、いくつかのモデルを壊れるまで何年も使用したことがある。現在、自分の仕事のスタイルを考えるとラップトップに戻るという選択肢はありえない。高速で信頼性が強く、強力だからだ。

タイピング、スワイプ、スケッチで入力することができ、地球上のあらゆる主要なビジネスソフトウェアを強力にサポートするマルチモードマシンを所有しているというのは尋常ではない。常によく動き、高速で、まるでイタリアのレーシングカーのように組み立てられているマシンだ。

誰が反論できるだろうか?

[原文へ]

(翻訳:Dragonfly)

未来のAR/VRヘッドセットはスイスのCrealが研究するライトフィールド技術が本命か

何年にもわたって話題になってきたARとVRはこのところ静かになっているが、一部の投資家たちは、技術的欠陥が克服されれば、それらはモバイルデバイスに取って代わるかもしれないという展望を持っている。

ディスプレイの基本的な技術を研究開発しているスイスのスタートアップCrealは、VRとARのヘッドセットをさらにリアルな光学的技術によって、今よりも快適なデバイスにしようとしている。

同社は2019年にInvestiereとDAA Capital Partnersから、シリーズAで740万ドル(約8億2000万円)を調達した。さらに今週にはEUの技術革新促進事業であるHorizon 2020から助成金を獲得して、同社のライトフィールドディスプレイ技術の研究開発を継続することになった。

関連記事: Can Apple keep the AR industry alive?… アップルはARを産業にできるか(未訳、有料記事)

ライトフィールドディスプレイは、これまでとはかなり異なる種類のディスプレイだ。今あるARやVRのヘッドセットは、右の目と左の目に若干異なる像を見せることで立体画像を表示するが、未来のヘッドセットは、目がどこを見ているかによって像のフォーカスを変える。ライトフィールドディスプレイやライトフィールドカメラは、前方でも奥でもどこにでも焦点が合う像を作り出す。この技術によって、輻輳(ふくそう)調節矛盾(vergence-accommodation conflict)に由来する目の疲れがなくなり、顔に近いオブジェクトとも対話でき、VRの視界が細部までもっとわかりやすい世界になる。

下の動画は、同社の技術を一般的なレンズで撮影した映像で擬似的にデモしている。

ライトフィールド技術の実装には、いろんなやり方がある。Magic Leapはこの技術の軽量バージョンを同社のヘッドセットに採用し、目の動きの捕捉によって切り替わる2つの焦点面を利用している。この可変焦点(varifocal)方式には、Oculusを通じてFacebookも投資しており、複数の面の間でユーザーが焦点を変えられるヘッドセットのプロトタイプを披露したことがある。

関連記事: Oculusが次世代ヘッドセットのプロトタイプを公開

Crealもライトフィールドの技術を小型化するために、Facebookのような大企業と同じ困難に対処しなければならない。それは何を犠牲にするか、という問題だ。同社の最も近い目標は、その技術を仮想現実のヘッドセットに組み込むことだが、数年後にはそれを軽量のARヘッドセットにも応用したいと考えている。

新しい技術を構築するCrealのようなスタートアップは、世界不況の影響を受けやすいだろう。最前線にある技術への投資は、不況の犠牲になりやすい。不安定な経済が今後も続けば、Facebookのような大企業がますます有利になり、同様の技術に取り組んでいるスタートアップは生き抜くためにコスト削減を強制される。

Oculusは最近、VRニッチ市場に成功しているが、拡張現実のハードウェアはスタートアップにとってもっと難題だ。2019年はMeta、ODG、 Daqriなど多くの企業が閉鎖された。3月初めにはBloombergが、Magic Leapは数十億ドル(数千億円)の資金を獲得した後、売却を視野に入れていると報じている。ARは特に売ることが難しい。

[原文へ]

(翻訳:iwatani、a.k.a. hiwa

Google Glassはエンタープライズ用のバージョン2で生き残りを目指す

Google Glassの登場は時期尚早だった。もちろん外でそれを身に着けていたら、イカれた人物として目立ちすぎるというのはあるが、まだ世の中はウェアラブルの拡張現実を受け入れるほど成熟していなかったのだ。しかし、この珍品はEpson(エプソン)やMicrosoft(マイクロソフト)などのおかげでエンタープライズアプリケーションの世界に蘇っている。

Googleもその波に乗る気だ。昨年5月に同社は、GlassのEnterprise Editionのv2を発表した。そして米国時間2月4日、同社はデベロッパーがヘッドセットを数社から入手できるようにした。昨年Google Xを卒業したこのAndroidデバイスは、ちょっとだけデザインをすっきりさせたが、Glassの最初期のバージョンにとてもよく似ている。

関連記事:ハードウェアをアップデートしたGoogle Glassの新モデルが登場

最初のモデルから7年が経ち、今やそのGlass Enterprise 2は決して安くない。パートナーのサイトでは1000ドル(約11万円)で販売されている。また、カードのテキスト表示や画像、QRスキャナーなどのアプリケーションもある。

上の記事で筆者のLucas(ルーカス)が書いているように、Glassのシステムは最近のHoloLensなどに比べると貧弱だ。HoloLensとは異なり、XRを楽しむようにはできていない。使い勝手はいかにも軽いので、それが求められる用途もあるだろう。例えば、土木建設の現場などでは、その場に応じた情報を現場作業員に伝えることができる。

[原文へ]

(翻訳:iwatani、a.k.a. hiwa

Magic Leapの最初の製品は売れ行きがあまりにも不振

Magic Leapがさきほど、シリーズEの資金調達ラウンドをもうすぐ完了すると発表したが、でも同社はその投資に、市場における同社の唯一のデバイスの売れ行き不振を組み合わせることになりそうだ。

The InformationのAlex Heath氏の記事によると、Magic Leapは同社の2300ドルのヘッドセットMagic Leap Oneを発売後6か月で6000台売ることはできたが、その数字の与える印象は、CEOのRony Abovitz氏が初年度の売上目標として言っていた100万台に比べてあまりにも微小すぎる。Abovitz氏自身もその後考えを変えざるをえなくなり、初年度の目標を10万台に修正した。

今本誌は、同社にコメントを求めている。

Magic Leap Oneのリリースまでの同社の道のりが派手な評価と期待に彩られていただけに、これほど低い出だしの売上は、Apple(アップル)やMicrosoft(マイクロソフト)に負けない拡張現実グラスを作るという同社の究極の目標に水を差すことになるだろう。そのほかのARヘッドセットも売上を明言しているものは少ないが、でもMagic Leapは、最初の製品のリリースまでに調達し費消した金額ではどの他社よりも多い。

同社はこれまでに、GoogleやAlibabaを初め多数の投資家からおよそ26億ドルを調達している。Heath氏の記事は、Googleの、そして今やAlphabetのCEO Sundar Pichai氏がMagic Leapの取締役会を降りて、Googleの他の役員に入れ替えられた、と報じている。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

ナイアンティックとクアルコムが共同で拡張現実グラスを開発

Pokémon GO(ポケモンGO)を作ったNiantic(ナイアンティック)が、今の拡張現実にできることに限界を感じていることは、かなり前から知られていた。4Gのセルネットワークでは避けられないレイテンシーやARではプレーヤーがスマートフォンを振る必要があることなど、その技術はとうていナイアンティックが望むものではない。4月の同社に関する記事では彼らはもっぱら、5GとARグラスでできることを精力的に探求していた。CEOのJohn Hanke(ジョン・ハンケ)氏は、スマートフォンの次はARグラスの時代だと確信していた

だからナイアンティックがQualcomm(クアルコム)と組んで5G対応のARグラスを作っていることは、当然の成り行きだ。米国時間12月5日の朝、クアルコムが発表した新しいチップセットであるXR2は、拡張現実と仮想現実のデバイス専用のプラットホームだ。

その発表のあとナイアンティックのCTOであるPhil Keslin(フィル・ケスリン)氏がステージに立ち、同社はこのプロジェクトでクアルコムとの複数年のコラボレーションに取り組む、と発表した。で、結局それはどういう意味か?

至近のビッグプロジェクトは何もない。今年のクリスマスにクアルコム/ナイアンティック製のARグラスでポケモンGOを遊べるわけではない。

しかしもうちょっと先には、両社共作拡張現実グラスの参照ハードウェアが世に出て、一部のユーザーによるベータテストが始まったりするだろう。

同時にナイアンティックは、同社のこれまでのすべてのゲームのベースであるReal World Platformを、これまでのように徐々にサードパーティに対して公開するだけでなく、XR2向けにチューンアップするだろう。ナイアンティックはこの数年間、過去に作ったすべてのアーキテクチャをARグラス向けに秘かに改造してきた。そしてこれからは、具体的なチップへの対応を図り、より現実性のある取り組みになる。ケスリン氏によると、その次の段階としては、それらの技術のすべてをReal World Platformへ集約し、誰もがNiantic Creator Programで利用できるようにする。その最終ローンチは2020年の年内を予定している。

クアルコムは安心してパートナーできる企業だし、AR世界のよそ者でもない。同社はこれまで1年以上、AR/VR専用のチップを研究開発してきた。昨年の5月にはXR1プラットホームを披露した。またVuforia SDKの立ち上げにより、拡張現実の開発プラットホームの構築にも深く入り込んでいる。ただしそのプロジェクトは、チップにフォーカスするために2015年に売却された

[原文へ]

(翻訳:iwatani、a.k.a. hiwa

マーケティング向けARコンテンツを気軽に作れるクラウドエディター

スマートフォンの拡張現実(Augmented Reality、AR)には大きな将来性があったが、しかしこれまでは段階的な進化が多くて、新しいプラットホームの登場は少なかった。しかしモバイルのARに注力していたスタートアップにとっては、ユーザーに負担をかけないもっと軽いAR体験を作り出すことが、長年の課題だった。

8th Wallは、モバイルのAR体験を実現する開発ツールを作っており、同社はこれまで1000万ドルあまりの資金を調達して、デベロッパーたちを拡張現実の世界に誘い込もうとしてきた。

関連記事:Augmented reality developer tools startup 8th Wall raises $8 million…拡張現実開発ツールの8th Wallが800万ドルを調達(未訳)

同社は今週、8th WallがホストするAR体験を一般ユーザーが作れるワンストップの制作プラットホームを発表した。それは、同社がこれまでやろうとしていたことの一歩前進であり、顧客がマーケティング目的で気軽にARを作れることが、スマートフォンの単純なARを収益源にするための最適の方法であることの兆候でもある。

そのARエディターは、ウェブで人気のある没入体験のフレームワークであるA-Frameやthree.js、そしてBabylon.jsをサポートしている。「開発プラットホームではあるが、ゲームエンジンのUnityのように重厚なレンダリングを目指すものではなく、とにかく『軽いプロジェクトをどんなスケールでも素早く作る』ことが狙いだ」とCEOのErik Murphy(エリック・マーフィー)氏は語っている。

8th Wallは最初、ARKitやARCoreのような拡張現実プラットホームで、デベロッパーが作るコンテンツができる限り多様な機種をサポートすることを目指していた。今の8th Wallの14名のチームは、スマートフォンからブラウザ上のウェブ体験を呼び出せるWebARと呼ばれる技術にフォーカスしている。

WebARのメリットは、Webアプリケーションと同じだ。ユーザーは何もダウンロードせず、単純にリンクでコンテンツにアクセスできる。企業のマーケティングで行われる消費者や顧客との対話には、最適の方法だ。そんなところでユーザーにアプリのダウンロードを求めたりしたら、まるで笑い話だ。リンクやQRコードでWebへのリンクを提供したほうがずっと人生は楽だ。

8th Wallのクラウドベースの制作およびホスティングプラットホームは、広告/マーケティング代理店や企業のユーザーなどが本日10月31日から利用できる。

[原文へ]

(翻訳:iwatani、a.k.a. hiwa

ARマッピングの6D.aiがAndroidとヘッドセットをサポートへ

コンピュータービジョンの技術で世界をマッピングする6D.aiの拡張現実プラットホームがベータを終了し、サポートするデバイスを拡張した。

同社はサンフランシスコ発のスタートアップで、昨年10月にベータで立ち上がり、今ではサービスの料金体系も確定してデベロッパーがアプリを発表できるようになった。その6D移動の従量制の料金は、無料プランのほか、ユーザーが行うマップのダウンロード呼び出しの回数により20ドル〜50ドルのプランがある。呼び出し回数5万以上のアプリに関しては特注料金になる。

すでに同社の顧客には、Autodesk(オートデスク)やNexus Studios(ネクサス・スタジオ)、Accenture(アクセンチュア)などの著名企業がいる。

そしてこれまではiOSデバイスに限定されていたが、米国時間8月26日に同社はAndroidスマートフォンや軽量ヘッドセットのサポートの非公開ベータを発表した。

AndroidはiOSと違って不均一なプラットホームなので課題も多いが、しかし6Dはまず、ARCoreをサポートしているSamsung(サムスン)の最新のデバイスから展開を始める。そして次の段階としてSnapdragon 845以降のチップが動くARCoreデバイスをすべてサポートする。

同社はさらに、Qualcomm(クアルコム)とのパートナーシップを発表した。Qualcommは6Dの技術を使った製品を、ARのヘッドセットのメーカーのための参照設計として提供するようだ。ヘッドセットは6Dにとってメインの路線ではないが、今後の市場の成長に備えて今からパートナーシップを結んでおきたいらしい。そのため同社は、中国のヘッドセットメーカーNrealともパートナー契約を結んだ。

関連記事:6D.ai is building AR tech that crowdsources a 3D mesh of the world(6D.aiのAR技術はクラウドソーシングの3Dメッシュ情報を利用、未訳)

[原文へ]

(翻訳:iwatani、a.k.a. hiwa

Boschが車載ディスプレイをグラス不要で3D化

ドイツの自動車産業を支える製造業大手のBosch(ボッシュ)が、未来のダッシュボードディスプレイの3D化を、専用グラス(眼鏡)不要、しかもアイトラッキング(目線追跡)不要で実現しようとしている。後者のアイトラッキングはこれまで、グラス不要の3Dディスプレイでは絶対に必要と見なされていた。

しかし、グラス不要でしかも、ユーザーが特定の位置からディスプレイを見ることも不要という2大特性は、車に3Dディスプレイを持ち込むための重要な条件だ。それも当然で、ドライバーはディスプレイではなく道路を見ていなければならないし、ディスプレイ上の重要な情報はどれもさっと見るだけで把握可能でなければならない。運転中のドライバーの関心が、ディスプレイにあってはならないのだ。

だからと言って車の計器盤やインフォテインメントのディスプレイが3Dでなければならない理由はあるだろうか?ボッシュに言わせると、そこには複数の重要な理由がある。まず、重要な警告情報は実際に目の前に「飛び出す」ことによって注意を喚起すべきである。また駐車時には回りのスペースの状況を正確な3D画像で見せることによって安全で素早い駐車ができる。そしてナビなどは、右折左折など方向を変えるべき状況をよりリアルな画像で見せて正しい運転をガイドすべきだ。

  1. bosch_3d_display

  2. iaa_2019_4x

  3. audi_tt_em2_1205_zentral_groesser_map

  4. em3_7258_perspektive_stuttgart

  5. 0108_bosch_ces_tg_0025

  6. bosch_hmi_solutions_haptic_feedback

しかし、これらの説がすべて正しいとしても、それは自動運転がある程度実装された車の話ではないか。しかも車載ディスプレイがそこまで没入的になるのは、人間運転者にそれだけの時間的気分的な余裕が必要だ。

ボッシュはそれをあえて今やる理由として、モバイルコンピューティングの高度化を挙げる。これまでの自動車技術のコンピューター化といえば、小さな非力なコンピューターがコントローラーとして各所に散在していた。しかしこれからは1台の強力な中央的コンピューターが集中的に全システムを管理し、それらのアップデートもインターネットから容易かつ迅速にできるようになる。

同社は、そのようなシステムが実際に発売される実車に搭載される日程を明らかにしないが、他社製品との差別化がより重要になる高級車では、早いもの勝ちのような競争状況になるのではないだろうか。

[原文へ]

(翻訳:iwatani、a.k.a. hiwa

ホログラフ技術で3D TVの実現に挑むLight Field Lab

3Dテレビは10年前のCESで大きく報道されたが、その後成功した消費者製品はない。でも、全員がギブアップしたわけではなくて、一部はアプローチを変えて再挑戦している。

2年前にステルスを脱したベイエリアのLight Field Labは、視聴者が特殊なグラス(眼鏡)をつける必要のない、奥行き感のある3Dをホログラフで実現しようとしている。それは画像に奥行きがあるだけではなくて、視聴者がディスプレイの回りを動くとそれによって物を見る視野角(パースペクティブ)も変わり、まるでデジタルのコンテンツが実際に空中に浮いてるような感覚を与える。

こういうライトフィールド(Light Field)技術は、これまた市場で難産を経験したきた。ライトフィールドを捕捉するカメラであるLytroはGoogleに捨て値で買われたし、これまでに数十億ドルを調達したMagic Leapは今だにその拡張現実技術の商用化に苦戦している。

Light Field Labは、彼らが達成したライトフィールドディスプレイの技術的進歩によって、消費者製品がやっと実現すると期待している。でも、いわゆる3Dテレビの時代から未解決のまま遺されている課題も山のようにある。

Light Field Labは目下、家庭用のライトフィールド体験にはフォーカスしていない。今彼らが力を入れているのは一種のモジュール的なプラットホームで、遊園地やテーマパークなどの娯楽施設がそれを全方向に大量に敷き詰めることによって巨大な3Dビデオの壁を作り、今までになかったような新しい3D体験を提供するというものだ。

壮大な計画だが、今の同社には資金が十分にある。というのもLight Field Labは米国時間8月12日、Bosch Venture CapitalとTaiwania CapitalからシリーズAで2800万ドル(約29億5000万円)を調達した。Khosla VenturesやSamsung Ventures、Verizon Ventures、Comcastなどもこの投資に参加している。さらに昨年同社は、Khosla VenturesとSherpa Capitalから700万ドル(約7億3700万円)を調達した。

同社はプレスリリースで「Light Field Labは当初、一定の位置にある大規模なエンターテインメント施設をねらうが、当社のホログラフ技術の今後のバージョンは最終的に、消費者製品の開発に向かうだろう」と表明している。

関連記事: Hands-on with the bizarrely fascinating Looking Glass volumetric display(Looking Glassの3Dディスプレイに触ってみた、未訳)

[原文へ]

(翻訳:iwatani、a.k.a. hiwa

Googleマップが歩行者のためのナビ「Live View」を拡張現実で実装

Googleマップの中で、歩く方向を教える拡張現実(Augmented Reality、AR)をGoogle(グーグル)はベータ版として提供中だ。

一般公開後には、システムがARをサポートしているiOSとAndroidデバイスで利用できる。iOSならARKit対応デバイス、AndroidならGoogleのARcoreをサポートしているデバイスだ。そしてもちろん、今自分が歩いているところのGoogleストリートビューがGoogleマップ上にある地域でなければならない。

今年の初めに発表されたGoogleマップの拡張現実機能は、Google PixelのユーザーとGoogle Maps Local Guidesにアルファ版として提供されていた。しかし今日からは公開ベータという状態になるから誰でも試せる。ただし全体的な展開には2週間ぐらいかかるから、今日やってみてだめだったという人もいるはず。TechCrunchは3月にいくつかの機能をご紹介したが、今回のバージョンもそれと同じようだ。マップの中で近くの行き先をタップして、次に「Directions」ボタンをタップ、「Walking」へ行って画面下の「Live View」をタップする。

Live View

このLive View機能は、ユーザーがスマホを持って歩けばその一歩一歩をガイドしてくれるものではない。むしろ、上図でおわかりのように、目の前の本物の街路の画像の上にARで大きな矢印と読みやすい街路標識をオーバレイで表示することで、どっちへ行けばいいかがわかる。簡単でとても便利だ。これなら、初めて訪れた見知らぬ町でも間違いなく目的地にたどり着けるだろう。

今回Googleマップには、そのほかのアップグレードもいろいろあり、例えば「Reservations」タブは飛行機やホテルなどの予約をすべて1カ所にまとめてオフラインで保存する。これと、これまでAndroidだけだったタイムラインのデザイン変更は、今後の数週間で展開されるだろう。これらは正規のアップグレードであり、ベータではない。

関連記事: Google Travel adds flight price notifications and a limited time flight price guarantee(Google Travelに時間制限付きお買い得航空券通知機能が登場、未訳)

[原文へ]

(翻訳:iwatani、a.k.a. hiwa

アップルは新しいツールでAR機能を増強

拡張現実(Augmented Reality、AR)は、iOSの消費者が恋焦がれている機能ではないかもしれない。しかし、Apple(アップル)の最新のツールを見ると、同社の長年の夢であるARの偏在性(どこにでもARがあること)を、デベロッパーにとってより取っ付き易いものにしているようだ。

同社はARKitの最新バージョンでおもしろいアップデートをいくつか行ったし、またデベロッパーのための新しいプラットホームとしてRealityKitを導入した。

アップルはRealityKitで、現在UnityやUnrealのテリトリーである領域を攻略したいようだ。UnityやUnrealはデベロッパーが3Dのコンテンツを作るためのツールだが、最初からゼロからARを作ることは当然ながら狙っていない。そのため、現実世界の機能性との統合が難しくなることもあるが、RealityKitとRealityComposerはこの関係をより円滑にする。

これらのツールを使うと、シーンの設定や3Dのアセットと音源のインポートができて、それらとユーザーの入力やその環境との対話を詳しく定義できる。極めてiOS専用の設計になっているので、デベロッパーはARのシーンをiPhoneやiPadでテストでき、最終製品の感覚を早い段階で得ることができる。

ARKit 3では、コンピュータービジョンの超難問であるリアルタイムのオクルージョン(Occlusion)をサポートしたことがビッグニュースだ。それは、人間の姿形がどこからどこまでであるかをシステムが常時正しく認識して、自分の目の前にいる人の動きに正しく対応できる能力のことだ。

これは、アップルがこれまで挑戦してきた問題の中でも最高難度の難問かもしれないが、デモを見たかぎりではまだ完璧とは言えず、また環境オブジェクトのオクルージョンは今回のアップデートではサポートされていない。

さらにもうひとつ、ARKitには全身のモーションキャプチャーが加わった。たぶんそれは、オクルージョンと同じ基本技術を低レベルでは使っているのだろう。InstagramやSnapchatのセルフィー・フィルター(自撮りフィルター)が顔だけでなく全身対応になるのかもしれない。

RealityKitは現在ベータ、そしてARKit 3はiOS 13に含まれる。

[原文へ]

(翻訳:iwatani、a.k.a. hiwa

Google Lensのレストラン機能と翻訳フィルター機能が早くも実装展開

iOSとARCore対応のAndroidスマートフォンでGoogle Lensを使ってる人たちは今後、レストランでのオーダーや外国語のリアルタイム翻訳が便利になる。

その発表は今月初めのGoogle I/Oで行われたが、これからのユーザーはGoogleアシスタントやGoogleフォト、そしてGoogleの検索の中でLensを使える。またPixelスマートフォンでは、その機能がカメラアプリにもある。

その新しいダイニング機能では、ユーザーがスマートフォンをメニューに向けるとLensアプリが人気料理をハイライトしたり、食材の情報を表示したり、そのレストランのGoogleマップのプロフィールにある写真を見せたりする。請求書を撮影して、その分割を即座に計算することもできる。

関連記事: Snap a photo of a menu and Google Lens can tell you what to order(メニューを撮るとGoogle Lensが料理を推薦、未訳)

外国語の翻訳に関しては、前からGoogle Translateアプリには看板や標識などの特殊な書体でも翻訳できる機能があった。今回はそれの軽量バージョンが、Lensに実装された。

関連記事: Googleレンズは外国語を読み取って翻訳結果を合成音声で読み上げてくれる

GoogleがI/Oで発表したLens関連の機能は、展開が遅れることが多かった。今回のように、発表の数週間後というのは、ちょっと珍しい。

[原文へ]

(翻訳:iwatani、a.k.a. hiwa

ARによるビジュアルな遠隔会議をサポートするStreemが類似企業のSelerioを買収

遠隔会議のソフトウェアにコンピュータービジョンの技術を組み合わせたAR企業Streemが、同じく拡張現実の応用企業であるイギリスの小企業Selerioを買収した。

両社は昨年共に、Betaworksのアクセラレーター事業VisionCampに参加し、コラボレーションをしたり、別々にARにおけるコンピュータービジョンの問題に取り組んだりした。

Streemの持ち味はパワーアップしたSkype通話みたいなところにあり、たとえば各種ホームサービスのプロバイダーが家の持ち主とチャットする場合、多くのビジュアルデータを得られる。たとえば電話口で機器の30桁のシリアルナンバーを口頭で伝えるのではなく、画像や映像で分かる。それらのビジュアルデータから間取りを計測したり、その家の特徴に関するノートを取ったりできる。

ポートランドに本社を置く同社は、これまで1000万ドルあまりの資金を調達しているが、最近も新しいラウンドを完了したばかりだ(詳細情報は未発表)。

Selerioの専門技術は、空間の意味的な構造を理解することだ。同社は、ケンブリッジ大学における研究から生まれた。すでにシード資金を獲得しているが、額は公表していない。投資家はBetaworks、Greycroft Partners、GGV Capitalなどだ。同社の3名の社員は全員Streemに加わる。

[原文へ]

(翻訳:iwatani、a.k.a. hiwa

Magic Leapがホログラム遠隔会議システム開発のベルギーのスタートアップを買収

レイア姫からオビ=ワンへのホログラムメッセージが、現実になりそうだ。少なくとも、拡張現実に。

Magic Leapは米国時間5月16日、ベルギーのスタートアップであるMimesysの買収で合意に達したことを発表した。そのチームはこれまで、スター・ウォーズのような立体ビデオ(Volumetric Video)通話をMagic Leapのプラットホームで実現しようとしていた。そして買い手であるフロリダのARスタートアップMagic Leapは、彼らがやってることを気に入ったようだ。まだ、その取引の詳細は得られていない。

Mimesysのウェブサイトによると、チームはMagic Leapに加わるがBNP ParibasやOrangeなどのエンタープライズクライアントへのサービスは継続する。同社のビデオ会議技術は、今年のCESで初めて紹介された。そのビデオ通話では、Magic Leapのヘッドセットに通話相手の3D表現が視覚化される。

立体ビデオの技術には、まだかなり欠陥がある。Mimesysが研究開発してきたソリューションはIntel(インテル)の奥行きカメラであるRealSenseを使って映像をPC上で収集編集し、それをユーザーのヘッドセットへストリーミングする。今の立体ビデオ映像のほとんどがそうだが、Mimesysの初期の成果もノイズを排除できない。でもMagic Leapが買収したということは、同社はもしかして、エンタープライズの顧客にアピールする独自の外付け奥行きカメラを作ったのかもしれない。

今は、ビデオ通話に革命をもたらすと称するプラットホームがとても多いけど、どこも問題を抱えている。要求する帯域が、これまでの通常のネット利用に比べて桁外れに大きいからだ。人間のリアルタイムの3D映像を送るARでは、なお一層難しいだろう。Magic Leapが約束している技術の多くがそうであるように、この立体映像によるビデオ通話も、実現の鍵を握るのは5Gの普及ではないか。

関連記事: なぜMagic Leapに大金を投ずるのか?

[原文へ]

(翻訳:iwatani、a.k.a. hiwa

AR用ディスプレイのメーカーがサムスンとナイアンティックから追加資金調達

広義のAR市場は大部分が誇張や空騒ぎだが、本質的な部分ではそれは、導光板ディスプレイ(Waveguide Display)がますます薄くなり同時に良質で安価になるという技術開発の動きだ。

導光板のメーカーであるDigiLensは、その高価な部品のコストダウンに励んでいる。同社は最近、Universal Display Corporationのベンチャー部門とSamsung Venturesから、シリーズCで5000万ドル(約55億円)を調達した。また前の発表では、Pokémon GOを作っているNiantic(ナイアンティック)と三菱がこのラウンドで戦略的投資を行っている。同社の調達総額は8500万ドルになった(日本語参考記事)。

カリフォルニア州サニーベールに拠を置く同社は、最近では2017年に2200万ドルを調達し、ほかにFoxconn(フォックスコン)やソニー、パナソニックなども投資している(調達履歴:Crunchbase

導光板ディスプレイはディスプレイのガラスの側面から画像をロードし、その光をエッチングが反射させて見る人の目の前に完全な像を作り出す。AR画像用に別のハードウェアを必要とする方式は使いづらいから、この導光板方式はARにとって理想的だ。その光学系は画像を曲面ディスプレイに反射させるだけだから大変安い。しかしそれを消費者向けの薄くて高解像度の製品に仕立てようとすると、相当な開発努力を要する。

DigiLensはARグラスのほかに、シースルーディスプレイの市場として自動車市場にも目を向けている。

CEOのChris Pickett氏は声明の中で「弊社の製造工程は、消費者向けの価格設定が可能な導光板だけを作っている」と述べている。

競合企業は、大手テクノロジー企業の中にも、そして他のスタートアップにも、決して少なくない。Magic LeapとMicrosoft(マイクロソフト)は、彼らの最新のARヘッドセットのために独自の導光板ディスプレイを設計している。昨年Apple(アップル)は、コロラド州デンバーで同様の技術に取り組んでいるAkonia Holographicsを買収した。

[原文へ]

(翻訳:iwatani(a.k.a. hiwa

スマホ上で作ったコラージュをARにするGoogleのアートツール

Googleのアーツ&カルチャー部門は、世界中のアートや遺跡の保存に加えて、アーティストとコラボしてテクノロジーとアートの統合を実験している。その最新の実験事業である「Weird Cuts」と呼ばれるARアプリが米国時間5月8日夜、同社のデベロッパーカンファレンスであるGoogle I/Oで公式に紹介された。このアプリはコンセプトをアーチストのZach Lieberman氏とMolmol Kuo氏が作り、Googleアーツ&カルチャー部門の協力で開発された。それはまさしく、拡張現実で遊ぶための奇妙だけど楽しいツールで、難しいことは何も考えずに「ARでおかしなコラージュを作る」ことだけを考えればいい。

このような実験は、一見気楽だけど新しいテクノロジーと人間との対話のあり方を理解する手段として有効だ。今は、実用目的のARアプリが多い。部屋の中の家具の配置を検討するとか、ふだん見られないものを接近して見るなど。昨日のGoogle I/Oのキーノートでは後者の例として、大きな白いサメのARが現れた。

でもWeird Cutsは、楽しいものを作ってやろうというクリエイティブな意図しかいらない。

このアプリには、切り抜きモードとコラージュモードという2つのモードがある。

まず、切り抜きモードでは、カメラのファインダーに映るものを何でも、いろんな形に切り抜く。そしてコラージュモードでは、それらの切り抜きをスマートフォンの画面をタップしながら現実の3D空間の中に貼っていく。上の画像は、そうやって作った3つの作例だ。

切り抜いた図形の位置や向きは、指をすべらせて変えられる。回転や大きさの縮小拡大も自由に変更できる。

出来上がった作品は、一種の多次元アート、もしくは単なるナンセンスかもしれない。そこらにあるものを素材にして即興的に作ったアートだ。

このアプリはアーチストたちの作品だが、クレジットはGoogle Arts & Cultureになっている。Google Playで無料でダウンロードできる。

[原文へ]

(翻訳:iwatani、a.k.a. hiwa

マイクロソフトが発表したHoloLens 2 Development Editionは約39万円

Microsoft(マイクロソフト)は米国時間5月2日の午後というやや奇妙な時間帯に、Buildデベロッパーカンファレンスの予告記者発表を行った。

そしてその中には、HoloLens 2 Development Editionの発表もあった。同社は、大幅に改良されたHoloLens 2を2月のMWCバルセロナで発表したが、まだデベロッパーの手には渡っていない。今のところ最短で今年後半と言われているが、Development Editionは通常のHoloLens 2と同時ローンチになるようだ。

Development Editionは、買えば3500ドル(約39万円)、借りれば月額99ドル(約1.1万円)だ。いずれも本体のみだが500ドル(約5.6万万円)のAzureクレジットがつき、Unity ProUnity PiXYZ pluginの3カ月無料試用もある。ゆえに開発時のレンダリングはUnityを使える。

Development Editionを入手したい人は、Microsoft Mixed Reality Developer Programに参加しなければならない。標準エディションを予約した人も、今年後半になればオーダーを変えられる。

HoloLensのニュースにしては、ちょいとわびしいね。Azureのクレジットは誰でももらえる(通常は200ドル)し、Unity Proの無料試用も30日までなら誰でもできる。

おかしなことに、通常のHoloLens 2も3500ドルになるらしい。通常版がもっと安くなるのか、クレジットなしで同額か、そもそもなぜMicrosoftはそんなことをするのか、全然わからない。これを特別に「Development Edition」と呼ぶこと自体、マーケティングの小細工と思えてくる。今日の発表をHoloLensバイザーの未来的な魔力で盛り上げたいのかもしれない。

でも、Unityの連中は大喜びだ。Unityの業務部門のゼネラルマネジャーであるTim McDonough氏が、今日の声明でこう言っている。「HoloLens 2とUnityのリアルタイム3D開発プラットホームがペアを組めば、企業はイノベーションを加速でき、没入的な体験を作り、産業界の顧客をもっと対話的なやり方で取り込める。Unity ProとPiXYZ PluginがHoloLens 2のDevelopment Editionに加われば、企業はリアルタイムの2Dや3D、VR、ARなどの対話的な体験をすぐに作れるようになり、デザインデータをインポートして準備するだけでリアルタイムの体験を作れる」。

Microsoftは今日の話の中で、Unreal Engine 4のHoloLens 2サポートは5月末に利用可能になると述べた。

[原文へ]

(翻訳:iwatani、a.k.a. hiwa

なぜMagic Leapに大金を投ずるのか?

もしもMagic Leapがコケても、同社を疑っていた人たちは少なくとも、その巨額の資本を調達する目ざとい能力だけは賞賛せざるをえないだろう。

同社は米国時間4月26日、日本最大のモバイル事業者NTTドコモと新たに2億8000万ドル(約312億円)の契約を締結したことを発表した。これにより、同社の絶えず増え続けている総調達額は26億ドルに達する。この契約は昨年のAT&Tからの、同じくクラウド指向の投資に続くものだ。

ドコモの吉澤和弘社長は、プレスリリースでこう述べている。「ドコモは高度なMRサービスの共同開発とオープンなイノベーションによるXRマーケットの拡張を志向しており、そのために、Magic Leapが提供するSpatial Computingのような革新的な技術と、5Gネットワークや7000万人の会員ベースといったドコモの強みを結びつけていきたい」。

この新しいお金がやってきたタイミングは、同社がMagicverseにさらに注力していこうとしている時期と一致する。それは空間にマップされるデジタルインフラストラクチャの層で、クラウドから提供されるAR体験の基礎となるものだ。最近の市場の動向を見てMagic Leapは、ハードウェアよりもクラウドプラットホームに傾注する気になったらしいが、でもクラウドはMicrosoftやAmazon、Googleなど多くの先輩たちがやはりAR/VRにフォーカスしているから、その中でのMagic Leapのアドバンテージはまだよくわからない。

確かに、5Gがあるからこそ世界の通信大手とのパートナーシップもあるわけだけど、でもそのハードウェアへの期待(とその大きな市場)が5Gに比べてはるかに実現性が危ういとしたら、これら有名大企業との結びつきは今後どうなるのか。

同社はこれまでハードウェアに大金を投じているが、そのビジネスは、同社が消費者企業としての意欲を継続するかぎり、FacebookのOculus(すなわち歩みののろい金食い虫)と大差ないのかもしれない。同社の唯一の製品Magic Leap Oneは、小売定価が2295ドルだ。

関連記事: Magic Leap and other AR startups have a rough 2019 ahead of them(2019年はARスタートアップにとって厳しい、未訳)

最初のころは、Magic Leapが追究していたハードウェアは前例のないものだったが、やがて現実が追いついてきた。今では、同社が作ったものとMicrosoftなどのコンペティターが作ったものとの違いはとても小さい。ただしHoloLensはMicrosoftのAzureクラウドサービスを利用する先進的な企業のためのツールという位置づけであり、一方Magic LeapはVRゲームのデベロッパーに忠誠を誓っている。彼らが時間とお金を投じて作る芸術的なミニゲームのプラットホームは、それ自身すでにニッチである仮想現実の市場よりもさらに、ユーザー数が乏しい。

Magic Leapは4億8000万ドルの軍用ARの契約に入札したが、それはMicrosoftに行った

Facebookはゲームの開発に数億ドルを投じている。たしかにMagic Leapには、投資家のお金を注ぎ込む場所として、コンテンツの開発に直接ではなく、もっといい場所がある。でも全面的な消費者向けリリースを大規模展開するためには、そのためのインフラストラクチャがまずないと近道はあまりない。

ところで、そのツケはどこが払うのだろうか?ドコモだろう、今回は。

[原文へ]

(翻訳:iwatani、a.k.a. hiwa

写真に写ってるものを音声で聞けるマイクロソフトのSeeing AIアプリ

Microsoft(マイクロソフト)のSeeing AIは、目の不自由な人が視覚データをオーディオに変換できるアプリだが、今回、便利な機能がひとつ増えた。ユーザーが、写真の中のオブジェクトや人間をタッチして調べることができるのだ。

それはもちろん、機械学習のオブジェクトや情景の認識機能を利用している。写真を撮ったり、ビューワーの中で開いたりしたら、その上のどこでもいいからタップするだけだ。

「この新しい機能でユーザーは、タッチ画面に表示されている画像を指でタップして、そこに写っているものやそれらの空間的関係の説明を聞くことができる」と、Seeing AIの主席開発者Saqib Shaikh氏がブログ記事でそう述べている。「このアプリは、人の肉体的な外見や彼らの気分も説明できる」。

顔認識機能もあるので、友だちの写真を撮ったら誰がどこで何をしているのか聞くことができる。その写真の中に犬がいることもわかる(こいつは重要だ!)。これは、下図に示すように、全画面的にはすでに実現していた。

でも今度からは、ユーザーがあちこちをタップして、どんなオブジェクトがどこにあるか知ることができる。それは新奇な機能というより、写真を見る際には本来とても重要なことだ。説明書にはないが、もっと細かいこと、たとえば前景に花があるとか、背景に映画のポスターがある、なども分かる。

しかもこのアプリはiPadをサポートするようになったので、アップルのタブレットがいろんなメディアや対話の主要なインタフェイスとして役に立つだろう。今回のアップデートでは、このアプリから好きなものを注文できるようになった。

Seeing AIは無料で、iOSデバイス用にここからダウンロードできる。

画像クレジット: Microsoft

[原文へ]
(翻訳:iwatani、a.k.a. hiwa