iOSアプリ開発者に訊く:LiDARで空間を演出するアプリ「Effectron」 (アフェクション)

iOSアプリ開発者に訊く:LiDARで空間を演出するEffectron (アフェクション)

AFFEXION

アップルの世界開発者会議 WWDC 2021 を前に、iOS開発者にアプリを巡るストーリーやWWDCへの期待について訊きました。

今回お話をうかがったのは、iPhone 12 Pro や iPad Pro のLiDARセンサを使い、カメラ映像にリアルタイムのARエフェクトをかけるアプリ Effectron の開発元、株式会社アフェクション(Affexion)。

Effectron はカメラを向けた方向の奥行きや三次元形状を取得できる LiDAR センサをエンタテインメントに活用した最初のアプリのひとつで、2020年8月に iPad Pro 版、10月に iPhone 12 Pro 対応をリリースしています。

リアルタイムARエフェクトのアプリは以前からありましたが、Effectron はLiDARで三次元認識した床や壁に光るグリッドを引いて古典的な「サイバースペース」風に変えるといったインパクトのある映像で、搭載されたばかりのLiDARセンサの機能を示すアプリとして話題になりました。

開発元の株式会社アフェクションは、群馬県高崎市に本社を構える社員10名の企業。WebからVR・ARまでデジタルコンテンツ制作を手掛けます。アフェクションの閑 代表と、同社 CG motion 開発室 室長の金井氏にお話をうかがいました。

──Effectron はアフェクションがリリースした最初のアプリだそうですが、そもそもどういった経緯でアプリをリリースすることになったのでしょうか

閑代表:「弊社は2007年にウェブ制作からスタートしました。デザインを基点に広告やウェブ制作を手掛けておりましたが、2年ほど前から社として第二、第三の柱をどうしようか、という話になりまして」

どういったアプリが良いか?を社内で50案ほど考えたなかで、金井氏からこのLiDAR技術を使ってみたいと提案があり、Effectronにつながったとのこと。

金井氏:「提案にはマーケティング的な面と、ビジュアル的なことをやりたかったという2点があります。マーケティングとしては、これまでアプリを出したことがない会社だったので、まず使ってもらう取っ掛かりが欲しかった。新しくLiDARを搭載したiPad Proが出たところで、新機能をアプリで使い新規性を出せればと考えました」

・もう一点は、前職で建築用の測定機器で取得した点群データを見て、これをビジュアル表現やエンタメに使えたら面白いなとは考えていたこと。ミュージックビデオなどでも使われていて、インスピレーションを受けた面もある。

・LiDARセンサは高価で、以前ならば手が出なかったが、WWDCでiPad Proに搭載されたことを知り、世界中のユーザーが身近な環境で使えれば面白いだろうと制作を決めた。

──WWDCで発表を見て一番乗りを狙ったとのことですが、結果的に一番になれましたか?

金井氏:「一番乗りくらい、ですね。LiDARを使ったアプリは他にもあるにはあったのですが、機能が限定的だったり。メッシュを取得して描画するエンタメ系アプリという意味では、確認する限り初めてだったと思います」

──他の開発者もLiDARアプリを一斉に作る中で、エンタメ系で一番乗りになれた理由はどのあたりだったんでしょう

金井氏:「意外とスキャンニングのアプリは出ていたので、アプリ開発者的には実用アプリのほうが安牌だったというか。LiDARに興味を持っていたのがもともと建築系などの層だったので、エンタメに使ったアプリは初期には意外とあんまりでなかったな、という感じです」

──狙いが良かった、ということですね。スケジュール的にはどうでしたか。

金井氏:「7月から開発をはじめて、たしか8月にはリリースしました。スケジュールを間に合わせるため心がけたのは、必要な機能に絞ること。機能を増やしすぎると覚えるのが大変といった面もありますので、できるかぎりシンプルに、背景のメッシュのエフェクト切り替えと、人物のエフェクト切り替えという二点だけに絞って。あとは録画とSNS共有くらいはつけておいて」

──LiDARセンサの利用は、一般の開発者にとって学習コストが高いものなんでしょうか。

金井氏:「作りたいものが決まっていれば、ある程度アップルはサンプルを用意してくれるので、そちらを見れば作りやすいのかなと思います。あとはある程度、映像や3Dに関する知見があればすぐに取りかかれるはずです」

──Effectron は3月時点で3万ダウンロード超だったそうですが、ビジネス的なインパクトはありましたか。

「直接にEffectron を使ったビジネスというよりは、アプリの新規性が話題になったことで、たとえばいま開発している教育向けARアプリなど、開発の案件をいくつもいただけるようになりました。そうした意味で会社のビジネスにつながっています」

──WWDCに向けて、次はこんな機能やデバイスがあったら、といった期待があれば教えてください

「あまり考えたことはなかったですが、ロケーションアンカーが日本中で使えたら良いな、というのはあります。まだ限られた地域でしか使えないので。あれが使えたら、活用はコロナ後になるでしょうが観光アプリだとか、面白いものが作れるかなと考えています」

──ありがとうございました!

iOSアプリ開発者に訊く:LiDARで空間を演出するEffectron (アフェクション)

Apple

WWDC 2021 は米国時間で6月7日から、日本時間では6月8日深夜2時からのキーノートで始まります。

「Effectron」をApp Storeで

株式会社アフェクション | AFFEXION Inc.

Engadget日本版より転載)

関連記事
アップルのWWDC 2021基調講演をライブ中継で観よう!
WWDC 2021で期待される発表は?iOS 15、iPadOSリニューアル、もしかしたら新Macも
Apple Watchで心疾患発見を目指す、慶應医学部 木村雄弘先生に訊く(WWDC 2021)

カテゴリー:ソフトウェア
タグ:iPad(製品・サービス)iPhone(製品・サービス)Apple / アップル(企業)アフェクション(企業)拡張現実 / AR(用語)WWDC(イベント)WWDC2021(イベント)LiDAR(用語)日本(国・地域)

おなじみのマリオカートを自宅の床で楽しめるAR版が登場、コントローラーにSwitchを使用

任天堂は、その最も愛されているIPを変形させる方法の数を無限にもっているようで、正直驚きを隠せない。リアルに印象的なスーパーマリオブラザーズのレゴキットに続いて、Mario Kart Live: Home Circuitを発表した。この新しいおもちゃは、現実のRCカーとNintendo Switchを巧みにマッシュアップしたものだ。

このハイブリッドポータブルゲームシステムは、マリオとルイージのカートに搭載されたカメラを利用して、画面上で一人称視点のレース体験を提供する。現在、このゲームを紹介するティザービデオが公開されている。

ご覧のように、おなじみのマリオカートのような感覚を自宅の床の上にARで重ねて楽しむことができる。ユーザーが一連のゲートを配置して円形のコースを作るという非常にシンプルなセットアッププロセスがあり、ロボット掃除機のルンバの境界線を設定するよりもはるかに楽しいバージョンだ。現在は、マリオとルイージの2つのキャラクターしか用意されていないが、それぞれの価格は100ドル(約1万600円)。なお、対人モードでは最大4人のプレイヤーで楽しめる。

動画を見る限りでは、雪のレベルやピラニアプラントだらけのジャングルなど、現実世界の障害物とおなじみのキャラクターや環境を組み合わせて、箱から出してすぐにかなりリッチな体験ができるように見える。

各キットにはレーサー1台、ゲート4つ、サインボード2枚が含まれている、近日中に予約受付を開始し、米国では10月16日に出荷を開始する予定だ。

画像クレジット:任天堂

原文へ

(翻訳:TechCrunch Japan)

ARでソーシャルディスタンスを確保するグーグルの実験

新型コロナウイルス(COVID-19)の世界的パンデミックから数カ月が経ち、多くの人はすでに2メートル(6フィート)の距離を目視できるようになっていることだろう。しかしまだそのような能力を身につけておらず、またAndroidデバイスを持っているのなら、Google(グーグル)が手助けをしてくれるかもしれない。

グーグルのExperiments with Googleコレクションの最新プロジェクトであるSodarは、WebXRを使ったシンプルなブラウザベースのアプリで、モバイルデバイスでのAR(拡張現実)によるソーシャルディスタンスを提供する。Android端末のChromeブラウザでサイトにアクセスするとアプリが起動し、カメラを地面に向けて移動させると、ドット状のマトリックスで平面を認識する。

画面を移動させると、周囲2メートル(6.6フィート)が確認できる。これは新型コロナウイルスの拡大を抑制するためにCDC(米国疾病予防管理センター)が推奨している距離だ。同センターは、これを「約2本の腕の長さ」だと説明している。このアプリは技術的なデモという意味合いが強く、また将来的にはスマートグラスがその役目を置き換えることになるかもしれない。

一方で、他人や病気の媒介物から適切な距離を保つためにスマートフォンをかざすことは、昔ながらの常識に比べると少々現実的ではない。

原文へ

(翻訳:塚本直樹 Twitter

NianticがポケモンGOユーザーがアップした画像データで独自の3Dマップ構築へ

ポケモンGOを開発したゲームデベロッパーのNiantic(ナイアンティック)は会社評価額40億ドル(約4300億円)で4億7000万ドル(約505億円)の資金を調達し、AR(拡張現実)サービスの構築に乗り出すことを宣言した。

NianticはポケモンGOの成功で一般消費者にも認知されるメインストリーム企業になった。このブランド力とここで得たノウハウを活かしてFacebook(フェイスブック)やApple(アップル)のものに匹敵する本格的なARプラットフォームを制作するという。

米国時間5月26日にNianticはポケモンGOプレイヤーからの情報を3Dデータ化することを発表した。ユーザーは他のユーザーがアップした実際のポケストップやジムの画像、動画を共有できるようになる。Nianticはこのクラウドソーシングで詳細な3Dマップを作成する。

Nianticのブログ記事によれば「コンピュータで処理可能な3Dマップにより各種デバイス(スマートフォンや将来はスマートヘッドセットなど)を通じて、現実世界をその複雑さのままに立体的に把握できるようになる」という。

Nianticがユーザーからのリッチデータを収集し高度に処理を行うことなるため、このプロジェクトはプライバシー上の議論を引き起こす可能性がある。データ収集のターゲットをポケストップとジムに限定したのは、個人の家の中などのプライベートな場所のデータを収集してしまうリスクを最小化するためだ。プレイヤーは(少なくとも当初は)この機能を利用するために事前承諾する必要がある。同社によればサーバーにアップロードされたデータは匿名化され、顔やナンバープレートは自動的にぼかされる。

この発表は、世界の3Dマップをクラウドソースで構築することを目標としたARスタートアップ6D.aiをNianticが買収してからわずか2カ月後に行われた。

ポケモンGOは2016年に発表され大評判となったが、このタイトルはNianticにとって現在も金の卵だ。アナリストの推定によれば、ポケモンGOの2019年にこのゲームとして最高の9億ドル(約967億円)の売上を記録したという。

Nianticは3Dデータ収集のターゲットを多くのユーザーに拡大することでARプラットフォームの構築でライバルに対する優位性を確立しようしている。「ハリー・ポッター」をベースにした新しいゲームタイトルに加えて、同社はNiantic Real World Platformを構築中だ。サードパーティデベロッパーはこのプラットフォームを利用して独自のゲームやソフトウェアを開発できる。

デベロッパーを集める上で、NianticはアップルのARKitプラットフォームやフェイスブックがスタートさせたSpark ARプラットフォームとの厳しい競争に直面している。3Dマップのデータへのネットワークアクセスをデベロッパーに提供できる点を同社のプラットフォームの優位性のカギとしようとしているのかもしれない。これにより大規模かつ画期的なARプロジェクトが可能となる。そのサービスのユーザーがデータをNianticに送り返してくればプラスのフィードバックがかってプラットフォームはさらに強化されるだろう。

3Dデータの収集機能はレベル40以上のポケモンGOユーザーに対して、2020年6月に公開される。その後すぐに他のユーザーにも拡大される計画だ。

画像クレジット:LLUIS GENE / AFP / Getty Images

原文へ

(翻訳:滑川海彦@Facebook

新型コロナによる非接触需要でスキャン技術のScanditが約86億円調達

企業向けバーコードスキャナーのScandit(スキャンディット)が8000万ドル(約86億円)のシリーズCラウンドをクローズした。本ラウンドはシリコンバレーのVCファームG2VPがリードし、Atomico、GV、Kreos、NGP Capital、Salesforce Ventures、Swisscom Venturesも参加。Scanditの累計調達額は1億2300万ドル(約132億円)となった。

チューリッヒに拠点を置くScanditはバーコードスキャン、OCR(光学文字認識)、オブジェクト検出、拡張現実(AR)にコンピュータービジョンと機械学習技術を組み合わせたプラットフォームを提供している。ARはスマホからドローン、ウェアラブル(倉庫労働者向けのARメガネなど)、ロボットに至るまでカメラ搭載のあらゆるスマートデバイス向けにデザインされている。

Scanditのプラットフォームのユースケースには、モバイルショッピング、セルフチェックアウト、在庫管理、配達証明、アセット管理・メンテナンスのためのモバイルアプリやウェブサイトがある。医療分野でも患者のIDや検体、薬、用品のスキャンに同社の技術が活用されている。

スピードや精度において、また明るさが十分でないところやあらゆる角度、破損したラベルのスキャン能力においても、自社ソフトウェアは「並ぶものがない」と同社はうたう。売り込みをかけている産業は小売、ヘルスケア、産業・製造、旅行、運輸・ロジスティックなどだ。

今回の資金調達の前には、2018年にシリーズBで3000万ドル(約32億円)を調達した。それ以来、経常収益は3倍超、優良顧客の数は倍以上となり、グローバルチームの規模も倍に増強した。

世界に広がる同社の顧客には7-Elevenアラスカ航空、Carrefour、DPD、FedEx、Instacart、ジョンズ・ホプキンズ病院、La Poste、Levi Strauss & Co、マウントサイナイ病院、トヨタなどが含まれる。現状では1億台超のデバイスで年間「数百億ものスキャン」が行われているとのことだ。

新たに調達した資金はアジア太平洋地域や中南米を含む新たなマーケットでのさらなる成長の加速、北米と欧州での足掛かり構築に使われる、とScanditは話す。また、企業がコンピュータービジョンとARを使って主力事業のプロセスを変える新しい方法を考案するためのR&Dにもこれまで以上に資金を注入する。

Scanditによると、新型コロナウイルス(COVID-19)パンデミックによるソーシャルディスタンシングの必要性から、個人のスマート端末向けのモバイルコンピュータービジョンの需要も増えている。非接触型のやり取りができるようにする方法を顧客が探している、と同社は話す。

また、パンデミック絡みでは他にも急増している需要がある。「クリック&コレクト」小売と、新たに発生している何百万もの宅配だ。専用のハードウェアではなく、ScanditのスキャンアプリはBYOD(bring your own device、個人のデバイスの持ち込み)をサポートするので、同社の技術はこうした需要にうまく対応できる。

「COVID-19は、この不確実な時代における急速なデジタルトランスフォーメーションの必要性、フィジカルとデジタルをブレンドさせて重要な役割を果たすことの必要性に光を当てた」とCEOのSamuel Mueller (サミュエル・モラー)氏は声明文で述べている。「新たな状態(ニューノーマル)がどのようなものであれ、さらに多くの企業が『コンタクトレス事業』の新たな需要にすばやく対応し、成功できるよう、新たな資金でサポートすることができる」。

資金調達に関する発表文の中で、ラウンドをリードしたG2VPのゼネラルパートナーであるBen Kortlang(ベン・コルトラン)氏は以下のように述べている。「Scanditのプラットフォームは、企業グレードのスキャンソリューションを従業員や顧客が古いハードウェアを必要とすることなくいつでも使えるようにしている。物理的世界とデジタルの世界を結ぶものであり、世界がオンライン購入や配達、分散サプライチェーン、キャッシュレス小売へのシフトを加速させる中で重要性が増すだろう」。

新型コロナウイルス 関連アップデート

[原文へ]

(翻訳:Mizoguchi

音声AIがスマホカメラに映る映像を解析して質問にズバリ答えられるようにするWorldGaze

音声アシスタントがアホすぎてイラつくのは、誰もが経験すること。音声で機器が操作できるAIは便利この上なしともてはやされているが、実際に使ってみれば、たちまちロボット特有の気の利かなさに泣かされることになる。

命令を実行する前に、もっと情報をくれと聞き返してくる(ときには何度も聞いてくる)スマートスピーカーは、なおさらアホに感じられる。たとえば、自動車修理工場のことを質問したとき、それが今車を停めている目の前にある工場のことだと察してくれなかったり。

カーネギーメロン大学ヒューマン・コンピューター・インタラクション・インスティテュートの研究者たちは、Apple(アップル)の機械学習エンジニアGierad Laput(ジェエラード・ラプット)氏と共同で、音声アシスタント用アドオンのデモソフトを開発した。スマートフォンに内蔵されているAIに手を貸して、というか頭を貸して賢くするというものだ。

このシステムのプロトタイプでは、スマートフォンの前面と背面のカメラを同時に使い、物理空間(具体的には身の回りの環境)のどの位置にユーザーの頭があるかを認識する。それをコンピュータービジョン技術で解析して周囲のものを識別する。

するとユーザーは、自分の頭をポインター代わりにして、何を見て話しているのかをAIにわからせることができる。例えば「あの修理工場」で通じる。言葉で説明することなく、AIの理解の中にできた文脈の切れ間を、研究者たちの言葉を借りれば、より自然に埋めることができるという。

なので、音声アシスタントの利便性を引き出したいとき、こっちがロボットみたいな話し方をする必要はない。もっと、まあ言うなれば、人間的に話せるのだ。こんな聞き方が可能になる。例えば「Siri、そのスタバはいつ閉まる?」とか、買い物では「そのソファ、別の色はないの?」とか、値段の比較も「この椅子と、あっちのやつ」と簡単に質問できる。または、目で見ている照明器具を欲しいものリストに追加させるといったことが可能になるかもしれない。

このシステムでは、家や職場で視界に入っているいろいろな機器の遠隔操作もできる。めちゃくちゃ細かく機器を指定する必要はない。ただスマートTVやエアコンの温度調節器やスピーカーを見て、音量や温度の調整を指示すればいい。

研究チームは、WorldGaze(ワールドゲイズ)と名付けたこのプロトタイプの動作の様子をデモ動画(下)にまとめた。「私たちは、iPhoneの前面カメラで頭を、方向ベクトルとともに、三次元的に追跡しています。前面と背面のカメラの位置関係はわかっているので、頭のベクトルを背面カメラで見えている世界にレイキャスティングすることができます」と彼らは動画の中で解説している。

「これによりユーザーは、その方向に頭を向けて見るだけで、話の対象となるオブジェクトや場所を直感的に指示できます。音声アシスタントがこの文脈情報を採り入れることで、より正確で自然な問い合わせが可能になります」

このプロトタイプを紹介した研究論文では、これは「現在はデバイスを見ながら街を歩いている人たちに象徴されるモバイルAR体験のソーシャル化」にも応用できるとしている。

どのようにこれを拡張するのかと尋ねると、カーネギーメロン大学の研究者であるChris Harrison(クリス・ハリソン)氏は、TechCrunchにこう説明してくれた。「人々は、いつも手元のスマホを覗き込みながら歩いています。それはあまりソーシャルではありません。他の人たちと関わることがなく、周囲の美しい世界を眺めることすらないからです。WorldGazeのようなものがあれば、人々は周囲の世界を見ながら、スマホに目を落とすことなく、レストランの評判を尋ねたり聞いたり、買い物リストにものを追加したリができるようになります。スマホには、それを可能にする能力が備わっています。何か特別なものを買い足す必要はありません」。

彼らの論文には、インタラクティブな目的でユーザーの視線を追跡する研究は息の長いものだと書かれている。しかし、ここでの彼らの主な目的は、「市販されているスマートフォンに備わったハードウェアを使うという制約を課した中での実用的なリアルタイムのプロトタイプ」の開発だった(背面カメラの視界が潜在的な制約になると彼らは話しているが、性能の劣るあらゆるハードウェアを部分的に迂回する提案もされている)。

「WorldGazeは単独のアプリとして発表することもできるが、私たちはWorldGazeをバックグラウンドのサービスとして内蔵し、音声アシスタントを呼び出したときに(例えば「ヘイ、Siri」の呼び掛けで)同時に起動するようにしたいと考えている」と彼らは書いている。「前面と背面のカメラを同時に開きながらコンピュータービジョンの処理を行えば多くの電力が消費されるが、デューティ比(ある期間に占めるその期間で現象が継続される期間)の割合は低く、現代のスマートフォンのバッテリー寿命に大きく影響するほどではない。両方のカメラから画像を1フレーム取り込むだけで済むこともあり、すぐにオフにできる(WorldGazeの起動時間は7秒)。実験装置では、電力消費量はひとつの質問につき最大0.1ミリワット毎時と評価された」。

それでもまだ、人が顔の前にスマホを掲げて、そこに話しかける姿はなんとなく異様に見える。しかし、ソフトウェアは、ARグラスにも簡単に対応するとハリソン氏は強調していた。

「どちらも可能です。スマートフォンを使ったのは、誰でも持っているからです(WorldGazeはソフトウェアのアップデートで実装できる)。ARグラスを持ってる人は(まだ)ほとんどいませんからね。しかし、どこで音声アシスタントをパワーアップしたいかとう前提は、両方に共通しています」とハリソン氏はTechCrunchに話してくれた。

「ARグラスは、センサーを搭載して視線のトラッキングができるようになってきています(例えばMagic Leapは、焦点の調整にそれを採用している)。その場合は、外向きのカメラだけあればよいことになります」と彼は言う。

このようなシステムが、顔認証技術を合体する未来は容易に想像できる。スマートグラスをかけた人間が、ちょっと視線を向けて「あれは誰だ?」と尋ねるような。顔のデータがAIのメモリーバンクに合法的に蓄積されていたと仮定しての話だが。

「連絡先に追加」や「最後に会ったのはいつか」を調べる機能などは、ネットワークの利便性やソーシャル化を高める目的で解放されるかも知れない。だが今の時点では、こうしたシステムを現実世界に解き放つことは、プライバシーの観点からして、工学的技術をつなぎ合わせるよりも、むしろ難しいように思える(たとえば、Appleは規範違反だとしてClearview AIをブロックした事例もある)。

「その方向へ進むには、一定のセキュリティーを保ち、許可を取る必要があります。現時点で私たちが考えていることではありませんが、興味はあります(怖いアイデアですけど)」と、その可能性について尋ねられたハリソン氏は同意した。

研究チームはこの結果をAMCのCHI2020(計算機システムにおけるヒューマンファクターに関する会合)で発表する予定だったが、新型コロナウイルスの影響で会合は中止となった。

[原文へ]

(翻訳:金井哲夫)

未来のAR/VRヘッドセットはスイスのCrealが研究するライトフィールド技術が本命か

何年にもわたって話題になってきたARとVRはこのところ静かになっているが、一部の投資家たちは、技術的欠陥が克服されれば、それらはモバイルデバイスに取って代わるかもしれないという展望を持っている。

ディスプレイの基本的な技術を研究開発しているスイスのスタートアップCrealは、VRとARのヘッドセットをさらにリアルな光学的技術によって、今よりも快適なデバイスにしようとしている。

同社は2019年にInvestiereとDAA Capital Partnersから、シリーズAで740万ドル(約8億2000万円)を調達した。さらに今週にはEUの技術革新促進事業であるHorizon 2020から助成金を獲得して、同社のライトフィールドディスプレイ技術の研究開発を継続することになった。

関連記事: Can Apple keep the AR industry alive?… アップルはARを産業にできるか(未訳、有料記事)

ライトフィールドディスプレイは、これまでとはかなり異なる種類のディスプレイだ。今あるARやVRのヘッドセットは、右の目と左の目に若干異なる像を見せることで立体画像を表示するが、未来のヘッドセットは、目がどこを見ているかによって像のフォーカスを変える。ライトフィールドディスプレイやライトフィールドカメラは、前方でも奥でもどこにでも焦点が合う像を作り出す。この技術によって、輻輳(ふくそう)調節矛盾(vergence-accommodation conflict)に由来する目の疲れがなくなり、顔に近いオブジェクトとも対話でき、VRの視界が細部までもっとわかりやすい世界になる。

下の動画は、同社の技術を一般的なレンズで撮影した映像で擬似的にデモしている。

ライトフィールド技術の実装には、いろんなやり方がある。Magic Leapはこの技術の軽量バージョンを同社のヘッドセットに採用し、目の動きの捕捉によって切り替わる2つの焦点面を利用している。この可変焦点(varifocal)方式には、Oculusを通じてFacebookも投資しており、複数の面の間でユーザーが焦点を変えられるヘッドセットのプロトタイプを披露したことがある。

関連記事: Oculusが次世代ヘッドセットのプロトタイプを公開

Crealもライトフィールドの技術を小型化するために、Facebookのような大企業と同じ困難に対処しなければならない。それは何を犠牲にするか、という問題だ。同社の最も近い目標は、その技術を仮想現実のヘッドセットに組み込むことだが、数年後にはそれを軽量のARヘッドセットにも応用したいと考えている。

新しい技術を構築するCrealのようなスタートアップは、世界不況の影響を受けやすいだろう。最前線にある技術への投資は、不況の犠牲になりやすい。不安定な経済が今後も続けば、Facebookのような大企業がますます有利になり、同様の技術に取り組んでいるスタートアップは生き抜くためにコスト削減を強制される。

Oculusは最近、VRニッチ市場に成功しているが、拡張現実のハードウェアはスタートアップにとってもっと難題だ。2019年はMeta、ODG、 Daqriなど多くの企業が閉鎖された。3月初めにはBloombergが、Magic Leapは数十億ドル(数千億円)の資金を獲得した後、売却を視野に入れていると報じている。ARは特に売ることが難しい。

[原文へ]

(翻訳:iwatani、a.k.a. hiwa

アップルが高速プレビュー機能「Quick Look」を拡張、AR中で購入可能に

前から気になっているあのソファは、うちのリビングに合うのだろうか?

10年前のキャッチフレーズを引っ張り出せば、「そのためのアプリがあります」(There’ an app for that)。今なら山ほどそんなアプリがある。家具を部屋に置くとどんな風になるかをこの目で見ることは、拡張現実の典型的な利用例であり、専用アプリでそれをやっている小売店は少なくない。

しかし買いたいと思っても、例えばSafariであちこち見て回っている人に、その場でアプリをダウンロードさせるというのは大きな障壁だ。

そんなケースを想定して、Apple(アップル)は去る2018年に、「これを見ましょう、ただしあなたの部屋で!」のコンセプトをiOSとiPadOSに直接組み込む機能を導入した。

それはQuick Lookと呼ばれ、ユーザーはすでに持っているSafari、メッセージ、メールなどのアプリの中でインスタント/ワンタッチAR体験ができるようになる。小売店が3DモデルをPixarと共同開発したUSDZファイルフォーマットで提供すると、アップルがARKitを使ってレンダリングし、現実世界に重ねる。スケーリンク、ライティング、シャドウなどはすべてアップルが処理してくれる。

ただし、当初Quick Lookはほんとうにそれだけの見るためだけの機能だった。ARで商品を見ることはできるが、それがすべてだったのだ。そこで同社はコンセプトを少し拡大し、デベロッパーはカスタマイズ可能なボタンを載せられるようにした。たとえば購入ボタンなら、Apple Payのプロンプトをその場でポップアップさせる。ほかにも店がやりたいどんなシングルアクションとも結び付けられる。例えば、カスタマーサポートとのチャットを起動して、顧客が色の選択について質問する、あるいは、在庫のある実店舗を紹介して実際に見に行かせることなどができる。

さらに同社は、Quick Lookでスペーシャルオーディオをサポートして、iOS、iPadOSの最新デベロッパービルドで密かに公開し、3Dモデルから音を発せられるようになった。オモチャからピッピー、ブーブー音が聞こえたり、スピーカーから音楽が聞こえてくるなど、部屋にバーチャルに置かれたあらゆるものから音が聞こえてくる。部屋を歩き回ると音も合わせて変わっていく。

内蔵ARツール自身にユーザー体験を直接追加することは、小さなことに思えるかもしれないが、実はこれが興味深い。2018年にHouzzのCEOであるAdi Tatarko(アディ・タタルコ)氏は、彼らのARツールのユーザーは、購入する可能性が11倍高いと発言した。またBuild.comは、ARで商品をチェックアウトした人は返品率が22%低いことを発見した。

ARはモバイル購入プロセスにおいて明白な利点をもっている。しかし、これを活用するには簡単に使えて、素早く自然に動作しなければならない。手順に障壁があればあるほど、購入前に脱落する人が多くなるからだ。

アップルは昨年のWWDC(世界開発者会議)でこの機能のプレビューを公開した。そして今週、Home Depot(ホーム・デポ)、Wayfair(ウェイフェア)、Band & Olufsen(バングアンドオルフセン)、1-800-Flowersといった大手小売業者がそれぞれの実装を公開する。もし売上や返品の数字が改善されるという上の話が本当なら、今後は主要小売業者の間でかなり一般的になると私は予想する。それと同時に、ARもメインストリームへの大きな一歩を踏むことになる。

[原文へ]

(翻訳:Nob Takahashi / facebook

改造HoloLensで視覚障がいのある子供に周囲をガイド、マイクロソフトが進める「Project Tokyo」

全盲や弱視の子供が成長する過程での難しさは、見える友だちと同じ本を読んだりゲームをしたりすることができないだけではない。視覚は社会的な交流や会話において大きな役割を担っているという問題がある。マイクロソフトのプロジェクトでは、視覚障がいのある子供が話している相手を「見る」ためにARを活用する研究に取り組んでいる。

画像:Jonathan Banks / Microsoft

当然のことながら、視覚障がい者には周囲の人が見えないという難題がある。そのため、晴眼者が会話の際に利用している多くの非言語の手がかりを、視覚障がい者は見つけたり利用したりすることができない。早期にそのような行動を学習していない場合は、特にそうだ。

Project Tokyoは、AIやARといったテクノロジーを障がいのある人も含め「すべての」人に役立てようとする、マイクロソフトの研究者たちの新たな取り組みだ。すべてのケースに当てはまるわけではないが、音声対応のバーチャルアシスタントはタッチスクリーンやマウス、キーボードを使いづらい多くの人の役に立つはずだ。

研究チームは数年前、非公式にアクセシビリティの向上に取り組み始めた。まずリオデジャネイロで開催されたパラリンピックを訪れ、人々を観察した。次に全盲や弱視の人々のコミュニティとともにワークショップを実施した。これらのことからチームが気づいた重要なポイントは、ほぼどんな状況でも視覚から微妙なコンテクストが得られていることだった。

マイクロソフトの研究者のEd Cutrell(エド・カトレル)氏は次のように述べている。「私たちは、人間として、他人とのやり取りに関してとても微妙で複雑な感覚を持っています。部屋にいるのは誰か、何をしているのか、自分との関係はどうか、私にとって重要かどうかをどう判断するか、これらを知るための手がかりは私たちにとって当然に得られるものです。しかし、目の不自由な人々にとってはそうではありません」。

このことは子供たちには特に顕著で、このような手がかりや振る舞いについておそらく学んでいないために、社会性に欠ける傾向を示してしまうことがある。会話中にテーブルに突っ伏したり、話している相手の方を見ないといった傾向だ。

補足すると、こうした行動自体に「問題がある」わけではない。彼らにとって最も適切な行動をとっているだけだ。しかしこうした行動は晴眼者との日々の関係を阻害するおそれがある。そのため、すべての人にとって容易で自然な関係の構築を目指す研究には意義がある。

Project Tokyoは、改造してレンズをはずしたMicrosoft HoloLensで実験をしている。HoloLensは、適切な情報を与えられれば物体や人物を識別できるきわめて高度なイメージングデバイスでもある。

ユーザーがこのデバイスをハイテクなヘッドバンドのように装着すると、カスタムのソフトウェアスタックが状況に応じた手がかりをユーザーに提供する。

  • 例えば右前方1メートルほどのところに人物を検出すると、ヘッドセットがその方向から鳴っているようなクリック音を発する。
  • その人物の顔が既知である場合、先ほどとは別の弾くような音が鳴り、その人物の名前が読み上げられる(前述のクリック音と同様に、この音もユーザーにだけ聞こえる)。
  • 未知の顔の場合やうまく認識できない場合は、ゴムバンドが伸びているような音が鳴る。ユーザーの顔の向きに応じて音が変化し、顔を相手に向けるようにガイドする。相手の顔がカメラの中央に来るとクリック音が鳴る(つまりユーザーが相手をまっすぐ見ることになる)。
  • 周囲に人がいる場合、ヘッドバンド上のLEDが検出された人物の方向に白く光り、人物が特定されると緑に光る。

ほかの機能も研究されているが、このセットが出発点であり、12歳のTheo(セオ)という少年のケーススタディではこのセットが特に有効と考えられている。

システムやセオとの実験などについてはマイクロソフトの記事に詳しく記されているが、基本的にセオはシステムを詳しく理解し、それにより晴眼者が主に使用している手がかりによって社会的な関係性に対処できるようになっている。例えば、相手に顔を向けて意図的に注目できるようになってきた。また、室内を自分なりの方法でスキャンして周囲の人を常に意識する方法も自ら身につけた。どちらもテーブルに突っ伏していてはできないことだ。

できることが増えるのは良い取り組みだが、もちろんまだ発展途上だ。高価でかさばるハードウェアを一日中身につけたくはないし、ユーザーごとにニーズが異なるのも当たり前だ。表情やジェスチャーについてはどうだろうか? 看板やメニューはどうする? 最終的にProject Tokyoの未来は、AIシステムなどのモダンなツールを構築する際にはほとんど関わりを持たないコミュニティのニーズによって決まるだろう。

[原文へ]

(翻訳:Kaori Koyama)

サムスンがARグラスを披露し、その開発を示唆

Samsung(サムスン)の記者会見は奇妙だった。Galaxyや洗濯機といったおなじみの製品はほとんど採り上げられなかった。代わりに中心となったのは、ワークアウトに使用する外骨格と親しみやすいロボットのコールアシスタントだった。

そしてARの発表があった。しかしそれは、ARについてのはっきりした説明ではなく、示唆だった。ARが登場したのは、ワークアウトに利用された外骨格、GEMS(Gait Enhancing and Motivation System)のデモだった。外骨格の着用者は「サムスンARグラス」を取り出した。このデモには、かなり気味の悪いARアシスタントが登場ている。

ARはいったんその出番を終えたが、少し後にまた登場した。視覚に障がいがあるユーザーが、大切な人に会う際のサポートとしてGear VRが利用されるという(涙を誘う)映像が流れた後、フレームの中央にカメラを備えたARグラスによる別テイクと思われる映像が続いた。

もちろん、このステージで披露された不思議なものはすべてプロトタイプであることに注意しなくてはならない。良くて可能性のあるロードマップ、悪ければ不確かなフィクションだ。いずれにしても、私は2020年にサムスンがGear VRからARサングラスに乗り換えるとは思わない。

とはいえ、業界の大きな流れを考えると、サムスンがこうした可能性を探っている理由は十分理解できる。

[原文へ]

(翻訳:Kaori Koyama)

AR時代のインフラ開発目指すCynack、AR専用ブラウザ「Sphere」をリリース

AR領域の技術開発に取り組むCynackは8月26日、AR専用のブラウザ「Sphere」をリリースした。合わせて同社では本日よりARプロダクトを共創するパートナーの募集もスタートしている。

Sphereはスマートフォンのカメラなどを事前に登録しておいたマーカーにかざすことによって、その詳細情報や3Dアニメーションなどを表示させることができるARアプリケーションだ。たとえばポスターやパンフレット、名刺などをマーカーとして設定した状態でカメラをかざすと、対象物に関する具体的な情報を立体的に表示したり、設定した音楽や動画が流れる仕組みを作ることができる。

利用シーンは企業のマーケティングやPR用のコンテンツのほか、大型商材などを紹介するための営業資料や社内ツールなど。今後は2次元のマーカー画像だけでなく、立体的なモノや場所にかざせば情報が出てくる機能(マーカーレスタイプ)、カメラ内に写った複数のターゲットに紐づけられた情報を同時に表示できる機能などを追加する予定だという。

「『スマホの次』とも言われているARデバイスが本格的に普及した際のインフラとなるようなプロダクトを作りたい。現時点で何かしらの情報を3Dで発信したいと思っても、料金が不透明だったり、画一的ではなかったりなど法人はともかく個人が気軽に使えるものは少ない。まずは3D専用のブラウザとそれを動かすための言語から始めて、中長期的には個人でも使いやすい『AR版のWordPress』のようなツールも提供していきたい」(Cynack代表取締役社長 吉村啓氏)

Cynackでは以前からAR専用のマークアップ言語OMLの開発に取り組んできた。これは吉村氏の言葉を借りれば「HTMLのAR版」のようなものであり、アプリベースではなくインターネット上でアクセスできるARコンテンツを作成するための言語だ。

今回リリースしたSphereはこのOMLを活用したAR専用ブラウザという位置付け。まずはブラウザの改良と言語のブラッシュアップに取り組みながら、ARドメイン登録システムやコーディング不要のエディタなど周辺ツールの準備を進めていく計画だという。

Cynackは2016年11月の設立。以前紹介した通り、当初はVR/ARを活用したコラボレーションツールを開発していたが、そこから少し方向性を変えてARのインフラとなるような技術・ツールを手がけるようになった。

同社は2016年12月にF Venturesから500万円、2019年8月にNOWから数千万円の資金調達を実施している。

YouTubeのAR機能でビデオを見ながら仮想メイクを試せる

6月中旬にYouTubeは、YouTubeアプリ内で直接、仮想メイクを試せる新しいAR機能を計画していることを発表した。米国時間8月15日、この「Beauty Try-On」機能の初めての公式キャンペーンが始まり、視聴者はYouTubeクリエイターのRoxette Arisa(ロクセット・アリサ)のメイクチュートリアルビデオからメイクブランド、MAC Cosmetics(M·A·C)のリップを試用し、購入できるようになった。

メイクのチュートリアルはYouTubeではとても人気がある。そのため、お勧め製品を試せるように統合されたことには大いに納得がいく。リップを試せる機能は画期的なものではない。同じようなフィルタを備えた今どきのソーシャルメディアアプリはたくさんある。しかし、YouTubeのこの機能は複雑なARメイクを統合して進化している。

新しいAR機能は、モバイルデバイスで最新バージョンのYouTubeアプリを使っている場合のみ動作する。

ビデオを見ている時に「試す」ボタンが表示され、このボタンをタップするとカメラが起動して画面が分割表示される。ビデオの再生は続いているが、下部にいくつかあるリップの色をタップすると自分の顔に適用されて、どれがいちばん似合うかを探せる。InstagramやSnapchatなどのソーシャルアプリのフィルタとは異なり、リップカラーは自分の唇の形通りに適用され、はみ出さない。きわめて自然に見える。

M·A·Cは今後、YouTubeのブランドコンテンツ部門であるFameBitを通じてクリエイターとコラボしていく計画だ。このプログラムによりブランドとYouTubeのインフルエンサーがつながり、ブランドは広告費を出して製品をマーケティングしていく。

M·A·CがこのAR機能の最初のパートナーだが、他社もこれに続きそうだ。

サービス開始前にYouTubeはこのAR Beauty Try-Onをいくつかのメイクブランドとともにテストした。その結果、iOSのYouTubeアプリでは視聴者の30%がこの機能を有効にすることがわかった。

この機能を有効にした人はかなり引きつけられ、仮想リップカラーを80秒以上試していたという。

仮想メイク体験を提供する会社はGoogleが初めてではない。ソーシャルメディアアプリに加え、YouCamメイクSephoraのVirtual Artist(日本では非公開)、Ulta Beauty(日本では非公開)などのAR美容アプリがある。ロレアルも自社ウェブサイト上でライブ試用機能を提供しているし、2018年にはFacebookと連携して仮想メイクをFacebookで試せるようにした。さらにTargetのオンラインBeauty Studioでは多くのブランドのメイク製品をバーチャルで体験できる。

しかしYouTubeの実装は、単に楽しむためのコンシューマ製品ではなく、ARを利用した広告キャンペーンであるという点でほかとは異なる。

仮想メイクなんてくだらないという見方もあるかもしれないが、この市場は巨大だ。毎日、100万人以上がYouTubeでメイクのチュートリアルを見ているし、メイクブランドにとってYouTubeはReferralトラフィックの主要なアクセス元となっている。2018年にはYouTubeで美容関連のコンテンツは1690億ビューを獲得している。

YouTubeビデオはここから視聴できる。モバイルのYouTubeアプリならAR機能を利用できる。「試す」ボタンをタップしても自分の顔が表示されない場合は、おそらくYouTubeアプリをアップデートする必要がある。

画像:Getty Images

[原文へ]

(翻訳:Kaori Koyama)

インスタのARフィルタ開発キットをFacebookが公開

FaceApp(フェイスアップ)やSnapchat(スナップチャット)にばかり注目が集まるのは許せない。そうした思いからなのか、Facebook(フェイスブック)は米国時間の8月13日に、これまで限定ベータだったSpark ARを、すべてのデベロッパーに公開し、AR(拡張現実)フィルタを開発してInstagram(インスタグラム)上で共有できるようにすると発表した。

この動きについては、すでに今年はじめのF8の基調講演で発表していた。

Facebookにとって、スマホ用のAR機能自体はとりわけ新しいものではない。すでにマーク・ザッカーバーグ氏が2017年のF8キーノートの前半を費やして、独自のARカメラエフェクトを大々的に吹聴していた。それから2年半後、多くのデベロッパーにもそれを試してみる機会を与える準備が整ったということだろう。

Spark AR Studioで作って共有されたエフェクトをポップアップさせる方法は何とおりもある。Instagram上でエフェクトを共有しているユーザーをフォローしている場合、アプリのカメラセクションにあるユーザーのエフェクトトレイで、そのエフェクトがポップアップ表示される。またInstagramは、ユーザーが新しいフィルターを検索できるようにする新たなEffects Gallery(エフェクトギャラリー)も用意している。Instagramとしては、必ずしもエフェクトギャラリーを中心に据えようとしているわけではない。ユーザーが、Instagramカメラのエフェクトトレイの最後までスクロールすると、ようやく姿を現すので、そこでクリックして起動する。またユーザーは、インスタグラムストーリーに使われているエフェクトを見ることができるようにもなる。これこそが、他のユーザーに対する訴求力を発揮し、Spark ARにいざなう効果を持つものだろう。

原文へ

(翻訳:Fumihiko Shibata)

ハリー・ポッター:魔法同盟がカナダやドイツと23カ国で追加配信

棒や巨大な蜘蛛が登場する「Pokemon GO」ともいえる「ハリー・ポッター:魔法同盟」(Harry Potter:Wizards Unite)は先週にローンチされたが、サービス対象地域は米国、英国、オーストラリア、そしてニュージーランドだけだった。

これはなぜだろう。例えば、国ごとにサービスを展開することで、Niantic(ナイアンティック)はサーバーの安定性を確保することができる。ローンチ展開に時間をかけることで、世界中からTwitter上で苦情を受ける前に、どこがサーバー展開の問題であることを(願わくば)知ることができるのだ。

ナイアンティックはPokemon GOで同様の展開戦略を用いたが、それでも現在まで、サーバーの稼働に問題がある。このゲームの爆発的な人気は、まだ検証されていない初期ネットワークアーキテクチャに直撃し、数週間にわたってサービスが停止した。数週間後にPokemon GOはサービス提供国を拡大したが、それでも多くの国では数ヶ月にわたってサービスが展開されなかった。

幸いなことに、ハリー・ポッター:魔法同盟の展開はもうすこし早くなりそうだ。ローンチから2日後となる米国時間6月22日、同ゲームは以下の25カ国にて新たに展開される。

  • オーストリア
  • ベルギー
  • ブルネイ
  • カナダ
  • デンマーク
  • フィンランド
  • フランス
  • ドイツ
  • アイスランド
  • インド
  • インドネシア
  • アイルランド
  • イタリア
  • ルクセンブルク
  • マレーシア
  • メキシコ
  • オランダ
  • ノルウェー
  • パプアニューギニア
  • フィリピン
  • ポルトガル
  • シンガポール
  • スペイン
  • スウェーデン
  • スイス

TechCrunchがナイアンテックでCEOを務めるJohn Hanke(ジョン・ハンケ)氏に、このゲームのローンチについてインタビューした記事はこちらの記事(一部有料)から。

[原文へ]

(翻訳:塚本直樹 Twitter

YouTubeがメイクアップAR実装、ユーザーはレビューを見ながら仮想メイクできる

メイクアップのチュートリアルとレビューは、新製品を教えてくれることはもちろん、どのように使えば良いかを教えてくれるので、YouTubeで最も人気のあるカテゴリーとなっている。

そのYouTubeが、今度はYouTubeアプリ自身の中に仮想メイクアップを行う拡張現実(AR)機能を導入し、その体験をさらに刺激的なものにしようとしている。この機能は「AR Beauty Try-On」(拡張現実美容トライ)という名前で、YouTubeの視聴者がメイクアップチュートリアルを視聴する際に、分割した画面上で体験できるようにデザインされている。

利用可能な場合には、画面の上部でYouTubeのメイクアップレビューやチュートリアルビデオが再生され、自分のフロントカメラからの映像が下半分に表示される。ここで、YouTubeの視聴者は、上半分でビデオを再生しながら、たとえば新しい口紅などの色のパレットをタップして、自分の顔に適用することができる。

現在は開発のごく初期段階(αテスト段階)であり、GoogleのインハウスブランドコンテンツプログラムであるFameBitを通じて、YouTubeのクリエイターたちに提供されている。このプログラムを通じて、ブランドは、自社製品をマーケティングしてくれるYouTubeインフルエンサーと有料スポンサーシップを通じてつながる。

YouTubeによれば、これまでAR Beauty Try-Onをいくつかの美容ブランドでテストしたところ、YouTube iOSアプリで利用可能な場合、視聴者の30%がこの機能を利用したということである。これは決して大多数ではないが、この機能を試した人たちは、仮想口紅を80秒以上試し続けるなど、十分に引きつけられていた。

M·A·C CosmeticsはAR Beauty Try-Onキャンペーンを開始した最初のブランドだ、その中では、試用の結果をリアルタイムで見せることも行われている。

AR Beauty Try-Onは、最近始まったGoogle検索内でのAR利用や、開発者向けプラットフォームであるARCoreへのアップデートなどの、Googleが提供するARへの複数の取り組みのうちの最新のものだ。

とはいえ、仮想メイクアップ試用体験を提供するのは、Googleが最初の企業というわけではない。さまざまなソーシャルネットワーキングアプリの楽しいメイクアップフィルター以外にも、YouTubeのAR Beauty Try-Onに似た体験を提供してくれる、YouCam MakeupSephoraVirtual ArtistUltaGLAMLabなどを含む多くのAR美容アプリが存在している。ロレアルはまた、自社のウェブサイトの上で、ライブ試用機能を提供しており、また仮想メイクアップ機能をサイトに追加するために、昨年Facebookと提携している。TargetのオンラインBeauty Studioは、多数のブランドや製品を使った仮想メイクアップも提供している。

YouTubeのAR Try-Onが提供する他との違いは、単に楽しい消費者向け製品やオンサイトのeコマースコンバージョンのためのツールというだけではなく、ARを活用した広告キャンペーンを実際に提供する点だ。

AR広告フォーマットの開始は、米国時間6月18日にGoogleが発表したいくつかの新しい広告プロダクトの1つである。

同社はまた、モバイルウェブ用のSwirl(スワール、単語としての意味は「渦」)と呼ばれる新しい没入型表示フォーマットを提供した。これによって消費者は360度の方向から製品を眺めることができる。Swirlは、商品の回転、ズームイン、ズームアウト、そしてアニメーション再生を可能にする。

このフォーマットは「ディスプレイ&ビデオ 360」を通してのみ利用可能だとGoogleは語っている。ブランドは、Googleの3DプラットフォームPoly上の新しいエディタを使用して、Swirlディスプレイ広告を作成することができる。すでに3Dアセットがある場合には、その代わりにGoogle Web Designerの中の 3D/Swirlコンポーネントを使用してSwirl広告を作成することができる。

香水メーカーのゲランは、消費者の注目を集めるために、動く広告にSwirlを利用している。

ディスプレイ&ビデオ 360のもう1つの新しいフォーマットは、広告表示中にYouTubeのライブストリームコンテンツを掲載することができる。これもまたGoogle Web Designerで構築することが可能だ。

新しいツールは今年の夏にブランドや広告主たちに提供される予定だとGoogleは述べている。

[原文へ]

(翻訳:sako)

Minecraft EarthはARで現実がブロックの世界になりニワトリも飼える

ゲームのプレイヤー数が1億人を突破すれば、次は2倍の数を目指そうと思うのが自然な成り行き。それは、ゲームがそのまま商品カテゴリーにもなったMicrosoft(マイクロソフト)の「Minecraft」の開発者たち、というかむしろスチュワードも同じこと。このゲームは、さらなる大きな飛躍を遂げた。「ポケモンGO」の流れをくむ、拡張現実(AR)ゲーム「Minecraft Earth」(MCE)に進化したのだ。

米国時間5月18日に発表されたMCEは、iOS版とAndroid版の公式スタートが夏以降とのことだが、完全なMinecraftをモバイル用に、そしてARゲームとして再考したものだ。つまり、どういうこと? エグゼクティブプロデューサーJesse Merriamは、簡潔にこう説明している。「どこへ行ってもMinecraftがある。そしてどこへ行っても、Minecraftで遊べる」。

なるほど、で、どういうこと?もうちょっと詳しく言うと、MCEは他の現実をベースとしたARゲームと同じく、今いる場所の仮想版の中を歩き回り、アイテムを集めたりミニゲームに参加したりできるというものだ。他のARゲームと違うのは、Minecraft: Bedrock Editionが基礎になっているということ。派生版でも、課金を目的にした名前だけのインチキゲームでもない。本物のMinecraftだ。すべてのブロックが揃っていて、モンスターもいれば、レッドストーン回路も自由に作れる。ただそれが、ARになったというだけだ。アイテムを集めて、それを使って世界を作ってその小さなブロックの世界を友だちと共有できる。

このゲームでは、いくつかの楽しいチャンスが増えるのと同時に、ちょっと重要な制約が加えられる。そんなわけで、MCEがどんなゲームなのか、ざっと見ていこう。といっても、マイクロソフトはとてもケチんぼで、ゲーム内の大切な部分をなかなか見せてくれないので、言葉での説明になるけど。

もちろんマップがある

Minecraft Earthであるからには、現実世界の中の特別なMinecraftフィールドに暮らすことになる。ポケモンGoやハリー・ポッター:ウィザーズ・ユナイトと同じく、現実の街や風景の上にレイヤーを重ねるかたちだ。

もちろん外観はブロック状だが、目で見て何がなんだかわからないほどブロック化されているわけではない。地域、私有地、安全な場所、危険な場所などの注釈や推論情報が含まれたOpenStreetMapsデータを使用している。

この夢のマップの上にはタップできる物で満ちあふれている。そのままの表現だが、Tappable(タッパブル、タップできるもの)と呼ばれている。タッパブルはさまざまな形態を取ることができる。具体的には、チェスト、モブなどの形をした資源だ。

チェストにはブロックがたくさん入っていて、丸石やレンガなどに加えて、その他の種類のものも適度にレアな存在として現れる。

モブとは、Minecraftの自然の中で普通に出くわす、ブタやニワトリやイカなどの動物だ。アイテムと同じように取ることができる。モブにもレアなやつがいて、単なる飾りではないものもいる。開発チームは、彼らのお気に入りのモブを紹介していた。ひとつはMuddy pig(泥ブタ)だ。地面に置くと、何もないところで立ち止まり、ひたすら泥浴びをする。Cave Chiken(洞窟ニワトリ)は、タマゴの代わりにマッシュルームを産む。そう、繁殖が可能なのだ。

最後のタッパブルは冒険。資源を集めたり、モンスターと戦ったりできる小さなARインスタンスだ。たとえば、ときどき地面にひび割れがあり、そこを掘ると大量の溶岩が噴き出され、逃げなければならなくなる。溶岩が流れ出した跡には洞窟が現れ、その中でスケルトンが宝のチェストを守っているというような具合だ。こうした冒険を山ほど作ったと開発チームは話していた。

重要なのは、チェスト、Mod、冒険のいずれも、友だち同士で共有できるという点だ。私が見ているチェストは、みんなも見ることができる。そのチェストには、同じアイテムが入っている。冒険は、近くにいる人たちなら誰もが参加でき、みんなで協力して報酬を獲得することができる。

こうしたAR体験とあらゆる行動の土台となる「Build plate」(ビルドプレート)が、ゲームを輝かせている。

ARに関して

「Minecraft EarthをARなしでプレイしたければ、ゲームを止めるしかありません」と、このゲームのディレクターTorfi Olafssonは言う。このゲームのARはNianticのゲームと同様、オプションではない。ARネイティブなのだ。だから、スマートフォンを別の世界を覗き込む窓として使うのが、このゲームをプレイする唯一の方法となる。ただ、それが非常にうまく出来ているので安心できる。

まずは、ビルドプレートについて説明したい。アイテムやミニゲームで、どのようにMinecraftが構成されるのか疑問に思っていた人もいるだろう。構成はされていない。それらは生の素材に過ぎないのだ。

Minecraftで遊びたいと思ったら、開発チームがビルドプレートと呼ぶものを取り出す。これは特殊なアイテムで、テーブルや床などの現実世界の平面の上に仮想的に配置する平らな正方形だ。その上が、小さいながら完全な機能を持つMinecraftの世界となる。

この小さな世界の上に、なんでも好きなものが作れる。地面を掘って洞窟ニワトリのための地下宮殿や泥ブタの楽園を作ったりも自由自在だ。Minecraft自体がそうであるように、ビルドプレートも境界線がない。いや、この言い方は誤解を生むかな。実際、ビルドプレートには厳格な境界線がある。世界はビルドプレートの中だけに限定されるからだ。だが、その中は完全に自分の思い通りになる世界だ。

そこにも、通常のMinecraftのルールが存在する。これはMinecraft Liteとは違う。ただゲームの世界を小さくしただけだ。水も溶岩も物理法則に則って流れる。ブロックも、それぞれ素材に応じた性質を持ちModもごく普通に行動する。

このビルドプレートをミニサイズから実物大に変換したときに魔法が起きる。例えば、机の上で作った城を公園に持っていって3階建ての建造物にできる。廊下を歩けばブタたちは静かに私たちの存在に気付く。間違いなく自分が細部にこだわって作ったその内部に我ながら感心する。刺激的な体験だ。

本当はこんな風に見えるわけではないが、雰囲気だけでも感じとってほしい

他誌の記者といっしょに遊んだデモ版では、ビルドプレートをいくつか使って、実物大の冒険を体験した(正確には現実の4分の3のサイズだが、長さ1mのブロックにはちょっとばかり圧倒される)。それはまったくのカオスだった。みんながブロックを置いたり壊したり、水をあふれさせたり、ニワトリを置いたり。しかし、どれも正常に機能した。

これには、MicrosoftのAzure Spatial Anchorシステムが使われている。仮想空間内の自分の位置を素早く継続的に補正してくれる。更新は驚くほど早く、他のプレイヤーの位置と方向を、遅延なくリアルタイムで示してくれる。一方ゲームそのものは、その空間にしっかり固定される。そこに入って中を歩くときも滞りがない。バグも非常に少ない(それも起こっても仕方がない状況でのみ起きる)。このゲームがマルチプレイヤー体験を強く意識していることはうれしいニュースだ。

開発チームによれば、ARインスタンスとして同時に集まれるのは10人だという。技術的には無制限なのだが、冒険用に設定された舞台やテーブルの周囲など小さな空間に物理的に集まれる人数を考慮してのことだ。64人で大規模な襲撃なんてことは期待できないが、3人か4人の仲間とクモの大群を引き連れて歩くことは可能だ。

開発者の苦闘

開発チームは、これまでのMinecraftと同じ方法でこのゲームを作るにあたり、自然な流れとしていくつかの制限とリスクを設けた。例えば、高速道路の真ん中に冒険アイコンが現れても困る。

その目的のために、開発チームは長期間をかけて、きわめて強固なマップのメタデータを作り上げた。他人の家や庭に冒険が発生しないように。ただし、手で拾える簡単なアイテムは出現する可能性がある。70m先のものまで手が届くので、その人の玄関のドアをノックしてプールの中に洞窟ニワトリがいるので取らせてくれ、なんてお願いする必要はない。

さらに冒険は、道や到達困難な場所には現れないようになっている。例えば歩道や公園など、そこが一般に開放され地区であり、さらに安全で入りやすい場所であることをエンジンが認識できるようにするのに大変に苦労したと開発チームは話していた。

Nianticの『ハリー・ポッター:ウィザーズ・ユナイト』は、ポケモンGo世代の魔法バイキング(本文は英語)

もうひとつの制限は、ARゲームであるため、現実の世界を歩き回らなければならないことだ。しかし、Minecraftの命は仮想性だ。当然のことながら、現実世界にいる限り、仮想的に作られた階段を昇ったり、洞窟に潜ることはできない。プレイヤーである私たちは、二次元の平面上にいる。そこに関わることはできるのだが、その平面の上や下の空間を歩くのは不可能だ(だがビルドプレートには例外もある。ミニチュアモードのときは、スマホを動かして建物の周囲を自由に飛び回ることができる)。

自由に歩けない人には残念なのだが、それでもビルドプレートを回転させれば、別の面にアクセスできるようになる。武器も道具も有効距離は無限なので、遊びの邪魔になるものや障害物を取り除くことができる。

プレイヤーを飽きさせない要素は?

ポケモンGOには、プレイヤーを放さない誘因がある。ハリー・ポッター:ウィザーズ・ユナイトには物語や能力が発展する楽しみがある。Minecraft Earthの場合はどうだろう? そもそも、Minecraftの魅力とは何なのだろう?それは物を作ることだ。それが、スマホの中のARの世界でもできるようになった。

このゲームは物語を追うものではない。詳細は公表されていないもののキャラクターがある程度成長する機能はあるが、Minecraftの本来の遊び方は、物を使ったり作ったりすることだ。レゴで遊ぶのと同じように、ビルドプレートと永続性のある手持ちのアイテムが活気に満ちた砂場になってくれる。

たしかに、ポケモンほどの病みつきになるゲームには見えないかも知れないが、Minecraftが型破りなゲームであることは事実だ。数百万人ものプレイヤーが、物を作ったり、作った物を人に自慢するために、ずっとこれで遊んでいる。最初は、物を人に見せる方法に限りがあるが、将来的には人気の作品を見て回るための手段が提供されるはずだ。

しかし、これでどうやって儲けを出すのだろう?開発チームはこの質問に対して答えをはぐらかしたが、彼らは幸せなことに今はお金のことを心配しなくていい立場にある。Minecraftは歴史的な大ヒットゲームであり大きなドル箱なのだ。たぶん、Minecraftの世界に人々やコミュニティをつなぎとめるためのコストに見合うだけのものが、これにはあるのだろう。

私にとってMCEは素晴らしいものだが、このゲームには誰がどう言おうと、本質的に評価されるべき価値がある。スクリーンショットやゲーム中の動画を紹介できなかったため、それが伝わらないのはよくわかる。ここはひとつ、見た目も素晴らしいしプレイ感覚もよく、あらゆる年代にとって心底楽しめるものだという私の言葉を信じてもらうしかない。

その他、本題から外れた事実を列挙しておこう。対象地域は順次拡大されることになっているが、正式スタートの時点では、今のMinecraftと同じ対象地域で普通にプレイできるようになっているはずだ。

  • スキンも使えるようになる(今のアカウントからスキンを読み込むことも可能にするとのこと)。
  • ビルドプレートのサイズとタイプは数種類用意される。
  • クラフトもできる。だが3×3のクラフト用グリッドがない(?)
  • 荒らしを通報できるが、ゲームの構造上、荒らしが大きな問題になることは少ない。
  • ARエンジンはポイントクラウドを生成し利用するが、寝室の写真を撮るようなことはしない。
  • コンテンツはマップに動的に追加される。ホットスポットもあるが、寂しい場所ではプレイヤーがいるときにコンテンツで満たされるようになる。
  • 当然、AR CoreとAR Kitが使われている。
  • 少し前に見たMinecraftのHoloLens版は、「技術よりも気持ち」を優先させた前任者だ。
  • 知的機能に困難を抱える子どもには冒険は怖すぎるかも。
  • ビルドプレートのブロックを「フレンド」が盗むことができる(寄付もできる)。
  • 面白そう?それならベータ版に登録しよう。

[原文へ]

(翻訳:金井哲夫)

Google I/O 2019基調講演で語られた全内容のまとめ

先週末に行われたGoogle I/Oカンファレンスの2時間にわたる基調講演で、Googleは、新しいスマートフォンから次世代型の音声アシスタントなど、この1年間で開発してきたものを大量に発表した。

すべてを見ている暇はない? 大丈夫。そんな人のために駆け足で紹介しよう。

Google Pixel 3aと3a XL

噂のとおり、GoogleはPixel 3の廉価版を発売する。

価格を下げるために、プロセッサーのランクをちょっとだけ下げ(Snapdragon 845をSnapdragon 670に)、ストレージを64GBに制限し、無線充電機能をなくした。その代わりに、空いたスペースに3.5ミリのヘッドフォンジャックが付くという嬉しいオマケがある。

Pixel 3aは399ドル(約4万4000円)より。5.6インチディスプレイ、12.2メガピクセルのリアカメラ、そして、最初からAndroid Pが走る。Pixel 3a XLは479ドル(約5万2800円)から。こちらは画面が6.0インチになる。

TechCrunchのBrian Heaterが、今週初めにこのスマートフォンを試用している。彼のレビュー記事はこちら

Nest HubとNest Hub Max

Google Home Hubは、Nest Hubと名前を変えて、価格も149ドル(約1万6400円)から129ドル(約1万4000円)に下げられた。

同時に兄貴分も登場した。Nest Hubの画面を7インチから10インチに拡大してカメラを追加した、その名もNest Hub Maxだ。Nest Hub MaxはNestアプリに接続できるため、Nestの他のカメラと同じように使える。Googleによると、背面のスイッチでカメラとマイクをオフにできるという(残念ながらカメラかマイクのどちらかを生かすというのはダメみたい)。価格は229ドル(約2万5000円)。今年の夏に出荷予定だ。

Nest Hub Maxに搭載された新しいFace Match機能は、顔認証ができ、その反応をカスタマイズできる。この機能に関するGoogleのブログ記事には「Face Matchの顔認証は、デバイスに内蔵された機械学習機能によりローカルで処理されるため、カメラのデータは一切外に出ません」とのことだ。

検索に拡張現実

一部の検索結果、たとえばあるモデルの靴や「大きなホワイトシャーク」などでは3Dモデルが見られるようになる。モデルをタップすれば、AR(拡張現実)を使って現実の映像の上にそれを重ねて見ることができる。

Google Lensのアップグレード

Google Lensにも、いくつか新しい機能が増える。レストランのメニューにGoogle Lensを向けると、人気の料理がハイライトされる。レシートに向ければ、チップや合計金額を自動的に計算してくれる。

ウェブ上でDuplex

昨年のI/Oで、GoogleはDuplexを発表した。スモールビジネス(レストランや美容院など)向けのAIを使った顧客サービスツールで、大量の電話に対応したり、よくある質問に応答したり、予約を管理したりできる。

今年はこれを拡大して、ウェブ上で公開する。例として示されたのが、インターネットによるレンタカーの予約だ。「(レンタカー会社)のレンタカーが欲しい」と言うと、そのレンタカー会社のウェブサイトが開かれ、自動的に予約が行われる。そこには、カレンダーに書き込んだ出張の日程がすでに入力されていて、Gmailに残っている前回のレンタカー予約確認のメールをもとに、好きな車種が選択されていた。

Googleの「次世代」アシスタント

Googleは、音声認識モデルのサイズを数百ギガバイトから500メガバイトほどに圧縮することができた。スマートフォンに搭載できる十分に小さいサイズだ。

音声認識モデルをローカルで持つことで、クラウドとのPingのやりとりによる遅延がなくなる。アシスタントとの会話も、ほぼ瞬間的に行えるようになる。デバイス上で走っているため、機内モードでも使える。Googleは、矢継ぎ早に命令(「Lyftを呼んで」や「懐中電灯を点けて」など)を連発してその様子を披露していたが、しっかりと応答していた。

Googleによれば、この次世代の音声アシスタントは、今年の後半に新型Pixelに搭載されるという。

GoogleアシスタントがWazeに

GoogleアシスタントがWazeに組み込まれ、「ほんの数週間以内」に使用可能となり、事故や道の陥没の通報などが声で行えるようになる。

Googleアシスタントのドライビングモード

「ヘイ、Google、ドライブしよう」と言えば、アシスタントはドライビングモードに切り替わる。画面には、チラッと見てわかるように、目的地の方向や音楽の操作系など、運転中に必要最低限の情報だけが表示される。

Googleマップのシークレットモード

ブラウザーのシークレットモードと同様に、Googleマップに追加されるシークレットモードでは、場所の検索結果や経路がGoogleアカウントの履歴に残らないようになる。

ライブ字幕とライブ筆記

Androidには、間もなく、スマートフォンで再生したメディアにその場で字幕を入れる機能が追加される。保存したポッドキャストや録画した動画にも字幕が付けられる。

Live Relay(ライブ中継)とGoogleが名付けた機能を使えば、電話での会話をリアルタイムで筆記させたり、文字で応答したりできるようになる。

下の動画は、Live Relayで実際に会話している様子だ。

https://platform.twitter.com/widgets.js
声に出したり耳で聞いたりしなくても電話ができるように、Live Relayは、デバイスに内蔵された音声認識と文章音声変換を使って、電話の音声のやりとりを代行します。

Project Euphonia

Googleは、そのAI音声アルゴリズムを使って、ALSや脳卒中の後遺症などのためにうまく話ができない人を支援する研究を続けてきた。それぞれの人の話し方にモデルを調整することで、コミュニケーション能力を向上させることができる。

https://platform.twitter.com/widgets.js
非営利団体とボランティアの協力のもとで行われているProject Euphoniaは、音声による会話に障害がある人たちのコミュニケーションを迅速化し自立を支援する活動です。

ダークなテーマ

Android Qにダークモードが追加される。手動で切り替えることもできるが、省電力モードになったときに自動的に切り替わるようにもできる。

集中モード

仕事が忙しい? それならFocus Mode(集中モード)だ。仕事の邪魔になるアプリの一覧を作って、スイッチを切り替えれば、集中モードをオフにするまで、それらのアプリは表示されなくなる。今年の秋にAndroidに搭載される。

PixelのGoogleマップにARモードが登場

数カ月前、GoogleはGoogleマップで使える新しいAR(拡張現実)モードを披露した。その目的は? 確実に正しい方向に歩行を開始できるようにするためだ。スマートフォンを目の位置に掲げると、画面に目の前の光景が映し出される。Googleマップはその映像とストリートビューのデータとを照合して、現在位置と方向を正確に割り出す。GPSだけを使った場合よりも確かだ。そして、正しい方向に矢印を表示する。

しばらくベータ版だったが、今日からPixelに搭載される。

消費者向けの基調講演の後、Googleはこれとは別に、開発者向けの基調講演を行った。内容は次のとおりだ。

  • Android開発の主要プログラミング言語はKotlinになったとGoogleは話した。
  • Kotlinでの開発用の新しいUIツールキットJetpack Composeを発表。
  • 今回発表されたNest Hub Maxなど、Googleのスマートディスプレイ・デバイス用のゲーム開発が可能になった。
  • 速度と安定性を向上させたGoogleのAndroid Studio IDEの新バージョンを発表。
  • Androidの開発者は、作動を続ける前にアプリの更新をユーザーに要請できるようになった。去年発表されていた機能だが、やっと実現した。

[原文へ]
(翻訳:金井哲夫)

GoogleマップのAR案内がPixelで本日から順次利用可能に

昨年のGoogle I/Oで見た奇妙だが興味をかきたてられるデモが、一般ユーザーにも公開された。GoogleマップのAR歩行経路案内が本日からPixelユーザーに順次提供される。

拡張現実を使った経路案内は、ユーザーがGoogleマップを開いたとき、視覚的なヒントによってユーザーが迷子にならず目的地に到着できるようにする。経路情報がカメラ画面上に表示され、物理空間上に方向を示す矢印が表われる。

このモードを使うと、端末のGPSが少し位置を外れたときでも、ユーサー空間の視覚情報を認識し、クラウド上にあるユーザーの位置情報とマッチさせることによってユーザーを正しく導くことができる。

TechCrunchでは今年、このARマップ機能を実際に使う機会があり、全体的に好印象だった。

Googleはこれを「早期プレビュー」と位置づけており、Pixel以外の端末でいつ利用できるかについては言及しなかった。

[原文へ]

(翻訳:Nob Takahashi / facebook

Facebookに隷属することを嫌ったSnapchat、新戦略により新時代が到来する

SnapchatのCEOのEvan Spiegel氏は、ついにMark Zuckerberg(マーク・ザッカーバーグ)氏のコピー軍団を撃退する妙案を思いついた。この2年半、Speigel氏は「我々の価値はコピーできない」と主張し、Facebookに対して正道で挑むという空しい時間を過ごしてきた。その無抵抗の態度により、ザッカーバーグ氏は、Instagram、WhatsApp、Facebookで、1日に10億人の「ストーリー」ユーザーを増やすことに成功した。それに対してSnapchatの1日のユーザー数は1億8600人だ。その間、ハイテク産業全体が、Snapが描いた刹那的で視覚的な未来という構想を競ってコピーしまくった。

しかしSnapchatの新戦略は、Facebookに隷属することを嫌ったその他のソーシャルメディアに向けて鬨の声を上げるものだった。それは、「勝ち目がないなら迎合せよ」という格言を、「やつらに勝つために力を合わせろ」に書き換えた。統一戦線としてSnapの仲間たちは、彼らとの差別化に集中できるように基盤を整備し、同時にSnapchatは支配範囲を広げ、戦いが継続できるよう塹壕を掘った。

Tinderはプロフィールの写真にSnapchatのストーリーを使うよう促している

Snapchatの計画は、半端なまがい物を作らせるのではなく、その最高の部分を他社のアプリに導入させることだ。オリジナルが利用できるなら、ストーリーやビット文字や広告を最初から開発する必要はない。Snapの上級幹部は、それこそが戦略なのだと、私にそっと教えてくれた。新製品を開発するとき、他社が同様の製品を欲しがっているとしたら、それを無視するのではなく「Snapchat化」を許して、部分的にコントロールするほうが賢い。そうしなければ、Snapが提案してみんなが欲しがっているものをFacebookがプラットフォームに組み込んでしまう。

この「写真屋」は、先週、故郷ロサンゼルスで初のSnapパートナーサミットを開催し、軌道修正を行い、自らの運命の支配権を取り戻した。現在それは、Snap Kitのお陰でカメラプラットフォームとなった。その新しいStory Kitを使えば、この秋から、Snapchatのストーリーを他のアプリに移植できるようになる。友達のストーリーの昔ながらのカルーセルをもっとたくさん表示できるようになり、アプリに独自の形式で織り込むことも可能になる。ハウスパーティーのストーリーカルーセルでは、そのグループ動画チャットアプリとは別の場所に仲間がアップした画像を共有できる。Tinderは、Snapchatのストーリーを写真といっしょに公開して気の合いそうな人を誘えるようにする。 しかし、カメラは常にSnapchatの中にあり、それらのアプリのストーリーに共有できる新しいオプションが付くことになる。

Snapパートナー・サミットで発表を行うSnapのCEOのEvan Speigel氏

これが、ネイティブなアプリのエコシステムを浸透させてゆくSnapchatの方法だ。Facebookが「いいね」ボタンでウェブの世界に浸入していった方法とよく似ている。しかし、Snapは個人データの管理が強力であるため、FacebookとCambridge Analyticaとの過去の関係により自社ブランドに傷が付くことを恐れる企業は、自ら望んでSnapの仲間になりたいと思っている。

Snapは、他のアプリから小さな競争相手が生まれてストーリーの世界を細分化してしまうことも静観してはいない。技術者にクラス最高のツールを与えて、時間もコストもかかる開発競争を抑制し、進んでこちらに参加してくれるように促している。こうした前哨基地を設けることで、Snapchatアカウントをどうしても必要なものに近づけ、カメラの新しい利用法を提供し、ユーザーにまた訪れたいという気持ちを持たせる。これは、他のバージョンのストーリーの間をさまようことなく、Snapchatに定着したくなる理由を持たせるものでもある。

Spiegel氏が物のわかった人間なら、Story kitの仲間たちにリソースを与えて、FacebookがSnapのアイデアを盗む前に、彼らにできるだけ多くのアプリを作らせて契約できるようにするだろう。Snapでは、App Storiesに広告を入れていない。だが、やろうと思えばすぐにできて、ホストと広告料を山分けすることが可能だ。そうすればパートナーは魅力を感じて収益が上がり、Snapの広告主はより広範囲に宣伝ができる。

Snapchatのストーリーに埋め込まれたハウスパーティー

いずれにせよ、Snapは、新しいAd Kitで利益を上げることになるだろう。今年の後半には、Snapchat Audience Networkが立ち上がり、Snapの全画面を使った縦型動画広告が掲載できるようになる。また、今はまだ公開されていない収益分配方式が導入される。パートナー企業は、広告営業部門を開設したり、入札や配信のシステムを準備する必要がない。SDKを放り込んで、Snapchatのユーザーやその他のユーザーに広告を表示するだけでいい。ここにも、コピーするよりSnapchatと手を組んだほうが簡単だというSnapのメッセージが込められている。

Snapの新しい広告ネットワーク。

広告の到達率と、独自の広告ユニット形式の再利用性が高まれば、Snapは中核的な課題の解決に近づくことになる。それは、スケールだ。Snapの1億8600万人という総ユーザー数は、InstagramやFacebookやYouTubeに比べると小さく見える。とくに、去年の第4四半期に安定する前の、第2四半期と第三四半期の落ち込みを考えるとなおさらだ。それが、Snapchatに広告料を払うことの正当性を、広告主から奪ってしまっている。だが、Ad Kitと、おそらくはStory Kitは、ユーザー数が増えない場合でも、Snapの到達率を高めてくれるだろう。

広告のサイズ拡大は、特別に重要なユーザー層ですでに人気となっていることを考えれば、Snapに有利に働くはずだ。Snapchatのユーザーは、現在、米国の13歳から34歳の75パーセント、13歳から24歳の90パーセントにリーチしている。Snapによれば、米国、カナダ、英国、フランス、オーストラリアといった利益率の高い国々では、Facebookよりも若い年代層に受け入れられているとのことだ。

Facebookは、その大きなセグメントを無視してきた。実例を挙げれば、Facebook Messengerで若者に人気のスタンプ機能は、2013年の導入以来なかなか進化していない。私が聞いたところによれば、社内の承認を巡って争いがあったとのことだ。その間、Snapchatはビット文字を使ったアバター機能を成長させてリードを保ってきた。間もなくSnapは、ビット文字による自分のアバターをFitBitスマートウォッチの画面に表示できるようにする。これを使えば、Venmoの支払いで遊んだり、Snapの新しいマルチプレイヤーゲームプラットフォームに自分の分身で参加できるようになる。

ここでもSnapは、パートナーに出来損ないの偽ビット文字ではなく本物を使うよう促している。驚くべきことに、FacebookのAvatarの開発は1年以上も泥沼にはまっており、Appleのミー文字はいまだにiMessageとFace Timeでしか使えない。Snapchatが優れているのは、その点だ。ビット文字を遍在化させることに力を入れて、写真を使わずに自分自身を表現できるようにした。Facebookのデザインのまずさと、こうした差別化された製品によるビット文字の有利なスタートが幸いして、Snapはパートナーたちに深く食い込むことができた。

ソーシャルネットワークで充実した持続性のあるものを築こうとする、弱者としてのSnapは、使えるものはなんでも使う。団結は、Snapパートナーサミットのもうひとつのテーマだ。Snapは、Netflix、GoFundMe、VSCO、Anchorとのつながりスタンプを共有し、ワシントンポストなどの出版社の記事をSnapchatに掲載する道を拓いた。ZyngaとZeptoLabは、リアルタイムのマルチプレイヤーSnap Gamesの開発を決めた。これらのゲームはチャットの中でプレイでき、メッセージの中に広告を滑り込ませる賢い方法となる。

Snapchatの新しい拡張現実開発プラットフォームScanには、以前からのメンバーであるShazamとAmazonに加えてGiphyとPhotomathが参加し、周囲の光景から楽しいインタラクティブ性が引き出されることになる。現実世界はあまりも広く、どんな企業でも、単独では十分なAR体験を生み出しきれない。そこでSnapは、そのLens Studioプラットフォームを新しいテンプレートとクリエイタープロフィールで強化し、開発者が40万種類の特殊効果を使えるようにした。FacebookはSnapの機能を真似ることができても、この開発者軍団をコピーすることはできない。

「適切なときに適切なLensを提供できれば、私たちはまったく新しい創造性の世界を開くことができます」とSnapの共同創設者であるBobby Murphy氏は話す。パートナーから開発キット、オモチャに至るまで、今回の新発表のすべてが、Snapchatのカメラへの関心を引き戻した。これにより、Snapは世界の拡張現実のリーダーになる準備が整った。

これらを総合すると、メディアの大物が肉まんをむしゃむしゃ食いながら拡張現実インスタレーションで遊ぶウエストハリウッドの派手な記者発表イベントによって中断されていたSnapchatの時代が、ついに到来する予感がする。

Spiegelは、モバイル製品のデザインに刺激を与える彼の好みを具体化する方法を発見した。この戦略が実施され、Snapが改良したAndroidアプリと新しい言語の展開が始まった今、Snapchatは再び成長すると私は確信した。総ユーザー数が伸びなかったとしてもつながりは深くなる。ハードルを越えるにはもう少しだけ投資が必要かも知れないが、2020年末までには利益が出せるようになっていると私は期待する。

イベント開始前のメディア向け説明会には、Spiegel氏とMurphy氏を含むSnapの役員が10名ほど参加した(非公開のため誰が何を言ったかは書けない)が、FacebookがSnapchatを真似るようになって7年になるため、だんだん普通に思えるようになってきたと、Snapのある上級幹部は冗談を飛ばしていた。先日ザッカーバーグ氏は、プライバシー、長く保存しないこと、メッセージングを重視する方向にFacebookを軌道修正したいと宣言したが、これはSnapchatの信条そのものだ。だが、Snapの幹部は言葉巧みに、20億人のユーザーを誇るその製品が人々を傷つけている限りは、Facebookがどんな哲学を口にしようと信用しないと語っていた。

演壇からかすかな影を投げかけ、Spiegel氏はこう締めくくった。「私たちのカメラは、この世界の自然光を使ってインターネットの闇を照らします。【中略】私たちが日常生活で、インターネットを使えば使うほど、それをもう少し人間的にする方法が必要になります」。この言葉は明らかに、他社のアプリをもっとSnapchat的にすることを意味している。

Snapchatはスーパー マリオパーティー式のマルチプレイヤーゲームプラットフォームをスタート(本文は英語)

[原文へ]

(翻訳:金井哲夫)

アップルが2020年にARヘッドセットをローンチするという噂

9to5macが紹介している最強のApple(アップル)預言者Ming-Chi Kuo(郭明錤氏)の最新記事によると、同社は拡張現実のヘッドセットを開発中であり、近くそのデバイスはローンチされる、ということだ。このメガネ型のデバイスは2019年第4四半期(10〜12月)から大量生産が始まり、2020年の前半には一部の地域で入手できるらしい。

この神秘のヘッドセットで何ができるのか、それはまだ未知数だ。郭氏によると、その機能はだいたいApple Watchと同じで、ARとしての計算処理はiPhoneが担当する。つまり、iPhoneがないと使えない。

そのグラスはiPhoneの外付けディスプレイのようなものとして、情報をユーザーの眼前に送り出す。インターネットへの接続や位置機能、コンピューティングなどヘビーな仕事はすべてiPhoneが担当する。ARヘッドセットとiPhoneの通信は、たぶんBluetoothを使うのだろう。

郭氏の記事にヘッドセットの詳細はない。ユーザーのまわりにあるものを表示したり感知しなければならないから、ディスプレイとセンサーはあるだろう。センサーで環境を感知しないARデバイスは、ありえない。

AppleはiOS上のARKitフレームワークですでに拡張現実の実験をしている。デベロッパーは、現実世界にデジタル成分を統合するアプリを、それで作ることができた。そしてその様子を、ヘッドセットでなく、スマートフォンのカメラで見るのだ。

そうやって多くのアプリがAR機能を加えたが、その多くは見掛け倒しで本物の価値はなかった。ARネイティブのアプリも、ほとんどない。

拡張現実の面白いユースケースのひとつが地図だ。Googleは最近、Google Mapsの拡張現実モードを発表した。スマートフォンを顔の前に構えると、矢印が出て行き先を教えてくれる。

Appleも、Apple Mapsを独自のデータで作り変えてきた日本語関連記事)。地図を描くだけでなく、LiDARセンサーと8台のカメラを車の屋根に乗せて、現実世界のデータを大量に集めた。そのApple Mapsが、噂のARヘッドセットの重要な部分になるのか、そういう話なら面白い。

[原文へ]
(翻訳:iwatani、a.k.a. hiwa