iPhone 8にはAppleが設計した独自のGPUが新しいA11 Bionicチップとともに載っている、機械学習のためだ

iPhone 8のカメラには、A11 Bionicという新しいチップが載っていて、それは6-coreチップを上回るパワーを秘めているが、今日(米国時間9/12)の発表でいちばん重要なのは、たぶんそこではない。

AppleがiPhone 8に載せたのは、独自に設計したGPUなのだ。GPUの、大量のコアの配列を動員する高速かつ強力な計算力は、自然言語処理や画像認識など機械学習のタスクにうってつけだ。ハイスペックなGPUはもちろんゲームにも向いているが、デバイスの配列をベースにしてSiriのエコシステムに人びとを閉じ込めたいAppleにとっても、これ〔カスタムGPU〕は大きな一歩だ。

ここまでの道も、長かった。4月には、AppleがiPhone用の独自のGPUを設計している、と囁(ささや)く声があった。機械学習のためにカスタムハードウェアやGPUを作って、ハードウェアをそのニーズに向けて最適化しようとしているのは、Appleだけでなない。しかしAppleにとっては、Siriとカメラと今後の機械学習ツールのために最適化されたツールを作ることが目的だ。

それにまたこれは、拡張現実におけるAppleの取り組みにとっても重要だ。デベロッパーには、拡張現実を開発するためのツールを提供して彼らの気を引きたい。またスマートフォンが高品質な消費者体験をサポートして、その魅力を一層高めれば、それもより多くのデベロッパーの心を捉える。

一方A11 Bionicの重要な特長は、下図に‘表示’されている:

Appleは通常、スマートフォンのアプリやそれが取り扱うプロセスの高度化ニーズに対応して、プロセッサーの高速化と効率化に努めてきた。でも今回独自のGPUを使うようになったことは、長年その部分を独り占めしてきたNvidiaを袖にすることだから、重大事件だ。しかもそれは今後、デベロッパーにとっても重要な意味を持つ。

今回本誌TechCrunchは、iPhoneイベントの記事やライブブログがめちゃめちゃ多いから、ぜひお楽しみいただきたい。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))



2028年のロスアンゼルスオリンピックが、史上初めての真にデジタル化されたオリンピックになる理由

【編集部注】著者のAndrew Keenは、3冊の書籍”Cult of the Amateur”、”Digital Vertigo”、”The Internet is Not The Answer”の著者。Futurecastのプロデューサーであり、Keen Onのホストも務める。

ロサンゼルスに拠点を置くタレントエージェンシーWasserman Media Groupの創業者兼CEOであるCasey Wassermanは、LA市長Eric Garcettiからの任を受けて、2028年のオリンピックの成功のために働いている。

ハリウッドのワーナーブラザーズスタジオで開催されたFuturecastイベントにおける最近のインタビューで、Wassermanはテクノロジーがオリンピックをどのように変えていくかということと、2028年のゲームが将来の世代に向けて設定する基準について語った。

Wassermanは、現在芽生えつつあるテクノロジーの多くが、2028年には既に現実的なものになっているだろうと予測する。拡張現実感から人工知能、自動運転車、そして完全に機能するスマートシティまで。テクノロジーとエンターテイメントのスタートアップたちに、大きな投資をしているWassermanは、デジタル技術がLA 2028ゲームの中心となると予測している。

彼は、拡張現実はオリンピックの肉体的体験を世界中の数十億の人びとに対して再現し、「有意義で重要な機会」を提供するだろうと語る。この革命的な技術は、スタジアム内外に居る人たちにとって、体験を「とても良い」ものにしてくれるだろうと彼は信じている。それはこれまでハリウッドが常に全力を尽くしてきた「ストーリーを語る」力を増すものになるだろう。

シリコンバレーは、オリンピック準備に協力することができる、とWassermanは言った。言われがちな北カリフォルニアと南カリフォルニアの違いを乗り越えて、Wassermanは2028年のロスアンゼルスオリンピックを、統一されたカリフォルニア物語として提供するつもりだ。最先端のシリコンバーの技術とハリウッドのエンターテイメントを組み合わせて。「これがカリフォルニアのすべてです」と、彼はこの結婚について語った。LA 2028は素晴らしい結婚式になるだろう。

今回のインタビューの制作にご協力いただいたGreater Providence Chamber of Commerceの方々に感謝する。

[ 原文へ ]
(翻訳:Sako)

VRの今回のハイプ・サイクルは終わった

最近、アメリカでは多くの人々がデバイスを装着して普段見られない珍しい光景を眺めた。残念ながらそれはVRヘッドセットではなかった。人々が皆既日食を観察するときに使ったのは専用メガネだった。VRに暗い影を投げかけるニュースだった。

今年のE3(Electronic Entertainment Expo) で目立ったのはOculus RiftというよりむしろOculusという谷間(rift)だった。最近HTCはVive VRヘッドセットのキット価格を200ドル値下げした。Facebook傘下のOculusはRiftの価格をこのサマー・セールで399ドルまで下げた(夏が終われば値上げする予定だが、その幅は小さい―499ドルになるはず)。両社は皆既日食に対抗して消費者の関心を引き戻すために値下げ競争を始めたわけではあるまい。

TechCrunchの同僚、Lucas Matneyはこう書いている。

ここ数ヶ月、HTCとOculusのハイエンドVRヘッドセットにおける競争はどちらがVHSでどちらがベータかを争う戦いではなかったことがはっきりしてきた。両社とも〔ビデオテープではなく〕レーザーディスクの地位に転落するのを防ぐのに必死なだけだった。まだ有力プレイヤーは認めようとしていないが、投資家やアナリストはこの1年のVRヘッドセットの売れ行きに強い懸念を抱いている。

HTCもFacebook/Oculusも販売台数を公表していないという事実そのものが、販売が低調であることのなによりの証拠だ(アナリストの推定ではそれぞれ50万台以下)。

この2月、ソニーが Playstation VRヘッドセットの販売数を発表したときには一瞬期待が高まった。同社によれば2016年10月の発売以後、 91万5000台が売れたということだった。しかし6月になってもこの数字はは100万台を超えるのがやっとだった。

VRヘッドセットは夏向きの商品ではないのだろうか? 皆ビーチに出かけてInstagramでセルフィーを撮っているせいでVRは忘れられてしまうのかもしれない。

ハイプ・サイクルを急降下

ガートナーが発表した2017版の新しいテクノロジーのハイプ・サイクルのレポートによれば、VRテクノロジーは「回復(啓蒙)期の坂を上昇している」とされている。しかしこれは寛大すぎる判断だろう。

いずれにせよVRがハイプ・サイクルの頂上から一挙に転落したことはガートナーも認めているわけだ。インフレ評価の頂上から幻滅の谷間への急降下はすでに起きており、VRデバイスの現在の能力に比べて価格は依然として高止まりしていることもあって消費者の需要は最低の水準だ。

ガートナーが示唆するようにVRの前途に、ゆるい角度であれ、上り坂が控えているなら良いニュースだが、それにしても長期間の苦闘が必要だろう。

ガートナーはVRはすでに幻滅の谷間を後にしていると評価するが、すくなくとも近い将来、VRというテクノロジーに対する熱狂は復活しそうにない。ガートナーはVRがメインストリーム入りの幸運を引き当てるために2年から5年程度が必要だとしている。私には5年というほうが現実的に思える。

逆にVRはメインストリームにはならない、ニッチにとどまるテクノロジーだという意見もある。

どちらが正しかったか分かるようになるには時間がかかりそうだ。ともあれVRは、溺れてはいないものの、水に落ちて苦闘している。

最近、私は熱狂的なVRファンの起業家と話をした。彼は近い将来VRがリビングルームの中心となると信じている。ガールフレンドと並んでソファに腰掛けテレビの画面に代わってVRヘッドセットを眺めるようなるというのだ。

なるほどひとつの考えには違いないが、私には奇妙に思えた。

いくらソファに並んで座っていようと、あのVRヘッドセットを付けた2人がどうやって微笑、目配せ、身じろぎといったコミュニケーションができるだろう? またVRヘッドセットが消費者に広く受け入れられるためにはハードウェアとして劇的に改良される必要がある。普通のメガネに近い程度まで軽量化される必要があるし、現実の外界と仮想現実の表示を瞬時に(おそらくは人工知能を用いて)切り替えることができなければならない。並んで座っている恋人に向かって振り返ると自動的にVRがフェードアウトして恋人の表情が判別できるようになるなどだ。

正直そのレベルにまで柔軟性が高まるのでなければテクノロジーとして十分とはとはいないだろう。

もちろん現実のVRはエンジニアリングとしてもソーシャルメディアとしてもとうていその段階にはない。

何年も前から評判になっているもののまだプロダクトの形が見えないMagic LeapのIRLというある種の混合現実にしても同様だ。

キラーコンテンツ不在

業界トップクラスのゲーム開発者に話を聞いたことがある。彼の会社はOculusを始めとするVR全般に当初から強い関心を抱いており、その当時は彼もVRの将来に強気な見通しを持っていた。しかし最近再びVRの現状について尋ねてみたところ、その返事は「5年経ったらまた聞いてくれ」だった。

ゲーム開発者はまた有力なコンテンツが現れていないことについても触れて次のように述べた。

〔VRテクノロジーには素晴らしい可能性があるものの〕例えていえば、任天堂が革命的なゲームプラットフォームを作っただけで宮本氏とソフト事業部を売り払い、その後何も新しいゲームを作っていないような状況だ。VRには有力なコンテンツが決定的に欠けている。OculusはJason Rubinをトップに据えて巨額の投資をしているが、この点では失敗を続けている。

ソニーのデバイスはエレガントだが、処理能力が不足しており、PS4レベルのグラフィクスの表示も十分にできない。

現在、トップラスのVRを体験するには1000ドル程度のキットが必要になる。しかし消費者はかさばる上にケーブルが煩わしいVRヘッドセットを嫌っており、そんな金額を支払う気はまったくないというのが現実だ。

ハードの売れ行きが鈍いこと以上に利用率が低いのも致命的だ。VRのハードをすでに所有しているユーザーは新しいソフトを買おうとしていない(すくなくともビジネスとして意味あるレベルの売上になっていない)。

VRが成功するためには現在の任天堂のようなコンテンツとブランド・パワーが必要だ。しかしそのようになる兆候は見えない。

つまり古典的な「ニワトリが先がタマゴが先か?」というジレンマに陥っている。

Job SimulatorはVRを数分体験するには面白いゲームだが、世界の消費者をとりこにするような力はない。

VRゲームのJob Simulatorはバーチャル・オフィスで新しい職を体験できる

【略】

VRはSecond Lifeの没入版になる危険性に直面している。悪くすると「Second Lifeの運命はVRの失敗を10年も前に予言していた」といった記事が書かれかねない。

VRは次のハイプ・サイクルで復活するかもしれいない。そうであってもエコシステムの無視は致命的だ。

「VRは最低だ!」(動画はVRシューティングゲームでピストルのマガジン交換に手間取っているところ) 

ARには大きな可能性がある

現在いちばん利用されているVRはモバイルデバイスを利用したエントリー版だろう。Samsung Gear VRや Googleの段ボールを折って自作できるシステムがそうだが、それであってもブームを作るほどの売れ行きではない。しかもこうしたVRは本当のプロダクトというよりジョークの混じったギミックだ。

私見によればVRのディストピア的性格を遺憾なく表現したのは2016年のカンファレンスで撮影された写真だ。Facebookのファウンダー、マーク・ザッカーバーグが引きつり気味の微笑を浮かべながら通路を進んでくるというのに、着席している聴衆は誰一人それに気づいていない。全員がヘッドセットを被って外界から切り離されているからだ。

FacebookのCEO、マーク・ザッカーバーグが 2016のSamsung VRイベントに到着したところ

ウェアラブルデバイスであっても通常のメガネとあまり変わらないサイズに必要な機能を詰め込んだAR〔拡張現実〕やMR〔混合現実〕デバスなら外界の情報を遮らないので、こういった馬鹿げた事態は防げる。

もちろんGoogle Glass(Glassholeと呼ばれた)という大失敗の例は忘れてはならない。あまりにもギーク臭丸出しのデバイスは一般ユーザーからは強く拒否される。

興味ある点だが、モバイルARはすでに膨大なユーザーを集めるソーシャル・テクノロジーになっている。しかもヘッドセットなどのウェアラブルデバイスを一切必要としない。手持ちのスマートフォンだけでよい。コンテンツはすべてスマートフォンだけで完結する。

つまりSnapchatのセルフィーやFacebookのライブビデオのフィルターなどの機能だ。AIを利用してユーザーの顔を置き換えたり加工したりできる人気アプリは数多い。

Snapchatの顔加工セルフィー・レンズ

【略】

旅行者がパリのエッフェル塔の前で任天堂のポケモンGOをプレイ中( 2016年9月8日:: Chesnot/Getty Images)

【略】

Facebook Spacesで友達とバーチャル・ミーティング

【略】

逆にモバイルARがすでに巨大なユーザーを集めていることは明白だ。

ポケモンGOのイベントに集まった人々

なるほど任天堂には巨大なブランド力があり、Snapchatなクレージーなまでにチャット・ブームを巻き起こした。そうではあってもモバイルARが本質的のソーシャルであることに変わりはない。現在でも友達がスマートフォンを手にして集まり、会話しながら写真を取り合い、(準リアルタイムで)互いの写真を眺めたり共有したりするという光景を見ることがある。これは初歩的なモバイル・ソーシャルARの例と言っていい。

ここではオンラインとオフラインの体験をシームレス(に近く)混合でき、さらに友達の表情やボディーランゲージを認識することを妨げるようなものがない。

一方で高価なVRハードウェアはアーリーアダプターの家やデスクの引き出しで埃をかぶるままになっている。VRにガートナーの言う「啓蒙」が訪れるのはいつだろうか?

このサイクルは死んだ―5年後にはどうなるだろう?

つまり現在のVRは死んだ。

しかしVR業界では、これは単に現在のハイプ・サイクルが終わりを迎えたにすぎないと望んでいる。 5年後か何年後かはともかく、次のサイクルでは新しいエコシステムを確立できるに違いない――だがそれはどんなものになるのか?

映画館にはプレミアム席が設けられ、新しいテクノロジーを用いて一層完全な没入感を得られるエンタテインメントが提供されるかもしれない。飛行機の乗客向けのサービスも一つの可能性だ。教育、訓練、医療、リハビリなどの分野における応用のシナリオが考えられる(VRポルノも忘れてはならない)。

しかしこうした応用分野をすべて足し合わせてもVRが次世代のコンピューティング・パラダイムの主要な部分にはならないだろう(ザッカーバーグでさえVRが「可能性をフルに発揮できるようになるには10かかる」と述べるようになった)。

今のところAR > VRだという点に疑問の余地はない。

しかもARに勢いがつくことはVRにとって悪いニュースとなる可能性がある。【略】

結論

人間の本性として世界を風変わりなフィルターを通して観察してみたいという気持ちは強い。

しかし、今のところ仮想現実は人間に知られているエンタテインメントの中でもっとも人気がないツールという不名誉な賞を得るにとどまっている。この傾向にはまったく変化の兆しがない。

実はアメリカでは比較的近い未来にまた皆既日食を観測できる。それが起きるのは2024年の4月だ。もし次回の皆既日食でも人々が古典的な日食メガネをかけており、VRメガネについては関心がないようだったら皮肉な事態ということになる。

記事タイトルはTechCrunchnの同僚、Romain Dilletのアイデア。トップ画像はBryce Durbinのオリジナル・アート

[原文へ]

(翻訳:滑川海彦@Facebook Google+

AppleのARkitベースのARアプリをプレビューしてきた――iOS 11公開で一挙巨大市場に

私はこの数週間、デベロッパーと投資家に混じって、急成長中のARKitの世界を体験してきたところだ。関係者がAR時代の到来に興奮する理由はいくつもあるが、その一つがスケールの可能性であることは確かだ。潜在的なARのユーザー数は巨大だ。来月公開されるiOS 11の場合、インストールされた瞬間から誰もが拡張現実を利用できるようになる。今年中にARを使うようになるユーザーは数億人に達するはずだ。これはARの可能性を示すうえできわめて説得力ある数字だろう。

巨大企業も1人か2人のエンジニアのチームもともにクールなARアプリの開発に全力を挙げている。

昨日のデモ・イベントでは多数のARアプリをテストしそのデベロッパーに話を聞いた。近い将来のARアプリについて私なりのイメージを抱くことができたように思う。以下に紹介するのはコンシューマー向けアプリだが、ご覧のようにこのテクノロジーの間口はきわめて広い。デモ・アプリはiOSのARKitでどんなことができるのか興味を抱いているデベロッパー、投資家の参考になると思う。

まずデモビデオを見ていただきたい。最後にいくつか感想を述べる。

Ikea

家具AR: カタログから選んだIKEAのソファーを実物大で現実の場所に置くことができる。 カタログに搭載されたアイテムは2000種類。

Food Network

キッチンAR:家庭のキッチンで手持ちの皿にリアルなカップケーキなどのデザートを載せてみることができる。デザートが気に入った場合、アプリからレシピにアクセスがが可能。

GIPHY World

現実ビデオとGIFによるソーシャルAR: ユーザーはビデオを撮影し、GIF画像を配置して共有することができる。デモでは両親がベビーシッター向けに朝食用食材、与えてよいおやつ、与えてはいけない食材などをGIFで説明している。ファイルを受け取ったユーザーはさらに素材の追加、リミックス、再共有などが可能。

Arise

ARゲーム:: Climax Studiosが開発したゲームでは居間のテーブル(でも何でもよい)の上にリアルな3Dの廃墟を出現させ、その上を主人公のキャラクタ^が進んでいく。ユーザーは通常のゲームコントロールでキャラクターをなるべく遠くまで進ませるよう試みる。

Very Hungry Caterpillar

AR絵本: 記録的なベストセラー絵本、『はらぺこあおむし』 をAR化している。現実の庭にりんごの木などが配置され、りんごを地面に落としてあおむしを誘導する〔この点については後述〕。あおむしはエサを食べると次第に大きくなり最後に美しいチョウになって飛び立つ。絵がキュートである上にターゲットとする子供の発達段階に合わせてコントロールが簡単であり、優れたARアプリだと感じた。

Walking Dead: Our World

AR版ゾンビシューティング: 現実空間にゾンビが登場し、プレイヤーは一人称視点で射撃して倒す。ゾンビの描写はリアルで精細度も高い。プレイヤーはゾンビの攻撃をかわすために素早く向きを変えるなど体を動かす必要がある。iPadでのデモの動きはスムーズだった。

以下は私が興味を感じた点だ。

スキャン:. ARアプリはまず最初に周囲の現実をスキャンして置かれている環境を認識する必要がある。私が見たデモでは、ARKitに環境を認識させるためのスキャニングはアプリごとに独自の手法を用いていた。ただし多くのアプリでは現実世界にARオブジェクトを配置することができる平たい表面を見つける必要があった。アプリが適当な表面を見つけるまでユーザーはカメラをあちこちに向けてみる必要がある。別に難しい動作ではなく、普通は数秒しかかからないはずだ。

ただしユーザーはARアプリのこの特性を知っていたほうがいいだろう。Ikeaのアプリは対話性が高く、ユーザーにまず「部屋をスキャンしてください」と要請する。ゾンビゲームのWalking DeadFood Network のデザート・アプリでも同様だ。ARKiがオブジェクトを配置できるよう、ユーザーにカメラを動かしてもらうために各アプリともプロンプトやバッジなどを利用し、知恵を絞っていた。

コントロール:ユーザーが選んだ位置にオブジェクトを配置するアプリ以外は画面内にコントロールを配置していない。たとえばAriseゲームの場合はユーザーがカメラを向ける方向を変えることがコントロールの役目を果たす。ユーザーはカメラのアングルを変えることでキャラクターを所望の方向に進ませることができる。画面内にはボタンなどのコントロールはいっさい表示されない。

一方、Very Hungry Caterpillar 〔はらぺこあおむしAR〕のコントロールは視線だ。ユーザーが木の枝のりんごを長く見つめていると、りんごは地面に落ち、あおむしが食べることができる。木の切り株を見つめるとあおむしはその上によじ登って眠る。他のアプリもコントロールはせいぜい1回タップする程度だ。この「コントロール・フリー」ないし「ライト・コントロール」というパラダイムはARアプリのトレンドのようだ。アプリをARに移植したいと考えているデベロッパーはこうした新しいコントロール方式を研究しておく必要がある。

開発期間: いろいろ考え合わせると、非常に短いといっていい。私がテストしたアプリの多くはARKit上で製作ないし移植されるのに 7週間から10週間程度しかかかっていない。ゲームなどアセットが重いアプリはも開発にさらに時間がかかるが、もしすでに非AR版でキャラクターなどのアセットを持っているなら移植はかなりやさしい。たとえばGIPHY Worldアプリには現実空間に3Dで浮かばせることができるGIFファイルが多数用意されているが、ユーザーは何千万も作られている既存のGIFをドロップすることもできる。

「はらぺこあおむし」のAR版を開発したTouch Pressでは既存の「あおむし」のグラフィックスを大きくアップグレードする必要があった。これは子どもたちはARであおむしをあらゆる角度から、かつ至近距離で眺めることになるためだった。同様の理由でIKEAも家具のグラフィックスの精細度、テクスチャーなどをアップする必要があった。しかしARアプリの開発、移植の期間は月というより週や日の単位で計れそうだった。つまり9月月にARKitをサポートするiOS 11が一般公開されると同時に多数のARアプリが登場するはずだ。そしてその後にもっと大量のARアプリの大波が続くことになるだろう。

〔日本版〕デモアプリの作動のメカニズム紹介は原文を参照。

[原文へ]

(翻訳:滑川海彦@Facebook Google+

Unityのプラグインで各種ARプラットホームの違いを吸収する8th Wallが未来でなく今のスマートフォンARの活況を展望

拡張現実のスタートアップは、その多くが、スマートグラスの常時着用がもたらす未来の世界にフォーカスしている。しかしARは、今現在のモバイルデバイスの使い方にも、私たちがまだ見たこともないような変化をもたらし得る。

でもこれまでARのそんな使い方の多くは、最新かつ最高性能のハードウェアを必要とした。そこへ、FacebookやGoogle出身の技術者たちが作った8th Wallは、今あるスマートフォンの90%以上で使える技術によって、スマートフォンARのリーチを広げようとしている。

Palo Altoに拠を構える同社のより大きな目標は、スマートフォンARアプリの開発をこれまでの10倍早くし、ネイティブのARライブラリを有効利用し、あるいは必ずしもスマートフォンのセンサーやカメラなどを使わなくても、十分なAR体験を実現することだ。

今日同社がローンチしたUnityデベロッパー用の無料のプラグインXRを使えば、拡張現実のアプリを作って実験することができる。同社はまた、Norwest, Betaworks, VR Fund, SV Angel, Greylock, そしてThird Kindらからの240万ドルの資金調達を発表した。

8th Wallの協同ファウンダーErik Murphy-Chutorian

8th WallのXRソフトウェアで、光や面の推定、シーンディスプレイのキャリブレーションなど、物理的世界の中にデジタルオブジェクトをシームレスに置き、それらが環境に反応できるために必要な機能を実装できる。

“ARをネイティブに設計するやり方は、まだ誰も知らない”、Betaworksの投資家Peter Rojasはそう語る。“モバイルの初期のころを、思い出してしまうね”。

8th Wallの最大の売り物は、すでにそこらにあるさまざまなARプラットホームを横断して開発ができるとともに、個々のデバイスの特徴も利用していく点にある。

“いろんなプラットホームがばらばらでも、それらを橋渡しできるし、またXRで十分な付加価値を与えることができる”、8th Wallの協同ファウンダーErik Murphy-Chutorianは、こう語っている。

そのプラットホームは、AppleのARKitやGoogleのTangoなどさまざまなARプラットホームをシームレスに統合し、またiPhone 5C以降やKitKat以降のAndroidなど、あまりロバストでないデバイスでも、3DoF(three degrees of freedom, 3次元方向) ARの機能をやや制限つきで実装できる。チームは今後、サポートする機種をもっともっと増やしたい、と言っている。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Omega OphthalmicsがARも可能にするかもしれない眼への移植プラットフォームを試験中

Googleや他のハイテク企業たちはARの目的を果たすためにメガネコンタクトレンズに力を入れている。しかしOmega Ophthalmicsは、眼の中に拡張現実のための空間を作るために、外科的に眼に埋め込まれたレンズを使うという、より侵襲的なアプローチをとっている。

これは野蛮な方法に聞こえるかもしれないが、レンズを埋め込む手法そのものは決して新しいものではない。レンズの移植は、特に高齢者の患者が多い、白内障および他の変性疾患の治療法としてはありふれたものだ。米国内では毎年約360万人の患者が、こうした病気に対する何らかの治療を受けていいる。

白内障の手術には、曇ったレンズを除去し、それを薄い人工レンズで置き換えるやり方も含まれている。共同創業者で認定眼科医のGary Wortzは、これを、単なるレンズではなく、他の製造業者たちが異なるインタラクティブセンサーや、薬の投与装置、そしてAR/VR統合機能を提供できるチャンスと捉えた。

「私たちが作っているのは手袋です」と、Elon Muskが脳内の神経系で実現したがっているものと比較しながらWortzは語る。「眼の中に、私たちはこの生物不活性の場所を作ります。これは手袋の中に手を収めるようなスタイルのインプラントを開発したい人のために、ビジネスとして開放されている場所となります」。

とはいえ、彼はARインプラントのために、視力の良い若者たちがすぐにでもやってくることは期待していない。そうではなく、彼はこのプラットフォームが自立生活を維持したい70代以上の人びとに対して、幅広い応用範囲があるものと考えている。こうした人が歩き回り易いように、拡張地図を表示したり、もし医学的問題が見つかった場合に警告を表示するといった用途は便利だろう。

彼はまた「スーパー兵士」などへの有用性についても言及した。

「ARには巨大な市場があることはわかっています。本質的にこれは、テクノロジー企業たちがまだ認識していない陣取りゲームなのです」と、もう1人の共同創業者でCEOのRick Iflandが、電話越しに語った。

同社は今回のアイデアのためには、特に外部からの投資は求めていない。とはいえWortzとIflandによれば、ニューヨークとオレンジ郡の2つのメジャーVCから、アプローチを受けたらしい。ともあれOmegaは現在、最初の資金を「この用途に理解のある」エンジェル投資家たちや眼科医たちから調達した、とWortzは語っている。

このテクノロジーは実現可能なのだろうか?おそらくは。今のところOmegaは7人の患者に対して、米国外で行われた非常に小さなヒト臨床試験を行い、6ヶ月の間事故は起こしていない。聞いたところによれば、同社は、程なく行われる予定の、より大規模な臨床試験を含む、まだ公表されていないいくつかの研究も抱えているということだ。

大規模臨床試験の結果が出るまで、同社はFDAの承認をまだ待つ必要があり、欧州の眼科でも次の12から24ヶ月の間に承認を得ることができることを期待している。Wortzは、FDAのプロセスについても前向きであるように見えた。

「FDAのScott Gotlieb(FDAのコミッショナーである医師)との仕事には、非常に感銘を受けています。彼は真のプロフェッショナルです」と彼は話した。

[ 原文へ ]
(翻訳:Sako)

Google Glass、エンタープライズ向けで復活中――組立、修理などの現場に好適

以前からGoogle Glassは企業向けプロダクトとしては大いに意味があると評されてきた。Google自身もこの見解を取っているとみえ、Glassは企業現場向けにカスタマイズされたアプリケーションを含むGlass Enterprise Edition (EE)という形で復活中だ。

企業ははるか以前からウェアラブルなヘッドマウントディスプレイを有用なデバイスとして使ってきた。Google Glassは一般消費者向けプロダクトとしては花々しい失敗に終わったが決して死んではいなかった。Googleでは企業現場向けのGlass EEとして普及を図るアプローチを取っている(Wired経由)。

新しいGlass EEのカメラは、以前の5メガピクセルから8メガピクセルに強化されている。バッテリー駆動時間も長くなりプロセッサも新しいものになった。ビデオ録画中を示すインディケーター、高速化されたWi-Fiも装備される(こうした改良のほとんどは大量生産のおかげえスマートフォンのコンポネントが大幅に値下がりしていることから恩恵を受けたものだろう)。しかしGlass EEの最大の改良点はモジュールがメガネ自体から脱着可能になったことだ。つまり安全ガラスを利用した産業用の保護メガネのようなデバイスを必要とする現場でも利用できるようになった。

Glassがメガネから脱着可能なモジュールとなったのはエンタープライズでのユースケースにきわめて大きなメリットだ。これによりいままでもよりもはるかに低コストかつ多様な現場でGlassが利用できるようになった。Wiredの記事によれば、Glass EEは「実験段階を卒業し、製造パートナーを得て本格的な量産態勢に入っている」ということだ。

Xチームが紹介するユースケースによれば、Google Glassは農業機械の製造、医療、DHLのロジスティクスなど多様な現場で用いられている。Glassソリューション・パートナーを通じて広くGlass EEが入手できるようになるため 今後はさらに多くのビジネス・アプリケーションが集まってくるはずだ。

Googleが消費者向けGlassの普及に失敗した後、一部のスタートアップはエンタープライズ向けのニッチ分野にGlass的なシステムの可能性を見出していた。Google自身がGlassの再活性化に乗り出したことはハード、ソフトのプラットフォームとして今後に大きな可能性を示すものだ。しかし同時にエンタープライズ向けAR、ヘッドマウントディスプレイの分野で活動するスタートアップにとっては手強いライバルが現れたことも意味する。

[原文へ]

(翻訳:滑川海彦@Facebook Google+

Googleから3Dモデリングツール、Blocks――Vive版とRift版あり

Googleは仮想現実環境でのコンテンツ制作が誰でも簡単にできるようにしようとしている。

たとえばGoogleの成功を収めたTilt Brushは非常に洗練されたVRペイント・ツールだ。今日(米国時間7/6)、 GoogleはVRプラットフォーム中で3Dオブジェクトを構築する新しいツールを公開した。

Blocksは無料で今日から利用可能だ。HTC Vive版とOculus Rift版が選択できる(GoogleのDaydream版はない)。使い方はTilt Brushを受け継いで非常にシンプルで、3Dモデリングが簡単にできる。ユーザーは作成したクールなオブジェクトをエクスポートしたりウェブで共有することも可能だ。

現在のVRタイトルに関していちばん多く聞かれる不満はリアルさに欠ける点だ。これはごく単純な形状のオブジェクトであっても3Dモデルをレンダリングするために膨大なコンピューティング・パワーを必要とするためだ。Blocksはこの点の改善も狙っている。デベロッパーはポリゴン・オブジェクトを手軽に作成し、ARないしVRプラットフォームにそのままエクスポートできる。

ただしBlocksはOculusの3Dツール、Mediumが狙っているほどのリアルさには及ばない。BlocksのターゲットはMediumを使いこなせるような上級デベロッパーではなく、どちらかといえばエントリーレベルのユーザーのようだ。Mediumは優れたツールだが、初心者には難しそうだとして敬遠されることがある。

[原文へ]

(翻訳:滑川海彦@Facebook Google+

拡張現実・複合現実がロボットの来襲から労働者を救えるかもしれない理由

人工知能、ひいてはロボットが人間の仕事を奪おうとしているという話は、これまで幾度となく目にしてきた。

容赦なく進化し続けるテクノロジーの様子を見ていると、確かに現在ある仕事の多くがそのうちなくなってしまうような気がする。しかし歴史を振り返ってみると、蒸気機関や電信システム、コンピューター、さらには産業ロボットも含め、革新的な技術は常に人間から奪うのと同じくらいの数の仕事を新たに生み出してきた。

そんなことは、仕事を失ってしまった人には関係ないかもしれない。シリコンバレーで生まれたテクノロジーに起因する経済的な変化が、現在の政情に少なくとも一部影響を与えているとも言える。しかしどんな理屈を並べたとしても、アメリカでは候補者のスキル不足が原因で何百万件もの仕事が余ってしまっているのは事実だ。

ということは、仕事の数が減っているのではなく、単に仕事の性質が変わりつつあるのだとも考えられる。景況の変化や市場の動き、そしてテクノロジーによって昔の仕事が復活することはないだろうが、仕事で求められるスキルは今後ますます高度になり、労働者はワークライフを通じて継続的にスキルアップしていかなければならなくなる。

しかし、この問題の一端を担っているテクノロジー自体が、このピンチから私たちを救ってくれるかもしれない。実際のところ、今まさにAR(拡張現実)とMR(複合現実)を使ったソリューションが誕生しようとしている。ひとつのテクノロジーで全ての問題が解決するということはないが、次世代の労働者を教育する上で、ARが大きな鍵を握ることになる可能性は高い。しかも、これはまだスタートに過ぎない。

新しい現実

写真:Microsoft

時間と位置関係が把握できるメガネを思い浮かべてみてほしい。オフィスや店舗内でそのメガネをかけると、視界には仕事に関係した図や手順、または3Dホログラムが映し出され、これまで全くやったことがない仕事についてステップごとに学ぶことができるとしたらどうだろうか。ARならこれを実現できるかもしれないのだ。

VR(仮想現実)ではユーザーが完全に別の世界に没入してしまうが、ARは仮想現実という名が示す通り、目の前の現実世界の上に重なったレイヤーのように機能する。ユーザーはARデバイスを使っても別の世界に移動するわけではないので、自分の机や居間、もしくは工場の様子をいつも通り目視できる。ただ違うのは、ユーザーが見るものには追加情報が投影されるようになるということだ。

初のコンシューマー向けARプロダクトとして誕生したPokémon Goは、ARの魅力を全世界に伝えることに成功した。そのかいあってか、一般大衆もARに興味を持ち始めている。Pokémon Goが特別なメガネ型のハードウェアではなくスマートフォンやタブレットを活用したように、初期のARプロダクトの多くでは、身の回りに情報を投影するために従来のデバイスを利用しなければならない。しかし、今後AR業界がテクノロジーと共に進化するにつれて、ウェアラブルデバイスを活用したハンズフリーなAR体験が実現できるようになるだろうし、それ以上のことも考えられる。

写真:Stefan Etienne/TechCrunch

ロボット、AI、ウェアラブルの分野に力を入れている調査会社Tractica最近のレポートでは、AR・MRヘッドセットが企業や製造現場で特に役に立つとされている。

「手で持つ必要がなく、目の高さで装着でき、必要なときだけ情報を表示できるなど、ARヘッドセットが投影するインターフェースは、手を使わなければいけない作業には理想的です。さらにユーザーは自分の目線で情報を確認できるので、現場作業の自動化やトレーニング、メンテナンス業務などにも役立つでしょう」とTracticaはレポート内で述べている。

Tracticaはこの市場をさらに細かく分け、「複合現実(MR)」と呼んでいる。彼らによれば、このテクノロジーは「位置追跡と深度センサーによって、より没入感の高い体験を提供しつつ、ホログラフィとして映し出された物体にも触れ合えるような仕組み」を備えているという。

この分野で企業向けのユースケースを確立しようとしているプロダクトの中では、恐らくMicrosoft HoloLensが1番よく知られているだろう。盛り上がりや知名度という意味では確かにMicrosoftはいいスタートを切ったが、彼らよりも規模の小さなMetaやOsterhout Design Group(ODG)、Daqriらも果敢に巨人に挑もうとしている。

Facebookも自分で画像フィルターを作れるARツールを4月のF8で発表したほか、Amber Garageはサードパーティーながら、今月Google Cardboard用のMRコンテンツが作れるHolokitをアナウンスした。Appleも最近のWWDCでARコンテンツクリエイター向けのプラットフォームをリリース。SamsungもMRツールを開発中で、Amazonもそのうちこの分野に進出してくるだろう。基本的にこれらのツールはコンシューマー向けのようだが、ビジネス環境で使われることになっても不思議ではない。

まだ市場が形成期にあるため、Tracticaは用心深くかまえているが、今後数年間で一気にこの分野が伸びていくとも予想している。なお、コンシューマー・エンタープライズ向け両方のソリューションがAR市場の成長を支えることになると考えられているが、このふたつのセグメントは別の市場として発展していくだろう。

Screenshot 2017-05-26 17.46.32.png

教育ツール

AIやロボットが具体的にどのくらいの仕事を消滅させるかについては議論の余地があるが、新たなテクノロジーが労働市場に何かしらの影響をもたらすというのは間違いない。ここで重要なのは、どうすればその影響を最小化し、AR・MRテクノロジーを使って労働者に新たなスキルを身につけさせられるかということだ。

AR・VR用のOSをつくろうとしているUpskill(旧名APX Labs)でCEOを務めるBrian Ballardは、私たちの社会では人間と機械の距離がかなり近づいてきているのに、うまく両者を繋げる仕組みがまだできていないと話す。彼は、座学だと現場の環境に基いた学習ができないため、結果的にロボットが人間の仕事を奪うことになると考えているのだ。

写真:Daqri

「まず、ある仕事をするためにはスキルを高めなければいけません」とBallardは言い「そして、スキルアップに繋がる有益な情報をうまく表示し、常にそれを確認できるような手段が存在します」と付け加えた。その手段こそがARテクノロジーを活用したもので、ARを使えば労働者の目の前に状況に合った情報を表示できるようになる。

MRヘッドセットを製造するDaqriのCEOであるBrian Mullinsは、AR・MRデバイスがスキルギャップを埋め、労働者が新たな仕事を獲得するための手助けをするようになると考えている。「ARは人間中心のテクノロジーで、うまく使えば知識の移転にも使えます。ARデバイスを活用すれば、労働者にこれまで携わったことのない仕事の手順を教え、彼らが正しい判断を下せるような情報を提供することができるのです」と彼は説明する。つまりARは強力なトレーニングツールになる可能性を秘めているのだ。

実用に耐えうるARソリューション

ARはまだ成長過程にあるテクノロジーで、ARを活用した教育ソリューションのほとんどが実験段階にあるが、これまでの様子を見ると、このテクノロジーがトレーニング期間の短縮に繋がりそうだということがわかる。あとは、メーカーやコンテンツの製作者、ユーザー次第だ。

例えば、GEはHoloLensを活用し、医療知識がない人でも超音波検査機を使って各臓器を特定できるようなテクノロジーを開発しようとしている。まだ製品化まではかなり時間がかかることが予想されるが、これはMRテクノロジーを使って新しい情報を提供しつつ、フィードバックを即座に与えることで、ユーザーの効率的な学習を支援するプロダクトの好例だ。

さらに、BoeingはARを利用して航空機用ワイヤーハブの製造といった業務の効率性を上げようとしている。同社が行った研究によれば、ARをトレーニングに活用した社員の方が、そうでない社員に比べて生産性や正確性が高く、トレーニング自体への満足度も高かったとされている。教室で授業を聞くだけのときとは逆に、彼らはトレーニング自体や学んだことを現場で思い出す過程さえ楽しんでいたのだ。

アイオワ州立大学と共同で行ったこの研究で、Boeingは被験者(ほとんどが大学側の人たち)が翼形の部品をつくる様子を観察した。作業前のトレーニングとして、あるグループは部屋の隅におかれたデスクトップマシンを使って手順書のPDFファイルを読み、別のグループは調節可能なアームのついたタブレットで同じPDFファイルを読み、最後のグループは3D映像で構成されたアニメーション入りの手順ビデオをARシステム上で視聴した。実験の結果、デスクトップマシンを与えられたグループのエラー率は劇的に高く、タブレット、ARシステムの順番でエラー率が下がっていった。

DaqriはSiemensの協力の元、Boeingの実験をさらに発展させ、世界レベルで同様の調査を行った。風力原動機やガスタービンの保守作業が対象となったこの調査でも、トレーニングにARを活用することで、Boeingの実験と同じような結果が得られた。DaqriのARヘルメットを活用しなかった場合、事前知識のない人が組立作業を終えるのには480分かかったが、ARヘルメットを使うことで作業時間はなんと45〜52分に短縮された。

出典:Daqri

世界規模といえば、先日Walmartは社員のトレーニングにSTRIVR Labs製のVRコンテンツを導入すると発表した。同社はOculus Riftのヘッドセットをトレーニングセンターに配備し、VRコンテンツと360度動画を使って幹部社員やカスタマーサービス部門のスタッフの教育を行おうとしているが、そのうちこれもMRに近い形に変わっていく可能性がある。

エンタープライズ市場でのスケール

もちろんAR周りの実験を行うのも大事だが、企業を相手にしたARビジネスをはじめるというのはまた別の話だ。というのも、大企業のほぼ全てで、各プロセスが在庫システムや基幹システムをはじめとする複雑なレガシーシステムと接続されている。

そこで先月DaqriはDellとパートナーシップを締結した。Dellでプロダクト戦略・イノベーション担当VPを務めるNeil Handは、同社がDaqriのヘッドセットの販売を通してエンタープライズ市場でARを普及させようとしていると話す。さらに彼によれば、DellがARと相性の良い業界を探そうとしていたことが、Daqriとタッグを組むにいたった主な理由のようだ。

「効率よくさまざまな分野でARの有用性を確かめられるというのが、Daqriとパートナーシップを結んだ主な理由です。過去にも他の技術に関して同じような戦略をとっていました。新しいテクノロジーをできるだけ多くの顧客に届けるにはどうすればいいのか、という問いが全ての出発点です」とHandは説明する。

DellはARプロダクトの開発についてもDaqriの協力を仰いでいく予定だが、彼ら自身はバックエンドシステムとの接続支援などを行うコンサルタントとしての機能を担っていく。DaqriのデバイスとDellのパソコンがセットで売れるなど、パートナーシップがDellのハードウェア売上にも繋がれば、両社にとっては願ったり叶ったりだ。

このパートナーシップの結果はもう少し時間が経たないと判断できないが、既にDaqriは、現場で利用可能なARソリューションの導入手順や各ユーザーのニーズに基いたプロダクト設計の方法、各業務に最適なUXの開発方法、さらには効果測定や他の業界に進出するための方法を突き止めることができた。

上記のような目覚ましい発展を遂げているとはいえ、まだARは生まれたばかりのテクノロジーだ。しかし今後人々が期待している通り市場が成長すれば、企業は社員が日々変わる経済に順応できるようにトレーニングを実施し、どんな環境の変化にも対応できるようになるだろう。

原文へ

(翻訳:Atsushi Yukutake/ Twitter

ビジュアルイフェクトのSpektralが$2.8Mを調達してAI制御のグリーンスクリーンに取り組む

拡張現実は今、買収ブームだ。FacebookやSnap、Appleなどなどが、ユーザーエンゲージメントの増大につながりそうなチームや技術にお金を投じている。デンマークのSpektralも、大きな将来性のありそうなこの分野で成功をねらっているビジュアルイフェクトの新人企業だ。すでにVCたちも注目しており、今日同社はLitecapAmp Venturesからの280万ドルの資金調達を発表した。その資金は同社の、機械学習に支えられたリアルタイムのグリーンスクリーン〔映像合成用グリーンバック〕技術の開発の継続に充てられる。

Spektralは、ベンチャー支援のスタートアップの多数派と違って通常の意味での製品がない。製品を作ってそれを市場に出す、という路線ではなく、Spektralは研究開発によるパテントの蓄積をねらっている。最初はCloudCutoutと呼ばれるスチルフレームを追究したが、その後はリアルアイムビデオへ移り、機械学習とスペクトラルグラフ理論を組み合わせて人や物を背景から分離し、それらを新しいストリームにオーバレイする技術を研究開発している。

この技術がSnapchatやMessengerに実装されている、と想像するのはきわめて容易だが、だからといってその技術が広く採用されているとは限らない。Spektralがその技術の用途を、プロダクションや広告などそのほかの分野に広げようと努力しているのも、たぶんそのためだ。

オブジェクトを背景から分離するための新しい設計の可能性を機械学習に求める研究は、そのほかの研究グループでも行われている。たとえばAdobe, Beckman Institute for Advanced Science and Technology, University of Illinois at Urbana-Champaignの三者の共同研究により、その処理を自動化する方法が発表されている。とは言うものの、ビデオと画像は二頭のまったく異なるモンスターだ。

これまでずっと、細線〔例: 人間のヘアー〕がカットアウト(切り抜き)を評価するときの重要な規準だった。SpektralのファウンダーでCTOのToke Jansenは曰く、髪の毛の切り抜きが難しいことを、人びとは簡単に忘れてしまう。人間が鋏を使って切り抜くときは、何も考えなくても複雑な形の周辺を正しく切り抜ける。しかしコンピューターの場合は、最新のディープラーニングのモデルを百万点の画像で訓練しても、マシンは間違える。

Spektralはその名のように、ビデオのフレーム中の部分画像のスペクトラルクラスタリング(spectral clustering)を実験している。その付加的な情報を事前に加えることによって、従来的なモデルを拡張する。将来的には、この技術から今よりも複雑なビデオ編集の道が開けるだろう。チームは、オブジェクトの操作に言及する。たとえば、友だちの手を自分の手で動かすなどが、彼らの開発の次のステップだ。

同社は今、その技術を次の段階へ進めるために、各分野の専門家を多数起用している。たとえばUnityで機械学習を仕切っているDanny Langeが、同社の取締役会に加わった。Langeは以前、Uberで機械学習部門のトップだった。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

HoloKitはARのためのGoogle Cardboardだ、レンズとミラーで像を二重化

Google Cardboardから得た啓示は、スマートフォンを目に十分近づけるとVRのヘッドセットになることだった。でも、MicrosoftのHoloLensのような混成現実(mixed reality, MR)の装備では、それほど単純ではない。…じゃないかな? しかしここにご紹介するHoloKitは、最小限の装置で拡張現実の体験を拙速に作り出す、とても巧妙なDIY製品だ。

そのアイデアはとても単純で、一対の鏡がスマートフォンのディスプレイを、角度のついた、半透明のフレネルレンズに反射する。そうすると、画像とその後ろの世界がARのように重なって見える。一方スマートフォンは、カメラとセンサーで目の前の世界を追跡する。

うまいやり方だし、数十年前にあった、ハーフミラー状のガラスを使う光学的トリックを思い出す。ARは二つの視像を重ねなければならないから、構造はCardboardほど単純ではない。でもこれなら、HoloLensを買うほどのお金がない人でも安上がりにARアプリケーションを試せるし、複数買ってグループに配布することもできる。

たとえば博物館が、あの有線方式の大げさで高価なHoloLensを導入して子どもたちに、ティラノザウルスの骨格の上にその体の画像を重ねて見せたりするだろうか? ありえないだろうね。でもこの製品なら、そんな目的にも使える。ユーザーがデバイスの方にばかり気を取られないようにするためには、ストラップを使うなど、装着方法を工夫すべきだね。

今HoloKitは(Microsoftが文句を言いそうな名前だが)、iPhone 7と同Plus, Google Pixel, そしてProject Tangoのハードウェアをサポートしている。

これを作ったAmber Garageは、Botao Huが創業したAR企業だ。彼は昨日(米国時間6/1)これを、Augmented World Expoでプレゼンし、コードとドキュメンテーションを来週GitHub上で公開する。

あなたも、欲しい? 組み立てキットは7月に発売される。Webサイトをチェックし、来週行われるAR in Actionで注文しよう。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Niantic、ポケモンGOの集客単価を発表――マクドナルドは最大1日300万ドル支払った計算

Nianticによれば、同社のゲーム、Pokémon GOは日本で延べ5億人の訪問者をマクドナルドなどの店舗に誘引したという。こうした提携スポットでは特別なデジタル・グッズが入手できる。ただしNianticはこれまで誘引した客1人当たりスポンサーがいくら支払っているかは明かしていなかった。

しかし昨日(米国時間5/30)、ブラジルの新聞、Globoに掲載されたインタビューでNianticの戦略的提携担当副社長、 Mathieu de Fayetは (翻訳によれば)「プレイヤーがある場所に行けばアイテムをゲットできるようにすることで、そういう場所の所有者であるパートナーから客単価で0.15ドルが支払われている。われわれは日本でこのシステムにより、すでに5億人を誘引している。[昨年夏のポケモンGOゲームのピーク時には]マクドナルドのは各店店舗1日あたり平均2000人を集客していた」と述べている。

しかしこの記事に対してNianticの広報担当者が訂正を加えた。それによると「0.15ドル」という数字は誤りだという。 おそらく翻訳の際に混乱があったのだろう。Nianticによれば同社の「集客1人あたりコスト(CPV)モデルでは、パートナーは提携スポットでは1日あたりユニーク客ごとの支払い額は0.50ドル以下としている」という。

0.15ドル/人で計算するとこうした提携によるNianticの売上は7500万ドルとなるが、0.5ドルという高い方の数字を採用すれば、2億5000万ドルだ。

日本のマクドナルドが3000店舗でポケモンGOと提携したとすると、ゲームの最盛期には客単価0.15ドルの場合90万ドル、客単価0.5ドルなら300万ドルが毎日Nianticに支払われた計算だ。

提携店舗を「ポケジム」にした場合、プレイヤーはバーチャル対戦ができる。「ポケストップ」の場合はタマゴやポケボールなどのモンスター捕獲アイテムを入手できる。

ポケモンGOはアメリカでSprintとStarbucksの7800店舗と提携している。両者ともこの拡張現実ゲームのマニアであるティーンエージャーや若い大人の歩行客を店舗に集める助けになると期待している。

ただし任天堂の取り分は売上のほんの一部だ。Nianticはライセンス料をPokémon Companyに支払うが、任天堂はこの会社の議決権の32%を所有している。

ポケモンGOがスポンサー企業にとって成功だったとしても、歩行客を現実店舗に呼び込むことを目的とするアプリは一つではない。ただYelpのようなサービスはレストランや店舗に客を送り込んだ成果を数量化するのに苦労している。客がYelpの情報によって行く店を発見したり、決めたりしたとしても、それを証明する方法がない。店舗にジオフェンスのような仕組みあってアプリに情報がフィードバックされるのでなければ客がどのような経緯で来店したか知ることはできない。

ポケモンGOの場合、プレイヤーはスポンサー企業の店舗に行くことで特定のバーチャル・グッズを手に入れるなどできる。ポケモンGO側では客が増えても追加コストはほとんどゼロだがス、ポンサーは集客1人ごとに最大0.5ドルを支払ってくれる。

位置情報ベースの各種の集客アプリも人気の高いバーチャルグッズや割引きクーポンなど追加コストがゼロに近いインセンティブを発見する必要があるだろう。こうすればスポンサーが拡大するにつれて利益率が急激に増加し、サービス開発の初期投資を回収できるようになるはずだ。しかしわざわざ特定の店舗に足を運び、手間をかけて獲得できる賞品がつまらないバッジやスタンプだけだったらYelpのユーザーは失望するだろう。アプリ側はもっとクリエーティブな才能を働かせる必要がある。

画像: Kentaro IEMOTO/Flickr UNDER A CC BY-SA 2.0 LICENSE

[原文へ]

(翻訳:滑川海彦@Facebook Google+

Scope ARの拡張現実コンテンツ制作ツールWorkLinkがMicrosoft Hololens用バージョンをローンチ

Microsoftの3000ドルもするHoloLens開発キットは、去年から今年にかけてたくさん出た消費者製品よりも多くの関心を集めてきたが、忘れてならないのは、その拡張現実ヘッドセットが、企業の空間的コンピューティングの新たなスタンダードを目指していることだ。

今日(米国時間5/11)、カナダ、アルバータのScope ARは、拡張現実のコンテンツ制作プラットホームWorkLinkの、HoloLensバージョンを立ち上げ、たとえば企業の遠隔地の作業員に、複雑な機械の修理や組み立て方法をAR画面で教えられるようにした。

Y Combinatorが支援している同社のツールは、それを使ってCADのモデルを実物オブジェクトの上にオーバレイできる。そしてそれにより、専門家からの指示や助言を受けられる。問題が起きても、手の施しようを迅速に教えてもらえる。そんなARベースのコミュニケーションはタブレットとマーカーを使って行われることが多いが、同社がねらっているのは、今後はそれをヘッドセットベースで行うことだ。

2010年に創業された同社は、誰も知らない間に多くの有名企業を顧客に抱えるようになっているが、守秘義務のためにその名を明かせないことが多い。今ここで勝手に挙名できるのは、NASA, Boeing, Lockheed Martin, Toyotaなどだ。

HoloLensの問題は、それがコンテンツを載せやすいハードウェアではないことだ。デベロッパーにとってそれは、UnityでHololensボタンを押すほど簡単な作業ではない。技術的な難関を、乗り越えなければならない。

WorkLinkは、HoloLensの外向奥行きセンサーを利用して作業対象のオブジェクトの上に粗いメッシュをかぶせ、そこにARによる手取り足取りのインストラクションを付ける。それは同社によると、“PowerPointでプレゼンテーションを作るぐらい易しい”そうだ。顧客サポートに伝えるべきARコンテンツを、非技術系の社員でも容易に作れるようになる、という含意だろう。今そのためのユーザープラットホームとしては、iOSとAndroidとWindowsをサポートしている。

“HoloLensにコンテンツを載っけるのはこれがいちばん簡単”、とScope ARのCEO Scott Montgomerieは宣伝も怠りない。


[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

F8:Facebook、SpacesでVRに最初の一歩―アバターを操作する愉快なプラットフォーム

FacebookがOculusを買収してから3年経ち、VR〔仮想現実〕はますますわれわれのオンライン生活に浸透してきた。今日(米国時間4/18)、サンノゼで開催されたF8デベロッパー・カンファレンスでFacebookはソーシャルVRの実現に向けて重要な一歩を踏み出した。

ベータ版として公開されたFacebook Spacesは簡単にいえばOculus Rift + Touchだ。これはFacebookが対話的3DソーシャルVRをサービスの中心に据えようとする野心的な試みだ。

SpacesではOculus環境を持つユーザーはFacebookアカウントを使ってVR環境で友達とコミュニケーションできるようになる。単なるチャットではなく、音声とアバターのボディ・ランゲージを使うことができる。

Spacesアプリでは、最大4人のFacebook友達が「スペース」と呼ばれる仮想空間にログインすることができる。ここではチャット、お絵描き、360度ビデオ視聴、Messengerによるビデオ通話、漫画のVRセルフィー(最近タグづけされたユーザー写真をベースに作られる)などを利用できる。機能としては基本的なものだが、明るく気軽に楽しめる愉快なサービスを目指しているようだ。Oculusのハードウェア自体がまだかさばり、冷たい印象を与えるのとは対照的だ。

初期のデモで私は短時間だがSpacesを試してみたが、このサービスは一般ユーザー向けにデザインされているという印象を受けた。 もっとも一般ユーザーの大部分はまだOculus Riftを持っていないのだが。Spaceはあまり真面目くさってコミュニケーションを追求してはいない。とっぴで楽しく少々混乱した場所だ。

Spacesのリリースでいちばん注目すべき点は、 今回はOculus Riftがターゲットだったが、すぐに他のVRプラットフォームにも拡張されることが明らかになったことだろう。Facebookのプロダクト・マネージャーのMike Boothは私にインタビューに対して、「われわれは最終的にはVRプラットフォームとなることを目指している」と語った。ここでカギとなるのは、Facebookが―Oculusをを傘下に持つとはいえVRのAppleのようなメーカーではなく、Googleのようなプラットフォームを目指していることだ。

ただしSpacesは現行のスマートフォンをベースにしたVRをサポートすることはない。SamsungやOculus GearのVRは固定視点の360度映像をベースにしており、これは自分のアバターをVR空間で操作すのに向いていない。Gear VRに関してはFacebook 360が用意されている。これは360度写真やビデオを見るためのアプリだ。

Boothによれば、「FacebookのビジョンはソーシャルVRであり、今回のSpacesはわれわれが目指すVRの最初の0.1%」だという。つまりFacebookは遠大な計画のもとに今回のリリースを行ったようだ。

先日の決算報告の電話カンファレンスでFacebookのCEO、マーク・ザッカーバーグは「VRが潜在的可能性をフルに発揮できるようになるには10年はかかるだろう」と述べた。現在FacebookでソーシャルVRを担当しているエンジニアは30人から50人程度だという。しかしVRとARは次第にFacebookのプロダクトで中心的地位を占めるようになっている。消費者の間でVRヘッドセットがポピュラーになるにつれてFacebookのVRエンジニアの数も急増することになるはずだ。

モバイルの世界で次の10年を支配するカギはAR〔拡張現実〕かもしれない。しかしFacebookはVRに関しても驚くほど前向きだ。VRに接するユーザー心理や反応をよく研究している。Spacesは最初の一歩かもしれないが、きわめて重要な一歩だ。

SpacesはOculus StoreのEarly Accessセクションから無料でダウンロードできる。


[原文へ]

(翻訳:滑川海彦@Facebook Google+

Appleは拡張現実に賭けたらしい?

Appleはどうやら拡張現実(AR)に対する大きな賭けに出たらしい。新しいブルームバーグレポートによれば、AppleはiPhoneのため、そして更にはスマートフォンとペアリングして使う新しいメガネ型デバイスのための、拡張現実機能を開発しているのかもしれない。

仮説としてのメガネは影も形もないものの、Appleが水面下で何を開発しているのかを知ることは興味深い。それはまずチームの結成から始まっている。

新しい拡張現実チームをリードしているのは、明らかにMike Rockwellだ。以前彼は、Dolbyで新しい技術やハードウェアのために働いていた。拡張現実に関して言えば、Rockwellは昨年の春に、経験豊富なエンジニアのチームを結成している。

Bloombergによれば、チームのメンバーとして挙げられているのは以下のような面々だ。

  • Cody White。CryEngineから派生したゲームエンジンを担当していた、Amazonの元リードエンジニア。
  • Duncan McRoberts。Metaの元ソフトウェア開発ディレクター。
  • Yury Petrov。Oculusの元研究者。
  • Avi Bar-Zeev。AmazonとMicrosoftで働いていたエンジニアで、特にHoloLensの経験がある。
  • ハリウッドのヒット映画の特殊効果に取り組んできた様々なエンジニアたち。

Appleで他のプロジェクトに取り組んでいた、ハードウェアならびにソフトウェアのエンジニアたちもチームに合流している。Appleはまた、MetaioFlyby Mediaを、プロジェクトの取得を目的として買収した。全体としては、今や数百人のエンジニアたちが拡張現実プロジェクトに従事している可能性がある。

これらはクールに聞こえるものの、実際にAppleが売り物として何をユーザーに提供するのかについては何も語っていない。ブルームバーグのレポートでは、詳細についてはあまり触れられていない。

Appleは、カメラアプリを使って、セルフィーのフィルターやリアルタイムオブジェクト検知を行うような、基本的な拡張現実機能から始めるかもしれない。言い換えれば、すぐにでもiOSに組み込まれた、Snapchatスタイルのフィルターが出ることを期待できるということだ。それ自身は拡張現実ではないものの、写真を撮影した後に画像のフォーカスを調整させることで、Appleはポートレートモードを超えたものを提供できる。今のところ私たちが分かったのはここまでだ。

もしAppleが拡張現実を真剣に考えているならば、これ以上の何かがあるはずだ。ブルームバーグは、仮想データを周囲に表示できる新しい拡張現実メガネについて語っているものの、その新しいデバイスで何をしたいのかはまだはっきりしていないように聞こえる。

例によって、この情報は割り引いて聞いて欲しい。そしてiOS11が、Appleの拡張現実への賭けの行方を垣間見せてくれるかどうかに注目しよう。

[ 原文へ ]
(翻訳:Sako)

地球儀とARアプリが合体&対話して地理の勉強がゲームのように楽しくなるOrboot

地理はクールだ。子どもたちが何と言おうとも。もっとクールなものがあるとすれば、それは拡張現実だけだ。それでは、この二つのクールなものを一つにまとめたものがあるとしたら、どうなるか? その名前はOrbootといって、なんだかとても楽しそうだ。ただし、クラスにiPadかAndroidタブレットがないとだめだけどね。

Orbootは、直径10インチの地球儀と、それ用のアプリ(iOSまたはAndroid)で、世界のいろんなことが分かり、またARでいろんなことができる。アプリ付きの地球儀をすでに持ってる人もいるかもしれないけど、でもあれは退屈だ、すごく。古典的な地球儀よりはOrbootのように本物の地球がいいし、表示をスワイプするだけよりは、実際に何かができた方が楽しい。

地球儀の上のさまざまなシンボルが、お話や動物や地図の中に現れると、子どもたちはそれとさまざまな対話ができる。たとえば象にいろんなものを与えてみて、象が好きなものを見つける。エヴェレストに登るための、いろんな登山道を調べる。ケニヤや中国の人のお話を聴く、ほかにも、いろいろできる。ぼくの甥っこなんか夢中になってたし、5年生ぐらいのクラスなら、順に親の出身国について知るのもよいだろう。

これを作ってる会社はPlay Shifuという名前で、スタンフォード大学とインド工科大学の卒業生が創ったスタートアップだ。AR製品はほかにもいろいろあるけど、いろんなことができる点では、Orbootがいちばんだろう。

Play ShifuはOrbootを始めるための資金をKickstarterで募集したが、目標額の15000ドルを4日で突破した。締め切りを延ばしているが、今なら、8つのレッスンがついて35ドルだ*。高くはないよね。もっといいのは、65ドルで二つ買って、ひとつを子どもの学校に寄付することかもしれない。〔*: 「動物」、「遺跡」、「食べ物」の三レッスンだけなら29ドル…各レッスンの目録と解説はKickstarterのページ上にある。〕

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Qualcomm、VRヘッドセット・アクセラレーター・プログラムを発表―開発キットも835対応へ

LAS VEGAS, NV - JANUARY 06:  Qualcomm CEO Steve Mollenkopf speaks during a press event at the Mandalay Bay Convention Center for the 2014 International CES on January 6, 2014 in Las Vegas, Nevada. CES, the world's largest annual consumer technology trade show, runs from January 7-10 and is expected to feature 3,200 exhibitors showing off their latest products and services to about 150,000 attendees.  (Photo by Justin Sullivan/Getty Images)

VR〔仮想現実〕が近々モバイル化することは間違いない。そしてモバイル・デバイスの市場を誰よりもしっかり握っているのはQualcommだ。そこでQualcommとしては世界のODM(オリジナル・デザイン・マニュファクチュラー)のコミュニティーにVR開発を普及させることがなにより急務となる。

モバイルVRのヘッドセットはスマートフォンをスロットに挿入して利用するような形式ばかりではない。中国その他の地域でもすでにオールインワン式のVRヘッドセットが強い関心を集めている。昨年QualcommはSnapdragon 820アーキテクチャに基づいたVRヘッドセットのレファレンス・デザインを発表している。今年に入って新しい835チップ用のアップデートも行われている。

Snapdragon VR820

Qualcomm VR 820レファレンス・デザイン

中国のODMの何社かはVRレファレンス・デザインをベースにヘッドセットを開発することに興味を示している。しかしQualcommはさらに広く世界的にユーザーを増やすためにヘッドマウント・ディスプレイ・アクセラレーター・プログラムを準備中だ。このプログラムに参加するVRヘッドセットのメーカーはQualcommのサプライ・チェーン・パートナー各社からの協力が得られる。また開発したプロダクトのマーケティングにおいてQualcommからの助力を期待できる。

Qualcommはまた「当初このプロジェクトはVRヘッドセットのメーカーを対象としているものの、近くAR〔拡張現実〕コミュニティーの各社もメンバーとなってSnapdragon 835チップの効果的な利用法を発見できるだろう」と述べている。

このVRヘッドセット開発加速計画のニュースに加えて、Qualcommはデバイス開発キットのアップデートも発表した。これは新しい835チップへの対応が主となる。新しい開発キットはユーザーのどんな動作にも追随する6DOF〔6自由度〕のモーション・トラッキングを可能にする。これは2台のカメラに加えて新しく視線トラッキングを利用している。こうしたテクノロジーは計算量を減らし、システムへの負荷を大きく軽減するという。

開発キットは今年の第2四半期にリリースされる予定だ。ヘッドセット・アクセラレーター・プログラムはすでにスタートしている。

画像:Justin Sullivan/Getty Images

[原文へ]

(翻訳:滑川海彦@Facebook Google+

Pokémon GO、今週末最大のアップデート―任天堂は80匹以上の新顔を追加

2017-02-16-pokemon-gen-2

「Pokémon GOの次世代ポケモンはいつ登場するんだろう?!」

というのは(私を含めて)多くのプレイヤーがしばらく前から抱いていた疑問だと思う。

任天堂/Nianticからついに公式の回答があった。「今週末登場」だ。

一時はかなり不安定だったサーバーもやっと安定した。世界中ほぼどこでもプレイできるようになった。そして今、スタート後ほぼ7ヶ月で…ついに新しいポケモンが大量に登場することになった。

われわれの取材に答えてNianticは「80匹以上のポケモンがジョウト地方(不案内な読者に説明しておくと これは1999年の『ポケットモンスター 金・銀』の舞台で、第2世代と呼ばれることもある)からPokémon GOに登場する」と確認した。

私はアップデートが行われる正確な日時を知りたかったがNianticは「今週のいつか」という以上の情報は明かしてくれなかった。では新しいポケモンは順次公開されるのかすべてが一度に公開されるのかを質問した。これに対して担当者は「アップデートが実施され次第、すべての新しいポケモンが発見可能になる」と答えた。

80匹が一度に公開されるといのは朗報だ。 これは当然そうあるべきだ。12月のアップデートではタマゴの状態でしか公開されない種類もあった。

その他公式に確認された事実

  • 新しい「進化」。 現行ポケモンの何種類かがさらに進化できることが判明した。Nianticによれば「進化」のためには「どうぐ」が必要になり、それらをポケストップから入手できる場合がある」という。ゲームのやり方をもう少し大胆に発展させる余地があったと思うのでこのあたりには多少失望した。
  • 2種類の「きのみ」が追加される。「なな」はポケモンの動きを遅くする(ボールを当てやすくする)。「ぱいる」はポケモンの捕獲に成功したときに得られる「ポケモンのアメ」を2倍にする。
  • トレーナーのアイテム追加。トレーナー用の新しい帽子、シャツ、パンツが入手できる。
  • ゲームモードの変化。発見したポケモンを捕獲するモードにも変化があるらしい。ただしNianticでは詳しく説明することを避けた。


以下の公式予告編ビデオもリリースされた

残念ながらこのビデオでは「捕獲方法の変化」を具体的に知ることはできない。しかし0:16あたりで映る新しい「きのみ」ボタンは注目だ。 カメラボタンもスクリーン上部に移動したようだ(しかし0:29ではいきなり下部右側に戻っている。おーっと!)。

あと0:20から 0:26ではプレイヤーは明らかに山の中や森でプレイしている。こうした場所はこれまでポケモンの発見率が極端に低いことで有名だった(ウォルマートの駐車場ならいくらでもいるのに…)。希望的観測かもしれないが、ポケモンをプレイできる場所が広がっているのかも?

今までのところ、位置トラッキング・システム、バトルの方法などについて変化があるのかどうかは分かっていない。いずれにせよ、これまでで最大のアップデートが行われることは間違いない。

「待てよ、しかし第2世代のポケモンには80匹ではなく100匹が追加されたはずでは?」といぶかるベテラン・プレイヤーがいるかもしれない。

そう、そこがやや曖昧なところだ。Nianticに尋ねたところでは「80匹以上」が追加されるということだった。ということは20匹については動向がはっきりしないわけだ。【略】ポケモンの数は分類の仕方、数え方にもよるが、それも実際にアップデートが行われれば詳しいことが判明するだろう。

ところで今回のアップデートは最初のリリースのときのような熱狂を引き起こすだろうか? その答えはたぶんノーだ。しかし同時にその必要はないともいえる。やることがなくなってゲームを中断しているプレイヤーを引き戻す効果はあるだろう。しかしスタート時の異常なまでのブームを何度も起すのは無理だし、そういうことにはならないだる。


熱心なプレイヤーのために私がビデオで気づいた点をいくつか紹介しておこう。

berries

1) モンスターはヤミカラス(Murkrow)?
2) 画面下のドロワーを開くと新しい「きのみ」が並んでいる
3) 右上の「購入」アイコンから判断すると「きのみ」を買うことができるらしい。

evolve

1) ポケモンには性別があった。矢印に注目してもらいたいが、性別のアイコンが追加されている。
2) 「進化(EVOLVE)」のボタンに表示されているシルエットはどうやら「タップした後のポケモンが進化した姿」を表しているらしい。 「進化」関連の「どうぐ」の追加でポケモンはいろいろな姿に進化できるようだ。いきなり進化されて面くらうのを防ぐのにいい考えだと思う。

〔日本版〕Pokémon GOのアップデートは任天堂のサイトで告知されている。チコリータ、ヒノアラシ、ワニノコなどが登場するという。

[原文へ]

(翻訳:滑川海彦@Facebook Google+

Microsoft HoloLensを使ったARゲームはこんな感じ―Valve Portalのデモビデオ

2017-02-07-holens-valve

ValveのPortalはパソコンゲームで非常に人気があるシリーズだ。一人称シューティングものばかりで少々うんざりしていたゲーマーはPortalが持ち込んだ一人称パズルを新鮮に感じたようだ。このパズルは拡張現実でプレイすると飛躍的に面白くなりそうだ。テーブル、天井、壁、床といった身の回りの現実の対象物を使ってあの独特のパズルがシームレスにプレイできる。

ともかく上のデモビデオを見るとそういう感じだ。クリエーターはKenny Wで、これまでにも優れたARゲームを開発している。以前発表したポケモンをフィーチャーした拡張現実ゲームは特に印象的だった。

ホロレンズを使って音声コマンドでポケモンにバトルさせよう!

Kennyの最新のプロジェクトはPortal独特のパズルをVR化することに成功している。Portalゲーム内のオブジェクトばかりでなく、キッチンのテーブルだの廊下の壁、天井といった現実の対象から不思議なサイロが飛び出している。

上のビデオから受ける印象とはやや違って、HoloLensは拡張現実デバイスなので仮想現実ビューワーのように視野を完全に遮ることはない。しかし消費者向け拡張現実のデモとしては非常によくできている。Microsoftに拍手だ。

Microsoftに頼みたいのは、HoloLensを使ったユーザー向けアプリを早く出してもらいたいということだ。

[原文へ]

(翻訳:滑川海彦@Facebook Google+


【以上】

Bots_aliveキットは、AIでおもちゃのロボットに、生き物のような可愛らしさを吹き込む

CESではガジェットの数が足りなくて困るということはなかったし、来月の玩具フェアでもガジェットに不足することはないだろう。素晴らしい人工知能を搭載したロボットとガジェットたち。とはいえ実は「人工知能」という意味では不足しているのだ。しかし、実際のAI研究者による、より慎ましやかなアプローチが、生き物のような振舞を生み出す、巧妙な手段を作り出した。既存のロボットを使ったシンプルでエレガントなソリューションによってそれは実現されている。

このキットの名前はbots_aliveというもので、現在Kickstarter上でわずか1万5000ドルを募集中だ。私はCESの会場で、作成者のBrad Knoxと、この技術について話をすることができた。大袈裟に喋って踊るロボットのおもちゃが当たり前とされていた会場の中で、そのシンプルなデザインに強く心惹かれながら私は会場を後にした。

それはこのようなものだ。まず1台のHexbug Spiderを手に入れることから始まる。これは25ドルで購入できるリモコン式の歩行ロボットだ。これは通常は小さな赤外線コントローラーで操作される。そして、このロボットをスマートにするために必要なのは、その頭にマーカーを貼り付けて、キットに付属する赤外線発生デバイスをスマートフォンのヘッドフォンポート(ほら、これが私の懸念していたことだ)に差し込み、アプリを立ち上げることだけだ。

bots_alive_playアプリは、コンピュータービジョンを用いて、ロボットならびにキットに含まれているブロックの位置を追跡する。またアプリはロボットの頭脳としても働き、ロボットにどのように動き、どこへ向かうかを指示する。ルールは単純だ:ロボットは、青いブロックを好み、赤いブロックを避ける。これは、それぞれはシンプルな要素が組み合わさって、シンプルではない遊びを生み出す例の1つだ。小さな迷路を作ってその道を歩かせたり、もしロボットを2台持っているなら、相手に向かって戦わせたりすることもできる。

しかし、Knoxのチームが、他の巧妙なプロセスを経て予め与えた生体模倣パターンによって、ロボットの振舞はより複雑で自然なものだ。そしてもちろん、機械学習も使われている。

このロボットのAIを構築するために、長年MITのメディアラボで働いてきたKnoxは、その振舞を実際の動物のものに基づくことを決定した。特に人間の振舞を用いている。チームはコンピュータービジョンシステムに、様々なシナリオで人間が操るロボットを見せた。例えば赤いブロックの向こうに青いブロックがあるシナリオ、赤いブロックが迷路になったシナリオ、等距離にある青いブロックのシナリオなどだ。

bots_alive_aug移動のためのベクトルデータといったシンプルなものだけではなく、ミスや、躊躇、障害物への衝突、なども同時に記録されている。そして、彼らはこの記録の全てを機械学習システムで処理してモデルを作った。それを使ってロボットを操り、その結果をテストしているが、まだ調整と個性の付与を行っている段階だ。こうしたプロセスについての詳細は、Knoxが今日(米国時間24日)投稿したブログ記事で読むことができる。

結果として得られたのは、不規則に振舞うロボットだ。間違った方向に少し進み、止まっては辺りを見回し、足跡を辿り直す。まあ要するに、小さな本当の生き物の振舞いのように見える。私個人にとってそれはとても魅力的だし、そのちょっとした気まぐれさは、事前に記述された人工的なものには見えない。

それは生命の存在を錯覚させる方法を考えさせる、興味深い事例だ。ヒト型ロボットが、予めキャプチャーされたダンスをきっちりと踊る動きは不快だが、この小さな虫のようなプラスチックのロボットが見せる、ちょっとした振舞は、人の気持を惹きつけることになんとか成功している。

特定の動作による強化を通じて「学習」する能力といった、機能の追加も計画されている。そして将来的には動作に対して、より明示的な制御を行うことができるようになるだろう。

bots_aliveキットはKickstarterの支援者には35ドルで提供される。もしHexbugも一緒に欲しい場合には60ドルだ。クラウドファンディングの終了後は、bots_aliveのサイトをフォローして、キットを購入することができる。

[ 原文へ ]
(翻訳:Sako)