今年初めから、一部のひとたちに向けてGoogle Glassの頒布が行われている。大いに話題になったし、いろいろな意見も出てきた。しかし今のところはまだ、Google Glassの本領を発揮することができずにいる。能力の全てを引き出すための、開発環境がまだ用意されていないためだ。Mirror APIを使ってメッセージを送ったり、写真や動画、ないしオーディオを再生することができる。しかし他にできることがほとんどないのだ。
GlassはもちろんAndroidが走っているのだが、複雑なアプリケーションを作るのに必要なGlass Developer Kit(GDK)は、アナウンスこそされているものの、まだ世の中に出てきていない。Googleは昨年リリースしたデモビデオの中で、Glassのさまざまな魅力をアピールしていたので、制限の多いMirror APIがリリースされた際には大いに失望の声があがったものだった。どう頑張ったところで、デモビデオにあるようなエクスペリエンスを提供するアプリケーションなど開発できないのだ。しかし、どうやら真のGlassアプリケーションを制作できるGDKのリリースも、どうやら間近に迫っているようだ。
これまでのところ、GoogleはI/Oカンファレンスなどでは標準のAndroid SDKでのアプリケーション開発を行うようにと要請していた。これによってAndroidの標準的機能を実現するアプリケーションを開発してみて欲しいとしていたわけだ。
それがこの度の本格的なGDKのリリースで、これまでは不可能であったか、あるいは1500ドルのデバイスを壊すことになってもかまわないと考えてハッキングするなどしてしか実現できなかった機能が利用できるようになる。例を挙げれば、GDKによりコンパス、ジャイロスコープ、加速度計などの搭載ハードウェアに直接アクセスすることができるようになるわけだ。さらに、開発者が自前でOpenGLベースのグラフィックをGoogle Glassに直接描画できるようにもなる。こちらの方が開発者に与えるインパクトは大きいかもしれない。現在のところは、HTMLベースのカードインタフェースを利用する以外の方法は提供されていない。しかしGDKの提供開始により、リアルタイムで動作するAR(拡張現実)アプリケーションやゲームなど、Glassのインタフェースをフルに活用するアプリケーションを作ることができるようになる。
これまでにも、公式APIを経由せずに直接制御するようなアプリケーションはあった。それらはMirror APIを利用するものとは全く違う世界を実現するものだ。GDKでいったい何ができるようになるのかについてはGlassを使ったナビゲーション実験の動画などを見てみて欲しい。Glass内蔵のセンサー類とグラフィック能力をフルに活用したアプリケーションとなっている。また既にご覧になった方が多いだろうが、Glassチームを見せてくれる隠し機能(イースターエッグ)も、GDKのポテンシャルを感じさせてくれるものだと思う。
GDKがリリースされれば、またGoogle Glass周りの動きが活発になってくることだろう。公式のAPI経由でリアルタイム顔認識なども行えるようになるわけだ。ネイティブAPIなしでは、Google Glassは「アプリケーションが少し使える、ウェアラブルなGoogle Nowクライアント」と位置づけられてしまうようなこともあった。APIの発表により、ついに本物のコンピューティングデバイスとしての魅力を解き放つことになるのだ。
[原文へ]
(翻訳:Maeda, H)