今や世界中の主要都市では、いつでもあらゆる角度から写真やビデオが撮影されている。理論的には、十分な数が集まれば道路や建物の配置がわかる ―― 待て、理論的に? いや実際に、だ。VarCityというプロジェクトがスイスのチューリッヒを再現するデモを見せてくれた。
複数年にわたるこの取り組みは、数多くのオンライン資源 ―― ソーシャルメディア、公開ウェブカメラ、車載カメラ、空中写真など ―― から得た画像を収集・分析して都市の3Dマップを作っている。ある意味でGoogleストリートビューの逆だ。地図を写真で図解するのではなく、写真に基づいて地図自体を作る。
このためVarCityのデータは非常に濃密だ。街路を見下ろすウェブカムは交通の流れや人々の歩く時間からいつ照明が消えるかまで時間を追って記録している。同じ建物を異なる角度から撮影した写真からは、大きな窓や壁の表面の正確なサイズを知ることができる。
チューリッヒ工科大学のチームが何年もかけて調整してきたアルゴリズムは、歩道と車道、芝生などの違いを見分けることができる。画像の見た目は粗いが、膨らんだ縁やぼやけた自動車は容易に認識して高精度で再構築することができる。
重要なのは、一連のアルゴリズムを別のデータの山に適用することによって、自分でデータを集めることなく、同じようにリッチな地図データを作れることだ。
「もっと多くの画像やビデオをシステムが分析できるようになればモデルはもっと正確になる」とプロジェクトメンバーで博士研究員のKenneth Vanhoeyがチューリッヒ工科大学のニュースリリースで言う。「プロジェクトの目的は3D都市モデルのアルゴリズムを開発することであり、今後手に入る画像やビデオの量が劇的に増えていくことを前提にしている」。
このプロジェクトからいくつかのスタートアップがすでに生まれている。SpetandoとCasalvaは、バーチャル建築検査と損傷分析を提供している。Parqueryは、都市の3D情報を使って駐車スペースをリアルタイムで監視する。方向はやや異なるが、UniqFEEDは公開ゲームを監視して、フィードに表示された時間を広告主やプレーヤーに知らせるサービスを行っている。
上のビデオは研究内容を要約したもので、データやモデルを詳しく説明した長編のビデオは今週中に公開される予定だ。
[原文へ]
(翻訳:Nob Takahashi / facebook )