Googleのストリートビューの大量の画像で近隣社会の投票パターンを正確に予想できる

コンピューターによる画像分析がテキストの分析と同じぐらい上手になることの兆候か、スタンフォードの研究者グループが、Googleのストリートビューから集めた数百万の画像に基づいて、近隣社会の投票パターンを正確に予想することができた、とThe New York Timesが報じている。人工知能を利用してGoogleのストリートビューを社会経済学的な目的のために分析する研究プロジェクトは、Streetchangeなど過去にもあったが、今回のプロジェクトは大量の画像をAIのソフトウェアが処理する点が新しい。

研究のリーダーはスタンフォードのコンピュータービジョンのサイエンティストTimnit Gebru、そして研究チームはソフトウェアを使って5000万点の街路画像と位置データを分析した。目標は、ひとつのzipコードで表される地域や、ひとつの街区(有権者人口1000人ぐらい)の住民の、さまざまな特性情報を予想するために使えるデータを見つけることだ。

そしてそれらの画像から彼らが取得できた情報は、約2200万台(アメリカ全体の約8%)の車のメーカーと車種 と年式、3000種のzipコード、そして39000の選挙区だ。それらのデータを、国勢調査や大統領選投票記録など他のソースから得た情報とつき合わせることによって、各近隣社会の平均所得や人種構成、教育、そして投票パターンを正確に予想することができた。

たとえばAIが車の分類をできるようになるために、チームはMechanical Turkなどから集めた数百名の人間と車の専門家を使って、何百万もの画像中の自動車を同定できるよう訓練した。その結果彼らのソフトウェアは、5000万の画像中の車をわずか2週間で分類できたが、Timesの記事によると、それをもし車の専門家である人間がやったら15年はかかるそうだ。

全米科学アカデミーの会報に載った記事によるとチームは、自分たちの技術が毎年2億5000万ドルもかけている国勢調査を補完するものだ、と主張している。国勢調査は調査員の戸別訪問方式で労働集約的であり、人口65000に満たないような小さな地区は見過ごされることも多い。技術の進歩とともに、人口統計はリアルタイムにアップデートされるようになるかもしれないが、しかし研究者たちによると、個人のプライバシーを守るためにはデータの収集はコミュニティのレベルにとどめるべきだ、という。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

投稿者:

TechCrunch Japan

TechCrunchは2005年にシリコンバレーでスタートし、スタートアップ企業の紹介やインターネットの新しいプロダクトのレビュー、そして業界の重要なニュースを扱うテクノロジーメディアとして成長してきました。現在、米国を始め、欧州、アジア地域のテクノロジー業界の話題をカバーしています。そして、米国では2010年9月に世界的なオンラインメディア企業のAOLの傘下となりその運営が続けられています。 日本では2006年6月から翻訳版となるTechCrunch Japanが産声を上げてスタートしています。その後、日本でのオリジナル記事の投稿やイベントなどを開催しています。なお、TechCrunch Japanも2011年4月1日より米国と同様に米AOLの日本法人AOLオンライン・ジャパンにより運営されています。