交通騒音も路上と室内では違う…3D空間内の複雑な音響編集を助けるResonance AudioをGoogleが発表

拡張現実(augumented reality, AR)は、コンピューターとの対話を三次元化するという展望により、徐々に伸びつつあるが、すでにいろんなプラットホームを提供しているGoogleは、その三次元空間に視覚だけでなく五感のすべてを持たせたいようだ。

今日(米国時間11/6)Googleは、同社のVR Audio SDKをベースとして、より総合的な空間オーディオプロダクトResonance Audioをモバイルとデスクトップ両用に作っていることを発表した。

Googleの説明によるこのSDKの用途は、“本物の音が人間の耳や環境と対話する”様相を再現することだ。たとえば、現実の音が物や環境によって歪むという現象も、ARの仮想的シナリオにおいて再現する。

たとえばあなたが大型ラジカセを持って歩いている仮想キャラクターだとすると、何かの曲を鳴らしながら開放的な空間を歩いているときと、吹き抜け階段を降りているときとでは、音はどう違うのか? Resonance Audioが対応しているこのような多様な状況により、ユーザー(デベロッパー)もそんな状況を三次元の奥行きの中で音で再現できるようになる。

またResonanceはデベロッパーがシーン中の音源を指定できるだけでなく、音源が動く方向も音質の変化で表すので、たとえばあなたがデジタルのキャラクターのうしろを通るときと、顔の前を通るときでは、反響音を変えられる。

上で例を述べたようなさまざまな状況の変化は、ゲームのデベロッパーにとってはおなじみのものだが、しかし複数の(数十の)音源が同時にいろんな状況で対話的に鳴るといった複雑な設定では、その対応も難しい。CPUはビジュアルにかかりっきりで忙しいことが多いから、音の表現のこのような複雑性は予想外の困難性をもたらし、結局ベーシックなオーディオだけで発売してしまうこともありえる。Resonanceはたとえば、一部の音のリバーブを、いろんな環境ごとに事前に作っておくといったトリックにより、音のリアルであるべき対話性が時間的にずれる、といった問題を解消する。

ResonanceはUnityやUnrealのようなゲームエンジンとも併用でき、またいろんな音響編集作業のためのプラグインも用意しているから、既存のワークフローとの相性も良いだろう。

GoogleはVRやARの基盤的技術への関心をベースとして、さらにそれらをゲームの開発に応用しようとしているようだ。先週Googleが見せたPolyは、3Dのアセットや環境のためのホームだ。そしてResonance Audioが空間的オーディオを提供し、よりリアルな音の開発を容易にする。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

投稿者:

TechCrunch Japan

TechCrunchは2005年にシリコンバレーでスタートし、スタートアップ企業の紹介やインターネットの新しいプロダクトのレビュー、そして業界の重要なニュースを扱うテクノロジーメディアとして成長してきました。現在、米国を始め、欧州、アジア地域のテクノロジー業界の話題をカバーしています。そして、米国では2010年9月に世界的なオンラインメディア企業のAOLの傘下となりその運営が続けられています。 日本では2006年6月から翻訳版となるTechCrunch Japanが産声を上げてスタートしています。その後、日本でのオリジナル記事の投稿やイベントなどを開催しています。なお、TechCrunch Japanも2011年4月1日より米国と同様に米AOLの日本法人AOLオンライン・ジャパンにより運営されています。