GoogleのAIが初期のCasioのシンセに匹敵する音とメロディーを作り出す

burning-man-piano

それは1989年だった。親たちはベルリンの壁が取り壊されるのを見ていたが、あなたは二階の自分の部屋でCasio SA-1の電池を交換し、コンサートに備えていた。それが叩き出すビートは熱い。あなたはデモ曲“Wake me up before you go-go”聴き、自分もやる気むんむんとなる。100種類ある音色の02番、”HONKY-TONK PIANO”を選ぶ。そのプラスチック製の象牙(鍵盤)をまさぐり、気分は絶好調。さあ、行くぜ!

しかし、ここまで^

悪くないね、そう思わない? でもこいつは、当時7歳の練習熱心な子の迷演ではなくて、人工知能が作ったオリジナル曲だ。そのAIを作ったのはGoogle ResearchというかGoogle Brainの連中。すでに記事のタイトルにあるから、驚かなかったと思うが、タイトルを飛ばしていきなり本文を読んだ人は、どうだったかな? ( )。

これは、“マシンインテリジェンスに音楽やアートの高度な生成能力を持たせるための研究プロジェクト”Magentaの、最初の公開出力だ。プロジェクトのサイエンティストの一人Douglas Eckによると、機械学習は発話認識(speech recognition)のような比較的単純明快なタスクではかなり進歩してきたが、でもそれは、たとえば、音の並びが音楽と呼べるためには何がどうあるべきか、を学習できるだろうか? あるいは、アートとして鑑賞できる色や言葉の並びを? へんてこな詩(PDF)を作ったことは、あったけど。

“発話認識や、翻訳、画像アノテーション〔タグ付けなど〕などでうまくいったやり方を基盤として、アートや音楽を創造できるすばらしいツールを作れる、と信じている”、とEckは書いている。

クリエイティブなワークは何でもそうだが、Magentaもまず必要なのは練習、そしてフィードバックだ。そのためGoogleは、クリエイティブとプログラミングの両方の分野に、コミュニティへの参加を呼びかけている。コードのチェックや、データの供給などのためだ。このプロジェクトはGitHubに置かれ、Google自身のオープンソースの機械学習プラットホームTensorFlowも利用できる。あなた自身の、フォークを作ってみよう。

研究者たちが初めて、コンピューターに作曲をさせてみたのは、もうかなり昔の話だ(数十年前)。でもGoogle Researchの潤沢なリソースと頭脳があれば、Magentaはもう一歩二歩進んだ結果を見せてくれるかもしれない。

このプロジェクトの今後の進捗は、Magentaのブログでチェックできる。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

投稿者:

TechCrunch Japan

TechCrunchは2005年にシリコンバレーでスタートし、スタートアップ企業の紹介やインターネットの新しいプロダクトのレビュー、そして業界の重要なニュースを扱うテクノロジーメディアとして成長してきました。現在、米国を始め、欧州、アジア地域のテクノロジー業界の話題をカバーしています。そして、米国では2010年9月に世界的なオンラインメディア企業のAOLの傘下となりその運営が続けられています。 日本では2006年6月から翻訳版となるTechCrunch Japanが産声を上げてスタートしています。その後、日本でのオリジナル記事の投稿やイベントなどを開催しています。なお、TechCrunch Japanも2011年4月1日より米国と同様に米AOLの日本法人AOLオンライン・ジャパンにより運営されています。