それは1989年だった。親たちはベルリンの壁が取り壊されるのを見ていたが、あなたは二階の自分の部屋でCasio SA-1の電池を交換し、コンサートに備えていた。それが叩き出すビートは熱い。あなたはデモ曲“Wake me up before you go-go”聴き、自分もやる気むんむんとなる。100種類ある音色の02番、”HONKY-TONK PIANO”を選ぶ。そのプラスチック製の象牙(鍵盤)をまさぐり、気分は絶好調。さあ、行くぜ!
しかし、ここまで^
悪くないね、そう思わない? でもこいつは、当時7歳の練習熱心な子の迷演ではなくて、人工知能が作ったオリジナル曲だ。そのAIを作ったのはGoogle ResearchというかGoogle Brainの連中。すでに記事のタイトルにあるから、驚かなかったと思うが、タイトルを飛ばしていきなり本文を読んだ人は、どうだったかな? ( )。
これは、“マシンインテリジェンスに音楽やアートの高度な生成能力を持たせるための研究プロジェクト”Magentaの、最初の公開出力だ。プロジェクトのサイエンティストの一人Douglas Eckによると、機械学習は発話認識(speech recognition)のような比較的単純明快なタスクではかなり進歩してきたが、でもそれは、たとえば、音の並びが音楽と呼べるためには何がどうあるべきか、を学習できるだろうか? あるいは、アートとして鑑賞できる色や言葉の並びを? へんてこな詩(PDF)を作ったことは、あったけど。
“発話認識や、翻訳、画像アノテーション〔タグ付けなど〕などでうまくいったやり方を基盤として、アートや音楽を創造できるすばらしいツールを作れる、と信じている”、とEckは書いている。
クリエイティブなワークは何でもそうだが、Magentaもまず必要なのは練習、そしてフィードバックだ。そのためGoogleは、クリエイティブとプログラミングの両方の分野に、コミュニティへの参加を呼びかけている。コードのチェックや、データの供給などのためだ。このプロジェクトはGitHubに置かれ、Google自身のオープンソースの機械学習プラットホームTensorFlowも利用できる。あなた自身の、フォークを作ってみよう。
研究者たちが初めて、コンピューターに作曲をさせてみたのは、もうかなり昔の話だ(数十年前)。でもGoogle Researchの潤沢なリソースと頭脳があれば、Magentaはもう一歩二歩進んだ結果を見せてくれるかもしれない。
このプロジェクトの今後の進捗は、Magentaのブログでチェックできる。