AIと創造性:アルバムコラボレーションの未来

【編集部注】著者のTaryn Southernは、デジタルアーティストであり映画監督でもある。彼女は現在、脳に関するドキュメンタリーを共同演出している。また彼女の音楽アルバム”I AM AI”は今年9月にリリースされる予定である。YouTuberとして、彼女は1000本以上の動画を制作し、5億回以上の再生数を数えている。

1年前に、私はアルバム制作に取り組み始めた。私はボーカル用のメロディと歌詞を書いていて、私のパートナーが全体の作/編曲を行っている。私たちはどちらも楽器を担当し、お互いを補い合っている。この関係における唯一の奇妙な点は…私のパートナーが人間ではないということだ。

それはAIなのだ。

この関係は好奇心から生まれたものだ。恐怖を煽る「見出し」が私のニュースフィードを埋め尽くした時期があった…たとえば「AIが私たちの仕事を、データを、そしてついには魂までをも奪う」といった類のものだ。

この議論は私に疑問を残した。AIの世界では本当は何が起きているのだろうか?私は偶然、AIが音楽を作るためにどのように使われて来たかを解説した記事に出会った。簡単なGoogel検索をしてみた私は、作曲は氷山の一角にすぎないことに気が付いた。AIは詩も書けば、フィルムの編集も行い、そしてアートを合成し…果てはチューリングテストにさえ合格していたのだ。

もっと知りたいと思った私は、手に入れることのできるすべてのAI音楽制作ツールを試し始めた。まず手始めにAmper、そしてAivaを使った。その後IBM WatsonとGoogle Magentaを使った(この世界には他にも数え切れないほどのツールが存在している、2,3例を挙げるなら、AI Music、Jukedeck、そしてLandrなどもある)。

私のサイドプロジェクトは、急速に本格的アルバム(”I AM AI”)制作へと進化した。これには人間と技術の間の希薄な関係を探求する一連のバーチャルリアリティーミュージックビデオを伴っている。昨年9月、私はAmperで制作した最初のシングルBreak Freeをリリースした。これはクリエイティブコミュニティで広範囲な注目と関心を引きつけた

多くの人が私に質問してきた:AIがあなたよりも創造的になる恐れがあると思うか?私の答は「いいえ」だ。多くの点で、AIは私がより創造的になる手助けをした。その際に、私の役割を編集者やディレクターのようなものへと変えながら。私はAIに(学習のためのデータ、または出力のためのパラメータの形で)指示を与える、するとAIが素材を出力してくるので、私はそれを編集しアレンジして、まとまりのある曲を作り上げるのだ。またAIを使うことにより、私はボーカルのメロディ、歌詞、ミュージックビデオなどの、創造の他の側面に向けて、多くの時間を割くことができた。それはただこれまでのやりかたとは違うだけで、創造的であることには変わりがない。とはいえ、先端技術恐怖症の人びとよ、安心するが良い:AIはまだ完璧な仲間ではない。

AIと共に進化する私たちの世界の未来は、誰にも予測できないが…私は楽観的だ。

AIとのコラボレーションプロセスを取り巻く謎は、まだ多く残されているので、会話の基本認識を擦り合わせるために、その内容を分解してみることは有益である。以下に私が使用した主要なプラットフォームと、それぞれとのコラボレーションから得た私の気付きを紹介して行こう。

  1. Amper 何人かのミュージシャンたちによって共同創業されたAmperは、商用のオリジナルスコアを作曲するためのプラットフォームとして出発した。現在は無償で一般公開されている。AmperはシンプルなUIを提供していて、そこではBPM(曲の速さ)や楽器編成、そして気分などを変えることができる。コードに関する知識は不要だ!

気付き:Amperを使い始めるまでは、私は異なる楽器の音を聞き分けていなかったし、自分が特定の音楽的好みを持っているとも思っていなかった。いまや、私は数十の楽器の音を聞き分け、特定の創造スタイルに磨きをかけている。たとえば、私は電子シンセサイザーを、ピアノと深みのあるベースとミックスすることをとても好むようになった。それは私が制作した360 VRミュージックビデオである以下のLife Supportの中で聞くことができる。

  1. AIVA:Aivaは、受賞歴のある深層学習アルゴリズムであり、初めて著作権協会に登録されたシステムだ。私は最初にロンドンで創業者の1人Pierre Barreauと会い、クラッシックの学習スタイルをポップス/シンセサイザーなどの楽器と組み合わせる機会に対して、本当に興奮した。AIVAは深層学習と強化学習を使用して、何千ものクラシック音楽を特定のスタイルで分析し、新しいスコアを作成する。

気付き:私がAIVAを用いた最初の曲Lovesickは、ロマン主義運動後期(1800年代の初期から中期にかけて)の数千曲の音楽を分析することで作成された。その結果、ウェストワールド風のピアノ曲が得られ、それを私が電子シンセサイザーを用いてポップファンク風にアレンジした。そのような馴染みのない素材とのコラボレーションは、これまでの思い込みを打ち破るという意味で非常に楽しいものだった。曲をアレンジしているときには、私は本当に私の「ポップスタイル習慣」の多くを無視しなければならなかった。

  1. Watson Beat(IBM):Watson Beatはフロントエンドを持っていないが、IBMの優秀なエンジニアたちが私に、始めるためのチュートリアルをいくつか教えてくれた。とはいえ、コードの扱いに対して自信をもっているならば、無償のオープンソースプログラムとしてGitHubからダウンロードすることが可能である。数日のうちには、私はシステムの操作に慣れていた。古いお気に入りの曲を入力して、スタイルにヒネリを入れた沢山の音楽の素を作り出してみた(たとえばペルー風ワルツのスタイルで演奏されるメリーさんの羊を想像できるだろうか?)。

気付き:私は、さまざまなデータ入力を、想像もしないジャンルとミックスした結果を楽しんだ。さらにそれによって、私の創造的なアイデアを支配している根本的な影響により多く気付くことができた。出力はMIDIで得られるので(これに対してAmperの出力はWAVあるいはMP3ファイルである)、演奏に際してアーティストたちは音符を自由に移調することが可能である。ありそうもない音楽のスタイルへと当てはめて行くことで、私はすっかりシンセサイザーの虜になった。Watson Beatを使った最初の曲は、今夏リリースされる可能性が高い。

  1. Google MagentaWatson同様に、MagentaはGithub上で無償で公開されるオープンソースである。簡単なフロントエンドを提供するツール(たとえばAI Duetsなど)も存在し、多少バックエンドのコーディングに関する知識が必要なものもある。クールなのは、Googleが備えとして提供しているツールの範囲と数である。おそらくプログラマーたちにとって最も強力な仕掛けだろう。

気付き:Magentaのツールでは、作曲だけに注意を向ける必要はない。サウンドを分析することも可能だ。例えばNSynthでは、2つの異なる楽器の音を組み合わせることができる(猫とハープをミックスしてみよう!)。Googleには、音色や振動の品質を調べるアルゴリズムがあり、多くのエキサイティングなアプリケーションが用意されている。

AIが人間の「特殊性」に関する多くの疑問を引き出すのは驚くべきことではない…しかし私たちは間違った議論に焦点を当てているのかもしれない。人類は常にテクノロジーと共に進化している。そして重要なのは私たちがAIをどのように利用するかの選択なのだ。私はこれが、氷山の一角に過ぎないと信じている…そしてそれは私たちが想像もできないような創造性を解き放つことになるだろう。

正式な音楽訓練を受けていない新しい物好きの人たちにとって、AIは非常に魅力的なツールとなるだろう ―― 単に学習のためではなく、自己表現の入口として。今や、誰でも、何処でも、音楽を作り上げる能力が手に入ったのだ ―― そして表現へ向かう渇望と能力こそが、私たちを人間たらしめているのだ。

[原文へ]
(翻訳:Sako)

Adobeは人間の創造性と知性を強化するために人工知能を使う

約1年前、AdobeはSenseiという名前のAIプラットフォームを発表した。他の企業とは異なり、Adobeは一般的な人工知能プラットフォームの構築には興味がないことを明言している。その代わりに、顧客の創造性を高めることに焦点を当てたプラットフォームを構築したいと考えているのだ。今週開催されているMaxカンファレンスで、Adobeはこれが何を意味するのかについてより多くの洞察を提供し、同時にSenseiをその主要ツールに統合するやり方についての、沢山のプロトタイプを示した。

「私たちは業界の他の企業が開発しているような汎用AIプラットフォームを構築しているわけではありません。もちろん彼らがそのようなものを構築していることは素晴らしいことですが」と、AdobeのCTOであるAbhay Parasn​​isは、本日(10月18日)の基調講演の後の記者会見で述べている。「私たちは創造的なプロフェッショナルたちが、画像、写真、ビデオ、デザイン、そしてイラストレーションに対して、どのように取り組んでいるかを、とても深く理解しています。私たちは、これらの非常に特殊なドメインについて何十年も学んできました、その価値の多くが私たちのAIに反映されているのです。Photoshopの最高のアーティストの1人が創作に時間を費やすとき、彼らがやることは何なのか、そしておそらくもっと重要なことは、彼らは何をしないのか?ということです。私たちはそれらを、最新のディープラーニング技術と組み合わせることで、アルゴリズムが創造的プロフェッショナルたちの真のパートナーになれるように努力を重ねています」。

これは、AdobeがAIの知恵を、今後どのように使用するかについての、中核をなす信条だ。

実際には、これは様々な形態で実現される。例えばSenseiが自動的にタグ付けした画像の検索を可能にすることから、特定のタスクを声で行えるようにすることなども含まれる。

本日の基調講演では、Adobeはこうした未来のシナリオのいくつかを披露した。例えば、映画のポスターのために撮影された、何百枚ものポートレート画像を持っているとしよう。素晴らしいレイアウトが決まったが、今必要になったのは、被写体が右を見ている写真だ。Adobe LabのDavid Nueschelerがデモで見せたように、Senseiを使えばそうした必要な写真が見つけられるようになるだろう。なぜならSenseiは全てのイメージに詳細なタグを付けることができるからだ。そして、このアイデアをさらに進めて、Nueschelerは被写体が見ている方向で画像をソートしてみせた(左向きから右向きの順で)。

Nueschelerはまた、デザイナーがSenseiに与えたスケッチにタグが付けられて、自動的にストックイメージの中からタグに一致するイメージが検索され、ある映画ポスターに辿り着くまでのデモも行った。それ自身印象的なデモなのだが、Senseiはまた、デザイン上の全ての意思決定も同時に追跡している(Adobeはその記録をCreative Graphと呼んでいる)。その記録を使うことによって(最終プロダクトには影響を与えることなしに)、時間を遡って、異なる意思決定が最終的な結果にどのような影響を与えるのかを見比べることができるようにする。またおまけとして、Nueschelerは、Senseiが画像の背景を自動的に判断して削除できることを示したが、これには日頃イメージのマスキングに苦労している聴衆から、本日発表された他のどのAIツールにも負けないほどの歓声が寄せられた。

この日Adobeがずっと強調し続けていたのは、彼らが注力しているものは機械を創造的にするためものではなく、人間の創造性と知性を増強するためのものだということである。このメッセージは、Microsoftなどが語っている内容と非常によく似ているが、Adobeが創造的なプロフェッショナルだけを対象としていることは明らかだ。

Adobeはまた、こうしたことを正しく行なうことの重要性も認識している。Parasn​​isはSenseiを「世代を超える賭け」と呼び、本日の基調講演の中でAIと機械学習を「次の10年の最も破壊的なパラダイムシフト」みなしていることを強調した。

Adobeは、創造的な世界でこれを実現するために、間違いなく多くのことを行なう事になる。AIは、結局のところ、沢山のデータがあるときだけ上手く働くものだ。そして創造がどのように行われるかについて、Adobeより多くのデータを持っている者はいない。

Adobeが将来的には、Senseiプラットフォームの沢山の機能を、外部の開発者たちに開放する予定であることは指摘しておく価値があるだろう。本日その方向への第一歩が示された。Senseiを使って画像の中のフォントをTypekitライブラリの中のフォントとマッチさせる機能を、サードパーティの開発者に開放したのだ。時間が経つにつれて、さらに多くの機能が開放されることになるだろう。

しかし、今のところ、AdobeはそのAI機能を、クラウドならびにデスクトップの中の、コアサービスやアプリケーションに組み込むことに集中しているようだ。

原文へ
(翻訳:sako)