音楽業界は破壊的なストーリーが大好きだ。エレキギターはアコースティック音楽を殺すだろう、デジタル録音は音楽に取って代わるだろう、と。 生演奏のミュージシャン。オートチューンの登場で生歌は時代遅れになるだろうと予想されていた。しかし、実際にはそうはならなかった。AIは なんとなく構成が違うような気がします。

AIによる音楽作曲を理解する

AI音楽は単一のソフトウェアではなく、メロディー、リズム、コード進行、さらにはフルプロダクションといった膨大な録音カタログで訓練されたニューラルネットワーク上に構築されています。これらのシステムはパターンを組み合わせて音楽を作り出します。 新しい何か。

主な動作方法は 2 つあります。

  • 中には MIDI 指示を生成するものもあります。基本的には、どの音符をいつ演奏するかを楽器に指示するデジタル楽譜です。
  • 他のソフトでは、そのステップを省略して、スタジオセッションから出てきたようなサウンドの完全なオーディオ録音を生成します。

最新のAIツール 使い方は簡単です。説明を入力するだけで、システムがそのスタイルの音楽を吐き出します。トレーニングセットから曲をコピーするのではなく、AIが学習したルールを再構成して、新しい出力を生成するだけです。

AIによる音楽作曲の限界

AI を使用すると、メロディー、ビート、さらには完全な作品を簡単に生成できますが、それでも壁にぶつかることがあります。

スタイルの枠組みをコピーすることはできますが、なぜその曲がうまくいくのかを説明することはできません。人間 作曲家は記憶、文化的影響、そして実体験を頼りに作曲します。だからこそ、AIは説得力のある「悲しいピアノ曲」を生み出すことはできますが、実際に失恋や喜びを経験した人が書いた曲ほどの重みは持ちません。

これらのシステムは、既存の曲を精査し、パターンを見つけ出し、それらを新しいアレンジに組み合わせることで学習します。これは確かに巧妙ですが、全く新しいものを発明するのとは異なります。また、共同作業も行いません。人間の作曲家は、あなたとブレインストーミングを行い、様々な方向性を試し、アイデアを一緒に洗練させることができます。一方、AIの場合、インタラクションは「プロンプトを入力して、出力を得る」という程度で終わります。 

技術面では、ほとんどのジェネレーターはまだ限界があります。短いループや狭いジャンルへの絞り込みは可能ですが、進化するアレンジメントを伴うフルレングスの楽曲を構築するとなると、うまく機能しません。

AIは他のクリエイティブ分野にどのような影響を与えているのでしょうか?

AIのプレッシャーを感じているのは音楽業界だけではありません。画家、映画制作者、作家、デザイナーなど、誰もが「オリジナル作品とは何か?」「ツールとクリエイターの境界線はどこに引くべきか?」という同じ疑問に直面しています。

AI ジェネレーターは次のような用途で使用されます。

  • 視覚芸術 あっという間にスタジオ級の映像を制作できます。
  • アイデアを生み出し、反復的なタスクを処理するためのライティングとコンテンツ作成。
  • 映画やビデオの制作において、俳優の若返り、古い映像の整理、背景のエキストラの制作など。
  • 写真撮影では、古い写真を復元したり、照明を変更したり、オブジェクトを即座に削除したりできます。 

しかし、AIは人間を滅ぼすわけではない 創造性。あらゆる業界で、反復的な作業や技術的な作業を担い、アーティストのビジョン、感情、ストーリーテリングに余地を残す、協力者として最も効果的に機能します。 

今後の展望

音楽におけるAIは急速に進化していますが、まだ始まったばかりです。現時点では、ほとんどのツールは ループ、バックグラウンドトラック、あるいはコンテンツクリエイター向けの短い楽曲を吐き出すために使われています。しかし、今後数年間で、さらに大きな変化が見られるでしょう。

  • 一つの方向性は、アダプティブサウンド、つまり周囲の状況に応じてリアルタイムで音楽が変化するシステムです。例えば、あなたのペースに合わせてジョギングプレイリストを流すといった具合です。
  • パーソナライゼーションはさらに深化します。単に「あなたへのおすすめ」ではなく、リスナーの好みや心拍数、気分といった生体データに基づいて、即座に楽曲が作成されるようになるかもしれません。 
  • アーティストにとって新しい道が開けるだろう パーソナライズされた楽曲制作やインタラクティブな音楽などを通じて、作品を収益化する 経験。

もちろん、依然として大きな疑問が残っています。このように生成された音楽の所有権は誰にあるのでしょうか?ユーザーでしょうか、企業でしょうか、それとも誰もいないのでしょうか?著作権法がこれらの問題を解決しない限り、大規模な商用利用は慎重に進むでしょう。

最も可能性の高い未来は、ハイブリッドな未来です。AIの急速な進歩にもかかわらず、リスナーの約3分の1は、意味と感情の深さを理由に、人間が作曲した曲を聴き続けています。それでもなお、AIはミュージシャンの表現の幅を広げ続けています。 とプロデューサー 実験することができます。

比類のない人間の作曲家の卓越性

AIは音符を組み合わせる能力を向上していますが、人間の作曲家には機械が真似できない何かがまだあります。作詞家が誰かを失った悲しみを描写するとき、彼らは実際に経験した痛みから曲を書いています。一方、アルゴリズムは、悲しい曲はマイナーコードと遅いテンポに傾倒することが多いということだけを「知っている」のです。

音楽の魅力 ギターのビビリ音やボーカルのかすれ音といった不完全さから生まれることがよくあります。こうした瞬間が、完璧にプログラムされた音符では決して得られない、トラックに息吹を与えます。ミュージシャン 彼らはまた、自分たちの文化を部屋に持ち込み、周りの人々に直接語りかけるような曲を作り上げます。

そしてプロデューサーが スタジオで出会うと、彼らはただルールに従うだけではない。ジャムセッションをしたり、即興で演奏したり、アルゴリズムでは考えられないようなアイデアを偶然生み出したりする。こうした予測不可能性こそが、音楽を長く記憶に残す要因の一つなのだ。

音楽を作る Mubert

AIで音楽を作ってみませんか? Mubert Render 楽器を触ったことがなくても、とても簡単に使えます。

必要な情報を入力するか、画像から音楽を作成する機能を使って画像をアップロードするだけで、AIが曲を作成します。15秒から25分までの長さと、フルトラック、ループ、短いジングルから選択できます。「生成」ボタンを押して30秒ほど待つだけで、完全にオリジナルの曲が完成します。

生成されたすべてのトラック Mubert Render ロイヤリティフリーなので、著作権侵害や継続的なライセンス料を心配する必要はありません。YouTubeやTwitchの動画、コマーシャル、ブランドコンテンツ、ポッドキャスト、アプリ、ゲーム、個人のクリエイティブプロジェクトなど、様々な用途でご利用いただけます。

Mubert iOSとAndroid用のアプリがあるので、外出先でもトラックを生成して保存できます。開発者であれば、 Mubertさん API 独自のアプリ、ゲーム、またはプラットフォームに組み込み、ユーザーの操作に応じて変化する適応型のリアルタイム サウンドスケープを生成します。

結論

では、AIは 人間の作曲家?そうでもない、少なくとも完全には。

AIはまともなビートを作り、バックグラウンドトラックを生成し、特定のスタイルを模倣することさえできますが、アルゴリズムが芸術を創造しようとすると、まだ何かが欠けているように感じます。人間のミュージシャンは、歌に現実の経験を注ぎ込みます。彼らは悲しみを経験し、勝利を祝い、そして自らの文化を理解してきました。 

最も可能性の高い道は、AIが作曲家に取って代わることではなく、AIが作曲家と共働することです。なぜなら、曲の真の価値は、その背後にあるプロセスではなく、そこに込められた感情にあるからです。もしそれが共感を呼ぶなら、作曲に使われたツールは それは問題ではありません。