より良いリスニング体験のために、 Mubert アプリ

AIを使って音楽を作るプロセスで良かった点は何ですか?面白かった点は何ですか?

私が経験したプロセス Mubert AI「と共に」音楽を作るというより、AI「のために」音楽を作るという感じでした。機械に適したテキストを書くのに慣れているので、機械に適した音を作るのは興味深いと思いました。そのため、主に、機械が適切に使用できるようにプロセスを調整する必要がありました。また、これをAIと呼ぶべきか、それとも高度なランダム化と呼ぶべきか、よく分かりません。

どのような新しい方法で Mubertの技術は応用できるのでしょうか?

個人的には、次のようなサービスが Mubert 今のムザックの現状みたいなものですね。否定的な意味ではなく、むしろ事実として。だからこそ、これらの音をどのように形作り、どのような空間に適用できるかを考えるのはとても興味深い。もしかしたら、まだ存在していないかもしれない空間に。

ジャスティン

しかし、企業の空想、効率を最大限追求したワークスペース、あるいは(ゲート式の)レジャー志向のワークスペースといったものの外側にある、こうした空間を想像するのは、時に非常に難しいと感じます。だからこそ、利益、成長、そして支配/搾取といったものの外側にある、新しい形のテクノロジーを想像することが非常に重要なのです。

実際、ミュージシャンが自分のサウンドを新しい方法で聴くことができる可能性を感じています。そのため、これをコンピューター上のスタンドアロン ソフトウェアとして使い、サンプルを実行して、ハードドライブの奥深くに埋もれている可能性のあるサウンドの組み合わせを表示できたらクールだと思います。