Mysterium Artifical Intelligence © Brown Mantis, Pixabay, AI-generated
Die Künstliche Intelligenz (KI) verändert das Leben von Menschen und Unternehmen nachhaltig. Und auch in der kreativen Musikproduktion ist KI mittlerweile ein Faktor. Doch welche Folgen hat das schon jetzt? Welche Chancen birgt die KI beim Komponieren, beim Aufbau einer Songstruktur? Aber auch: Welche Herausforderungen stecken in den Kreationen mit KI? Wie verändert KI das Komponieren von Songs? Wie verändert KI die Suchalgorithmen im Netz?
KI hilft in der Musikproduktion heute schon auf vielfältige Weise. Bei der Songerstellung angefangen bis hin zur Analyse und Empfehlung von Musik. Dazu gibt es verschiedene Tools und Plattformen, die KI zur Musikgenerierung einsetzen, wie z.B. AIVA, Udio, Suno und Co. Diese Tools können entweder ganze Songs generieren, basierend auf Text-Eingaben oder durch die Analyse von Musikstilen, oder sie können bei der Erstellung von einzelnen Elementen wie Melodien oder Rhythmen unterstützen. Doch – ist das noch Kunst? Darf man sich denn als Künstler bezeichnen auch wenn man nie ein Instrument gelernt hat, aber hörbare Ergebnisse beim Experimentieren mit KI erzeugt?
Künstliche Intelligenz: Die Basisinnovation
Die einen bezeichnen künstliche Intelligenz in der Form von ChatGPT und Co. als „fehlerhaft, dürftig, unzureichend oder auch grauenhaft, das braucht noch´n paar Jahre …“ – und – KI „manipuliere und verfälsche“. Die anderen sind von den neuen Möglichkeiten der KI sowohl begeistert, beeindruckt aber auch besorgt mit düsteren Vorahnungen. Wie steht es um die Künstler, Komponisten, Autoren und die ganzen anderen Kreativen? Phantasie, Kreativität, Innovationsgeist und Talent – werden die überflüssig? Hier kratzt Künstliche Intelligenz an den zutiefst menschlichen Fähigkeiten – werden die ersetzt?
Gleich vorweg: Nein! Die Kraft der kreativen Leistung eines menschlichen Gehirns läßt sich (zur Zeit) nicht nachbilden noch imitieren. Zwar ist die Basisinnovation der PC oder das Notebook, der – mit lernender KI-Software – und gezielten Fragestellungen (Prompts) methodisch-systematische Informationen, musikalische Harmonien, Grafiken, Videoclips oder andere Aktionen zubereiten – so, wie es der Nutzer beabsichtigt. Doch allein die bewußten Entscheidungen des Nutzers werden zu einer Wertschöpfung aus der Software. KI generiert und unterstützt also strukturierte Wissensarbeit – soweit die Theorie.
Innovationen der Technik entwickeln neue Musikstile
Auch „… haben sich in der Vergangenheit immer wieder neue Musikstile entwickelt – durch technische Innovationen. Hätte Georgio Moroder in den 70ern,“ so der Musikjournalist und -produzent Thomas Foster, „Bei der Aufnahme des Songs „I Feel Love“ von Donna Summer im Studio nicht mit Synthesizern experimentiert, wäre vielleicht damals nicht die Discomusik entstanden. Ohne Kraftwerks Experimente mit Drum-Machines und (damals noch analogen) Sequenzern, wäre Techno kaum vorstellbar gewesen …“ So haben neue Technologien wie Autotuner und Vocoder oder Sampler und Midi-Interfaces auch neue Styles entstehen lassen (beispielsweise massives Sampling bei „Beat Box“ von Art of Noise).
Die Software ist jedoch nur so gut wie deren Anwender. Ungenaue oder gänzlich neue Prompts können zu falschem Wissen führen – dass – wenn die Ergebnisse an die ausführenden Algorithmen(1) weitergegeben wird, auch großen Schaden anrichten kann. Grundsätzlich sei deshalb festgestellt: Die Kreativität kommt von den KI-Anwendern, aus einer Idee, die mit der Hilfe von KI umgesetzt wird. Die Erstellung eines neuen Musiktracks aber, wäre dann nur noch Handwerk …
KI macht riesige Fortschritte – der Code für Musik wird geknackt
In jüngster Zeit machte generative KI schon riesige Fortschritte bei der Erstellung glaubwürdiger Texte, Bilder aber auch Videos (z.B. über Dienste wie Midjourney ). Doch die Generierung von Audiofiles oder gar Musiktracks steckt noch in den Anfängen. Die Software Suno AI will jetzt den Code für die Generierung von Musik geknackt haben – und die Ambitionen der Gründer scheinen grenzenlos. Sie stellen sich eine (neue) Welt vor, in der das Musikmachen völlig „demokratisiert“ sei – oder eben eine konkrete Vereinfachung auch für Laien?
Das scheint die „Future Of Music“ zu werden. Während das Startup Suno ein ChatGPT für Musik entwickelt – bereitet das Unternehmen seine Kunden bereits darauf vor, dass bald jeder in die Lage versetzt sein werde, „seine eigenen Songs auf Profi-Niveau zu produzieren“ – doch was bedeutet das für Künstler*innen?“ (Zitate RollingStone 2024 ).
Disturbing Vernon Reid
Brian Hiatt , einer der Autoren des RollingStone-Magazins , schickte einen der von ihm selbst generierten Songs dem Gitarristen von Living Colour. Vernon Reid, der sich immer offen gezeigt hatte zu Gefahren und Möglichkeiten der KI-Musik, war fassungslos über die „beunruhigende Wirklichkeitsnähe“ des Songs. „Das seit Langem bestehende dystopische Ideal, die schwierige, chaotische, unerwünschte und verachtete Menschheit von ihrem kreativen Output zu trennen, ist in greifbare Nähe gerückt“ , resümiert Vernon Reid …
Der Physiker und SiFi-Schriftsteller Arthur C. Clarke gab in seinen „Clarkschen Gesetzen“ ,
die er schon 1962 im einem Essay aufstellte,
als drittes Gesetz zu bedenken – was heute ideal auf die neue Ära generativer KI zutrifft:
„Jede hinreichend fortgeschrittene Technologie ist von Magie nicht zu unterscheiden.“
Kritik am Umgang mit KI
Einige Softhersteller zieren sich, die Datensätze, die für das Training der KI verwendet wird, offenzulegen. Der Mitgründer Michael Shulman von Suno AI beispielsweise argumentiert, dass eine solche Vorgehensweise legal sei und sich zudem ziemlich ähnlich zu dem anderer KI-Entwickler verhalte. Der ehemalige Audio-Chefentwickler der Firma Stability AI, Ed Newton Rex, setzt noch einen drauf: es ließen sich mit Suno Songs generieren, die den Stimmen und Melodien der echten Musiker und Lieder täuschend ähnlich klängen. Obwohl Suno Prompts mit Künstlernamen blockiere, ließe sich dies Rex zufolge durch einen Rechtschreibfehler umgehen.
Auch die GEMA ist schon am Start …
… sie verklagte Suno AI. Der Musikrechteverwerter GEMA wirft dem KI-Unternehmen vor, geschützte Aufnahmen weltbekannter Songs verarbeitet und verbreitet zu haben. Suno habe geschützte Songs systematisch für das Training ihres Musiktools genutzt und diese KI verwerte das Erlernte nun kommerziell. Ohne die Urheber*innen finanziell an den Einnahmen zu beteiligen, so der Beitrag von radioeins rbb vom Januar 2025. Schon im November vergangenen Jahres verklagte die GEMA OpenAI – eine Musterklage wegen der unlizenzierten Nutzung geschützter Songtexte im Tool ChartGPT.
Tobias Holzmüller, CEO der GEMA, dazu: „Menschliche Kreativität ist die Grundlage jeder generativen KI. Doch in diesem Markt fehlt es bisher an elementaren Prinzipien wie Transparenz, Fairness und vor allem Respekt.“ In dem Dossier der GEMA sagt sie „dem gefährlichen Halbwissen den Kampf an. Und stellt die durchaus berechtigten Fragen auf: „KI im Kreativprozess nutzen – aber wie? Außerdem: Ist das überhaupt legal? An welche Regeln müssen sich die großen KI-Anbieter unbedingt halten?
Hier setzt sich die GEMA geschickt an die Spitze der Gegenbewegung für ein FairPlay: Sie sei „die starke Stimme der Urheberinnen und Urheber im KI-Zeitalter“ und veröffentlichte vor einigen Monaten eine KI-Charta , in der die „Grundsätze für ein konstruktives und faires Zusammenspiel von menschlicher Kreativität und generativer Künstlicher Intelligenz“ festgelegt wurden.
Stichwort re:publica
Die Musikwelt wird gerade grundlegend verändert – durch Künstliche Intelligenz. Angefangen mit dem Songwriting, die Musikproduktion, bis hin zu der Art, wie wir Musik entdecken, empfinden und konsumieren: KI-Generatoren eröffnen neuartige phantastische, aber auch hochkreative Möglichkeiten. Doch sie werfen ganz grundsätzliche Fragen auf: Was bedeutet das für Musiker*innen und Songwriter*innen? Während der re:publica im letzten Jahr sprach Anja Kathmann, der Head of Berlin Office für politische Kommunikation bei der GEMA, mit Annelie Schwarz aka “AUFMISCHEN” über Anwendungen von KI. Hier ein Auszug:
Anja Kathmann: Annelie, wie sind Sie musikalisch tätig?
AUFMISCHEN: „Ich bin Musikproduzentin, Rapperin, Schlagzeugerin und DeeJane. (…) Als Session-Produzentin kollaboriere ich mit verschiedenen Künstler*innen, komponiere Filmmusik und stehe als Künstlerin mit meinen Live-Performances auf Bühnen und in Clubs. Darüber hinaus biete ich Kurse und Workshops zur Musikproduktion an. Dieses Jahr habe ich mich intensiv mit dem Thema „KI in der Musikproduktion“ auseinandergesetzt, zahlreiche Workshops dazu geleitet und auf Panels, wie etwa der Beatcon, darüber diskutiert.“
Anja Kathmann: Sind Sie im Rahmen Ihres musikalischen Schaffens mit KI in Berührung gekommen? Wenn ja, wie?
AUFMISCHEN: „Ich nutze KI regelmäßig in der Musikproduktion und in meinen Sessions – vor allem, um Prozesse zu beschleunigen oder kreative Blockaden zu überwinden. In meinen veröffentlichten Songs gibt es jedoch bisher keine Tonspur, die direkt von einer KI erstellt wurde. Für mich dient KI vielmehr als Inspirationsquelle und kreativer Sparringspartner, nicht als Ersatz für meine Arbeit als Produzentin. Meine künstlerische Eigenständigkeit steht dabei immer an erster Stelle.“
Anja Kathmann: Künstliche Intelligenz – Chance oder Risiko? Was sagen Sie zur KI-Charta der GEMA?
AUFMISCHEN: „Erstens #4 “Transparenz”: Ich bin offen und neugierig gegenüber technologischen Fortschritten, wünsche mir jedoch stets klare Informationen darüber, wann und wo bestimmte Technologien eingesetzt werden. Transparenz schafft Vertrauen und ermöglicht einen bewussten Umgang mit Innovationen.“
„Zweitens #7 “Achtung der kulturellen Vielfalt”: KI ist niemals vollständig neutral und wird zwangsläufig bestimmte Inhalte bevorzugen, während andere benachteiligt werden – oft auf Kosten der Diversität. Daher halte ich es für essenziell, Meinungspluralität zu fördern und sicherzustellen, dass sie erhalten bleibt. Nur so können kulturelle Vielfalt und Kreativität langfristig geschützt und gestärkt werden.“
Das Interview wurde 2024 auf der © re:publica geführt.
Resümee
Produkte aus Künstlicher Intelligenz sind tatsächlich nur so gut wie ihre Anwender. Wenn jemand, der keinen blassen Schimmer vom „Musik machen“ hat, mit Suno AI, Sora, Udio etc. „mal schnell“ einen Song produzieren will, wird ´ne Bauchlandung hinlegen. Wahr ist aber auch, vorausgesetzt mit etwas musikalischem Talent, dass doch ziemlich jeder rasch in die Thematik einsteigen kann. KI kann aber auch für Musiker im Studio sehr hilfreich sein.
KI vereinfacht die professionelle Musikproduktion drastisch: Ein zusätzliches Instrument im Mix, das Aufpeppen und Glätten eines etwas holprigen Gesangs, die Generierung von Vielstimmigkeit oder intelligente Mastering-Ergebnisse und vieles mehr wird mit der KI und ausgefeilten Prompts einfach möglich.
Ein paar Softwaretipps
Es gibt mittlerweile unzählige Musik-Generatoren im Netz. Auf Netzwelt werden schon die „10 Besten“ vorgestellt. Wir stellen euch ein paar Generatoren mit unterschiedlichen Ansätzen vor sowie die in diesem Beitrag erwähnten:
- Sonarworks hat das Modul „SoundID VoiceAI“ veröffentlicht und richtet sich an professionelle Anwender. Ihr könnt mit dem „Voice-Transformer-Plugin“ z.B. Chöre aus nur einer Stimme erstellen oder eine Stimme mit der Stimme von verschiedenen Personen erklingen lassen …
- Suno AI , ist die im Beitrag immer wieder erwähnte Software und wurde zusammen mit Musikkünstlern entwickelt. Suno ist schon sehr ausgereift und scheint sich langsam zum Marktführer zu entwickeln.
- AIVA ist ein „Musikgenerierungsassistent“ mit dem du deine Songs in andere Musikstile umwandeln kannst. Mit Prompts wie „oliver tree type beat“ oder „alternative rock type beat“ sind 250 verschiedene Styles möglich.
- Auch Udio generiert Musik mit Textanweisungen. Speziell beim Gesang und in der Instrumentierung zeigt der Generator seine Stärken. Die Betaversion ist kostenlos. Nutzer können im Abo weitere Funktionen wie z.B. Audio-Inpainting(2) freischalten. Die Songtexte werden mit dem großen Sprachmodell (selbstüberwachtes maschinelles Lernen mithilfe einer großen Menge Text) erstellt.
- LoudMe V2.0 ist ein guter Musikgenerator für Soundeffekte. Der Fokus liegt klar auf der Verwendung des Songeffekt-Generators der Software. Außerdem gibt es eine umfangreiche künstlich erschaffene Musikbibliothek verschiedener Sounds und Genres aus der ihr euch inspirieren lassen könnt.
- Brev.ai ist ein kostenloser Text-zu-Musik KI-Generator. Brev.ai soll einzigartige Musikstücke generieren – basierend auf der Suno V3.5-Technologie unterstützt es verschiedene Musikstile und Genres und eignet sich unter anderem für Videos, Podcasts, Videospiel-Soundtracks.
- Für die Videokünstler unter euch zum Schluß noch eine Software für die Generierung von Videos: Sora ist eine von OpenAI entwickelte generative künstliche Intelligenz, die auf die Erstellung von Videos aus Texteingaben spezialisiert ist (Text-zu-Video-Modell).
Glossar
(1) Algorithmus = eine eindeutige Handlungsvorschrift zur Lösung eines Problems oder einer Klasse von Problemen. Ein Algorithmus ist eine klare, endliche Abfolge von unzweideutigen Anweisungen, die ein Problem löst oder eine Aufgabe ausführt.
Algorithmen in der Programmierung sind vielfältig: In elektronischen Steuergeräten für den Einsatz im Kfz beispielsweise, oder der Rechtschreib- und Satzbau-Kontrolle in einer Textverarbeitung, bis hin zu komplexen Analysetools für Aktienmärkte stecken tausende Algorithmen die ihrer programmierten Bestimmung folgen. Hinsichtlich der Ideen und Grundsätze, die einem Computerprogramm zugrunde liegen, wird dem Algorithmus jedoch in der Regel urheberrechtlicher Schutz versagt.
Populärer Gebrauch des Begriffs
Seit etwa 2015 hat sich der Begriff des Algorithmus im Zusammenhang mit Online-Marketing in der Presse- und Alltagssprache etabliert. Algorithmen bestimmen vor allem bei werbefinanzierten Angeboten, welche Inhalte und welche Werbeanzeigen dem Anwender gezeigt werden. Ziel dieser Algorithmen ist es, den Anwender möglichst lange auf einer Plattform zu halten: Es werden nur Anzeigen eingeblendet, bei denen die Wahrscheinlichkeit eines Klicks am höchsten ist.
Der Begriff Algorithmus fällt auch allgemein, wenn eine Software nach unbekannten, aber offensichtlich komplexen Regeln entscheidet. Beispielsweise, welche Ergebnisse von einer Suchmaschine angezeigt werden. Dabei schwingt häufig ein gewisses Unbehagen mit, eben weil dieser Algorithmus nicht transparent ist. Quelle: Wikipedia
(2) Audio-Inpainting = auch Audio-Interpolation, ist eine Methode zur Audiorestauration, bei der fehlende oder beschädigte Teile eines digitalen Audiosignals wiederhergestellt werden. Inpainting-Techniken werden dann eingesetzt, wenn Teile des Audiosignals aufgrund verschiedener Faktoren wie Übertragungsfehlern, Datenbeschädigung oder Fehlern bei der Aufnahme verloren gegangen sind.
Das Ziel des Audio-Inpaintings besteht darin, die Lücken (also die fehlenden Teile) im Audiosignal nahtlos zu füllen, so dass die rekonstruierten Teile nicht mehr vom Originalinhalt zu unterscheiden sind und hörbare Verzerrungen oder Veränderungen vermieden werden. Quelle: Wikipedia
Jetzt auf Thomann.de stöbern.
Wir sind Affiliate Partner bei THOMANN. Wenn du vorhast, demnächst Equipment zu shoppen und unsere Arbeit gerne unterstützen möchtest, nutze einfach diesen Link!
Es entstehen dir keine Zusatzkosten, aber wir erhalten eine kleine Provision.
Dafür schon mal vielen Dank 🙂
Folge uns jetzt auf Instagram, Facebook & YouTube und verpasse keine Artikel
und spannende Infos mehr!
Außerdem interessant: Unsere Facebook-Gruppe StageAID-Talk!