18.6 C
Kaiserslautern
Samstag, Juni 28, 2025
spot_img
StartRechtGEMAKI in der Musikproduktion: Chancen, Folgen und Gefahren
Anzeige

KI in der Musikproduktion: Chancen, Folgen und Gefahren

Mysterium Artifical Intelligence © Brown Mantis, Pixabay, AI-generated

Die Künstliche Intelligenz (KI) verändert das Leben von Menschen und Unternehmen nachhaltig. Und auch in der kreativen Musikproduktion ist KI mittlerweile ein Faktor. Doch welche Folgen hat das schon jetzt? Welche Chancen birgt die KI beim Komponieren, beim Aufbau einer Songstruktur? Aber auch: Welche Herausforderungen stecken in den Kreationen mit KI? Wie verändert KI das Komponieren von Songs? Wie verändert KI die Suchalgorithmen im Netz?

KI hilft in der Musikproduktion heute schon auf vielfältige Weise. Bei der Songerstellung angefangen bis hin zur Analyse und Empfehlung von Musik. Dazu gibt es verschiedene Tools und Plattformen, die KI zur Musikgenerierung einsetzen, wie z.B. AIVA, Udio, Suno und Co. Diese Tools können entweder ganze Songs generieren, basierend auf Text-Eingaben oder durch die Analyse von Musikstilen, oder sie können bei der Erstellung von einzelnen Elementen wie Melodien oder Rhythmen unterstützen. Doch – ist das noch Kunst? Darf man sich denn als Künstler bezeichnen auch wenn man nie ein Instrument gelernt hat, aber hörbare Ergebnisse beim Experimentieren mit KI erzeugt?

Künstliche Intelligenz: Die Basisinnovation

Die einen bezeichnen künstliche Intelligenz in der Form von ChatGPT und Co. als „fehlerhaft, dürftig, unzureichend oder auch grauenhaft, das braucht noch´n paar Jahre …“  – und – KI „manipuliere und verfälsche“. Die anderen sind von den neuen Möglichkeiten der KI sowohl begeistert, beeindruckt aber auch besorgt mit düsteren Vorahnungen. Wie steht es um die Künstler, Komponisten, Autoren und die ganzen anderen Kreativen? Phantasie, Kreativität, Innovationsgeist und Talent – werden die über­flüs­sig? Hier kratzt Künstliche Intelligenz an den zutiefst menschlichen Fähigkeiten – werden die ersetzt?

Anzeige
band zone orga-software

Gleich vorweg: Nein! Die Kraft der kreativen Leistung eines menschlichen Gehirns läßt sich (zur Zeit) nicht nachbilden noch imitieren. Zwar ist die Basisinnovation der PC oder das Notebook, der – mit lernender KI-Software – und gezielten Fragestellungen (Prompts) methodisch-systematische In­for­ma­tio­nen, musikalische Harmonien, Grafiken, Videoclips oder andere Aktionen zubereiten – so, wie es der Nutzer beabsichtigt. Doch allein die bewußten Entscheidungen des Nutzers werden zu einer Wert­schöp­fung aus der Software. KI generiert und unterstützt also strukturierte Wissensarbeit – soweit die Theorie.

So hört sich KI-generierte Musik heute an: Künstlich generierte Tracks stecken (bald) nicht mehr in den Kinderschuhen ... © Jürgen Ihle, Pixabay, AI-generated

So hört sich KI-generierte Musik heute an: künstlich generierte Tracks stecken (bald schon) nicht mehr in den Kinderschuhen … © Jürgen Ihle, Pixabay, AI-generated

Innovationen der Technik entwickeln neue Musikstile

Auch „… haben sich in der Vergangenheit immer wieder neue Musikstile entwickelt – durch technische Innovationen. Hätte Georgio Moroder in den 70ern,“  so der Musikjournalist und -produzent Thomas Foster, „Bei der Aufnahme des Songs „I Feel Love“ von Donna Summer im Studio nicht mit Synthesizern experimentiert, wäre vielleicht damals nicht die Discomusik entstanden. Ohne Kraftwerks Experimente mit Drum-Machines und (damals noch analogen) Sequenzern, wäre Techno kaum vorstellbar gewesen …“  So haben neue Technologien wie Autotuner und Vocoder oder Sampler und Midi-Interfaces auch neue Styles entstehen lassen (beispielsweise massives Sampling bei „Beat Box“ von Art of Noise).

Die Software ist jedoch nur so gut wie deren Anwender. Ungenaue oder gänzlich neue Prompts können zu falschem Wissen führen – dass – wenn die Ergebnisse an die ausführenden Algorithmen(1) wei­ter­ge­ge­ben wird, auch großen Schaden anrichten kann. Grundsätzlich sei deshalb festgestellt: Die Kreativität kommt von den KI-Anwendern, aus einer Idee, die mit der Hilfe von KI umgesetzt wird. Die Erstellung eines neuen Musiktracks aber, wäre dann nur noch Handwerk …

KI macht riesige Fortschritte – der Code für Musik wird geknackt

In jüngster Zeit machte generative KI schon riesige Fortschritte bei der Erstellung glaubwürdiger Texte, Bilder aber auch Videos (z.B. über Dienste wie Midjourney ). Doch die Generierung von Audiofiles oder gar Musiktracks steckt noch in den Anfängen. Die Software Suno AI  will jetzt den Code für die Ge­ne­rie­rung von Musik geknackt haben – und die Ambitionen der Gründer scheinen grenzenlos. Sie stellen sich eine (neue) Welt vor, in der das Musikmachen völlig „demokratisiert“ sei – oder eben eine konkrete Vereinfachung auch für Laien?

Das scheint die „Future Of Music“ zu werden. Während das Startup Suno ein ChatGPT für Musik entwickelt – bereitet das Unternehmen seine Kunden bereits darauf vor, dass bald jeder in die Lage versetzt sein werde, „seine eigenen Songs auf Profi-Niveau zu produzieren“ – doch was bedeutet das für Künstler*innen?“ (Zitate RollingStone 2024 ).

Anzeige

Disturbing Vernon Reid

Brian Hiatt , einer der Autoren des RollingStone-Magazins , schickte einen der von ihm selbst generierten Songs dem Gitarristen von Living Colour. Vernon Reid, der sich immer offen gezeigt hatte zu Gefahren und Möglichkeiten der KI-Musik, war fassungslos über die „beunruhigende Wirklichkeitsnähe“  des Songs. „Das seit Langem bestehende dystopische Ideal, die schwierige, chaotische, unerwünschte und verachtete Menschheit von ihrem kreativen Output zu trennen, ist in greifbare Nähe gerückt“ , resümiert Vernon Reid …

Der Physiker und SiFi-Schriftsteller Arthur C. Clarke gab in seinen „Clarkschen Gesetzen“ ,
die er schon 1962 im einem Essay aufstellte,
als drittes Gesetz zu bedenken – was heute ideal auf die neue Ära generativer KI zutrifft:
„Jede hinreichend fortgeschrittene Technologie ist von Magie nicht zu unterscheiden.“

Kritik am Umgang mit KI

Einige Softhersteller zieren sich, die Datensätze, die für das Training der KI verwendet wird, of­fen­zu­le­gen. Der Mitgründer Michael Shulman von Suno AI beispielsweise argumentiert, dass eine solche Vorgehensweise legal sei und sich zudem ziemlich ähnlich zu dem anderer KI-Entwickler verhalte. Der ehemalige Audio-Chefentwickler der Firma Stability AI, Ed Newton Rex, setzt noch einen drauf: es ließen sich mit Suno Songs generieren, die den Stimmen und Melodien der echten Musiker und Lieder täuschend ähnlich klängen. Obwohl Suno Prompts mit Künstlernamen blockiere, ließe sich dies Rex zufolge durch einen Rechtschreibfehler umgehen.

Auch die GEMA ist schon am Start …

… sie verklagte Suno AI. Der Musikrechteverwerter GEMA wirft dem KI-Unternehmen vor, geschützte Aufnahmen weltbekannter Songs verarbeitet und verbreitet zu haben. Suno habe geschützte Songs systematisch für das Training ihres Musiktools genutzt und diese KI verwerte das Erlernte nun kommerziell. Ohne die Urheber*innen finanziell an den Einnahmen zu beteiligen, so der Beitrag von radioeins rbb  vom Januar 2025. Schon im November vergangenen Jahres verklagte die GEMA OpenAI – eine Mus­ter­kla­ge wegen der unlizenzierten Nutzung geschützter Songtexte im Tool ChartGPT.

Das Hauptquartier der GEMA © GEMA

Das Hauptquartier der GEMA © GEMA

Tobias Holzmüller, CEO der GEMA, dazu: „Menschliche Kreativität ist die Grundlage jeder generativen KI. Doch in diesem Markt fehlt es bisher an elementaren Prinzipien wie Transparenz, Fairness und vor allem Respekt.“  In dem Dossier der GEMA  sagt sie „dem gefährlichen Halbwissen den Kampf an. Und stellt die durchaus berechtigten Fragen auf: „KI im Kreativprozess nutzen – aber wie? Außerdem: Ist das überhaupt legal? An welche Regeln müssen sich die großen KI-Anbieter unbedingt halten?

Hier setzt sich die GEMA geschickt an die Spitze der Gegenbewegung für ein FairPlay: Sie sei „die starke Stimme der Urheberinnen und Urheber im KI-Zeitalter“  und veröffentlichte vor einigen Monaten eine KI-Charta , in der die „Grundsätze für ein konstruktives und faires Zusammenspiel von menschlicher Kreativität und generativer Künstlicher Intelligenz“ festgelegt wurden.

Stichwort re:publica

Die Musikwelt wird gerade grundlegend verändert – durch Künstliche Intelligenz. Angefangen mit dem Songwriting, die Musikproduktion, bis hin zu der Art, wie wir Musik entdecken, empfinden und konsumieren: KI-Generatoren eröffnen neuartige phantastische, aber auch hochkreative Möglichkeiten. Doch sie werfen ganz grundsätzliche Fragen auf: Was bedeutet das für Musiker*innen und Songwriter*innen? Während der re:publica im letzten Jahr sprach Anja Kathmann, der Head of Berlin Office für politische Kommunikation bei der GEMA, mit Annelie Schwarz aka “AUFMISCHEN”  über Anwendungen von KI. Hier ein Auszug:

Anja Kathmann: Annelie, wie sind Sie musikalisch tätig?

AUFMISCHEN: „Ich bin Musikproduzentin, Rapperin, Schlagzeugerin und DeeJane. (…) Als Session-Produzentin kollaboriere ich mit verschiedenen Künstler*innen, komponiere Filmmusik und stehe als Künstlerin mit meinen Live-Performances auf Bühnen und in Clubs. Darüber hinaus biete ich Kurse und Workshops zur Musikproduktion an. Dieses Jahr habe ich mich intensiv mit dem Thema „KI in der Musikproduktion“ auseinandergesetzt, zahlreiche Workshops dazu geleitet und auf Panels, wie etwa der Beatcon, darüber diskutiert.“

Anja Kathmann: Sind Sie im Rahmen Ihres musikalischen Schaffens mit KI in Berührung gekommen? Wenn ja, wie?

AUFMISCHEN: „Ich nutze KI regelmäßig in der Musikproduktion und in meinen Sessions – vor allem, um Prozesse zu beschleunigen oder kreative Blockaden zu überwinden. In meinen veröffentlichten Songs gibt es jedoch bisher keine Tonspur, die direkt von einer KI erstellt wurde. Für mich dient KI vielmehr als Inspirationsquelle und kreativer Sparringspartner, nicht als Ersatz für meine Arbeit als Produzentin. Meine künstlerische Eigenständigkeit steht dabei immer an erster Stelle.“

Anja Kathmann: Künstliche Intelligenz – Chance oder Risiko? Was sagen Sie zur KI-Charta der GEMA?

AUFMISCHEN: „Erstens #4 “Transparenz”: Ich bin offen und neugierig gegenüber technologischen Fortschritten, wünsche mir jedoch stets klare Informationen darüber, wann und wo bestimmte Technologien eingesetzt werden. Transparenz schafft Vertrauen und ermöglicht einen bewussten Umgang mit Innovationen.“

„Zweitens #7 “Achtung der kulturellen Vielfalt”: KI ist niemals vollständig neutral und wird zwangsläufig bestimmte Inhalte bevorzugen, während andere benachteiligt werden – oft auf Kosten der Diversität. Daher halte ich es für essenziell, Meinungspluralität zu fördern und sicherzustellen, dass sie erhalten bleibt. Nur so können kulturelle Vielfalt und Kreativität langfristig geschützt und gestärkt werden.“

Das Interview wurde 2024 auf der © re:publica geführt.

Annelie Schwarz aka “AUFMISCHEN”, © @juliekeyphoto, re:publica 2024

Annelie Schwarz aka “AUFMISCHEN”, © @juliekeyphoto, re:publica 2024

Resümee

Produkte aus Künstlicher Intelligenz sind tatsächlich nur so gut wie ihre Anwender. Wenn jemand, der keinen blassen Schimmer vom „Musik machen“ hat, mit Suno AI, Sora, Udio etc. „mal schnell“ einen Song produzieren will, wird ´ne Bauchlandung hinlegen. Wahr ist aber auch, vorausgesetzt mit etwas musikalischem Talent, dass doch ziemlich jeder rasch in die Thematik einsteigen kann. KI kann aber auch für Musiker im Studio sehr hilfreich sein.

Anzeige

KI vereinfacht die professionelle Musikproduktion drastisch: Ein zusätzliches Instrument im Mix, das Aufpeppen und Glätten eines etwas holprigen Gesangs, die Generierung von Vielstimmigkeit oder intelligente Mastering-Ergebnisse und vieles mehr wird mit der KI und ausgefeilten Prompts einfach möglich.

Ein paar Softwaretipps

Es gibt mittlerweile unzählige Musik-Generatoren im Netz. Auf Netzwelt  werden schon die „10 Besten“ vorgestellt. Wir stellen euch ein paar Generatoren mit unterschiedlichen Ansätzen vor sowie die in diesem Beitrag erwähnten:

  • Sonarworks  hat das Modul „SoundID VoiceAI“  veröffentlicht und richtet sich an professionelle Anwender. Ihr könnt mit dem „Voice-Transformer-Plugin“ z.B. Chöre aus nur einer Stimme erstellen oder eine Stimme mit der Stimme von verschiedenen Personen erklingen lassen …
  • Suno AI , ist die im Beitrag immer wieder erwähnte Software und wurde zusammen mit Musikkünstlern entwickelt. Suno ist schon sehr ausgereift und scheint sich langsam zum Marktführer zu entwickeln.
  • AIVA  ist ein „Musikgenerierungsassistent“  mit dem du deine Songs in andere Musikstile umwandeln kannst. Mit Prompts wie „oliver tree type beat“ oder „alternative rock type beat“ sind 250 verschiedene Styles möglich.
  • Auch Udio  generiert Musik mit Textanweisungen. Speziell beim Gesang und in der Instrumentierung zeigt der Generator seine Stärken. Die Betaversion ist kostenlos. Nutzer können im Abo weitere Funktionen wie z.B. Audio-Inpainting(2) freischalten. Die Songtexte werden mit dem großen Sprachmodell (selbstüberwachtes maschinelles Lernen mithilfe einer großen Menge Text) erstellt.
  • LoudMe V2.0  ist ein guter Musikgenerator für Soundeffekte. Der Fokus liegt klar auf der Verwendung des Songeffekt-Generators der Software. Außerdem gibt es eine umfangreiche künstlich erschaffene Musikbibliothek verschiedener Sounds und Genres aus der ihr euch inspirieren lassen könnt.
  • Brev.ai  ist ein kostenloser Text-zu-Musik KI-Generator. Brev.ai  soll einzigartige Musikstücke generieren – basierend auf der Suno V3.5-Technologie unterstützt es verschiedene Musikstile und Genres und eignet sich unter anderem für Videos, Podcasts, Videospiel-Soundtracks.
  • Für die Videokünstler unter euch zum Schluß noch eine Software für die Generierung von Videos: Sora  ist eine von OpenAI entwickelte generative künstliche Intelligenz, die auf die Erstellung von Videos aus Texteingaben spezialisiert ist (Text-zu-Video-Modell).

Glossar

(1) Algorithmus = eine eindeutige Handlungsvorschrift zur Lösung eines Problems oder einer Klasse von Problemen. Ein Algorithmus ist eine klare, endliche Abfolge von unzweideutigen Anweisungen, die ein Problem löst oder eine Aufgabe ausführt.

Algorithmen in der Programmierung sind vielfältig: In elektronischen Steuergeräten für den Einsatz im Kfz beispielsweise, oder der Rechtschreib- und Satzbau-Kontrolle in einer Textverarbeitung, bis hin zu komplexen Analysetools für Aktienmärkte stecken tausende Algorithmen die ihrer programmierten Bestimmung folgen. Hinsichtlich der Ideen und Grundsätze, die einem Computerprogramm zugrunde liegen, wird dem Algorithmus jedoch in der Regel urheberrechtlicher Schutz versagt.

Populärer Gebrauch des Begriffs

Seit etwa 2015 hat sich der Begriff des Algorithmus im Zusammenhang mit Online-Marketing in der Presse- und Alltagssprache etabliert. Algorithmen bestimmen vor allem bei werbefinanzierten Angeboten, welche Inhalte und welche Werbeanzeigen dem Anwender gezeigt werden. Ziel dieser Algorithmen ist es, den Anwender möglichst lange auf einer Plattform zu halten: Es werden nur Anzeigen eingeblendet, bei denen die Wahrscheinlichkeit eines Klicks am höchsten ist.

Der Begriff Algorithmus fällt auch allgemein, wenn eine Software nach unbekannten, aber offensichtlich komplexen Regeln entscheidet. Beispielsweise, welche Ergebnisse von einer Suchmaschine angezeigt werden. Dabei schwingt häufig ein gewisses Unbehagen mit, eben weil dieser Algorithmus nicht transparent ist. Quelle: Wikipedia 

(2) Audio-Inpainting = auch Audio-Interpolation, ist eine Methode zur Audiorestauration, bei der fehlende oder beschädigte Teile eines digitalen Audiosignals wiederhergestellt werden. Inpainting-Techniken werden dann eingesetzt, wenn Teile des Audiosignals aufgrund verschiedener Faktoren wie Übertragungsfehlern, Datenbeschädigung oder Fehlern bei der Aufnahme verloren gegangen sind.

Das Ziel des Audio-Inpaintings besteht darin, die Lücken (also die fehlenden Teile) im Audiosignal nahtlos zu füllen, so dass die rekonstruierten Teile nicht mehr vom Originalinhalt zu unterscheiden sind und hörbare Verzerrungen oder Veränderungen vermieden werden. Quelle: Wikipedia 

Anzeige
thomann music

Jetzt auf Thomann.de stöbern.

Wir sind Affiliate Partner bei THOMANN.  Wenn du vorhast, demnächst Equipment zu shoppen und unsere Arbeit gerne unterstützen möchtest, nutze einfach diesen Link!

Es entstehen dir keine Zusatzkosten, aber wir erhalten eine kleine Pro­vi­sion.
Dafür schon mal vielen Dank 🙂

Folge uns jetzt auf InstagramFacebook & YouTube und verpasse keine Artikel
und spannende Infos mehr!

Außerdem interessant: Unsere Facebook-Gruppe StageAID-Talk!

Andreas Cattarius
Andreas Cattarius hat an der Fachhochschule Kaiserslautern Innenarchitektur studiert. Im Jahr 1995 gründete er mit Freunden den Live-Club „Fillmore Kaiserslautern“ und in den darauffolgenden Jahren machte sich dieser Liveclub überregional einen Namen mit erfolgreichen Konzerten für die Alternativszene. Als DeeJay und Talentscout entwickelte er eine Nase für Musik-Trends der alternativen Szene und förderte die lokale Musik- und DeeJay-Szene. In dieser Zeit erwarb er erste Kenntnisse im Schreiben von Bandbeschreibungen der Künstler, die in seinem Club auftraten. Er lernte was erfolgreiches Eventmarketing bedeutet und machte sich einen Namen als überregionaler Veranstalter für innovative Bands. Als Redakteur für das Kaiserslauterer Stadtmagazin „Pavillon“, hier zuständig für die Rubrik „Szene“, entwickelte er seine journalistischen Fähigkeiten. 2002 ließ er sich zum „Internetapplikationsentwickler“ ausbilden und erlernte das „Handwerk“ des Webdesigns. Er entwickelte bereits 2003 im Team einen Online-Lieferservice für Pizzas in Worms. Seit 2018 gehört er fest zum „Kunstgriff-Event“ Team.
Anzeige
Anzeige

MEISTGELESEN

WordPress Cookie Plugin von Real Cookie Banner