Für den Einsatz von Künstlicher Intelligenz in der Musik braucht es im Musikbusiness Regeln: Das fordern über 200 Musiker*innen, die einen offenen Brief von Artist Rights Alliance unterzeichneten. Im Schreiben erklären sie, warum KI ihre Lebensgrundlage gefährdet.
Billie Eilish, die Imagine Dragons oder Nicki Minaj: Zusammen mit mehr als 200 anderen Musiker*innen haben sie einen offenen Brief der Organisation Artist Rights Alliance unterzeichnet.
Im Brief heißt es, dass Musiker*innen begrüßen, welche neuen Möglichkeiten durch den Einsatz von Künstlicher Intelligenz (KI) geschaffen werden. Gleichzeitig fordern sie die Musikwirtschaft und die Softwareunternehmen auf, dass KI in der Musik nur mit Bedacht und kontrolliert eingesetzt werden sollte. Aktuell ist das ihrer Meinung nach noch nicht der Fall.
"Konkret geht es vor allem darum, dass große Firmen gerade noch ungefragt Musik nutzen können, um ihre KI-Modelle damit zu trainieren."
In dem Schreiben wird besonders stark darauf hingewiesen, dass die Persönlichkeitsrechte der Musiker*innen durch KI verletzt werden können. Ein Beispiel dafür ist das Nachahmen der Stimme. KI komme hier unverantwortlich zum Einsatz, erklären die Musiker*innen ihre Sichtweise. Durch diese noch unkontrollierte Nutzung von KI sei für die Musiker*innen ihr Privatleben, ihre Identität, ihre Musik und die Lebensgrundlage aller Musiker*innen in Gefahr.
KI-Training mit Musik
Damit eine KI-Software Stimmen oder Musikstile kopieren oder weiterentwickeln kann, ist es nötig, die Software zu trainieren. Das passiert, indem die KI ganz viele Beispiele von Songs eingespeist bekommt. Im Moment bekommen Musiker*innen aber gerade kein Geld dafür, dass sich KI-Modelle mithilfe ihrer Lieder weiterentwickeln.
"Der Künstler, der Kreative, der Urheber ist, kann einschreiten, wenn er nachweisen kann, dass sein Erzeugnis hier verwendet wird."
Die Musiker*innen sagen außerdem: Dieses Training der KI zielt darauf ab, die Arbeit von menschlichen Künstler*innen zu ersetzen. Für die Entwicklung von KI gibt es bisher kaum Regelwerk, vor allem in Zusammenhang mit dem Urheberrecht in der Musik. Wer davon erfährt, dass die eigenen Songs zum KI-Training genutzt wurden, hat das Recht einzugreifen, sagt Reinhard Karger vom Forschungszentrum für Künstliche Intelligenz.
Problem ist laut Karger nur: Musiker*innen wissen selten bis nie, dass ihre Songs für das Training eines KI-Modells zum Einsatz gekommen sind. Auch zu beweisen, dass mit der eignen Musik KI trainiert wurde, ist kaum möglich. Ebenfalls ist beispielsweise in Deutschland noch nicht geklärt, wie und ob Musiker*innen entlohnt werden, wenn KI-Software mit ihren Songs trainiert wurde.
Lösungsansätze für Musik und KI-Software
Um das Training schon vor Erscheinung der Musik zu verhindern, können Musikdateien versiegelt werden, erklärt Reinhard Karger. Damit ist es möglich, elektronisch im Vorhinein zu untersagen, dass ein Song verwendet wird. Technisch wird eine Datei dabei so verschlüsselt, dass sie erst freigeschaltet werden muss, damit sie genutzt werden kann.
Für neu erscheinende Songs könnte das eine Chance sein, das Musikkunstwerk zu schützen. Das Problem ist aber, dass für die Milliarden von alten Songs, die schon Teil vom KI-Training waren, diese Sicherung zu spät kommt.
"Ein Lösungsvorschlag könnte sein, dass man elektronisch untersagt, dass ein Musikstück einfließen darf in das Training von einem großen Musikmodell.“
Eine weitere Idee ist es, explizite Menschenmusiklabels zu gründen. Das Qualitätssiegel ist dann: Ein Lied wurde hier von einem Menschen gemacht. Der Gedanke dahinter ist, dass solche Songs dadurch an Wert gewinnen. Sie enthalten das Versprechen, Musik mit Seele zu kaufen.