SZ + Feuilleton
Merken

Kann der Computer einen Hit schreiben?

Künstliche Intelligenz mischt auch die Musikbranche auf. Generell überwiegt jedoch Gelassenheit - auch bei Komponisten in Sachsen wie Sven Helbig.

Von Andy Dallmann
 7 Min.
Teilen
Folgen
NEU!
Künstliche Intelligenz ist auf dem Vormarsch, doch kann sie auch die Arbeit von Komponisten und Musikern übernehmen?
Künstliche Intelligenz ist auf dem Vormarsch, doch kann sie auch die Arbeit von Komponisten und Musikern übernehmen? © Getty Images

Die Frage, ob Künstliche Intelligenz künftig die Pop-Musik prägen könne, wurde schon häufig mit ironischen Verweisen gekontert. Etwa: Wieso künftig? Die ist doch längst in vielen Studios zugange. Zu deppert seien manche Songs, als dass sie ein denkender Mensch erfunden haben könnte. Was die KI zugleich das I kosten würde: Künstlich ja, doch keinesfalls intelligent. Dennoch gilt als sicher: Ob serielle Hits aus dem Hause Dieter Bohlen, die auf dem immergleichen Beat reitenden Ballermann-Nummern oder die Liedchen der Amigos – alles war bisher wohl menschengemacht. Das dürfte sich nun ändern.

Blixa Bargeld, Frontmann der Einstürzenden Neubauten, hat di Arbeit mit KI gestestet und das Ergebnis als "bescheuert" bezeichnet.
Blixa Bargeld, Frontmann der Einstürzenden Neubauten, hat di Arbeit mit KI gestestet und das Ergebnis als "bescheuert" bezeichnet. © dpa

Einen Test gönnte sich immerhin sogar Blixa Bargeld, Frontmann der Berliner Band Einstürzende Neubauten. Doch er sieht in der KI kein hilfreiches Instrument für seine Arbeit. „Ich habe mal spaßeshalber KI ein paar von meinen Texten schreiben lassen“, sagte der Sänger. „Ich war erstaunt, wie bescheuert sie waren“, beurteilte Bargeld das Ergebnis der künstlich generierten Textzeilen. „Ich habe es nicht verwendet, aber ich habe immerhin geguckt, was kommt dabei raus.“

Ganz anders Rania Kim. Sie sitzt in einem Musikstudio in Berlin-Kreuzberg. Um sie herum hängen Gitarren an der Wand, ein Keyboard steht in der Ecke. Ihren Blick wendet sie dem Bildschirm zu, denn gerade produziert sie ihre Musik am liebsten mithilfe von Modellen Künstlicher Intelligenz. „Ich betrachte alle Werkzeuge als Hilfe für die Kreativität“, erzählt sie.

Die von Los Angeles nach Berlin gezogene Musikerin Rania Kim arbeitet regelmäßig mithilfe von KI an neuen Stücken.
Die von Los Angeles nach Berlin gezogene Musikerin Rania Kim arbeitet regelmäßig mithilfe von KI an neuen Stücken. © dpa

Schon seit neun Jahren experimentiert die aus Los Angeles stammende Künstlerin mit unterschiedlichen KI-Anwendungen. Heute lehrt sie an einer Universität in Spanien und hat neben Live-Auftritten, bei denen sie die Musik mit ihren Bewegungen steuern kann, auch Kooperationen mit anderen Künstlern. Aber nicht alle sind bereit für das Thema. „Viele Künstler haben Angst, dass sie durch KI ersetzt werden“, sagt sie. Es sei aber wichtig, dass Künstler sich damit beschäftigen, um die Rolle der Technologie besser zu verstehen.

„Wellenformvorhersage“, nennt Rania Kim das System hinter vielen KI-Modellen. Zum Beispiel das, mit dem sie ihre Stimme trainiert hat. Mithilfe eines eigens dafür programmierten Modells speiste sie über 200 ihrer eigenen Songs in die Anwendung ein. Diese analysierte die Audiowellen und versuchte, ähnliche Wellenformen, also neue Songs, auf deren Basis herzustellen. In zweieinhalb Tagen generierte das Programm eine zehnstündige Melodie, aus der die Künstlerin dann Elemente entnahm und damit weiter experimentierte. Daraus entstand das erste KI-Album ihres Projekts „Portrait XO“.

Debatten um Urheberrechte bei KI-Modellen

Doch die KI-Unterstützung wirft auch rechtliche Fragen auf. „Man hört jetzt schon KI-Musik im Radio, ohne dass man es weiß“, sagt Reinher Karl. Er ist Anwalt mit dem Schwerpunkt auf Urheberrecht, wird in Expertenrunden zum Thema eingeladen und spricht mit ernstem Blick über die Auswirkungen durch den Einsatz von KI in der Musikwelt. Es gebe viel Diskurs zum Thema. Eine Komposition sei erst dann als Musikwerk urheberrechtlich geschützt, wenn sie eine persönliche geistige Schöpfung sei. „Die Frage ist, wie die jeweiligen KIs genutzt werden. Erst wenn so viel persönliche Kreativität im Prozess ist, dass KI lediglich Werkzeug ist, dann kann das Ergebnis ein Musikwerk sein“, erklärt Karl.

Aber auch Persönlichkeitsrechte sind ein Thema. Die Rechte an der eigenen Stimme macht sich derzeit zum Beispiel die Plattform Youtube mit dem Experiment „Dream Track“ zu eigen, das auf dem Musikgenerierungsmodell Lyria von Google DeepMind basiert. Neun Künstler machen nach Angaben der Plattform bislang bei dem Projekt mit, unter anderem Popsänger John Legend und Sängerin Demi Lovato. Nutzer können so mit einer einfachen Texteingabe kurze, 30-sekündige Musikstücke mit der KI-generierten-Stimme der jeweiligen Künstler nach eigenen Vorstellungen erzeugen lassen und diese in ihre Videos einbinden.

Paul McCartney und sein Ex-Beatles-Kollege Ringo Starr haben 2023 einen alten Song von John Lennon mithilfe von KI fertiggestellt und veröffentlicht.
Paul McCartney und sein Ex-Beatles-Kollege Ringo Starr haben 2023 einen alten Song von John Lennon mithilfe von KI fertiggestellt und veröffentlicht. © Invision/AP

Braucht es bei so innovativer Technik denn dann überhaupt noch Künstler? „Die KI ist nie so gut wie eine KI plus ein menschlicher Kurator, der danach das Beste rausholt“, sagt Derek von Krogh, künstlerischer Direktor und Geschäftsführer der Popakademie Baden-Württemberg. Seine Prognose: Musik werde in Zukunft komplexer und harmonisch intelligenter. Künstler bräuchten um ihre Jobs nicht zu bangen. „Jemand, der jetzt in der Popmusikbranche versucht, die Menschen mitten ins Herz zu treffen, der muss sich keine Sorgen machen.“

Sorgen machen sich viele Musiker dennoch. Nach einer aktuellen Befragung der Gema, die sich in Deutschland um die Urheberrechte von über 90.000 Mitgliedern kümmert, sehen zwei Drittel ihrer komponierenden Klientel den Einsatz von KI eher skeptisch. Vor allem natürlich, weil sie eben genau ihre Urheberrechte bedroht sehen. Denn einerseits nutzen viele KI-Anwendungen bestehende Werke als Basis, um die Modelle zu trainieren. Dies werde bislang noch nicht bezahlt, heißt es von der Gema. Andererseits könnte die Überflutung der Streaming-Dienste mit KI-generierter Musik dazu führen, dass echte, also menschliche Künstler weniger verdienen. Genauer: Noch weniger, denn schon bisher kommt für die meisten Musiker auf diesem Weg nicht viel rum.

Wenigstens könnte der Kollege mit dem künstlichen Gehirn die Arbeit etwas leichter machen. Damit rechnen 35 Prozent der von der Gema befragten Mitglieder. Das Gute dabei ist: Arbeitet ein Komponist mit der KI zusammen und lässt diese nicht allein schöpfen, zahlt die Gema Tantieme. Vorausgesetzt natürlich, irgendjemand führt diese Musik dann auch öffentlich auf, sendet oder streamt sie.

Der Dresdner Komponist Sven Helbig schreibt seine Musik ganz bewusst immer noch mit Bleistift auf Notenpapier und arbeitet nicht mit dem Computer.
Der Dresdner Komponist Sven Helbig schreibt seine Musik ganz bewusst immer noch mit Bleistift auf Notenpapier und arbeitet nicht mit dem Computer. © PR

Dass gerade Musik, die nicht von einem Komponisten, sondern von einem Computer verfasst wurde, sich mitunter gar nicht live interpretieren lässt, hat der Dresdner Komponist Sven Helbig festgestellt. „Die KI weiß einfach nicht, zumindest noch nicht, wie hoch das Horn wirklich kommt oder die Geige oder das Cello. Und sie kreiert so Klänge und Melodien, die kein Mensch auf einem echten Instrument umsetzen kann.“ Andere Programme würden darauf Rücksicht nehmen, erreichten dafür aber in ihren Klang-Ergebnissen nur ein niedriges Niveau. Helbig: „Das ist meist unbefriedigend, redundant und langweilig.“

Er findet das Thema KI zwar spannend, schließe auch nicht völlig aus, irgendwann mit KI zu arbeiten. Gegenwärtig gebe es aber für ihn keinen Anlass, das zu tun. „Ich komponiere lieber selbst, schreibe Musik auch immer noch mit Stift auf Notenpapier. Damit bin ich schließlich schneller als mit einem Computer.“

Artemi-Maria Gioti forscht an der Dresdner Musikhochschule in Sachen Musik und KI.
Artemi-Maria Gioti forscht an der Dresdner Musikhochschule in Sachen Musik und KI. © Lucija Novak

Doch die Technik eröffnet tatsächlich bereits jetzt bislang ungeahnte Möglichkeiten: In Frankreich arbeitet das Label Warner Music gerade daran, der Stimme der verstorbenen Sängerin Edith Piaf wieder Leben einzuhauchen. An der Universität Würzburg will eine neue Forschungsgruppe grundlegende Methoden zur Musikanalyse mithilfe des maschinellen Lernens weiterentwickeln. Dafür haben sie kürzlich eine millionenschwere Förderung erhalten. Die KI kann bereits Songtexte schreiben, alte Aufnahmen der Beatles retten oder etwa Drake Songs rappen lassen, die er nie gesungen hat.

Die Möglichkeiten der Arbeit mit KI lotet Artemi-Maria Gioti an der Dresdner Musikhochschule aus. Eigens dafür wurde die in Griechenland geborene Komponistin mit Doktorgrad dort angestellt. So begeistert sie zunächst davon war, mit künstlicher Intelligenz zu arbeiten, so kritisch sieht sie heute die Entwicklung und hinterfragt vieles. „Die Computerwissenschaft tut so, als wären die Daten, mit denen diese Programme hantieren, einfach so vorhanden. Doch man findet Daten eben nicht wie ein Stück Holz oder Steine in der Natur, sie sind immer das Ergebnis von menschlicher Kreativität.“

Diese rechtlich-ethische Ebene interessiere sie besonders. Schadet aber nun der Einsatz von KI der menschlichen Kreativität, kommt bald der nächste große Nummer-eins-Hit einfach aus dem Computer? „Das wissen wir noch nicht“, erklärt die Expertin. „Sicherlich müssen wir aber Kreativität neu definieren.“ (mit dpa)