Welche Rolle kann KI in zeitgenössischer Komposition, Klangkunst und Performance spielen? Um dieser Frage nachzugehen, hat der Musikfonds in einem Sonderprogramm 10 Stipendien vergeben. George Lewis, Brigitta Muntendorf, Moritz Simon Geist, Ali Nikrang und Yağmur Uçkunkaya wählten die Stipendiat:innen aus, unter ihnen Nico Sauer. Der freischaffende Künstler mischt in seinen Performances Klang, Sprache und Schauspiel. In seiner Wohnung in Berlin Schöneberg erklärt er, wie er mit »imaginären Klängen«, der Mystik der KI und einer Art umgedrehtem Turing-Tests komponiert.

VAN: Was ist dein aktuelles Projekt für das Stipendienprogramm des Musikfonds zum Thema Künstliche Intelligenz?

Nico Sauer: Ich arbeite mit Text-zu-Klanggeneratoren, also Prompttext, der zu Klang wird. Ich komme aus der Musik, ich habe Komposition zuerst bei Wolfgang Rihm, später bei Manos Tsangaris studiert. Für meinen Bachelorabschluss habe ich ein Konzert gemacht, in dem es um ›imaginäre Klänge‹ ging. Das heißt: Klänge oder Klangszenarien, die nicht klingen – nicht klingen können, nicht hörbar wären oder in ihrem Gehalt nicht erfahrbar wären, wenn sie ›einfach nur‹ klängen. Statt sie zu hören, stellt man sie sich vor und hört sie innerlich. Zum Beispiel: Ein Meteorit in Form eines riesigen Plektrums schrammt den Planeten Erde.

Klang zum Prompt »Air scraped through woven horsehair, modulating a forgotten code embedded in textile structure«

Mein Bachelorabschluss war ein Konzert, in dem kein einziger Ton gespielt wurde. Ich hatte sehr viele Ideen für das Konzert, und ich habe gemerkt, dass viele der Ideen an sich besser waren als ihre Umsetzung.

Das Konzert war eine Art Fernsehshow, wie beim Teleshopping-Kanal QVC. Es gab zehn ›Models‹ – alle Musiker:innen. Sie haben Merchandise präsentiert wie Jogginghosen, Totebags, Kaffeetassen und so weiter, auf das die Klangideen in Textform aufgedruckt waren. Man las also die Klangideen von den Körpern der Musiker:innen und stellte sich die Klänge vor. Der Kontext – die vielen Kameras, die TV-artige Moderation, all das – sollte zerstreuen: das Publikum aus dem klassischen Konzertmodus reißen und die Aufmerksamkeit umlenken. Ich bin da ziemlich eingetaucht in diese Welt der imaginären ›Klänge von morgen schon heute!‹ und habe das jahrelang in verschiedenen Formaten weitergeführt. Dann kamen die Text-zu-Klang-KIs auf, die sich mir als mögliche Fortsetzung meiner Text-zu-Klang-Ideen anboten.

ANZEIGE

Das hört sich wie ein großer Unterschied an: Die KI macht einen tatsächlichen Klang aus der Klang-Idee.

Die KI ist nicht verlegen. Sie macht aus jedem Prompt einen Klang. Sie sagt nicht: ›Da kann ich mir leider nichts drunter vorstellen.‹ Die Idee war: Was klingt, wenn ich Klänge prompte, die nicht klingen können? 

Die KI erzeugt Klänge, die in unserer Realität gar nicht existieren. Dabei geht es nicht darum, Sounds möglich zu machen, die zuvor unmöglich waren. Es geht um die bewusste Diskrepanz zwischen Eingabe-Prompt und dem tatsächlichen Klang. Genau dieser poetische Raum steht im Zentrum des Projekts: Was transportiert der imaginäre Klang-Prompt? Welche Bilder und Stimmungen projiziert er aus dem latenten, verborgenen Zeichenraum der KI, in dem durch das Training menschlicher Input verdichtet wurde?

Ich sehe hier eine spannende Parallele zu C. G. Jungs Vorstellung vom kollektiven Unbewussten und seinen Traummetaphern. Dabei ist es aber wichtig, die KI nicht als eigenständige ›intelligente‹ Entität zu verstehen. Wenn ich sie nach Klängen frage, die es nicht gibt, ›träumt‹ nicht die Maschine – ich zapfe vielmehr einen kollektiven Menschentraum an. Daher interessiere ich mich primär für die gesammelten verallgemeinerten Daten, den ausgebildeten ›Gesamtarbeiter‹ und seinen Einsatz, statt für das Training neuer Modelle.

Kannst du ein Beispiel für einen Prompt nennen?

Klang zum Prompt »Old Hank had a long day at the office. It started well until someone made a racist remark«

Display frequency leaking from road protest banners stored too long in basement archive rooms. Du kannst dir wirklich alles ausdenken.

Was machst du als Nächstes mit den aus deinen poetischen Prompts generierten Klängen? Wie geht es weiter?

Mein Ziel ist es, eine Art selbstgenerierendes Hörspiel oder Musiktheater zu schaffen, das sich auch aus Feedbackschleifen speist. Ich würde gern noch einbauen, dass nicht nur Klänge aus Text generiert werden, sondern auch Text aus Klängen, dass sich Feedbackschleifen ergeben. 

Gerade arbeite ich auch an einem Stück für das Ensemble Lux:NM. Statt herkömmlicher Noten bekommt das Ensemble eine Liste von Prompts in derselben Form wie die KI sie bekommt. Wie sie den Prompt umsetzen, ist ihnen völlig freigestellt. Im Konzert werden die vom Ensemble interpretierten Klänge neben die KI-generierten Klänge gestellt. Wie eine Art umgedrehter Turing-Test, aber nicht so systematisch.

Wenn du Klänge mit KI generierst, gibt es einen Auswahlprozess? Nimmst du nur die Klänge, die du gut findest, oder sammelst du alle, und entscheidest dann, wie du sie im Stück platzierst?

Ich nehme die Klänge, die die gut klingen und diejenigen, die eine besonders interessante poetische Spannung zwischen Prompt und Klang erzeugen. Ich komponiere damit, so wie ich mit den Klangkörpern Violine und Pauke und mit gesprochenen oder gesungenen Texten komponieren würde. Ich bin Komponist und kein Kurator. Es geht mir nicht darum, die Arbeit der KI faktisch oder dokumentarisch auszustellen, sondern darum, ein gutes Stück zu machen. Das gibt es nicht ohne Mystik.

Wie schreibst du einen Prompt, damit ein Klang herauskommt, der für dich als Komponist interessant ist?

Das ist sehr unterschiedlich. Ich benutze Adjektive und Substantive, die Stofflichkeiten suggerieren. Verben stellen Verbindungen und Bewegungen her. Widersprüche sind immer gut. So suche ich nach Klängen, die es theoretisch geben könnte, um sie zu hören uns aber die perzeptiven Organe oder Instrumente fehlen. Wenn der Prompt später als Text neben den Klängen erscheinen soll, ist es wiederum spannend, wenn der Prompt ganz unmusikalisch formuliert ist und kaum konkretisierbare Klänge enthält. So entsteht Projektion.

Klang zum Prompt »Five musicologists end up in a threesome«

Welche Erkenntnisse erhoffst du dir von diesem Research-Projekt?

Grundsätzlich gilt für dieses Projekt dasselbe wie für meine Arbeit allgemein: Es geht mir nicht um Klarheit. Die Erkenntnisse, nach denen ich suche, liegen in einer Vertiefung ins Opake, ins Unbegreifliche. Mein Ziel ist keine Übersetzung, sondern eine Versenkung. In einer zunehmend seichten Informationskultur drohen wir regelrecht zu vertrocknen. Die KI steht exemplarisch dafür, wie Technologie unter der Flagge von Aufklärung und Erkenntnisversprechen letztlich eine neue Dimension von Dunkelheit erzeugt.


Dieses Interview erscheint im Rahmen einer Kooperation mit dem Programm »STIP-4 – Stipendienprogramm zur Künstlichen Intelligenz« des Musikfonds.

... ist seit 2015 Redakteur bei VAN. Sein erstes Buch, The Life and Music of Gérard Grisey: Delirium and Form, erschien 2023. Seine Texte wurden in der New York Times und anderen Medien veröffentlicht.