Es gibt zahllose Arrangements für Senior:innenchöre, ein Stück, das speziell und nur für ältere Stimmen geschrieben ist, ist allerdings eine Seltenheit: Zusammen mit der Chorwerkstatt Berlin (Leitung: Sandra Gallrein) erarbeitet Komponist Luc Döbereiner seit Januar 2025 Rekonstruktion für Chor. Das 20-minütige Werk dreht sich um das Erinnern und Vergessen von Klängen und ihrer Körperlichkeit, im Zusammenspiel mit Künstlicher Intelligenz.
Döbereiner studierte am Institut für Sonologie in Den Haag und wurde von der Universität für Musik und darstellende Kunst Graz promoviert. Neben seiner künstlerischen Tätigkeit lehrt er unter anderem bei den Donaueschinger Musiktagen, an der Universität der Künste Berlin, der Hochschule der Künste Bern und der Freien Universität Berlin und als Professor für Künstliche Intelligenz in Komposition und Klangsynthese an der Musikhochschule Trossingen. Ich treffe ihn an einem windigen Herbsttag im grauen Berlin.
VAN: Wie arbeitest Du mit KI?
Luc Döbereiner: Ich arbeite generell mit ganz unterschiedlichen Arten von Technologien. In meiner Arbeit beschäftige ich mich mit Grenzen – zwischen Technologie und Kultur oder zwischen Kultur und Natur – und versuche, sie ästhetisch zu betrachten. Ich frage: Wie strukturiert Technologie unser Hören, unser Miteinander-Spielen, das Musikmachen, das Notieren und so weiter, alles, was zum Musizieren dazugehört? Technologie kann da auch ein Sinusoszillator sein, also ganz einfache Technologie.
Bei KI sind zwei Sachen anders als sonst in elektroakustischer Musik oder elektronischer Musik: Man kann mit sehr vielen Daten arbeiten, sie durchsuchen und so Dinge entdecken, die man als Mensch sonst nicht entdecken oder wahrnehmen könnte. Und: Die Modelle können sich anpassen, das ist ja der Grundmechanismus des maschinellen Lernens, das hat man zum Beispiel bei einem Sinusoszillator nicht, der erzeugt einen bestimmten Ton, passt sich aber nicht an. Ein Oszillator steht also in keinem Verhältnis zu etwas anderem, weil er ein geschlossenes System ist.
Allerdings gibt es auch Oszillatoren, die sich anpassen. Zum Beispiel habe ich ein Stück geschrieben für Lange//Berweck//Lorenz, ein Synthesizer-Trio aus Berlin, in dem jede:r Performer:in einen adaptiven Oszillator spielt, eine Art Grundmodell des maschinellen Lernens: ein Oszillator, der sich an die Tonhöhe des Inputs anpasst.
Die Performer:innen steuern, wie stark diese Anpassung ist. Wenn man sich zu stark anpasst, dann schießt man übers Ziel hinaus, aber man kann sich auch nur ein bisschen beeinflussen lassen. So formen sie miteinander ein Feedback-System, in dem alles Mögliche entsteht: Patterns, Rauschen oder Töne, Rhythmen … Wann immer jemand eine Entscheidung trifft oder sagt: ›Ich will mich jetzt mehr oder weniger anpassen‹, dann hat das durch die Rückkopplung Auswirkungen für alle, es ist also eine Art Ökosystem aus Klängen.
Seit wann arbeitest du schon mit KI?
Einen Zugang zu KI habe ich allein schon biografisch, weil mein Vater KI-Wissenschaftler ist.
Woran forscht er?
An automatischen Beweisern, ein Teilgebiet der sogenannten Good Old Fashioned AI, GOFAI. Es gab eigentlich zwei Stränge in der Geschichte der KI seit den 1950ern: Der eine arbeitet subsymbolisch, also versucht eher das Gehirn zu modellieren. Und der andere orientiert sich mehr am bewussten Denken, man versucht dabei logisches Denken zu modellieren und das dann in einem Computer irgendwie zu formalisieren. Das heißt, die einen orientieren sich an Logik und Bewusstsein, die anderen mehr am Körper, am Gehirn an sich, also am Materiellen.
Und dieses Materielle ist eher das, was in den letzten Jahren so große Fortschritte gemacht hat: Durch riesige Datenmengen und schnelle Prozessoren kann man so viele kleine Berechnungen durchführen, dass man neuronale Netze bauen kann, die dann Probleme lösen können. Und die andere Richtung ist die GOFAI: Die ist mehr an der Sprache, an der Logik, an der Mathematik orientiert. Es geht eher um die Frage: Was ist logisches Denken und wie kann man ein Computerprogramm schreiben, das logisch denken kann?
Damit habe ich schon als Kind Kontakt gehabt. Ab 2004 habe ich dann Sonologie [interdisziplinäre Klangforschung] studiert in Holland, auch da habe ich mich mit symbolischer KI beschäftigt. Es gab damals eigentlich schon eine Tradition in der Sonologie seit den 1980er Jahren, da wurden Expertensysteme verwendet oder Kompositionsregeln formuliert und dann mit ihnen mit KI experimentiert.
Würdest du sagen, KI kann erinnern?
Ich finde es immer schwierig, so ganz generell zu sagen: ›KI kann…‹ Es gibt Erinnerungsmodelle, die mich jetzt auch in Rekonstruktion für Chor interessieren, die man als KI bezeichnen könnte. Das sind zum Beispiel Hopfield-Netze, also ganz einfache neuronale Netze. Die bestehen wirklich nur aus ein paar Knoten, die miteinander verbunden sind. Man kann zwischen diesen Knoten ein bestimmtes Muster festlegen, ein Netz ziehen und sagen: ›Merk dir dieses Muster‹. ›Merken‹ bedeutet in dem Fall einfach nur, die Verbindungen der Punkte, die gemeinsam ›an‹ sind, zu verstärken. Und alle, die gemeinsam ›aus‹ sind. Also: Die Verbindungen von allen Knoten, die in einem zu lernenden Muster den gleichen Zustand haben, werden verstärkt und die, die ungleich sind, werden schwächer. Dann kann man im nächsten Schritt diesem Netz ein Zufallsmuster geben, und dann assoziiert es etwas, was es schon kennt, also eine Erinnerung sozusagen. Das ist ein Versuch, wirklich ganz reduziert das menschliche oder allgemein das biologische Erinnerung zu modellieren und als System zu bauen. Man kann das in ganz wenigen Zeilen Code schreiben. Das hat der Wissenschaftler John Hopfield erfunden, der auch letztes Jahr den Nobelpreis gewonnen hat.
Ich finde das sehr interessant, weil man mit sehr wenig Daten arbeitet. Ich arbeite eigentlich nie mit großen Datenmengen, weil große Datenmengen immer bedeuten, dass jemand anders den Datensatz erstellt hat oder dass man ihn kauft. Ich sehe die Wahl der Daten schon als eine kompositorische Entscheidung. Deshalb interessieren mich Modelle, die mit wenig Daten funktionieren und trotzdem ein interessantes Verhalten haben.
Generell kann man schon sagen, dass neuronale Netze Erinnerungsräume sind. Man trainiert sie, das funktioniert iterativ, Schritt für Schritt. Dieser Prozess schreibt sich dann ein in die Form des Netzes, das kann man vielleicht schon als Erinnerung verstehen.
Inwiefern ist es für dich interessant, menschliches Erinnern mit allem, was es mitbringt – Identität, Selbstvergewisserung, auch Körperliches – mit diesem maschinellen Erinnern zu koppeln?
Das ist total interessant für mich, das mache ich ja auch in Rekonstruktion für Chor. Da gibt es verschiedene Ebenen des Erinnerns: Das Stück beginnt zum Beispiel mit einem relativ freien Klang, den der Seniorinnenchor, die Chorwerkstatt Berlin, singt. Sie müssen sich aber an diesen Klang immer wieder erinnern. Er ist immer wieder ein Zielpunkt im Stück, aber natürlich bei jeder Probe, bei jeder Aufführung anders.
Welche Art von Klang ist das? Wenn es jetzt einfach ein a-Moll-Akkord wäre, wäre das Erinnern ja nicht so schwer.
Ich gebe zum Beispiel vor, dass der höchstmögliche Ton oder niedrigste Ton gesungen werden soll, den die Sängerinnen singen können. Das ist immer anders, je nachdem wie eingesungen man ist und gerade bei älteren Menschen wird es immer schwieriger, das zu kontrollieren. Und dann geht es darum, sich an diesen Klang zu erinnern. Das geht oft auch über den Körper, die Sängerinnen erinnern sich eigentlich daran, wie sie diesen Klang hervorgebracht haben. Es gibt dann Prozesse, die diesen Klang rekonstruieren oder auflösen oder die einen Teil dieses Klangs klanglich vergrößern. Das Stück besteht also viel aus Hören, aus Instruktionen, wie man hören soll, wie man sich anpassen soll oder dass man mit einer bestimmten Teilgruppe den gemeinsamen Ton finden soll oder eine bestimmte harmonische Situation … Da geht es nicht um Präzision, Virtuosität oder perfekte Tonhöhen. Mich interessieren mehr diese Interaktion und auch das Erinnern und das Vergessen in diesem Prozess.
Die Chorwerkstatt macht auch sonst ähnliche Übungen, zum Beispiel beim Einsingen: Sie versuchen zum Beispiel kollektiv, eine Tonhöhe zu finden. Oder sagen: ›Wir singen etwas sehr Konsonantes und dann etwas sehr Dissonantes.‹ Und dann wechselt das immer ab, aber ohne, dass jemand etwas vorspielt oder sagt: ›Es soll dieser Akkord sein‹, sondern einfach vom kollektiven Hören aus. Als Gruppe solche Zustände zu finden, hat auch etwas sehr KI-artiges – es ist ein kybernetisches System, ohne dass es ein Zentrum oder eine Hierarchie gibt, es ist also eine Art dezentrale Selbstorganisation. Das finde ich wirklich sehr interessant, dass auch Menschen so ein Netzwerk bilden können. Ein großer Teil des musikalischen Materials kommt aus der Art und Weise, wie die Chorwerkstatt probt oder welche Art von Übungen sie miteinander machen.
Was machen dann die Elektronik oder die KI?
Die Elektronik basiert auf Aufnahmen, die ich mit den Sängerinnen gemacht habe. Zum Teil auch mit klanglichen Erinnerungen aus ihrem Leben. Und dann gibt es zwischen der Elektronik und dem gesungenen Klang dieses Hopfield-Netz, diese assoziative Erinnerungs-KI, die diese Aufnahmen durchsucht und zum Beispiel ähnliche Dinge findet, wie das, was gerade gesungen wird, oder das Gesungene auf unterschiedliche Art dekonstruiert.
Die KI ist das Verbindungsstück zwischen dem Chor, wie er sich erinnert, und einer anderen zeitlichen Ebene. Dabei ist der ganze Probenprozess ist ein Erinnerungsprozess, die Form des Stückes ist durch diese Erinnerungen strukturiert … Und die KI, das maschinelle Lernen, hört dem zu und dann rekonstruiert die Elektronik Klänge.
Es geht immer auch um Vergessen. Wenn man sich erinnert, geht es ja immer auch ums Vergessen. Man braucht das Vergessen, wenn man sich an alles erinnern würde, das wäre ja schrecklich. Es geht um den Verlust der Erinnerung. Da ist etwas Produktives dran, Sachen nur halb zu erinnern. Dann entsteht etwas Neues, also wenn man versucht sich zu erinnern und dabei separate Dinge zusammenbringt.
Vergessen kann ja auch ein bisschen schambehaftet sein. Ging es im Probenprozess auch darum?
Es geht mir nicht um diese Scham an sich, aber das gab es auf jeden Fall in dem Prozess oder in der Arbeit mit dem Chor. Aber wir sagen: ›Okay, wir nehmen das jetzt an, dass die Stimme brüchig wird oder dass wir Dinge vergessen und machen das produktiv.‹ Es muss nicht versteckt werden, es soll auch nicht ausgestellt werden. In dieser Fragilität gibt es einfach etwas, was spannend ist, was schön ist.
Es gibt unglaublich viele Arrangements für Seniorinnenchor, meist zum Beispiel mit einem geringeren Tonumfang – kennst Du andere Stücke, die aus rein ästhetischen Gesichtspunkten speziell für ältere Stimmen geschrieben sind?
Nein. Diese sportliche Virtuosität ist ja auch in der Neuen Musik sehr stark, die Idee, sein Instrument ›kontrollieren‹ zu können. Ich kenne sonst keine anderen Stücke, die das Altern so aufnehmen.
Würdest du sagen, KI altert?
Die Umgangsweise mit KI, insbesondere mit LLMs, ändert sich, zum Beispiel. Mit jeder neuen Version geht man ein bisschen anders mit dem Modell um, weil es andere Sachen kann und andere vielleicht wieder nicht so gut. Das ist eine Art Kulturtechnik, wie man promptet zum Beispiel. Ich kann mir vorstellen, dass wir irgendwann noch ganz anders prompten werden, das wäre dann eine Art von Altern der Technologie.
Wie unterrichtest du Komponieren mit KI?
Ich fange meistens damit an, einen sehr einfachen Algorithmus anzugucken, um wirklich zu verstehen, was ist das eigentlich, maschinelles Lernen. Was ist die einfachste Art von maschinellem Lernen, die wir auf einem Blatt Papier auch einfach selber ausrechnen können? Wir nutzen dafür oft einen KNN, k-Nearest Neighbor, einen Algorithmus, der sozusagen einen Raum auf einen anderen abbildet. Man kann damit eine Struktur in eine andere Struktur übersetzen. Und dann überlege ich mit den Studierenden: Was kann man damit musikalisch machen?
Das machen im Prinzip all diese Lernalgorithmen: Sie bilden, mathematisch gesprochen, quasi eine Funktion, die einen Raum auf einen anderen Raum abbildet. Mit Klängen kann das zum Beispiel so aussehen: Ich habe hier diese drei Klänge und dort diese drei Klänge und ich ordne sie einander zu. Und dann gebe ich hier einen vierten Klang hinzu und dann gucke ich, wohin meine Funktion zeigt. Ich habe also erst einen Raum beschrieben und schaue dann, was an einem Punkt in diesem Raum ist, denn ich nicht im Training verwendet habe.Ich gebe also erst Beispiele und dann entsteht etwas Neues. Das sind so die Grundlagen.
Oft kommen die Studierenden auf komplett neue Ideen, von denen ich noch nie gehört habe. Manchmal auch auf Sachen, die ich schon tausendmal gehört habe. Viele wollen eigentlich Ko-Improvisatoren bauen, ich würde sagen fast die Hälfte der Studierenden. Dann sprechen wir natürlich auch über maschinelles Hören. Wie kann die Maschine Sinn aus Klang machen? Wie geht man mit den Daten um? Interessant finde ich auch, zu gucken, wo in der bestehenden kompositorischen Praxis der Studierenden zum Beispiel Übersetzungsprozesse stattfinden, die an sich gar nichts mit KI zu tun haben. Da kann es dann auch interessant sein, mit KI dort zu arbeiten.
Ich finde es immer wichtig sich zu vergegenwärtigen, dass Technologie ein Punkt ist, durch den eine Komposition immer auch eine politische oder gesellschaftliches Dimension hat – Produktionsmittel oder Technologie weisen immer über das Werk hinaus. Es geht also darum, immer auch nachzudenken: Wie formt die Technologie, die es heutzutage gibt, unsere Wahrnehmung? Und finden wir darin noch etwas anderes, was nicht nur das Funktionieren ist, bei dem es nicht nur darum geht, noch mehr Mehrwert zu erzeugen oder Arbeit zu automatisieren, sondern etwas Ästhetisches oder irgendwie Interessantes? ¶

