KI-basierte Klangidentitäten für IKO-3D-audio Klangprojektor

Mit einem omnidirektionalen Headset und dem IEM Granular Encoder Plugin zoome ich in dieser Arbeit auf kleinste Sprachfragmente – Phoneme und Zischlaute – um eine künstliche, noch nicht gehörte Prosodie zu erzeugen. Diese wird über das IKOsaeder Lautsprecherinstrument in den Raum projiziert. Die gesendeten Signale werden gezielt um 1 bis 4 Sekunden verzögert, bevor das IKO sie mit zufälliger Schallbündelung wiedergibt. Während meine Live-Stimme mit ihren fragmentierten Duplikaten in einen dynamischen, sich ständig verändernden Dialog tritt, forme ich diese Beziehung fortlaufend – verleihe ihr Rhythmus, Struktur und Musikalität.

Die räumlich verteilten Klangtexturen werden vom Headset erneut aufgenommen und wieder durch das IKO abgespielt.
Dieser Feedback-Loop zwischen meiner Stimme, dem Klangstrahl, dem Raum und seiner Akustik wird zum zentralen Element. Der Raum selbst nimmt teil, wird zum resonanten Körper, der die Stimme mitformt. Er verwandelt sich in ein Instrument, dessen natürliche Nachhallzeiten Frequenzen betonen oder abschwächen – meine Stimme verschmilzt mit der architektonischen Akustik, in der sie erklingt.Die Bedeutung liegt dabei nicht im Verstehen des Gesprochenen, sondern im Hören. Der Klang wird zur phänomenologischen Präsenz – l’acte de dire erzeugt keine semantische Bedeutung und existiert einzig durch die Stimme.

Im weiteren Verlauf löse ich mich körperlich vom Headset und projiziere meine Stimme direkt in den Raum. Dieser Loslösung beschreibt einen Akt der Rückeroberung menschlicher Präsenz gegenüber externen technologischen Kontrollsystemen. Auch wenn, oder gerade weil die semantische Bedeutungen verloren gegangen ist, wird das Unverstärkte, Unverarbeitete, das rohe Aufeinandertreffen zwischen menschlicher Stimme und IKO umso bedeutungsvoller – intensiv, essenziell und vielleicht sogar bewegend.