Hinweis: Wenn Sie diesen Text sehen, benutzen Sie einen Browser, der nicht die gängigen Web-Standards unterstützt. Deshalb wird das Design von Medien Kunst Netz nicht korrekt dargestellt. Die Inhalte selbst sind dennoch abrufbar. Für größtmöglichen Komfort und volle Funktionalität verwenden Sie bitte die empfohlenen Browser.

ThemenMedienkunst im ÜberblickAudio
Audio Art
Golo Föllmer

http://www.mediaartnet.org/themen/medienkunst_im_ueberblick/audio/

Im letzten Viertel des 19. Jahrhunderts setzt eine umfassende Technisierung von Musik ein. Sie umfasst drei radikal neue Prinzipien: Übertragung, Speicherung und Synthese von Schall. Diese medialen Grundtechniken ermöglichen neue Formen der Gestaltung und Erzeugung von Klang und Musik und verändern die Art und Weise, wie Musik gehört wird. Nachdem Musik bis weit in das 19. Jahrhundert hinein immer auf einen engen Raum und eine überschaubare Zuhörerschaft begrenzt war, dehnt sich ihr Wirkungsbereich zur Jahrhundertwende stark aus. Grammofon und Radio lassen Musik omnipräsent werden, weil sie nunmehr weder an einen bestimmten Raum noch an eine bestimmte Zeit gebunden ist. Schließlich lösen sich die technischen Medien sogar von der Abbildungsfunktion, indem sie selbst Klänge hervorbringen.

In der folgenden Phase, die um die Mitte des 20. Jahrhunderts einsetzt, sind die Grundtechniken elektronischer Medien in die Kreativtechniken integriert, und nun kann auf ihrer Basis eine Vielfalt anderer Themen bearbeitet werden. IntermedialeVerknüpfungen, der Raum als musikalische Bestimmungsgröße, medienspezifische Narrationsweisen, Entzeitlichung, Virtualisierung und Enthierarchisierung werden im vorliegenden Text exemplarisch diskutiert. In dieser zweiten Phase bedeutet ›Tonkunst‹ nicht mehr nur Musik. Es haben sich künstlerische Umgangsweisen mit Klängen entwickelt, die das überlieferte Musikverständnis sprengen und einen neuen Begriff erfordern. Während sich für das Phänomen in seiner allgemeinen, nicht medienspezifischen Ausprägung der Begriff ›Klangkunst‹ etabliert hat,[1] steht ›Audio Art‹ hier für Klangkunst, bei deren Entstehung technische Medien wesentlich oder notwendig sind.

Im Hauptteil werden die Entwicklung und das Spektrum der Audio Art vorgestellt. Anschließend werden Techniken und Motive ihrer Mediennutzung mit denen eines historischen Vorläufers elektrischer Musikmedien, der mechanischen Musikinstrumente verglichen, um den Umbruch kenntlich zu machen, der Audio Art vom tradierten Musikverständnis trennt.

Übertragung

Das Radio macht Musik und andere akustische Kulturgüter frei verfügbar. Sein Auftreten fiel in eine Zeit, in der ein erheblicher Teil der deutschen Komponisten nach einer neuen Verankerung ihrer Musik suchte und unter Begriffen wie ›Gebrauchsmusik‹ und ›Umgangsmusik‹[2] Versuche anstellte, populärmusikalische Elemente in Kunstmusik zu integrieren und Musik funktional in Alltagssituationen einzubinden.

Partizipation

Mit dem »Lindberghflug« realisierten Bertolt Brecht, Paul Hindemith und Kurt Weill 1929 eine Funkoper, die die Zuhörer am Rundfunkempfänger zuhause einbeziehen sollte. Bei einer szenischen Aufführung in Baden-Baden platzierte Brecht einen Stellvertreter der Zuhörer in Hemdsärmeln auf der Bühne, der Lindberghs Gesangspart übernahm. Für spätere Realisierungen sah Brecht vor, dass sich zum Beispiel Schulklassen mit dem Werk vertraut machen und dann eine ohne den Fliegerpart gesendete Version deklamierend vervollständigen sollten. »Der Rundfunk wäre derdenkbar großartigste Kommunikationsapparat des öffentlichen Lebens, […] wenn er es verstünde, nicht nur auszusenden, sondern auch zu empfangen, also den Zuhörer […] nicht zu isolieren, sondern in Beziehung zu setzen.«[3]

Brecht zielte nicht auf ästhetische Gestaltung, sondern auf gesellschaftlichen Lehrwert, was unter anderem von Adorno kritisiert wurde. Aus Adornos Sicht verfehlte jede Musik, die sich auf Elemente populärer und damit vom Warencharakter geprägter Musik einließ, ihr Ziel, das Leben unverfälscht widerzuspiegeln.[4] Brecht wiederum wertete Adornos Position als Ausdruck einer arroganten Elite, die sich (unter anderem durch Musik) ihrer Integrität versichert, während sie vorwurfsvoll, aber de facto tatenlos auf eine ideologisch verblendete Masse der Musikhörer blickt, die fest im Griff der Kulturindustrie ist.

Das Medium Radio stellte Brechts weitgehenden Utopien strukturelle Hindernisse entgegen. Technisch und organisatorisch hatte es sich bereits zu einem Massenmedium entwickelt,[5] bei dem kein effektiver Sendekanal für die Rezipienten existiert.[6] Als Hans Magnus Enzensberger in den 1960er Jahren kritisierte, dass die Trennung zwischen Produzenten und Konsumenten in den Massenmedien künstlich aufrecht erhalten würde,[7] begann Max Neuhaus gerade mit einer Serie von Rundfunkarbeiten, die das Potenzial der Öffnung demonstrierten. Bei »Public Supply I«, 1966 in New York auf WBAI realisiert, mischte Neuhaus live eingehende Telefonanrufe von zehn Leitungen und verstand sich dabei zwar als Gestalter der technischen Konfiguration, aber nur mehr als Moderator des musikalischen Ereignisses. Sender waren die anrufenden Hörer. Bei »Radio Net« zog er sich 1977 als Künstler noch weiter zurück, indem er die Gestaltung einer elektronischen Automatik überließ. Zugleich thematisierte er Dimension und immanente Ästhetik des technischen Systems ›Radio‹: Die den Kontinent umspannende Ringleitung des US-amerikanischen Radionetzwerks NPR verschaltete er derart, dass Signale darin durch Rückkopplung klanglich transformiert wurden.[8]

Ästhetisierung

Der Rundfunk prägte Musik auch ästhetisch. Indem er potenziell die ganze Welt erschloss, setzte er eine Faszination für das Hören des Globalen, des Fremden, des Vielgestaltigen frei und regte die Phantasie der Künstler an. Rudolf Arnheim beschrieb die Wirkung des Radios 1936 als geradezu bewusstseinserweiternd. »Im Rundfunk enthüllten die Geräusche und Stimmen der Wirklichkeit ihre sinnliche Verwandtschaft mit dem Wort des Dichters und den Tönen der Musik[…].«[9] Radiohörer stellten fest, dass Geräusche eine vorher kaum bemerkte ästhetische Qualität besitzen. Der Hörspieltheoretiker Richard Kolb schrieb diesen Effekt der Entkörperlichung des Klangs zu, die die Hörer unweigerlich zu größerer geistiger Involvierung führe. »Je weniger wir an eine bestimmte Vorstellung von Zeit, Ort, Kostüm, Figuren gebunden sind, um so mehr Spielraum bleibt unserer Phantasie, mit deren Hilfe wir uns die uns gemäßeste Vorstellung machen können. Auf diese Weise nähert sich das Wort in seiner Wirkung der Musik[…].«[10] Diese veränderte Wahrnehmung von Geräuschen hatte nicht erst mit dem Radio, sondern schon mit der Industrialisierung eingesetzt. Die italienischen Futuristen verstanden den Rhythmus der Maschinen als ästhetischen Ausdruck ihrer Epoche, und so proklamierte der Maler Luigi Russolo 1913 die ›Geräuschkunst‹: »Das Leben der Vergangenheit war Stille. Mit der Erfindung der Maschine im 19. Jahrhundert entstand das Geräusch. […] Wir haben Spaß daran, den Krach der Jalousien, […] den Lärm und das Scharren der Menge, die verschiedenen Geräusche der Bahnhöfe, der Spinnereien, der Druckereien […] im Geiste zu orchestrieren. Wir wollen diese so verschiedenen Geräusche aufeinander abstimmen und harmonisch anordnen.«[11] Russolo konstruierte spezielle mechanische Geräuscherzeuger und führte diese ›intonarumori‹ in Veranstaltungen vor, denen bedeutende Künstler und Musiker der Zeit beiwohnten. Edgard Varèse, John Cage und andere wurden von Russolos Geräuschkunst beeinflusst und setzten zuerst das Schlagzeug, das bis dahin vorwiegend rhythmisch akzentuierend in der Kunstmusik verwendet worden war, als Träger einer Musik aus Geräuschklangfarben ein.

Radiokunst

John Cage war 1951 mit »Imaginary Landscape No. 4« der erste, der die Spezifika des Radios – das Fiepen und Rauschen, das zufällige Nebeneinander von Sprache, Musik und Geräusch auf dem Wellenband – in einer Komposition zur Aufführung brachte. Er verwendete also nicht nur die aus traditioneller Sicht vielleicht gerade noch hinnehmbaren natürlichen Geräuschklänge, sondern auch die in der Musik gänzlich unerwünschten Nebeneffekte technischer Medien als musikalisches Material. In den 1960er Jahren entwickelte sich aus diesem Ansatz heraus eine spezifische ›Radiokunst‹[12], die neben den ästhetischen Effekten der Übertragung und Wahrnehmung von Klang über den Rundfunk auch die gesellschaftlichen Bedingungen der Produktion und Konsumption des Radios thematisierte. Negativland beispielsweise zeigen in Radio-Collagen aus gefundenen Audiobruchstücken ästhetische und soziale Effekte warenwirtschaftlicher Kontrolle von Medieninhalten und leiten daraus – wie John Oswald – die Forderung nach Bewahrung kreativer Spielräume beim Umgang mit Technologie ab.

Speicherung

Die Schallspeicherung durch Fonograf und Grammofon ermöglichte die unbegrenzte Reproduktion von Musik. Während der Notendruck nur im Bürgertum Verbreitung fand, erreichte die Schallplatte als erstes musikalisches Medium die Hörer aller Schichten. Wie die Übertragung veränderte die Tonaufzeichnung auch Produktion und Rezeption, da die beiden Bereiche nun zeitlich und räumlich voneinander getrennt waren. Da Hörer nicht mehr auf Musiker angewiesen waren, konnten sie Musik erstmals vollständig in ihren Alltag integrieren. Musik wurde zu einem omnipräsenten Lebensmittel.

Musique concrète

Künstlerische Experimente mit der Reproduktionstechnologie ließen lange auf sich warten. Obwohl schon 1877 entwickelt und spätestens ab der Jahrhundertwende allgegenwärtig, wurden erst ab den 1910er Jahren konkrete Vorschläge für den künstlerischmusikalischen Einsatz des Grammofons gemacht. So versuchte circa 1917 der spätere Dokumentarfilmpionier Dziga Vertov, Geräusche zumontieren, scheiterte mit seinen Vorstellungen aber am damaligen Stand der Technologie.[13] Der ungarische Bauhauskünstler László Moholy-Nagy schlug 1923 vor, »aus dem Grammophon als aus einem Reproduktionsinstrument ein produktives zu schaffen, so dass auf der Platte ohne vorherige akustische Existenzen durch Einkratzen der dazu nötigen Ritzschriftreihen das akustische Phänomen selbst entsteht«.[14] Der Klangkünstler Paul DeMarinis[15] kommentierte in den 1990er Jahren Moholy-Nagys Idee, nach der durch optisches Lesen von Schallrillen ein grafisches ›Ritzschrift-ABC‹ gefunden werden könne, als Fehleinschätzung, die der Dominanz des Visuellen in der westlichen Kultur geschuldet ist. Paul Hindemith machte Mitte der 1920er Jahre Versuche mit ›grammofoneigener Musik‹, indem er Aufnahmen montierte, rückwärts und mit unterschiedlichen Geschwindigkeiten abspielte. Über Experimente kam er aber nicht hinaus. Für das erste gelungene Experiment der Geräuschkomposition benutzte Walter Ruttmann 1930 nicht das unhandliche Grammofon, sondern die ein Jahr zuvor entwickelte Lichttontechnologie des Films. Filmton, der mit der Schere geschnitten und neu zusammengeklebt werden konnte, ermöglichte die erste stringente Klangmontage. Unter großem technischem Aufwand sammelte Walter Ruttmann in Berlin Tonaufnahmen eines Wochenendes. Das daraus montierte Stück »Weekend« changiert zwischen Erzählung und klanglichem Portrait – eine fotografisch inspirierte Hörkunst. Zwar machte er Ansätze, die Struktur nach musikalischen Gesichtspunkten wie Tonhöhe und Rhythmus zu montieren. Der Duktus von »Weekend« ist aber durchgehend erzählerisch; Klangfarbe, Rhythmus und Tonhöhe gestalten die Erzählung nur aus.[16]

Erst 1948, 18 Jahre nach »Weekend« und 71 Jahre nach der Erfindung der Schallspeicherung, war Pierre Schaeffers Ansatz, eine grammofoneigene Kompositionweise zu finden, folgenreich. Die Kompositionshaltung, die hierfür verantwortlich war, beruhte auf zwei Aspekten: Schaeffer konzentrierte sich erstens allein auf die ästhetischen Qualitäten des Geräuschmaterials, schaltete das damit konnotierte Ereignis weitgehend aus. Zweitens oktroyierte er dem Material keine präformierte, übergeordnete Struktur auf. Er hob hervor, dass die ›Musique concrète‹, wie ersie in Abgrenzung zu Kompositionsweisen nannte, die von abstrakten Vorstellungen ausgehen, immer auf der Erfahrung konkreten musikalischen Materials fußt: Während die traditionelle Komposition von der geistigen Konzeption über die Niederschrift zur Interpretation gelangt, beanspruchte Schaeffer für seine Musik den umgekehrten Weg vom Hören der gesammelten Materialien über skizzenartige Experimente zur materiellen (nämlich als fertiger Tonträger fixierten) Komposition.[17]

Klangmaterial kann seiner Meinung zufolge alles sein: die überwiegend geräuschhaften Schallereignisse der Umwelt, Sprachlaute sowie herkömmliche Musik. Durch technische Fixierung werden Klänge zu so genannten ›objets sonores‹, aber erst spezielle Verarbeitungsweisen machen sie zu ›objets musicaux‹. Zu diesen Techniken zählt Schaeffer das Beschneiden einzelner Klänge, die Geschwindigkeitsvariation, das Abspielen aus extra hergestellten geschlossenen Schallplattenrillen, das Rückwärtsspielen und die Schichtung mehrerer Klänge. Der Plattenspieler wird in jenem Moment zum Musikinstrument, in dem man aus seinen spezifischen Möglichkeiten Gestaltungstechniken ableitet. Die Musique concrète nimmt schon in Schaeffers erstem Stück von 1948, der »Étude aux chemins de fer«[18], die späteren DJ-Techniken des Cuttings, Cueings und ansatzweise des Scratchings vorweg.

Sound

Die Popmusik erhält auch durch die Einführung des Tonbandgeräts entscheidende Impulse. Durch das Playback-Verfahren, bei dem die Instrumente eines Musikstückes nacheinander aufgenommen werden, wird die Reproduktion zur primären Instanz von Musik. Auch Live-Auftritte müssen nun wie die Platte klingen. Weil immer aufwändigere Studiotechnologie zum Einsatz kommt, zählt das ›Lied‹ im Sinne einer bestimmten Melodie und Harmoniefolge immer weniger. Stattdessen wird der ›Sound‹ zum zentralen Kriterium von Musikstilen.[19] Das beginnt mit Cover-Versionen, zum Beispiel Jimi Hendrix' Version der amerikanischen Nationalhymne, gespielt auf rückkoppelnder E-Gitarre. Eine neue Ebene erreicht die Bedeutung des Sounds mit den Zitattechniken im DJ-Mix dann mit derVerbreitung des digitalen Samplings in den 1990er Jahren. Nun wird nicht mehr nur ein Song, sondern der Sound selbst zitiert. Wenn John Oswald Beethoven und Michael Jackson mit denselben Mitteln rekomponiert, dann zählt primär die Bearbeitungstechnik – Melodie, Harmonie, formale Anlage oder Liedtext sind nur der Anlass für eine Sound-Realisierung.[20] Der Sound ist die Musik.

Christian Marclay, der als bildender Künstler und Art-DJ die Tonträgergeschichte thematisiert, collagierte 1993 im »Berlin Mix« Musiken verschiedener stilistischer und geografischer Herkunft. Ungewöhnlich war daran, dass er gerade keine technischen Medien benutzte, sondern die Originalschallquellen in der Halle versammelte und mit Pappschildern dirigierte. Der gewohnte eklektizistische Umgang mit Samples wirkte unter der physischen Präsenz von mehr als 180 Musikern absurd. Marclays Aktion zeigte, dass Musik mehr als Sound sein kann und wie sehr wir uns daran gewöhnt haben, bei der Medienrezeption nur mit einem Bruchteil ihrer Substanz auszukommen.[21]

Zufallsprinzipien

John Cage wandte schon 1939 in »Imaginary Landscape No. 1« ähnliche Techniken wie Pierre Schaeffer an, verwendete aber Testschallplatten mit Sinustönen, blieb also beim ›musikalischen Ton‹. Dabei hatte er bereits 1937 in seinem manifestartigen Text »Die Zukunft der Musik – Credo« vorausgesagt, dass die Verwendung von Geräuschen und eine vollständige Kontrolle der Obertonstruktur aller Klänge mit Hilfe von Audiotechnologien die Musik der Zukunft prägen würde.[22] 1952 ging Cage davon aus, dass jeglicher Klang und jedes Geräusch aus sich heraus musikalisch wären, und manifestierte das in seiner ersten Tonbandkomposition »Williams Mix«. Vorteil der Tonbandtechnik war für ihn, dass man in die Mikrozeit des Klangs eindringen und hohe Komplexität erzeugen kann. »Das Faszinierende an den Möglichkeiten des Tonbands war, dass eine Sekunde, die wir immer als eine sehr kurze Zeitspanne empfunden hatten, 38 cm lang wurde.«[23] In einer fast fünfhundertseitigen, nach Zufallsprinzipien erstellten Partiturist die Schnittweise des Bandes wie bei einem Schnittmuster grafisch dargestellt. Die Partitur gibt vor, welcher von sechs Klangtypen in welcher Form und welcher Dauer montiert werden soll. In einem Fall musste einBandstück von einem Viertel Zoll Länge (also einer sechzigstel Sekunde) aus 1097 Tonabandpartikel montiert werden. Cage verwendet Technologie, um durch deren Spezifika bei der Transformation einer Idee in klingende Realität zu unkonventionellen Strukturen zu finden.

Der Fluxus-Künstler Nam June Paik erweiterte 1963 Cages Zufallsprinzip der »Unbestimmtheit«[24], indem er auf seiner »Exposition of Music – Electronic Television« Schaeffers Techniken in eine Installationssituation stellte. »In den meisten indeterministischen Musikstücken räumt der Komponist die Möglichkeit der Willensentscheidung oder der Freiheit dem Interpreten, nicht aber dem Publikum ein.«[25] Paiks »Random Access« zum Beispiel ermöglichte mit einem frei beweglichen Tonkopf das Abhören an die Wand geklebter Tonbänder. Beim »Schallplattenschaschlik« konnten die Besucher mit der Nadel des Tonabnehmers auf gleichzeitig drehende Platten zugreifen. Paiks Skulpturen wirkten erfrischend widersprüchlich, weil sie in grobem bastlerischem Stil aus profanen Consumer-Medien hergestellt waren und ihre interaktive Bedienung der Einweg-Kommunikation der Massenmedien so offensichtlich entgegen stand.

Musique d'ameublement

Der französische Komponist Erik Satie hatte schon mehr als vierzig Jahre vor Paik ein ähnliche kritisches Szenario entworfen. In berühmt gewordenen Pamphleten schlug er eine hochgradig funktionale Musik vor, die peinliche Konversationspausen beim Abendessen füllen oder unangenehme Nebengeräusche überdecken sollte. Satie kritisierte, dass Kaufhausmusiken, die damals noch live von Musikern gespielt wurden, simplifizierte Bearbeitungen von Konzertmusik waren. In einem Brief vom März 1920 knüpfte er an das musikalische Klima seines Klavierstücks »Vexations« (1893) an, das 840 Wiederholungen zweier Notenzeilen vorsieht. »Wir nun wollen eine Musik einführen, die die ›nützlichen‹ Bedürfnisse befriedigt. Die Kunst gehört nicht zu diesen Bedürfnissen. Die ›Musique d'ameublement‹ erzeugt Schwingungen; sie hat kein weiteres Ziel; sie erfüllt die gleiche Rolle wie das Licht, die Wärme – & der Komfort in jeder Form.«[26] Am 8. März 1920 verwendete Satie in der Pariser Galerie Barbazanges für solche ›Musique d'ameublement‹ Fragmente aus Stücken von Ambroise Thomas und Camille Saint-Saëns. Nach einem Bericht von Darius Milhaud ging das Experiment schief: Satie konnte die Besucher nicht davon abbringen, der Musik zuzuhören.[27]

Klanginstallation und Ambient Music

Auf Saties Experimente, aber auch auf Cage und Paik beziehen sich zwei zentrale Konzepte der zweiten Hälfte des 20. Jahrhunderts: Klanginstallation und Ambient Music. Die Klanginstallation, Ende der 1960er Jahre von Max Neuhaus, Maryanne Amacher und anderen entwickelt, verfolgt unter anderem zwei von Satie hervorgehobene Ziele: erstens nicht einfach eine für Darbietungssituationen konzipierte Musik an beiläufige Rezeptionsformen anzupassen, sondern klangliche Raumgestaltung von Grund auf als Integration in einen spezifischen Ort zu denken; zweitens die Aufmerksamkeit der Hörer nicht zu okkupieren, sondern Spielraum dafür zu lassen, welche Art von Aufmerksamkeit der Klanggestaltung gegeben wird. 1975 übertrug Brian Eno, Grenzgänger zwischen Kunst- und Popmusik, diese Avantgardetechniken auf Format und Klangästhetik der Popschallplatte und prägte dafür den Genrebegriff ›Ambient Music‹. In den 1990er Jahren erhielt Enos Idee mit dem elektronischen ›Ambient‹ - Stil viele Nachfolger, unter anderem von The Orb und Aphex Twin.[28]

Synthese

Mit der Elektronenröhre entstanden um 1930 die ersten vielversprechenden elektronischen Instrumente, unter anderem Leon Theremins Ätherophon[29], Jörg Magers Sphärophon, Friedrich Trautweins Trautonium und Maurice Martenots Ondes Martenot. Sie bewiesen, dass die Gesetze der physikalischen Mechanik in einer »elektrischen Musik«[30] umgangen werden könnten und daher eine neue musikalische Ära im Anbruch war. Komponisten erhofften sich von der Klangsynthese neue Klangfarben, ebenso die Überwindung der als Fessel empfundenen zwölfstufigen Tonskala und einen Ersatz für den unberechenbaren menschlichen Interpreten. Diese Instrumente waren aber zu großen Teilen aus einem traditionellen Musikverständnis erdacht, imitierten, wie das Ätherophon zum Beispiel, einen romantischen Espressivo-Stil.

Klangkomposition

Als Karlheinz Stockhausen 1953 am neu eingerichteten NWDR-Studio »Studie I« realisierte, ließ er die beiden vorhandenen elektrischen Musikinstrumente – ein Melochord und ein Monochord – unberührt undarbeitete stattdessen mit unhandlichen Tongeneratoren für sendetechnische Messzwecke. Mit den neuen technischen Möglichkeiten sollte der einzelne Klang genauso wie die formale Anlage einer Komposition bis in seine spektralen Details hinein ›komponiert‹ werden können.[31] Der jenerzeit in der musikalischen Avantgarde Europas dominierende Serialismus, bei dem alle Parameter einer Komposition nach einem zentralen Konstruktionsprinzip organisiert sind, erforderte planvolle Präzision. Damit stand er antipodisch zu Schaeffers Herangehensweise, die auf Intuition und dem umgekehrten Kompositionsweg vom Material zur Struktur beruhte.

Partitursynthese

1956 unternahmen Lejaren Hiller und Leonard Isaacson das erste Experiment, musikalische Entscheidungsprozesse des Menschen im Computer nachzubilden, indem sie den Großcomputer ILLIAC 1 eine viersätzige Partitur für Streichquartett synthetisieren ließen, die »Illiac Suite«. Die ersten drei Sätze basierten auf Formalisierungen herkömmlicher Kompositionsregeln (einfache Mehrstimmigkeit, Kontrapunkt, serielle Reihentechniken), der vierte Satz aber auf dem mathematischen Prinzip der so genannten »Markow-Ketten«. Komponisten wie Iannis Xenakis knüpften später immer wieder an diese Verwendung ›nicht-musikalischer‹ Mittel an, indem sie mathematische Disziplinen wie Spiel- oder Chaostheorie zur Partitursynthese heran zogen.

Heutige avancierte Musikprogramme wie Max/MSP oder SuperCollider integrieren Klang- und Partitursynthese in einem System. Wie mit Stockhausens elektronischer Musik gefordert, können Klangfarbe und kompositorische Form mit den gleichen Werkzeugen und daher sehr leicht nach denselben Prinzipien bearbeitet werden. Gleichzeitig hat sich die Vorstellung vom Computer seitdem grundlegend gewandelt. Während Hiller von dem für die frühe Epoche der Künstliche-Intelligenz-Forschung typischen Bild der lückenlosen Formalisierung menschlichen Handlungswissens ausging,[32] soll der Computer den Menschen nun nicht mehr ersetzen, sondern wird ihm als Interaktionspartner gegenübergestellt. Die Vorstellung von der Maschine wandelt sich vom Menschensurrogat zum kooperativen Gegenüber, dasweniger durch Perfektion als durch Eigenartigkeit besticht. Interaktive Systeme werden zum Ideen-Pool, ›Interactive Composing‹[33] etabliert die Prozessorientiertheit der experimentellen Musik[34] fest inder Domäne der Musikelektronik und Computer.

Interaktive, prozessorientierte Computertechnologie zieht immer weitere Kreise. In den 1990er Jahren ist neben elektroakustischer Musik aus den Forschungsstudios und der Klanginstallation auch elektronische Club-Musik von prozesshaften Kreationstechniken durchzogen. Autechre verstehen ihre CDs als Ausschnitte aus fortlaufenden Vorgängen.[35] Farmers Manual verdeutlichen den Prozessgedanken, indem sie eine Performance unprätentiös durch das Herausziehen des Audiokabels aus dem Laptop abreißen lassen – als Betonung der Tatsache, dass die gehörte Musik ein Segment aus endlosen automatischen Strukturierungsvorgängen im Computer ist.[36] Markus Popp versteht seine Ästhetik als Resultat digitaler Gestaltungsmittel. ›Electronic Listening Music‹, einer von vielen Genrebegriffen für die Produkte der ›Laptop-Szene‹ um das Jahr 2000, erfordert aus seiner Sicht ein Musikverständnis, das dem immensen technischen Einfluss auf Gestaltungsvorgänge – delinearisierte Zeit, sekundenschnelle Umformung von Klängen, Ergonomie der Software-Bedienung – Rechnung trägt. »[…] das Konzept ›Musik‹ wird auf fast tragische Weise von den verbreiteten Vorstellungen zu Kreativität, Autorschaft und künstlerischem Ausdruck überschattet.«[37] Fehlerknackse des CD-Players, Geräusche der Computerhardware und von (oftmals gezielten) Software-Fehlbedienungen prägen das Klangmaterial. »Tatsächlich ist ›Scheitern‹ zu einer bedeutenden Ästhetik geworden […], die uns daran erinnert, dass die Kontrolle der Technologie eine Illusion bleibt […].«[38]

Das Duo Granular Synthesis wendet ein Klangsyntheseverfahren auf Videoaufnahmen an. Bei der akustischen Granularsynthese werden neue Klangfarben aus gegebenen Samples erzeugt, indem extrem kurze Klangbruchstücke nach verschiedenen Mustern iteriert werden. Dieses Verfahren synchron auf Ton und Bild anwendend, zeigen Granular Synthesis seit 1991 Bild-Klang-Collagen, die wie eine technische Simulation zerebraler Fehlfunktionen wirken könnten – wobei unklar bliebe, ob die portraitierte Personihre Bewegungen oder die Zuschauer ihre Wahrnehmungen nicht wie gewohnt koordinieren können. Tatsächlich sieht man ein extremes Beispiel einer alltäglichen Medienmanipulation, nämlich was geschieht, wenn ein dem Medium entnommenes Material nicht an sich verfremdet, sondern durch technisch ermöglichte Zeitsprünge an seiner vollen Bewegung gehindert wird.[39] In »MODELL 5« (1994) ergeben sich bei der im Portrait gezeigten Performerin Akemi Takeya entmenschlichte Regungen. Hier wird klar, dass das Charakteristische der Person gar nicht in der Substanz des Einzelbildes, sondern in deren Bewegungen zu suchen ist.

Intermedia

Intermediale Ausdrucksformen suchen nach Entsprechungen zwischen Phänomenen in verschiedenen Wahrnehmungsbereichen. Technische Transformationen sind dafür hocheffizient, denn einmal konfiguriert, kann ein maschineller Aufbau mit beliebigen Inputs evaluiert werden. Dabei entpuppt sich der Übersetzungscode als das eigentliche Problem von Intermedia: Die Frage, nach welchen Regeln Ton in Bild, räumliche Bewegung in Klangfarbe oder Harmonie in Farbe übertragen werden soll. Schon 1729 hatte Louis-Bertrand Castel mit dem optischen Cembalo ein Instrument gebaut, das Töne in Farben übersetzte. Unter anderem Kastners Pyrophon (1870) und Rimingtons Farborgel (1910) verfolgten die Idee weiter.[40] Ab circa 1910 häuften sich assoziative Übertragungen musikalisch-zeitlicher Gestaltungsformen in die Malerei.[41] Erst nach 1900 entstanden Technologien, die flexible Übertragungen zwischenden Wahrnehmungsbereichen ermöglichten. Als beispielsweise das Orchesterpoem »Prométhée – Le Poème du feu« des Mystikers und Synästhetikers Aleksandr Skrjabin 1911 uraufgeführt wurde, mussten die zwei für farbiges Licht notierten Stimmen mit simplen Glühbirnen realisiert werden.[42] Der Film brachte neue Technologien mit sich und legte nahe, dass die im 19. Jahrhundert als reine Raumkunst verstandene bildende Kunst sich der Zeitkunst Musik annähern könne. Walter Ruttmanns 1921 uraufgeführtes »Lichtspiel Opus I« mobilisiert in musikalischem Duktus abstrakte visuelle Formen und Farben. Mit der Einführung des Lichttonprinzips konnten die Analogienzwischen Bild und Musik durch technische Kopplung noch enger gezogen werden. Ähnlich wie es Moholy-Nagy für die Schallplatte vorgeschlagen hatte, knüpfte Oskar Fischinger an die technisch bedingte visuelle Erscheinungsform von Ton an: die reliefartige Zackenschrift der Lichttonspur.[43] Indem Fischinger 1932 für »Tönende Ornamente« die Lichttonspur von Hand malte, versuchte er den Beweis anzutreten, dass zwischen visuellen und akustischen Formen ästhetische Korrespondenz besteht. Synästhetische Theorien, die solche eindeutigen Beziehungen zwischen Hören und Sehen voraussetzen, wurden aber bald als subjektive Wahrnehmungsphänomene identifiziert. An ihre Stelle trat nun die Maschine mit den ihr eigenen, technisch bedingten Transformationsvorschriften.

»Poème électronique« nannte Le Corbusier zusammenfassend visuelle Gestaltung, Musik und Architektur des unter seiner Leitung entstandenen Philips-Pavillons für die Brüsseler Weltausstellung von 1958. In einer Verschmelzung der drei Ebenen Bild/Licht, Klang und Bauwerk sollte zum Ausdruck kommen, wie elektrische Technologien die Wahrnehmungsebenen auf neue Weise verbinden und eine Neuorientierung des Menschen notwendig machen.[44] Zwei Tonbandkompositionen entstandenen dafür: »Poème électronique« von Edgard Varèse zielte auf eine intensive Verquickung von Raum- und Klangerfahrung. Die verwendeten synthetischen und konkreten Klänge wurden zu Le Corbusiers Film/Lichtprojektion mit Hilfe aufwändiger Lautsprechertechnik als Linien und Volumina im Raum bewegt. Das ›Pausenstück‹ »Concrete PH« von Iannis Xenakis basierte formal auf parabolischen und hyperbolischen Kurven, die auch dem Bau seine außerordentliche Form gegeben hatten. Mathematische Prinzipien werden somit von Xenakis als allgemeine Wahrheiten aufgefasst, die sich in verschiedenen Medien ausdrücken können und ein Bindeglied zwischen ihnen bilden.[45]

Fontana Mix« (1958) gehört zu den frühen Beispielen grafischer Notation. John Cage erstellte aus transparenten Grafiken eine Art Erzeugungspartitur, die zur Herstellung beliebiger Realisationspartituren dienen kann. Matthew Rogalsky, Anne Wellmer, Jem Finer benutzten »Fontana Mix« im Jahr 2002 für»FontanaNet«, eine Performance für vernetzte Computer, bei der die Linien der Erzeugungspartitur auf Grafiktabletts nachgefahren und daraufhin zwischen den beteiligten Computern nach komplexen Regeln Klangereignisse ausgehandelt werden.

Künstlerische Praktiken, die die verschiedenen Ausdrucksebenen kombinieren und Möglichkeiten der Transformation visueller, akustischer, haptischer, räumlicher oder sonstiger Daten ineinander nutzen, wurden mit der Verbreitung elektronischer und digitaler Technologien immer häufiger. Intermediale Techniken sind in das Repertoire grafischer Formensprachen und Montagepraktiken des Popmusik-Videoclips eingegangen. In abstrakterer Stilistik kommen sie auch in dekorativen ›visuals‹ zum Einsatz, die in Chill-out-Räumen von Clubs und Raves als optisches Pendant zu Spielarten von Ambient Music gezeigt werden. Vertreter der ›Laptop-Szene‹ wie 242 Pilots und der Grenzgänger zwischen bildender Kunst und Musik Carsten Nicolai verweben die Gestaltung von Klang und Bild mit spezieller Hard- und Software.[46]

Raum

Im 20. Jahrhundert erhielten klangliche Raumwirkungen neue Bedeutung. Raumorte und -bewegungen waren in der theoretischen Reflexion von Musik lange nicht als Gestaltungsparameter behandelt worden, obwohl sie zum Beispiel schon bei Andrea und Giovanni Gabrieli im Venedig des 16. Jahrhunderts gezielt eingesetzt worden waren. Nach Ansätzen von Gustav Mahler und Charles Ives erhob Edgard Varèse den Raum zu einer zentralen Kategorie, indem er seine Musik physisch im einzelnen Klang zu materialisieren suchte. Durch speziellen Orchestereinsatz ließ er sie im Raum bewegen und rückte sie damit in die Nähe skulpturaler und choreografischer Werke.

Noch bevor Varèse Klangmassen und -flächen im Philips-Pavillon elektronisch mobilisieren ließ, behandelte Karlheinz Stockhausen 1956 in dem fünfkanaligen Tonbandstück »Gesang der Jünglinge« und 1955–1957 in »Gruppen«, bei dem drei Orchester um das Publikum verteilt sind, den Raum als gleichwertigen Gestaltungsparameter neben Tonhöhe, Lautstärke, Dauer und Klangfarbe.[47] Auf seine Anregung wurde 1970 der deutsche Pavillon derWeltausstellung in Osaka als Kugelauditorium gebaut, in dem Klänge elektroakustisch dreidimensional bewegt werden konnten.[48]

Max Neuhaus kehrte 1967 die übliche Denkrichtung um und gelangte dadurch zu einer neuen Art von musikalischem Raum: der Klanginstallation. Musik sollte nicht bereichert werden, indem ihr eine Dimension hinzugegeben wird, sondern sie sollte primär vom Raum ausgehen: »Traditionellerweise haben Komponisten die Elemente einer Komposition in der Zeit angeordnet. Mich interessiert aber, wie man sie stattdessen im Raum platziert und es dem Zuhörer überlässt, sie in seiner eigenen Zeit anzuordnen.«[49] Neuhaus installierte für »Drive In Music« Klangquellen zum Hören via Autoradio entlang einer Straße und ordnete dadurch die Zeit dem Raum unter. Musikalische Form war zum ersten Mal in der Musikgeschichte nicht mehr primär Zeitkunst, sondern basierte auf dem Raum. Zeitliche Abfolge ergibt sich aus drei Faktoren: Der Verteilung von Klangquellen (meist Lautsprecher) im Raum; dem individuellen Weg des Benutzers, bei Installationen im öffentlichen Raum von Alltagsbedürfnissen geprägt; sowie einer häufig darunter liegenden zeitlichen Struktur der Klänge, oft aus Umwelteinflüssen gewonnen, zum Beispiel indem Helligkeit, Lautstärke oder Körperbewegungen die Klangentwicklung über Sensoren beeinflussen.

Christina Kubisch arbeitet ebenfalls mit Verzeitlichungen des Realraums. »Klang Fluß Licht Quelle« (1999) ist Teil einer Serie von Klanginstallationen, bei denen die Besucher mit speziellen Induktionskopfhörern Klänge aus Kabelstrukturen heraushören und zu einer individuellen Klangkomposition montieren. Kubisch bezieht sich zudem oft auch auf einen geschichtlichen Gehalt oder hintergründige Elemente vorgefundener Räume, indem sie Klänge verwendet, die an diesem Ort früher einmal zu hören waren oder eine dem Ort eigene Atmosphäre betonen.[50]

David Rokebys »Very Nervous System« bildet Bewegung im euklidischen Raum auf musikalische Dimensionen, also einen nicht-euklidischen Raum ab. Insofern stellt seine Arbeit eine Fortsetzung der Versuche intermedialer Transformationen dar, besitzt jedoch eine weitere Ebene. Bei der 1995 in derHannoveraner Eisfabrik installierten Version konnte man das Ticken eines frei hängenden Weckers in brüllende Rückkopplungsschleifen führen, wenn man ihn in Schwingung versetzte. Kernpunkt war hier das Ausloten eines unsichtbaren, ungreifbaren elektronischen Raums, der sich stets entzieht, weil alle Transformationen nur arbiträr sein können.

Den Weg zurück vom elektronischen in den physischen Raum beschreibt Gordon Monahans Performance »Speaker Swinging«(1994). Statische Sinustöne werden von drei Performern, die Lautsprecher an langen Seilen um sich herum im Kreis schwingen, im Raum rotiert. Die monotonen Sinustöne erhalten durch den Dopplereffekt und komplex variierende Reflexionen und Interferenzmuster eine ungeahnte Lebendigkeit. Hinzu kommen die Körperlichkeit der schwitzenden Performer und die Bedrohlichkeit der zweckentfremdeten, durch den Raum rasenden Lautsprecher. Monahan führt vor, dass musikalische Räumlichkeit erheblich mehr bedeutet, als Punkte im dreidimensionalen Koordinatensystem einzunehmen.[51]

Mediale Narration

In den großen Formen medialen Erzählens wie Buch, Film und Rundfunk haben sich Gestaltungstechniken ausgebildet, die uns als spezifisch romanhaft, filmisch oder ›funkisch‹[52] vertraut sind. Diese Stereotpye benutzt Laurie Anderson in ihren Medienerzählungen. Gleichzeitig beschreibt sie deren Herkunft und alltägliche Bedeutung. Andersons Stimme führt in der Performance »United States I–IV« (1983) durch Alltagsgeschichtenund stützt diese auf eine changierende multimediale Begleitung. Obwohl ihre Performances einen aufwändigen Multimediaapparat einsetzen, spiegeln sie gerade nicht High-Tech, sondern die Erfahrung mit profanen Alltagsmedien.[53] Die Performerin Laetitia Sonami nimmt Andersons virtuosen Stil der Mediennarration auf und ersetzt deren zentral gesteuerte Multimediapräsentation durch physische Interaktion mit einem technischen System aus Bewegungssensoren. Während sie erzählt, navigiert sie mittels Körperbewegungen durch einen Pool von Klängen, Geräuschen, Melodien, Harmonien. Anderson berichtet von den Mythen der Medienwelt, Sonamis tänzerisch erzählte Stücke (etwa »Lady's Glove«) führen einen ritualhaften Umgang mit dem Mysterium technischer Medien vor.[54]

Paul DeMarinis befasst sich mit Mediengeschichte. Das Installationsensemble »The Edison Effect« (1989–1993) reflektiert mystische Komponenten der technischen Errungenschaften der Schallspeicherung. Anstatt von einer Nadel werden Wachszylinder und Schellackplatten berührungslos mit einer vom Künstler selbst entwickelten Lasertechnologie abgetastet. DeMarinis hält quasi die Zeit an, denn im Gegensatz zu digitalen Speichertechnologien löscht die mechanische Schallplattenwiedergabe das Memorierte bei jedem Abspielen beharrlich aus, schreibt sogar den Abspielmoment in das Speichermedium, denn die in einem Raum präsenten Geräusche werden bei der Wiedergabe einer Schallplatte über die Abtastnadel in die Rille eingraviert.[55] Mit einem aus dem antiken Jericho stammenden Tonzylinder mit Schallrillen verweist DeMarinis darauf, dass Edisons simple Erfindung der mechanischen Schallspeicherung schon Jahrhunderte früher hätte entwickelt werden können. Auch Bach und Mozart wären dann in Originalaufnahmen erhalten geblieben, und ihre Musik wäre für uns eine andere.

Entzeitlichung

Bei DeMarinis löst sich schon auf, was das Erzählen hauptsächlich ausmacht: Narration verfolgt eine Linie, steuert entlang einer vorgegebenen oder auch ad hoc entwickelten Dramaturgie auf einen Endpunkt zu, strebt oft eine Auflösung oder Entspannung an. Nimmt man dem Erzählen diese Linie, dann bleibt eine entzeitlichte Geste des Zeigens. Entzeitlicht muss dabei nicht heißen, dass Dauer keine Rolle spielt, sondern nur, dass nicht die logische Abfolge vom Anfang zum Ende im Fokus steht. Zeitdauer bietet nur ›Raum‹ für eine gedehnte Momentaufnahme oder eine multiperspektivische Ansicht eines Phänomens. Zweck solcher Zeitdehnung ist die Konzentration auf ein einzelnes Phänomen, eine Art Detailaufnahme oder Purifikation desselben.

Alvin Luciers Performance »I Am Sitting in a Room« (1969) basiert auf einer stetigen Entwicklung von einem Zustand zu einem anderen. Tatsächlich aber hören wir nur verschiedene Stufen ein und desselben Phänomens, der spezifischen Resonanz eines Raums. Lucier spielt seine Stimme über Lautsprecher in den Raum ein und nimmt den Klang immer wieder auf, bis der Text durch die Resonanzfrequenzen des Raums unkenntlich wird. Der zu sprechende Text ist Libretto,Partitur, Ausführungsanweisung und Kommentar in einem.[56] Indem ein Verhältnis umgedreht wird, wechselt die Perspektive: Im normalen Verständnis ist der Raumhall färbendes Anhängsel sich klingend ausdrückender Objekte. Hier nun drückt sich der Raum im Nachhall eines klingenden Objekts aus, dessen Klangqualität nur färbende Beigabe des Raumerlebnisses ist. Der Raum wird vom umgebenden Kontext zum Objekt.

La Monte Youngs Installationen lassen die Zeit in unterschiedlichen Graden still stehen. 1962 schon konzipierte er das »Dream House« als eine Art Labor, in dem er in den 1980er Jahren Langzeiteffekte rein gestimmter Intervalle von Sinustönen auf die Psyche untersuchte. Die Serie der »Drift Studies« erforscht das sublime Phänomen eines minimal verstimmten reinen Intervalls. Spätere Installationen mit großen Sets minutiös gestimmter Sinustöne bilden durch Interferenzen unendlich komplexe Lautstärkeverteilungen der einzelnen Frequenzen im Raum. Jeder Ort enthält andere Tonkombinationen. Bewegt sich der Hörer, so hört er ein Gewitter wechselnder Klangmuster, ist er ruhig, so bleibt die Musik in der Zeit stehen.[57]

Virtualisierung

Technische Medien bilden ab. Übertragung, Speicherung und Synthese von Schall basieren auf Zeichensystemen, die in plastischen, magnetischen, optischen, elektrischen, digitalen Repräsentationen jeweils diejenigen Merkmale eines Phänomens abbilden, die uns für einen bestimmten Zusammenhang relevant erscheinen. Die tägliche Erfahrung, dass eine Repräsentation ein Phänomen nie in all seinen Aspekten wiedergeben kann und daher Veränderungen der erlebten Realität hervorbringt, weist darauf hin, dass mithilfe frei erfundener Zeichensysteme auch irreale, virtuelle Phänomene dargestellt werden können.

Schwerpunkt von Bernhard Leitners Arbeit ist die virtuelle Konstruktion von Raum. Die permanente Installation »Ton-Raum TU-Berlin« (seit 1984) bietet wie viele andere Arbeiten Leitners akustische Versionen architektonischer Bauformen.[58] Bernhard Leitner verflüssigt Maße und architektonische Charakteristika wie Proportion, Spannung und Gewicht, indem er ihre Merkmale verzeitlicht. Klangbewegungen ziehen denkbare Architekturformen nach, Baulinien werdenplastisch durch Klanglinien nachempfunden. Umgekehrt wirken die baukünstlerischen Koordinaten strukturgebend für ein durchaus auch als musikalisches Ereignis verstandenes Klanggeschehen. Leitner vermischt musikalische und architektonische Zeichensysteme zu einer neuen ästhetischen Symbolsprache.

Bill Fontana kombinierte in der Installation »Klangbrücke Köln/San Francisco« die örtliche Versetzung von Klängen über den halben Erdball, mit Zerrungen räumlicher Form und Dimension. Er übertrug markante Stadtklänge aus ganz San Francisco live auf den Kölner Domplatz (und umgekehrt), zog also ein im Original über Kilometer ausgestrecktes Klangfeld auf einem Platz zusammen. Die akustische Repräsentation eines realen Raums wird beim Parameter Raumausdehnung sozusagen mit einem falschen Multiplikator dekodiert.[59]

Klaus Gasteier virtualisierte mit der Computerinstallation »SMiLE« die Zeit, indem er das Hypertext-Prinzip zur Abbildung eines musikalischen Mythos anwendete. Die mehr als hundert Musikfragmente eines ominösen, nie erschienenen Albums der Beach Boys wurden über ein grafisches Interface in einen halb automatischen, halb vom Hörer steuerbaren Ablauf gebracht. Mögliche Verknüpfungen zwischen einzelnen Fragmenten wurden dabei aus musikalischen Ähnlichkeiten und aus Legenden, die um das Album kursieren, abgeleitet und in eine Datenbank eingegeben. Im allgemeinen versteht man die Zeit als jenen eindimensionalen ›Raum‹, in dem die Struktur von Musik festgelegt ist. Technische Mittel und das gewählte Zeichensystem verwandeln sie hier in einen mehrdimensionalen Möglichkeitsraum.

Enthierarchisierung

Audio Art ist häufig bestrebt, Hierarchien aufzulösen. Als Umfeld und strukturelles Modell dafür bietet sich das Netzwerk an, und daher häufen sich Beispiele mit diesem Fokus seit der Entstehung des Internets. Aber der Ansatz ist älter.

Unter Bezug auf John Cage hatte David Tudor schon seit den 1950er Jahren indeterministische elektronische Systeme gebaut, deren Bestandteile derart verwoben waren, dass er ihr Verhalten nicht voraussagen konnte. Ende der 1970er Jahre übertrugdie League of Automatic Music Composers[60] das Konzept auf drei lokal vernetzte ›KIM1‹, die ersten erschwinglichen Vorläufer des Personal Computers. Jede Komposition bestand aus einem Regelsystem, nach dem der einzelne Computer (und sein Performer) auf jeweils andere Informationen der beiden anderen reagierte und diese wiederum unterschiedlich beeinflusste. »Man kann sich ein Computersystem als ein Gehäuse zur Verkörperung anderer Systeme vorstellen, die Komplexität und Überraschung ermöglichen […]. Unter diesem Paradigma wird die Komposition zur Gestaltung eines komplexen, sogar wilden Systems, dessen Verhalten eine Spur hinterlässt: Diese Spur ist die Musik.«[61] Zwischen Performern und Computern wie auch zwischen diesen untereinander existieren keine eindeutigen Herrschaftsverhältnisse. Stücke sind unterschiedliche Modelle von Musik, die diskursiv zwischen gleichgestellten Beteiligten – Maschinen eingeschlossen – entsteht.

Ähnliche Konzepte entstanden seit Mitte der 1990er Jahre im Umfeld des ORF-Kunstradios in Wien, hier aber motiviert durch Experimente der Telekommunikationskunst.[62] »State of Transition« von Andrea Sodomka, Martin Breindl, Norbert Math und x-space bildete 1994 Prozesse der Datenbewegung ab. Zwischen Graz und Rotterdam wurden verschiedene elektronische Datenwege benutzt: Über ISDN, Übertragungswegeder Rundfunksender, normale Telefonleitungen und Internetverbindungen kommunizierten Performer unter anderem mit Audio, Midi und HTML. Zuhörer konnten über Telefon Klänge in die zwei eigenständigen Konzerte einspielen und im Internet beim Navigieren durch Webseiten zum Thema Migration Klangereignisse in den Konzertsälen auslösen.[63] Für die Hörer wie auch für die Performer war es unmöglich, alle fremden Teilaktionen zu identifizieren. Ebenso blieb die Einbindung der eigenen Aktionen in den Zusammenhang am entfernten Ort ungewiss. Es konnte also nicht darum gehen, einzelne Ereignisse zu synchronisieren. Das System musste in seiner Gesamtheit durch Stimulanz und Korrektur von Teilsystemen abgestimmt werden.

»nebula.m81« von Netochka Nezvanova ist ein Netzwerk für Internet und einen einzelnen Benutzer. Die Software konstruiert aus Fundstücken audiovisuelleAusgaben, der Spieler setzt sie lediglich in Gang. Im Netz gefundener HTML-Code und andere Datenformate werden in Klang, Klang in visuelle Form transformiert. Text, Grafik und Ton sind gleich gesetzt. Der Benutzer beeinflusst die Automatiken, kann in einzelne Audiopartikel hineinhören und vage definierte Transformationsprozesse auslösen. Dynamik und Ästhetik von Musik, Bild und Text entspringen aber primär der Interaktion zwischen dem Programm, den Daten und technischen Prozessen im Netz. Nezvanova nimmt Gregory Bateson wörtlich: »All that is not information, not redundancy, not form and not restraints is noise, the only possible source of new patterns.«[64]

Alle drei Beispiele enthierarchisierter Netzwerke beschränken sich nicht auf die Produktion neuartiger Ästhetiken. Sie haben auch die Funktion, ungreifbare technische Vorgänge sinnlich abzubilden und soziale und politische Bedeutungen dieser kommunikativen Prozesse darzustellen, zu kritisieren bzw. Alternativen modellhaft zu entwickeln.

Audio Art als Phänomen der Moderne

Nicht erst seit dem 20. Jahrhundert, sondern schon Jahrhunderte länger ist Musik wesentlich von Medien geprägt. Insbesondere Musikinstrumente und schriftliche Notation bestimmen als Medien, wie Musik gemacht wird, wie sie gehört wird und damit: was Musik ausmacht. Erst mit dem Aufkommen mechanischer Musikautomaten aber kann Musik gänzlich medial vermittelt werden, weil sie nicht mehr an die Konkretisierung durch einen Menschen gebunden ist.

Drei Leitkonzepte prägten den Umgang mit mechanischen Musikinstrumenten. Das erste kommt schon in den ältesten automatischen Musikinstrumenten vor: in Aeolsharfe und Windspiel, deren Saiten oder Klangstäbe von Luftbewegungen in zufällige Schwingungen versetzt werden und eine Art natürliche, ›organische‹ Musik erzeugen. Diederich Nikolaus Winkels Komponium aus dem Jahr 1821, das mehr als 14 Trillionen Variationen aus einem eingespeisten Thema ableiten konnte, war ein Automat, der diese Idee umsetzte.[65] Das zweite Leitkonzept mechanischer Musikautomaten ist dieästhetische Darstellung höherer Gesetzmäßigkeiten. Glockenspiele in astronomischen Uhren (zum Beispiel im Straßburger Münster, circa 1354) stellten göttliche Prinzipien und ihre Verbindung zur Wissenschaft dar, etwa die Idee der Sphärenharmonie.[66] Nach dem dritten Leitkonzept sollte der Mensch durch einen Mechanismus, der dessen Fähigkeiten nachbilden oder sogar übertreffen könnte, vervollkommnet werden. Jacques Vaucansons Querflöte spielende Satyrfigur von 1738 verkörperte dieses Streben nach exakter Reproduktion und größerer Kontrolle.

Die drei genannten Leitkonzepte finden sich auch in der Audio Art. Das erste, die Gewinnung von ›Partituren‹ aus kunstfremden Vorgängen, ist in der Audio Art als Partitursynthese verbreitet. Hier werden aber nicht nur Natur und Mathematik, sondern auch technische und kommunikative Vorgänge als Quelle von Gestaltungsregeln akzeptiert. Das zweite Leitkonzept, die Darstellung höherer Gesetzmäßigkeiten, begegnet uns unter anderem bei intermedialen Verbindungen zwischen den Künsten. Diese richten sich jedoch selten ungebrochen auf metaphysische Vorstellungen, sondern eher auf Wahrnehmungsphänomene. Zentrales Thema der Audio Art ist das dritte Leitkonzept: der Kontrollgewinn und die technisch bedingte Machbarkeit von zuvor Unerreichbarem. Speicherung, Übertragung und Synthese von Schall sind ebenso wie intermediale Transformation und Virtualisierung solche neuen Machbarkeiten, und sind, wie die Beispiele zeigen, immer wieder Kern musikalischer Auseinandersetzungen mit technischen Medien. Wie die Beispiele ebenfalls dokumentieren, entfaltet sich künstlerischer Wert aber nicht allein durch Kontrollzuwachs, erweiterte Spielbarkeiten und neue Klangperspektiven. Das mechanische Orchestrion stellte genauso wie die ersten elektronischen Instrumente oder manche interaktive Installation nicht mehr als eine technische Attraktion dar.

Wolfgang Amadeus Mozart teilte diese Ansicht. Bei einer Auftragskomposition für eine automatische Flötenuhr nutzte er zwar die technischen Außerordentlichkeiten des Instruments, empfand das Ergebnis aber als begrenzt erquickliche Spielerei.[67] Ihm lag gänzlich fern, das technische Medium selbst zu thematisieren, denn als Tonkünstler der Vormoderne ging er vom menschlichen Spiel als Maß aller Dinge aus.Sogar der Erfinder der Geräuschmusik, Luigi Russolo, konnte diesen Schritt nicht denken. Indem er »diese so verschiedenen Geräusche aufeinander abstimmen und harmonisch anordnen«[68] wollte, suchte er die Regeln der Gestaltung weder im neuen Material noch in seinem Ursprung (den Maschinen), sondern bemühte ein Musikverständnis, das sich an traditionellen Instrumenten, Musizier- und Hörformen ausgebildet hatte – und das die Futuristen eigentlich überwinden wollten.

Erst Igor Strawinsky erhoffte sich von mechanischen Instrumenten einerseits Kontrollgewinn, schenkte dem Player Piano aber auch deshalb Beachtung, weil die spezifischen Probleme, die das Komponieren dafür bereitete, seine Arbeit bereicherten.[69] Die ab circa 1950 entstandenen »Studies for Player Piano« des amerikanischen Komponisten Conlon Nancarrow bilden den ersten vollständigen musikalischen Werkkorpus, der die Möglichkeiten eines technischen Mediums konsequent in den Vordergrund stellt.

Zum einen wird in der Audio Art also auf einen Kontrollgewinn durch die Verwendung technischer Medien spekuliert. Medien übermitteln Information, wo zuvor keine Informationsübermittlung möglich war; sie stellen große Mengen an Daten zur Verfügung, die wiederum nur mit Hilfe von Medien recherchierbar und navigierbar werden; sie machen Vorgänge bis in zeitliche, räumliche und strukturelle Details hinein steuerbar, die für den Menschen ohne diese Hilfsmittel weder wahrzunehmen noch zu kontrollieren wären. Zum anderen wird gegen diesen Kontrollgewinn mit gezieltem Kontrollverlust operiert. Nicht nur technische Vorteile, sondern gerade auch vorgebliche Nachteile verwendeter Medien werden als Potenzial ausgeschöpft: mechanische Starrheit, bastlerisch-amateurhafte Konstruktion und ›unnatürliche‹ Raum- und Zeitmaßstäbe.

Noch ein zweiter Wirkungsbereich mechanischer Musikinstrumente soll vergleichend betrachtet werden. Neben den drei genannten ästhetischen Leitkonzepten sind auch erhebliche gesellschaftliche Effekte von Musikautomaten auszumachen: Darstellung von Geltung,Macht und Reichtum im technischen Wunderwerk; Synchronisation gesellschaftlicher Gruppen im Tages- und Jahresverlauf; Widerspiegelung des Alltags in figuralen Darstellungen von Handwerk, Tanz et cetera; Komfort selbsttätiger musikalischer Untermalung am Hof und später in Bürgerhaushalten und Vergnügungseinrichtungen; weiträumige Verbreitung und Popularisierung von Volksweisen und Operettenschlagern durch Drehorgeln, Straßenklaviere und Plattenspieldosen.

Auch diese Aspekte kommen in der Audio Art zum Ausdruck, aber nicht als Nebeneffekt gesellschaftlicher oder ökonomischer Prozesse von Kunst, sondern im Gegenteil häufig als eigentlicher Fokus eines Werkes. Technische Medien werden benutzt, um alltägliche Wahrnehmungen von Körper, Geschichte, Raum oder Zeit in ästhetisierter Form neu zu erfahren. Sie werden aber auch kritisch auf ihre gesellschaftlichen Potenziale und Effekte auf das Individuum reflektiert. Drei grundlegend neue Verwendungsformen technischer Medien unterscheiden also die Audio Art vom traditionellen Musikverständnis, wie es in der Verwendung mechanischer Musikinstrumente manifestiert ist. Diese Unterschiede bestimmen die Audio Art als Phänomen der Moderne. Erstens akzeptiert Audio Art strukturelle Eigenarten von Medien als Quelle ästhetischer Gestaltungsregeln. Zweitens nimmt sie die experimentelle Untersuchung medienspezifischer Wahrnehmungsphänomene als Aufgabe an. Drittens verwendet sie Medien teils kritisch, teils auch spielerisch gegen sie selbst, indem gezielt der Kontrollverlust gesucht wird, denn Pluralität der Zugriffe und Unvorhersehbarkeit der Ergebnisse werden als Bedingung von Entwicklung verstanden.

© Medien Kunst Netz 2004