Hinweis: Wenn Sie diesen Text sehen, benutzen Sie einen Browser, der nicht die gängigen Web-Standards unterstützt. Deshalb wird das Design von Medien Kunst Netz nicht korrekt dargestellt. Die Inhalte selbst sind dennoch abrufbar. Für größtmöglichen Komfort und volle Funktionalität verwenden Sie bitte die empfohlenen Browser.

ThemenMapping und TextArchiv/Karte
Das Archiv, die Medien die Karte und der Text
Rudolf Frieling

http://www.mediaartnet.org/themen/mapping_und_text/archiv_karte/

Das Archiv und die Verfügbarkeit des Wissens

Die Etymologie täuscht in diesem Fall: Daten sind nie ›gegeben‹, denn sie werden produziert und manipuliert. Das Archiv sieht sich heute, genau wie die Technologien, mit denen es operiert, mit Prozessen der Fiktionalisierung [1] wie der Flüchtigkeit konfrontiert. Es steht vor strukturellen Problemen, die jedes universalistische Konzept unterlaufen. Daten wie Medien sterben jährlich, monatlich, täglich, so dass sich bereits eine lange Geschichte der ›Dead Media‹ aufzeichnen lässt. [2] Die viel zitierte Flüchtigkeit der elektronischen Medien ist zum einen technisch basiert, da der Innovationsdruck keine Kriterien wie Langlebigkeit zulässt, zum andern aber auch in der Struktur des Archivs selbst angelegt, sobald es eine kritische Schwelle des Umfangs überschreitet. Der Verlust von Daten ist ein immer schon inhärenter Prozess des Archivs. Die Erfahrung im Umgang mit Archiven und Datenbanken zeigt, dass jedes System immer mit den Leerstellen und Brüchen in der Praxis kollidiert. Auch Archivare, diese Garanten einer verlässlichen Dokumentenverwaltung, verstricken sich in den Fallen des Speicherns, Sortierens, Ablegens undNicht-Wiederfinden. Die elektronischen Medien versprechen jedoch ein Potential an Verfügbarkeit, das schon am Anfang der wissenschaftlichen Imagination eine wesentliche Rolle spielte, wie Vannevar Bushs wegweisender Essay »As We May Think« zeigt. [3] Umfassendes Wissen auf Abruf verbindet sich hier endgültig mit dem Vision einer Maschine, ohne jedoch die Geschichte der Wissensproduktion mit all ihren sozialen und historischen Bedingungen zu reflektieren. [4]

Wissen konfigurieren

Dieser Wunsch, alles Wissenswerte (oder gleich ›alles‹) auf Abruf zur Verfügung zu haben, wird jedoch nicht erst mit dem Internet geträumt und auf spezielle Weise realisiert, sondern wurzelt in der aufklärerischen Motivation der Enzyklopädisten, findet seine Fortsetzung in den Prozessen der Historisierung des Wissens und verbindet sich im 19. Jahrhundert mit der Auflösung des Buches als dem bevorzugten Speicherort der Wissensproduktion: »Die allmähliche Ablösung der fest gefügten, am Buch orientierten Gedächtnisorte durch Zettelkästen ist verbunden mit jenem Prozess, der als Historisierung des Wissens verhandelt wird. Die Referenzsysteme des Wissens, die Ordnungen des Wissens selbst werden als historische Größen begriffen, die Vorläufigkeit und permanente Revision alles Wissens postuliert.« [5] Wissen wird mobil, erweiterbar, re-kombinierbar. Der Zettelkasten als Medium ist ein Schritt zum rechnergestützten Wissen und hat literarisch am eindrücklichsten im Fragment gebliebenen Hauptwerk Walter Benjamins, dem »Passagen-Werk« seinen wissenstheoretischen Niederschlag gefunden. Für Benjamins Werk schon bot sich die Gliederung nach Themen und Schlagworten, sortiert allein durch das Alphabet als einzigem ›Ausweg‹ aus der hoffnungslosen Fülle des Materials, das in keine lineare und kohärente literarische oder theoretische Erzählung mehr gezwungen werden konnte und sollte. [6] Der Zettelkasten entsprach dieser Theorie und Ästhetik des Fragments und unterlief zugleich schon das, was Michel Foucault später als die allseits wirkende Disziplinierung des Wissens identifizierte. Doch die Modulierbarkeit und Rekombinierbarkeit des Zettelkastens bietet noch kein pragmatisches Modell der Verknüpfung von Wissen jenseits der Begriffe.Schon Benjamin wusste, dass dem Wissen unter neuzeitlichen Bedingungen begrifflich und mit Taxinomien allein nicht beizukommen war, sondern dass ein Verständnis gesellschaftlicher Prozesse und des Warencharakters der Erscheinungen auch von der Deutung von Bildern ähnlich der Traumanalyse Freuds ausgehen muss. Seine Konzeption, darin Aby Warburg verwandt, beruhte fundamental auf einem Begriff der visuellen Konstellation – und bildet damit bis heute eine Brücke zu den medialen Künsten. [7]

Benjamins Fokus lag auf den Experimenten der Avantgarde in Russland und nicht auf anderen zeitgenössischen Künstlern wie James Joyce mit seinem sprachlichen wie formalen universalistischen Text »Ulysses« oder den von Dada und Surrealismus beeinflussten Filmemachern mit ihrer assoziativen Montage von bewegtem Bild. Peter Greenaway verdeutlicht in der Synopsis zu seinem Film »The Falls>« (1980) das Interesse an anderen Ordnungen, wenn er schreibt: »Selection by alphabet is random enough, for what other system could put Heaven, Hell, Hitler, Houdini and Hampstead in one category?« Eine sprachliche Ordnung trifft hier auf eine filmische Narration.

In welchen Medien die Künstler der Moderne auch immer arbeiteten, sie operierten mit radikalen Konzepten von Alterität und Differenz, die heute in den elektronischen Medien ihre zeitgemäße Form gefunden haben. Es geht also auch im Folgenden um die Frage, wie sich diese Erfahrungen der Moderne und dann Postmoderne in die Geschichte der Archive und enzyklopädischen Konzepte im 20. Jahrhundert eingeschrieben haben.

Bedingungen des Wissens

»Die technische Struktur des archivierenden Archivs bestimmt auch die Struktur der archivierbaren Inhalts schon in seiner Entstehung und in seiner Beziehung zur Zukunft.« [8] Die technische Struktur bezieht sich dabei sowohl auf das eigentliche Erfassungssystem wie auch auf die Entscheidungen der »árchontes«, also der Torwächter. Es bleibt die Frage mit Vilém Flusser und Marshall McLuhan, ob das isolierende, in Typisierung und Standardisierung denkende Archiv nicht inzwischen längst durch eine »körnige« elektro-magnetische Kultur abgelöst wurde, die sichdieser Zurichtung in diskrete Elemente entzieht? [9]

Künstlerische Strategien, die Definitionsmacht des Archivs offen zu legen, setzen hier an. So reagiert Antoni Muntadas in seinem kollaborativen Netzprojekt »The File Room« (1994) auf den Zusammenhang von Ausschluss und (kunst)politischer Zensur, indem er Fälle von Zensur weltweit per Internet sammelt und dort allen als Aktensammlung zur Verfügung stellt. Was in einem partikularen Feld hier entsteht, ist ein Gegenarchiv zur postulierten offiziellen Geschichtsschreibung.

Die »Ordnung der Dinge« (Foucault) als kategoriales und indexikalisches Problem kann aus künstlerischer Sicht nur noch in seiner unendlichen Serialität von Ziffern als Konzeptarbeit (wie etwa bei On Kawara) oder als alternativer Entwurf der Reihung marginaler, unscheinbarer Dinge und Ereignisse zitiert werden. Peter Piller sammelt Zeitungsfotos und ordnet diese zu Serien wie »Auto berühren«, »Daumen hoch« oder anderen überraschenden Motiven der Bildgeschichte, deren Bezug zu einer Zeitungsnotiz, einem Bericht über einen realen Vorgang oder realen Ort jedoch verloren gegangen ist. Die Schwierigkeiten oder gar die Unmöglichkeit einer begrifflichen Annäherung an die Wirklichkeit wiederum in verschiedenen Medien herauszuarbeiten, wie wir sie in der zeitgenössischen künstlerischen Produktion mehr und mehr verkörpert sehen, ist dennoch ein Indiz für die ungebrochene Relevanz der kategorialen Topologie des Archivs, sei es in der Kunstsammlung, der Datenbank oder dem Katalog. Ein Beispiel zum Topos des Index liefert Douglas Blau mit »Index aus 'The Naturalist Gathers'‹« (1992–97). [10] Diese Textarbeit, entstanden mit Verweis auf seine Fotoinstallation, die an Aby Warburgs Prinzipien des Bildatlasses (»Mnemosyne-Atlas«) anknüpft, präsentiert einen komplexen wissenschaftlichen Index zu einem nicht-existierenden Sammlungskatalog, der aber aus dem Index als Permutation entstehen könnte, ähnlich dem »Poem-Schema« von Dan Graham (1966). [11] Damit wird eine doppelte Strategie erkennbar: Zum einen ›lesen‹ wir einen Text nicht nur durch seinen Haupttext, sondern noch mehr durch seine Ränder und spezifische Textur wie den Anmerkungsapparat, die Bildauswahl, die Zitate und Verweise, das Impressum, den Einband bzw. Kontext bei einem Essayetc. Wissenschaftliche Texte präsentieren sehr bewusst diesen Apparat aus Subtext und Kontext. Das zweite Motiv ist darüber hinaus Indiz dafür, dass der Index nun, von seiner Referenzialität gelöst, zum Haupttext geworden ist.

Die Künstler ›befreien‹ die Bilder (Piller) wie die Worte (Blau) von ihrer Indexikalität des Verweises auf eine ursprüngliche Ordnung, um sie so neu zu ordnen und einer neuen Lesart zu öffnen. Das Generative der Textapparate und die Logik der Bibliothek (als Speicher aller Verweisstrukturen) machen das Archiv zum Produzenten und zu einem Archiv potentieller Texte. Der Text und das Bild werden nicht mehr nur im Archiv abgelegt als ›Akte‹, sondern sie werden selber auch zum ›Akteur‹. Die Rede vom Wissensspeicher ist irreführend, wenn es sich vielmehr um einen Wissensgenerator handelt.

Distribution von Wissen

Schon die russischen Konstruktivisten erkannten das Potenzial neuer Distributionswege der Information bis hin zur Neukonzeption eines Buches als Bilderspeicher: »The traditional book was torn into separate pages, enlarged a hundred-fold, coloured for greater intensity, and brought into the street as a poster. […] If today a number of posters were to be reproduced in the size of a manageable book, then arranged according to theme and bound, the result would be the most original book. The cinema and the illustrated weekly magazine have triumphed. We rejoice at the new media which technology has placed at our disposal.« [12] Dem russischen Konstruktivismus lag die Dynamisierung der Distributionsprozesse ebenso am Herzen wie dem amerikanischen Kapitalismus, mit dem Unterschied, wie El Lissitzky notiert, dass dieser die Poster spezifisch für den flüchtigen Blick des automobilen Betrachters in die Öffentlichkeit brachte. Während mit Borges die Welt noch ein Buch bzw. eine Bibliothek war, ist sie nun ein Bilderspeicher, der mobil wird.

Da die Bilder zu zirkulieren begannen, mussten sie aber auch wieder ›eingefangen‹ werden. 40 Jahre später imaginierte Nam June Paik ein »Center for Experimental Arts«, in dem er auch ein Videoarchiv vorsah und Stan VanDerBeek sein »Movie-Drome« als den Ort einer universell verfügbaren Bildergalerie. [13] ImAnschluss an Vannevar Bush und sekundiert von Marshall McLuhan hilft das Expanded Cinema der 1960er, die Welt als einen ungeheuren audiovisuellen Speicher zu sehen, den man heute tatsächlich als gigantisches Servernetz realisiert hat, das man mit Hilfe von Suchmaschinen durchforsten kann, sei es in künstlerischer oder in kommerzieller Hinsicht (siehe die Microsoft-Firma Corbis, die die weltweiten Rechte an den 16 Millionen Fotos der Sammlung von Otto L. Bettmann hält). [14] Die Suchmaschinen wiederum operieren mit gigantischen Speicherkapazitäten und den Parametern intelligenter Datenbankstrukturen. Die Datenbank als kulturelle Form des 21. Jahrhunderts, so Lev Manovich [15] , beschäftigt heute immer mehr Techniker, Archivare, aber auch Künstler.

Datenbank als kulturelle Form

Zwei künstlerische Datenbankprojekte sollen als Einstieg in diesen Abschnitt zitiert werden. Agnes Hegedüs' interaktive Arbeit » Things Spoken« fordert die Nutzer auf, in einer Datenbank persönlicher Memorabilia zu forschen und Objekte zu aktivieren. Dabei können zwei Erzählungen abgerufen werden: die Erzählung der Künstlerin zu jedem Objekt und die einer zweiten Person, nahe stehende Freunden oder Familienmitglieder, die ihre Sicht der Dinge, ihre Interpretation eines solchen Objekts in Bezug auf die Besitzerin erzählen. Damit sind zwei kategoriale Ebenen etabliert: die formale Verschlagwortung als ein Prozess oft absurder Meta-Information und die erzählerische Kontextualisierung aus immer schon zwei verschiedenen Perspektiven. In einer Fortentwicklung dieser Arbeit als partizipative Installation konnten Besucher im Museum ein persönliches Objekt ihrer Wahl scannen lassen und dazu eine Geschichte erzählen, die aufgezeichnet und gespeichert wurde. Auf das wachsende Archiv der Objekte und ihrer Oral History konnte man gleichzeitig vor Ort auf einem Computer zugreifen. Aus dieser Datensammlung entstand so mit der Zeit eine Struktur von Relationen zwischen Dingen und Erzählungen, fragmentarisch, anekdotisch, dennoch aussagekräftig, jedoch ohne Kohärenz in Bezug auf die Figur des Sammlers. Eine verwandte CD-ROM hat Eric Lanz mit »Manuskript« bereits 1994 realisiert. Während Hegedüs den Bedeutungshorizont eines Objekts beleuchtet,interessiert sich Lanz für die ›Sprache der Dinge‹. Durch die multimediale Umsetzung von Videomaterial in einen visuellen Text einer Bildtafel gelingt es ihm, eine exemplarische visuelle Geschichte des konkreten Gebrauchs von Handwerkzeug zu demonstrieren. Als künstlerisches Projekt kommt es dabei ohne Verweisstruktur und Datenbank und ohne erklärenden begleitenden Text aus. Die Objekte werden weder identifiziert noch in den Kontext eingebettet, aus dem sie stammen. Während der berühmte Vorläufer enzyklopädischer Bildatlasse, der »Orbis Pictus« von Comenius, sich auf die erklärende Verbindung von Bild, Handlungsbeschreibung und alphabetischer Ordnung stützte, setzt »Manuskript« eine Art von visueller Topologie der Werkzeuge multimedial um. In der oft überraschenden Differenz zwischen äußerem Erscheinen und tatsächlichem Gebrauch liegt der auch poetische Reiz dieser Lektüre. Aufgrund der Verschaltung von Text und animierter Dinglichkeit erzielt Lanz eine Anschaulichkeit, die ein noch so reich bebilderter Lexikoneintrag nicht hätte erzielen können. So führt »Manuskript« vor, dass über die ikonografische Kunstgeschichte hinaus die topologische Konstitution einer objektiven Universalgeschichte des bewegten Bildes nicht nur zu denken, sondern auch exemplarisch umzusetzen ist.

Universale Bildspeicher

Die quantitative Beschränkung auf eine kleine, endliche Menge von ›Dingen im Gebrauch‹ könnte nun jenseits der begrenzten Ressourcen eines Künstlers in eine ebenso universale Dimension erweitert werden. Das Institut für wissenschaftlichen Film (IWF) in Göttingen hatte tatsächlich das Projekt einer »Encyclopedia Cinematographica« als umfassende filmische Dokumentation von Bewegungsabläufen ab 1952 bereits angefangen: »Eine Matrix sollte die Bewegungsformen aller Gattungen erfassen und diese exemplarisch als Bewegungspräparate von ca. zwei Minuten Länge darstellen.« [16] Die Hybris eines solchen Unterfangens wird in dem Moment erkennbar, wo die beteiligten Forscher von ihren »Kinematogrammen« als »Präparaten« sprechen. Der Gründer des Projekts, Gotthard Wolf, dachte tatsächlich auch an hunderttausende von solchen »Präparaten«, um damit universal Bewegungen klassifizieren zu können. [17] DasProjekt einer Datenbank visueller Lexeme musste zwangsläufig an diesem enzyklopädischen Anspruch quantitativ scheitern. Doch auch schon vom Ansatz her ist eine lexikalische Isolation von Bewegungsabläufen zur Erforschung der kontextuellen Konstitution von »Verhalten« und Wirklichkeit ungeeignet. So wie die Grammatik keine Aussagen über Sprache im Gebrauch und kontextuelle Semantik zulässt, können »Kinematogramme« auch nicht den Bereich einer beschränkten visuellen Syntax überschreiten. Dennoch ist die Vision faszinierend, an einem Lexikon zu arbeiten, das zeitbasierte Dokumente umfasst und möglicherweise auch dynamisch konfiguriert wäre.

Die Datenbank ist nach Lev Manovich die kulturelle Form des 21. Jahrhunderts. Die Datenbank liefert dabei keine präfigurierten Ordnungen, sondern Listen und Präferenzen der Anordnung, was nach Manovich einem zentralen Paradigmenwechsel gleich kommt. Während in der traditionellen Theorie die syntagmatische Ebene eine explizite Narration präsentiert und die paragdimatische Ebene von Wahlmöglichkeiten (an narrativen Formen) nur implizit vorhanden war, so dreht sich das Verhältnis im Computerzeitalter um: die Optionen sind explizit, die daraus resultierenden Narrationen aber nur noch implizit vorhanden. [18] Manovich führt eine ganze Reihe von Kunstwerken zur Stützung seiner These ins Feld, von Dziga Vertov zu Peter Greenaway – siehe auch Manovichs zufallsgeneriertes Datenbank-Kino, »Soft Cinema« (2002). Ein Blick auf den heimischen Rechner genügt aber auch schon, um die These bestätigt zu finden. Der Rechner bildet die Bibliothek als ein Tool unter anderen auf dem Bildschirm (der »Arbeitsplatte«) ab. Auf jedem Heimrechner sind »Libraries« und »Bildarchive« vorinstalliert, denn die Nutzer produzieren inzwischen massenhaft auch Bilddateien. Die Einübung in die Arbeit mit dem Computer beginnt nicht bei der Erstellung von Dateien, sondern beim Erlernen der Möglichkeiten von Verweisstrukturen und Ablagesystemen innerhalb der Universalmaschine Computer.

Wird die Datenbank für eine größere Öffentlichkeit zugänglich gemacht (als Intranet oder im Internet), können die multimedialen Objekte auf eine vielfältige Praxis der Einordnung, Bewertung und Intervention stoßen. Die Vernetzung als dynamischeProduktionsstruktur bietet dadurch eine Potenzierung von Sinn – womit selbstverständlich die Kehrseite mitgedacht ist, dass der Sinn auch wieder in über- oder unterkomplexen Unsinn umschlagen kann (vgl. das Spektrum an Textpermutationen in der Netzarbeit »General Arts« von Daniela Alina Plewe, 2003). [19]

Ära des Bildertauschs

Das mediale Archiv (und nicht nur die Datenbank) ist das ›Backbone‹ der globalisierten Kultur und konkreter Ausdruck der Tatsache, dass die Menschen in der bereits zitierten »Ära des Bildertausches« (Gene Youngblood) leben. Der »iconic turn«, wie ihn William J. Mitchell und Gottfried Boehm [20] Mitte der 1990er Jahren diagnostiziert haben, ist im Boom der neuen Medien, der Ominpräsenz der technischen Bilder in den Naturwissenschaften, aber auch in dem expandierenden Gebrauch von digitalen Kameras, Webcams, MMS und anderen Bildgeneratoren offensichtlich und füllt so die immer weiter wachsenden Speicher der Rechner. Der physische Akt des Speicherns ist so einfach und schnell durch einen Click erledigt, dass die inhaltlichen Entscheidungen archivarischer oder kuratorischer Art aufgeschoben werden, zumindest solange, bis die Festplatte voll ist oder uns mit einem kompletten Crash des Problems entledigt. Und doch wüsste jeder Nutzer gerne, wofür er die Daten aufbewahrt. Eine der Antworten könnte sein: um sie wieder loszuschicken in die endlose Zirkulation der Zeichen im Netz. Die Bilder bekommen einen Tauschwert, nicht nur einen Gebrauchswert.

Wenn mehr Bandbreite und größere Speicher die Datenmenge erhöhen, wird das Maschine-zu-Maschine-Processing notwendig, um filtern und sortieren zu können. Das führt zu einer exponentiell steigenden Kurve der Informationsmenge, die nur mit ›intelligenten‹ Tools zu bewältigen ist. [21] Mehr und mehr haben sich im Laufe der 1990er Jahre die potenten Suchmaschinen (von Lycos zu Google) als die eigentlichen ›Strategen‹ des New Media Booms erwiesen. Sie ermöglichen eine Navigation im immensen Datenraum, die in dieser Form noch nie da gewesen ist. Wenn wir die Antenne der Künstler zu schätzen gelernt haben, dann deshalb, weil sie diese Entwicklung oft früher als andere erkennen und schon bevor diese eigentlich in ihrer ganzen Tragweite erkennbar wird,mit eigenen Gegen-Strategien beantworten – siehe Cornelia Sollfranks » Net Art Generator« (1999) oder Christophe Brunos »non-weddings« (2002). Können Algorithmen aber eine komplexe semantische Indizierung der Daten leisten oder sinnvolle Indizes zu Bildern erstellen? Gibt es die Aussicht auf einen automatischen Archivar oder muss der automatisch indizierte und verschlagwortete Datensatz noch vom Auge des Experten kontrolliert werden? Zu dieser Problematik forscht u. a. der Genfer Computerwissenschaftler Stéphane Marchand-Maillet. Der Verdacht drängt sich auf, dass nur die Bilder technisch beschrieben werden können, die zuvor mit den nötigen technischen Parametern produziert wurden – eine Folge der »Illusion einer universalen (weil technizierten) Lesbarkeit der Bilder«? [22] Mit all diesen Fragen im Hintergrund rückt also das Phänomen der Navigation und des Kartografierens (dem ›Mapping‹) des virtuellen Raums, aber auch des Bildes wie des Textes in den Mittelpunkt.

Mapping von Text und Bild

Edward R. Tufte hat in seinen Publikationen seit 1983 die Summe der Erfahrungen als Grafikdesigner in der Erstellung von Visualisierungen und Karten formuliert. Dabei konfrontiert er das modernistische Dogma des »less is more« (Mies van der Rohe/Roberto Venturi) mit dem Dogma der Datenvisualisierung »less is a bore« (weniger ist langweilig): »Well-designed small multiples are inevitably comparative; deftly multivariate; shrunken high-density graphics based on a large data-matrix drawn almost entirely with data-ink; efficient in interpretation; often narrative in content; showing shifts in the relationship between variables as the index variable changes (thereby revealing interaction or multiplicative effects).« [23] In welcher Form die Karte aber nicht nur vom Design, also von der künstlerischen Gestaltung, sondern auch vom Nutzer und vom Gebrauch dynamischer Darstellungsoptionen abhängt, können gerade künstlerisch/wissenschaftliche Anwendungen besonders verdeutlichen. Die Möglichkeiten nicht nur der maschinellalgorithmischen Generierung von Karten sondern auch ihre Repräsentation in elektronischer Form unterstützen die nur temporäre Stabilität der Karte, die sich damit als ein flüchtiger Punkt in der Zeit manifestiert.

Mapping, der Prozess des Erstellens einer Karte bzw. der Überlagerung von zwei verschiedenen Flächen, und Navigation, die Erkundung eines Raums (die Wegstrecke), sind zwei komplementäre Weisen der »Kunst des Handelns« (Michel de Certeau). Die Liste von Kunstwerken, die sich mit dem Thema Karte befassen, um Ereignisse und Handlungen aufzuspüren und sich topografisch zu verorten, haben eine »Strategie befreiter Kartografie« formuliert [24] , ohne dass ein spezifischer Blick auf den Zusammenhang zur Digitalisierung und elektronischen Vernetzung hergestellt wurde. Dies ist umso erstaunlicher, als die Skalierung, also die Veränderlichkeit des Maßstabes, in direkter Analogie zur Zoomfunktion optischer Techniken zu sehen ist, die heute, wenn noch nicht digital produziert, so doch immer schon digital und telematisch übermittelt und gesendet werden. Diese Zusammenhängen sollen in Bezug auf die Praxis der künstlerisch-algorithmischen Kartografierung von Texten und Bildern im Kontext dargestellt werden.

Kartografierung von Text

Ein klassischer literarischer Text von Shakespeare wird zwar unterschiedlich interpretiert, aber immer nur textlich linear dargestellt. Eine Analyse des Textes findet nur auf der Metaebene der Interpretation statt. Was wäre nun, wenn der Text sich in einer anderen Form manifestieren würde? Ein erstes Beispiel befasst sich daher mit den verschiedenen Aggregatzuständen, die ein Text annehmen kann. Benjamin Fry hat mit der Software »Valence« ein eben solches Programm realisiert, das Algorithmus und Narration in einen frappierenden, neuen Zusammenhang bringt. Die Interaktion zwischen Elementen ist die entscheidende konzeptuelle Differenz. Ein rekursiver Prozess entsteht zwischen: Bild wird Text (Code) und Text wird Bild. Der Effekt ist eine visuelle Lesbarkeit eines linearen Textes in räumlicher Form. Eine Art von Software-Skulptur aus Text entsteht und kann mit anderen grafischen 3D-Formen ›auf einen Blick‹ verglichen werden. Man könnte dieses dynamische Objekt aber auch als eine besondere Form der Kartografierung eines Textes beschreiben (siehe auch »TextArc« von Bradford Paley: oder David Links »Poetry Machine 1.0«.)

Was »Valence« Wort für Wort darstellt, wird in dem wohl meist zitierten Mapping-Projektim Netzkunstbereich, »Web Stalker« des Künstlerkollektivs I/O/D von 1997, als grafische 2D-Struktur visualisiert. Die statische Linkstruktur einer beliebigen Website kann mit diesem alternativen Browser auf eine abstrakte Weise so dargestellt werden, dass ein Bild entsteht, das wiederum mit anderen Gebilden vergleichbar wird. Korrelationen werden auf einen Blick erkennbar und eine visuelle Komparatistik erscheint am Horizont.

Was für den linearen Text die allgemeingültige Konvention der Zeilenstruktur ist, bedeutet für den Datenraum eine ungleich schwerer zu standardisierende Form. Die wahrnehmbare, lesbare Verteilung von Information in Raum und Zeit ist Voraussetzung für die Balance zwischen Nicht-Information und Zuviel-Information. [25] Fry zerstört die Linearität des Textes, um eine andere Textform zu konstruieren, die nichts mit früheren literarischen Techniken wie dem Cut-up etwa zu tun hat, sondern mit der quantitativen Analyse des Textes. Als Tool der Komparatistik könnte »Valence« zu einer visuellen ›Signatur‹ eines Textes herangezogen werden und zum Prozess der Verdichtung von Information beitragen. Der Cursor, dessen Blinken zur Texteingabe auffordert, gehört zu den Elementen des elektronischen Schreibprozesses, die Appellcharakter haben. Als Trennstrich verkörpert er den Ort zwischen Zeichen und Leere, in einem Interface aber auch den Ort des Anfangs: hier ist eine Eingabe möglich – denn dies ist nicht selbstverständlich. Eine leere Seite kann auf viele Weisen gefüllt werden. Dass der Schreibprozess aber an der Konstruktion einer Wohnung teilhat, ist neu: Jeder getippte Satz wird in der Software- Kunst von Marek Walczak und Martin Wattenberg zu einem Generator eines »Apartments« (2001), so der Titel der Arbeit. Der Satz »Sex and the City«, um eine beliebte amerikanische TV-Serie zu zitieren, wird in semantische Einheiten übersetzt, die wiederum einem Grundriss einer Wohnung zugeordnet werden: ›Sex‹ zum »Bedroom«, ›city‹ aber – und das ist schon eine interpretierende Semantik – zum »Window«. Dieses Projekt repräsentiert eine einfache, sofort nachvollziehbare und ›lesbare‹ Lösung für folgende Probleme im Umgang mit Textvisualisierung: Wie ›interpretiert‹ die Maschine den Text? Das ist hier offensichtlich schnell erlernbar, indem der Nutzer mitder Dauer der Eingabe Relationen immer deutlicher erkennt. Die repräsentierten Wörter können außerdem animierte Schlaufen bilden und bestimmen aufgrund ihrer Häufigkeit auch die Größe und Positionierung des Zimmers – die Wohnung wird so in ständiger Bewegung gehalten. Ein anderer Aspekt des Interfaces aber wird deutlich, wenn man die abgespeicherten Wohnungen aufruft und etwa ›Themen-Apartments‹ (wie murder and crime) oder ›Konzept- Apartements‹ entschlüsselt (eine Wohnung besteht nur aus der Wiederholung des Wortes ›Now‹, das entsprechend auch nur ein einziges Zimmer ergibt. [26] Während »Legible City« (1988) von Jeffrey Shaw die Verbindung zu einer ars memoriae durch die Verräumlichung von Schrift inszeniert, handelt es sich hier um einen generativen Produktionsprozess. [27]

Walczak und Wattenberg haben bereits eine ganze Reihe von innovativen Applikationen programmiert, die jeweils unterschiedlich die Aufgabe lösen, aktuelle Daten in ein dynamisch generiertes Interface zu integrieren, um so zu einer Darstellung der Echtzeit selber zu kommen. [28] Insofern verdeutlichen die bisher vorgestellten Netzprojekte einen Aspekt, der das Denken von Alternativen als einen visuellen Prozess verkörpert. Die Kartografierung eines offenen Feldes ist in der Geschichte der Entdeckungen und der Geografie die Löschung von ›Leerstellen‹ gewesen. Künstler und Wissenschaftler dagegen nutzen den Begriff der Karte und des Mappings heute, um im Lichte neuer Daten auch zu neuen Darstellungen von geografischen, sozialen, politischen, künstlerischen Feldern zu kommen.

Kartografierung von Bildern

Im Fall der Visualisierung eines Textes sind die Daten bereits gegeben und eindeutig identifizierbar (meist auf der Basis eines Wortes). Was aber ist zu tun, wenn man diese Daten im Fall von Bildern erst noch generieren muss? Wie kann man Bilder formal wie deskriptiv erfassen, wenn es bis heute keine entwickelten deskriptiven Systeme für Bilder gibt (trotz Kunstgeschichte)? Wie können bewegte Bilder indiziert werden? In Bezug auf die Analyse von Bildern als Datenpaketen bringt unsere Text basierte Erfassung uns so weit, wie Google es demonstriert: die Suche nach Bildern durch das Erfassen der mit den Bildernverknüpften Texten. Man muss nicht generell die Grundsatzfrage stellen, warum überhaupt noch das »strukturalistischlinguistische Paradigma« (vgl. Wolfgang Ernst, » Jenseits des Archivs: Bit Mapping«) mit der Unterordnung des Bildes unter das Wort fortgeschrieben wird, um die simple Frage zu stellen: Was ist, wenn dem Bild, dem Datenpaket oder dem Video kein Text beigeordnet ist? Mit diesen Fragen sieht sich jede Medienarchäologie konfrontiert, die nicht schon deduktiv weiß, was sie sucht, sondern durch induktive Cluster-Analyse und iterative Prozesse Klassifizierungen und Relationen konstruiert.

In den Fernseharchiven arbeiten die Redakteure bereits mit ersten Formen automatischer Sequenzierung von Videobeiträgen. Diese Software-Lösungen ermöglichen durch die algorithmische Erstellung eines Storyboards von Szenenwechseln und erlauben den Redakteuren so, nach wieder verwertbarem Material einfach zu recherchieren. Diese Bildanalyse nicht nur auf einen narrativen Kontext anzuwenden, sondern analysieren eine beliebige Menge an visuellen Daten in Bezug auf Strukturen, Texturen, Farbwerte und andere Parameter. [29] Dahinter steckt nicht nur die Vision, sondern schon die konkrete Praxis, Bilder nicht textbasiert, sondern mit visuellen Referenzen zu suchen. Bilder suchen andere Bilder, Bilder erkennen Texte, insbesondere Handschriften, Videos werden in Bildindizes aufgelöst. In all diesen Fällen dienen immer Muster und Strukturen zu einer vergleichenden Analyse.

Mit diesen Bildsuchmaschinen vollzieht sich ein Wechsel von einfachen Metadaten hin zu komplexen Annotationen und zur Semantik des Bildes. In Analogie zur Volltextsuche könnte man hier von einem Versuch der Vollbildsuche sprechen. [30] Was Wolfgang Ernst und Harun Farocki aber in Anlehnung an das Projekt der »Encyclopedia Cinematographica« nun das »Visuelle Archiv kinematographischer Topoi« [31] nennen, meint eben nicht mehr die kunsthistorische und semantische Analyse von Bildern, sondern die überraschende, unvorhergesehene algorithmische Analyse der Bilder. Die Bilder als Daten zu verstehen, die vom Rechner ›gelesen‹ werden können, bedeutet im Endeffekt auch, nicht mehr nur Bilder rechnerisch zu adressieren, sondern die einzelnen Bildelemente, die »Pixel»genannten »picture elements«. Die Analyse verwirft die Semantik zugunsten einer Medienarchäologie bzw. einer »technoimage archaeology«, die sich mathematischer, intelligenter maschinischer Agenten zur Analyse und Kartografierung von Bildern bedient, um zu einer visuellen Grammatik zu gelangen. Die Bilder werden, so oder so, erfasst und identifiziert, um nicht zu sagen, erkennungsdienstlich behandelt. Das Mapping eines solchen Prozess steht daher im Zusammenhang mit dem im wörtlichen Sinn archäologischen Begriff des Data-Mining und der Visualisierung von Daten.

Kartografierung als Visualisierung von Daten

Bevor wir uns mit der heutigen Praxis von Datenvisualisierung und –mapping befassen, lohnt es sich, drei historische Referenzen in Erinnerung zu rufen, die das Paradigma der Karte als Referenz zur Geografie betreffen. Tufte zitiert das Beispiel des Kopierens von Karten: »A 1622 map depicting California as an island was reproduced in 182 variants, as the distinctive mistake traces out a disturbingly long history of rampant plagiary. The last copyist published in 1745, after which California carthographically rejoined the mainland.« [32] Die Praxis des Kopierens ist in diesem Fall die medienhistorische Bedingung, einschließlich der Varianten und eben Fehler. Die Karte ist also immer nur ein annäherndes Modell. Wenn Texte andere Texte generieren, gilt dies in gleichem Maß für Karten und Bilder.

Die beiden folgenden Beispiele haben das Verständnis der Karte als geografischer Referenz ebenfalls entscheidend verändert: zum einen Charles Joseph Minards Karte der Truppenbewegung über die gesamte Zeit des Napoleonfeldzugs, d. h. die Übertragung von zeitlichen Daten auf räumliche Parameter; zum andern die Karte eines Londoner Viertels, die John Snow 1855 von dortigen Cholera-Fällen anlegte, um durch die Verteilung im Raum auf die lokale Ursache einer Pumpe in einer Straße zu schließen, obwohl die damalige Ansicht vorherrschte, dass die Epidemie auf dem Luftweg übertragen wurde. Mit der Stilllegung des Brunnens und der folgenden Eindämmung der Epidemie war jedoch der gegenteilige Beweis erbracht. Diese medizinische Karte war also weniger die Geografie eines Ortes als vielmehr die von Ereignispunkten. Seit150 Jahren ist die Karte also ein Tool zur Lokalisierung und Visualisierung von Beziehungen und Hypothesen und nicht nur allein zur räumlichen Topografie. In Verbindung mit der wachsenden Bedeutung von Datenbanken ist die Karte also eine Strategie, nicht ein feststehendes Format, um Daten zu verstehen. [33]

In dem »konzeptuellen und programmierten Blick des Virtuellen« (siehe Christine Buci-Glucksmann) finden wir also nicht nur im ikarischen mobilen Blick eine Befreiung des Kartografen (mit aller Problematik, die der mythologische Bezug konnotiert) [34] , sondern auch des Kartenlesers, nicht nur der künstlerischen Formen, sondern auch der Topologie. Die Karte öffnet sich so zu vielfältigen Visualisierungen und Erzählungen ebenso wie zu Störungen und Abweichungen. Wenn man sie nun begrifflich mit der ›Konstellation‹ verknüpft, dann wird der prozessuale Aspekt des Zusammenhangs von Bild und Text plastischer. Zugleich schärft aber auch Vilém Flussers melancholische Erzählung über das Ende der Atlanten den Blick für die Verluste, die sich mit der verlorenen »Atlantennaivität« verbinden: »Die Absicht war, die Geschichte auf der Geographie zu entwerfen. Das Resultat war das Gegenteil der Absicht. Wer den Code solcher Karten entzifferte, stand nicht mehr innerhalb der Geschichte, sondern ihr gegenüber. Er konnte in der Geschichte blättern und sie als Code erkennen. Die Nachgeschichte hatte begonnen. [35]

Es entstanden so historische und enzyklopädische Atlanten, die für Flusser schließlich zum »Tod des Humanismus« beitragen, aber zugleich auch eine »neue Einbildungskraft« produzierten. Diese Einbildungskraft sah er in der Codifizierung von Menschen zu Inhalten von Atlanten am Werk. Sie findet ihren Niederschlag auch in den Tools der geopolitischen Strategen mit ihrem machtpolitischen Drang, den Zugang zu elektronischen Kartografierungen zu kontrollieren. Nur wer in Echtzeit eine möglichst exakte Verortung von Menschen und Dingen sich auf den Bildschirm holen kann, ist in der Lage, heute Kriege zu gewinnen. Diese Sicht der Dinge ist in der Folge von Paul Virilio seit dem Golfkrieg in vielen Foren und Publikationen dargelegt worden. So richtig diese Analysen auch sein mögen, an dieser Stelle interessiert aber das Potential der ›neuen‹ Imagination, jenseits des Militärischen auch andere Karten für einen demokratischeren undpartizipativen Gebrauch zu entwerfen.

Alternative Visualisierungen

Die Idee zu einem alternativen Modus der Wahrnehmung von Bildern ist nicht neu (siehe die »Galeriebilder« von David Teniers D.J. um 1651). Die Reihung von Bildern im Raum ist natürlich in unendlich vielen Ausstellungen, Privaträumen oder auch Wunderkammern durchdekliniert worden. Der entscheidende mediale Bruch ereignet sich aber im 20. Jahrhundert mit der massenhaften Verbreitung von Kunst- und anderen Katalogen und Bildatlassen. Die Basis dafür ist die massenmediale fotografische Reproduktion, wie es Walter Benjamin in seinen Untersuchungen herausgearbeitet hat. Das Kunstwerk in seiner technischen Reproduzierbarkeit ist neben dem Film eben auch die Katalogreproduktion, die ein wesentliches Medium einer neuen Bild- und Kunstgeschichte wird, deren Ort nun nicht mehr der Kunstraum ist, sondern der Vorlesungssaal oder das private Studio und Zuhause. Unter diesen medialen Voraussetzungen entstanden die berühmten Bildkonstellationen Aby Warburgs in seinem »Mnemosyne-Atlas«, seinem ›Atlas der Erinnerung‹, der den fotografischen Katalog ebenso nutzt wie später André Malraux für sein »musée imaginaire«, an dem er seit 1935 forschte und das er 1947 als Buch mit S/W-Abbildungen publizierte, oder auch Marcel Duchamp für seine »Boite-en-valise« (1942). Wenn zuvor die Konstruktion von Bedeutung in alternativen Visualisierungen und algorithmischen Transformationen von Bild in Text und vice versa untersucht worden ist, so wird bei Warburg der Akzent auf die kontextuelle Konstellation von Geschichte als ein visueller Prozess plastisch vor Augen geführt. Warburg versuchte damit, »die systematische Ordnungsfunktion einer Typologie, die historische Ordnungsfunktion einer Typengeschichte und die geographische Ordnungsfunktion eines ›Mittelmeerbeckens-Vorgangs‹ in einem Tableau zu verschmelzen.« [36]

Damit war er mit Problemen des Sortierens, Anordnens und Visualisierens von Relationen befasst, die uns heute vertraut sind in der Konzipierung einer multimedialen Nutzeroberfläche. Das Ziel war, mit spezifischen und komplexen Konstellationen von fotografischen Reproduktionen jeweilsunterschiedliche Relationen so visuell zu konfigurieren, dass die untergründigen Strukturen und Verbindungen ohne Texterläuterung in ihrer visuellen Evidenz hervortreten. Die Bildatlanten Warburgs können so auch als Daten und Relationen gelesen werden, die jenseits einer visuellen oder historisch-textlichen Evidenz ganz neue Strukturierungen nahe legen, die etwa die medienhistorischen Voraussetzungen von Bildern verdeutlichen. [37]

Die Schwierigkeiten Warburgs, unterschiedliche Relationen vermittels grafischer Mittel in einer Ordnung und auf einem Tableau als »widerspruchslose Evidenz« darzustellen, hat Claus Pias hervorgehoben. [38] Jenseits dieser immanenten Darstellungsprobleme bleibt aber auch aus heutiger Sicht noch das grundsätzliche Problem, dass sich Relationen, Wertigkeiten und Interpretationen für jeden Betrachter oder Nutzer immer anders darstellen. Da für jeden Nutzer unterschiedliche Interessen im Vordergrund stehen, lohnt es sich zu untersuchen, inwieweit das auch zu einer individualisierten Darstellungsoption führen kann. Ein frühes Beispiel für eine differenziertere Option ist John Simons »Archive Mapper«, der eine gegebene Menge von Websites als separate Größe darstellt und die grafische Darstellung von den Entscheidungen des Nutzers abhängig macht, der zwischen Variablen zu Dateigröße und Datum wählen (in der horizontalen Achse) oder subjektive Variablen eingeben kann (in der vertikalen Achse). Danach stellt der »Archive Mapper« ein Streucluster farbiger Piktogramme als nicht-hierarchisierte Informationsmenge dar. Dies ist ein sehr früher Versuch gewesen, zu individualisierten Darstellungsformen von Zusammenhängen zu kommen, die aber bereits das Filter-Problem visualisiert: Wie können User redundante Information ausfiltern, so dass die (subjektiv) relevanten Daten im Vordergrund stehen?

Christine Buci-Glucksmann untersucht seit Jahren das Verhältnis der Karte zum Virtuellen und zum Blick des Kartenlesers und verknüpft sie mit dem Begriff des Plateaus. [39] Das Plateau (mit Bezug auf Deleuze/Guattaris »Mille Plateaux«) ist ein Handlungsfeld mit multiplen Zugängen. Wir können ergänzen, es ist auch ein Handlungsfeld für sozial vernetzte Akteure/Agenten. Diese sozialen Strukturenbleiben aber in der Regel unsichtbar. Nun ist ein zentrales Kriterium für das Mapping im digitalen Raum die Visualisierung von unsichtbaren Relationen in Bezug auf Statistiken, subjektive Wahrnehmungen, Diskurse oder soziale Netzwerke, die im Folgenden exemplarisch anhand von Künstlerprojekten dargestellt werden.

Mappingstrategien

Vier Strategien des Mappings [40] sind zunächst zu unterscheiden: Transformation von Objekten durch Daten:. John Klima bietet mit »EARTH« eine beeindruckende Zoomfunktion für die Geografie der USA in 3D dar, ohne aber mehr als eine aufwändige Design- Innovation für die Navigation in der geografischen Karte zu sein, die zudem noch den problematischen Aspekt des Data-Mining als Überwachungsfunktion in seiner vernetzten Variante unreflektiert aufnimmt [41] . Demgegenüber nimmt Ingo Günthers Serie von Globen die Form des Globus auf, um gerade eine Fülle von interpretativen Karten der Welt in einer Kritik der vorherrschenden Optik der politischen Weltkarte zu generieren, indem globale Daten – oft militärischen Ursprungs – grafisch einfach visualisiert neue Konstellationen und Repräsentation von ›Welt‹ ergeben. [42] Transformation von realem Raum in einer Karte: Michael Pinskys Projekt »In Transit« (2001) zur Relativität von Entfernungen in einer Metropole basiert auf Daten von Transportzeiten von A nach B, so dass die Geografie einer Stadt (hier London) sich zu unterschiedlichen Zeiten variabel darstellt – die Stadt quasi als Funktion erlebter Zeit. Mapping von Daten auf den realen Raum – augmented reality: Das Erfassen von persönlichen Wahrnehmungen kann hier eine reale Karte entstehen lassen im Sinne einer aus der Praxis der Situationisten, die 1975 einen »Guide psychogéographique de Paris« zum Thema »Discours sur les passions de l'amour« herausgaben, stammenden Psychogeografie der Stadt und ihrer mentalen Räume wie es in jüngerer Zeit das Projekt »PDPal« (2002) von Scott Paterson, Marina Zurkow und Julian Bleecker vorgeführt hat.

Mapping von Daten im Datenraum: Neben der Kartografierung des realen Raums bezieht sich der Begriff ›Mapping‹ aber auch auf die Verteilung von Daten in einem gegebenen Koordinatensysteme, das nicht unbedingt eine räumliche physische Entsprechung haben muss. Ismael Celis’ Projekt»InterMaps« kartografiert die Kommunikation in einem sozialen Beziehungsgeflecht von Freunden oder Kollegen dynamisch und in der Zeit als Multi-User Map. Die Perspektive, die jeder Teilnehmer dieses Netzwerkes hat, ist aber individualisiert und auf die eigene IP-Adresse hin zentriert. Damit bewegen sich alle zwar im gleichen Datenraum, sehen aber immer die Beziehungsdarstellungen auf dem eigenen Bildschirm jeweils unterschiedlich.

Mapping als kollektiver Prozess

Die banale Tatsache, dass wir auch eine Unterhaltung jeweils ganz anders wahrnehmen können, je nachdem ob wir im Zentrum des Gesprächs stehen oder nur zuhören, führt zu linguistischen Analysen, die sich von der grafischen Darstellung neue Erkenntnisse versprechen. In einigen Projekten werden zum Beispiel elektronische Diskursräume visualisiert, siehe Warren Sacks » Conversation Map«, das mehr an Inhalten und Semantik interessiert ist und die Diskussion innerhalb einer Usenet-Newsgroup während des amerikanischen Wahlkampfes zwischen George Bush und Al Gore auf komplexe Weise abbildet und damit zu einem Tool der Selbstreflexion werden kann: »Technologisches Design wie in der ›Conversation Map‹ sehe ich als Technologien des Selbst (vgl. Foucault): ein Mittel, mit dem eine Gruppe ihre eigene Diskussion, lexikalische Wiederholungen (d. h. was Deleuze unter Hinweis auf Foucaults Terminologie ›statements‹ nannte) und mögliche Differenzen reflektieren kann, umso zu einem Bild der ›öffentlichen Meinung‹ der Gruppe zu kommen.« [43]

In all diesen Fällen treffen wir zunächst einmal keine Aussage über die tatsächliche Effizienz einer solchen Kartografierung. Aber jede Karte besitzt den großen Vorteil, sowohl lesbar als auch sichtbar zu sein. Damit sind schon zwei Zugangsmodalitäten gegeben. Dennoch kann die Karte ein Zuwenig oder ein Zuviel an Information vereinen. Die Relation zwischen diesen beiden Polen ist nicht nur vom Design abhängig (Tufte), sondern auch vom Nutzer. Damit sind wir wieder bei der Frage angekommen, wie sehr der Nutzer Einfluss nehmen kann auf die Erstellung der Inhalte wie der Darstellungsformen. Künstlerische Projekte, wie die Arbeiten von Knowbotic Research, speziell die Serie »IO_dencies«, oder didaktisch-explorative Vermittlungsprojekte wie »DataCloud« vom RotterdamerV2-Lab legen großen Wert auf den kollektiven und diskursiven Prozess des Generierens und Darstellens von Daten. In diesem Sinn ist ein Projekt wie »DataCloud« nicht nur ein Tool zur dynamischen Repräsentation von Beziehungen, sondern auch zur Stärkung der Bindungen innherhalb einer Gruppe oder Community. Die Frage stellt sich also, inwieweit die Visualisierung und Interface-Gestaltung neue semantische Horizonte eröffnet oder einfach ein neues Design-Tool bleibt. Mit diesem Problem des Mappings hat sich auch Graham Harwood befasst, der als Mitglied der Künstlergruppe Mongrel an einem Projekt der Darstellung der Bijlmer-Community gearbeitet hat: »9(Nine)«, organisiert von der Waag Society in Amsterdam: Hier wurde die Software für Workshops und die Arbeit mit Gruppen entwickelt, d. h. aus einer bestimmten sozialen Praxis. Die diesbezüglichen Schlagworte im Kontext der Medien sind meist »open access«, »open source« und »demokratische Partizipation«. Mongrel stellte sich aber der Erfahrung, dass ein vollkommen offenes System niemanden interessiert. Aus diesem Grund haben sie Begrenzungen eingeführt, die das offene Redaktionssystem für die Nutzer mit einer klaren Handlungsanweisung verknüpft war: ›Wähle 9 Bilder/Töne/Videos aus und gib diesen dann 9 Texte‹. Angesichts der Wahrscheinlichkeit des Wucherns eines offenen Archivs findet »Nine(9)« eine überzeugende Lösung, um Kohärenz und Selbstbestimmung durch die Karte zu garantieren. Diese funktioniert dabei ohne kategoriale Klassifizierungen, da dies der Selbst-Darstellung der Community offensichtlich nicht angemessen war, wie aus den Kommentaren im Produktionsprozess zu erfahren war. Graham Harwood betont daher, wie sehr das Muster des Mappings in diesem Fall von der Interaktion mit den einzelnen ›Kartografen‹ mitbestimmt worden ist. Das Mongrel-Projekt ist ein Beitrag für das Kartografieren von Beziehungen und die Subjektivität von visuellen Clustern. Es bleibt offen, welche Geschichte eigentlich jeweils mit neun Bildern, Texten, Videos erzählt wird. Generell gilt aber für die Netzproduzenten, dass sie sich einer offenen anti-hierarchischen Prozessualität verpflichtet fühlen, die sich um so etwas ›Konservatives‹ wie Archivierung nicht schert. Alle Produktion verpflichtet sich auf eine Steigerung der Intensität des Augenblicks, nicht aber auf eine Relativität, die aus der Kenntnis derVergangenheit rühren würde (auch wenn das nicht prinzipiell ausgeschlossen ist). Insofern ist das Community-Mapping zuallererst ein ›Community-Building‹.

Das Ganze im Blick

Ein wichtiger Einwand relativiert den Gegensatz von Prozessualität und Archivierung. Das Data-Mining, also das Verfolgen und Speichern der Spuren eines Nutzers im Netz, kann ebenso wenig ›Werkcharakter‹ beanspruchen und ist dennoch von höchstem Interesse – politisch, wie am Beispiel von »Carnivore« ausgeführt, und kommerziell vor allem für Anbieter von Webseiten. In dieser Hinsicht ist es nicht nur von konzeptuellem Interesse, wenn ein Tool zur Verfügung stehen würde, um das permanent expandierende und sich verändernde Netz selbst erfasst und abgebildet werden könnte. Computerspezialisten in Kalifornien arbeiten an der Speicherung von jeder existierenden Website mit einem Screenshot. [44] Dies ist ein Weg, das Netz abzubilden, allerdings bleibt die Frage, was damit gewonnen ist, wenn ich – um eine nahe liegende Analogie zu ziehen – die Titelbilder aller existierenden Bücher sammeln würde, allerdings keine Inhaltsverzeichnisse hätte.

Demgegenüber bezieht sich Lisa Jevbratts Projekt »1:1« (seit 1999) nicht von ungefähr auf Lewis Carroll (und indirekt natürlich auch auf Jorge Luis Borges) [45] , indem es den Anspruch verfolgt, durch ein hochauflösendes Bild das ›ganze‹ Internet abbilden zu können. Jeder Farbstrich in diesem abstrakten computergenerierten Bild entspricht einer IP-Adresse. »1:1« stellt damit nicht den ikonografischen Aspekt von Screenshots in den Vordergrund, sondern die strukturelle Analyse. Die Dynamik des Netzes wird als ›Schnappschuss‹ eines bestimmten Momentes erfasst, indem der gleiche Vorgang zwei Jahre später noch einmal wiederholt wird. Der Paradigmenwechsel ist bemerkenswert, wenn der Nutzer sich nicht mehr im ›Straßennetz‹ der Datenautobahn befindet, das vor allem über die Suchmaschinen immer nur zu bekannten Adressen führt, sondern von einem externen Standpunkt aus das Netz als ganzes betrachtet und die Erfahrung machen muss, dass dies weniger eine Karte zur besseren Navigation ist, als vielmehr eine Liste von Adressen mit Leerstellen, Sackgassen und Zugangsbeschränkungen. Auch wenn real die»softbots« des Webcrawlers für »1:1« nur ca. 2% der Gesamtmenge von IP-Adressen zu dem gegebenen Zeitpunkt erfasst haben, so war dies eine zufallsgesteuerte und nicht-lineare Abtastung, die dadurch ein authentisches Bild des Netzes vermittelt. Das Netz, mit anderen Worten, ist ein ›Deep Web‹, das nur in einem Ausschnitt für die Öffentlichkeit zugänglich ist.

Die Performanz der »softbots«, bei »1:1« ebenso wie bei Google, spiegelt eine Gegenwärtigkeit vor, die dennoch eine Einbahnstrasse ist. Das System scannt das Vorhandene und visualisiert es je unterschiedlich, auch abhängig vom Interface. Damit fördern diese Programme unser Verständnis des Internets, sie lösen aber sein Versprechen einer kommunikativen Gegenwärtigkeit nicht ein. Zu Beginn der künstlerischen Auseinandersetzung mit den Speicher- und Sendemedien in den 1950er und 60er Jahren waren es John Cage und Nam June Paik, die partizipatorische Konzepte von Zwei-Weg- Kommunikation, Unbestimmtheit und den Zufall (Random Access) in die Kunst einführten. An der Übertragung und Umsetzung dieser Konzepte arbeiten heute nicht nur Künstler, sondern auch Wissenschaftler, um auf dem Weg einer ›verteilten Autorenschaft‹ zu neuen Antworten zu kommen. Von der statischen Konstellation, wie sie Aby Warburg in seinem »Menomsyne-Atlas« nicht überwinden konnte, führt der Weg zur dynamischen, offenen, aber auch kontrollierten Konfiguration des Wissens, in vielen Fällen mit Anleihen an eine »fuzzy logic«. [46] Performativität und Data-Mining sind Schlüsselbegriffe für den Ausblick auf das dynamische, vernetzte Archiv.

Datamining und das dynamische Archiv

Die Implikationen des Profiling sollen hier nicht erörtert werden. Interessant ist an diesem Fall allerdings für den hier untersuchten Kontext, dass ein Mapping-System nur solange als erkennungsdienstliche Maßnahme funktioniert, als es ›heimlich‹ operiert (und damit im Zusammenhang mit dem ›Unheimlichen‹ steht, wie Sack bemerkt). Auch Claus Pias äußert den Verdacht, dass jedes Bildsuchprojekt bewusst oder unbewusst Teil der erkennungsdienstlichen Forschungsarbeit ist und insofern einen höchst problematischen Aspekt hat.

Der von Pattie Maes am MIT Media Lab entwickelte »Firefly- Agent« [47] generiert aufgrund von einfachen Bewertungen Muster, die wiederum dem Nutzer zu einer zweiten Bewertung präsentiert werden, evtl. noch zu einer dritten usw. Neben den subjektiven Entscheidungen werden aber auch Daten anderer Personen einbezogen, die ähnliche Schnittmengen als positiv ausgewählt haben. So baut sich durch die offene und aktive Partizipation der Nutzer ein algorithmisches Wissen über inter-subjektive Vorlieben auf (hier in Bezug auf Musikgeschmack), das im Prinzip genauso funktioniert, wie die Bewertungen von Bildresultaten im Viper-Projekt. Dahinter steht die Vision eines semantischen Netzes von Referenzen, das nicht durch archivarische, kuratorische oder andere institutionelle (auch polizeidienstliche) Kriterien entwickelt wurde, sondern durch die Speicherung und den Abgleich der Daten der Nutzer. Dabei geht es jenseits des populistischen Ratings auch um das Erforschen sinnvoller Kontingenzen durch ein statistisches Korrelierungsprogramm in einer Datenbank: »Die Maschine weiß also nicht, dass James Taylor in die Ecke ›Softrock‹ gehört, sondern nur, dass auch andere Benutzer, die Tracy Chapman mochten, etwas für James Taylor übrig hatten.« [48] Dies lässt sich auch für neuronale Netze behaupten: Sie ›kennen‹ nicht die Semantik der Erinnerungsspur, aber sie machen einen Abgleich mit den bisherigen Mustern und stellen so Kohärenz und kulturelle Kontinuität her. [49] Eine Praxis schreibt sich in ein Archivierungsprogramm ein, wird also dadurch Monument oder Dokument, beides Begriffe, die kulturelle Kontinuität herstellen, zugleich verändert dieser Akt wiederum die Praxis und den sozialen Prozess. Wir befinden uns in einem kybernetischen System von Kreisläufen und rekursiven Prozessen, ganz ähnlich den selbstorganisierenden Abbildungen von Communities, wie es die Projekte von Celis oder Mongrel darstellen.

Aber die Untersuchung der Sprache zeigt auch, wie Alterität und Kopräsenz immer schon einen Möglichkeitsraum in der Literatur oder auch in den psychischen Prozessen der Verdrängung und Aktualisierung von verdrängten Inhalten schaffen, der mit Konnotationen und Ersetzungen operiert. Damit werden die paradigmatischen Bedeutungsachsenbetont. So hat jedes Wort ein Bedeutungsvolumen, das – und das ist für unseren Begriff eines dynamischen Archivs wichtig – immer nur fragmentarisch und different realisiert wird. [50]

Derrida geht noch einen Schritt weiter, wenn er in Frage stellt, »dass der Widerspruch zwischen dem Gedächtnis- oder Archivierungsakt auf der einen und der Verdrängung auf der anderen Seite irreduzibel bleibt. Als ob man nicht eben genau das, was man verdrängt, erinnern und archivieren könne, es archivieren könne, indem man es verdrängt (denn die Verdrängung ist eine Archivierung)«. [51] Damit ist das Archiv kein ›Gegebenes‹ mehr, sondern ein Prozess der Aktualisierung, Interpretation und Re- Impression, wie Derrida es nennt. Der Prozess des Sammelns von Daten vollzieht sich also auch jenseits bewusster Ordnungen. Dies in seiner medialen Performanz zu zeigen, ist einer der wesentlichen Aspekte aller künstlerischen Arbeit mit Datenbanken, Archiven und Visualisierungen.

Das Archiv als ein offenes, dynamisches System zu denken, heißt auch, den intransitiven Begriff durch das transitive und prozessuale ›Archivieren‹ und den ›Speicher‹ durch den ›Generator‹ zu ersetzen, heißt »[…] (s)einer prinzipiell offenen, supplementierbaren Inventar- respektive Katalogstruktur zu folgen – einer Karteiform, die in der Informatik längst als hypercard wieder entdeckt worden ist.« [52] Bis zur vernetzten Karte von transmedialen Archivierungsprozessen ist es aber noch ein weiter Weg, der immer wieder auf das Beharrungsvermögen der Menschen und der Sprache trifft, das uns gerade durch seine Widerständigkeit daran erinnert, nicht der Hybris des Alles-mit-Allem-Verknüpfens zu folgen.

© Medien Kunst Netz 2004