Texttransformation – Lesertransformation Veränderungspotentiale der digitalisierten Schrift von Christiane Heibach
1.
Materialität und Bedeutung Diese beiden verschiedenen Auffassungen – Schrift als materielles, mediales Phänomen einerseits, als generalisiertes Repräsentationssystem andererseits – finden sich unter den Bedingungen der Digitalisierung zusammen. Dies manifestiert sich v.a. in der amerikanischen Hypertexttheorie, die sowohl die Frage nach der „Materialität“[4] der Schrift als auch nach ihrer Bedeutungs- bzw. Repräsentationsfunktion (und damit mehr oder weniger indirekt die Rezipientenrekonstruktion von „Sinn“) unter den Bedingungen veränderter Schreibtechniken neu stellt, beide Ebenen dabei aber miteinander vermischt. In der Hypertextdiskussion drückt sich diese Spannung dadurch aus, daß nicht zwischen Hypertext als mentalem Konzept (Repräsentation der vernetzten Gehirnstrukturen) einerseits und Hypertext als programmierbasierte Schreibtechnik andererseits unterschieden wird. Die Folge ist eine Konfusion an Merkmalen, die dem elektronischen Hypertext zugeschrieben werden, ohne daß zwischen diesen beiden Ebenen konsequent getrennt würde.[5]
Die Veränderbarkeit, Beweglichkeit und Räumlichkeit erhält die Schrift, indem die Funktionsweise des Computers auf der Anwenderoberfläche „gespiegelt“ wird. D.h. die Prozeduralität des Elektronenflusses sowie der Ablauf von Software-Programmen, auf deren Basis der Computer überhaupt erst zum Medium wird, bestimmt letztlich auch den Handlungsspielraum der Benutzer. Dabei leisten die Programme schon eine Interpretationsarbeit, die die Erscheinungsformen an der Oberfläche festlegt.[7] Der Benutzer hat darauf nicht mehr viel Einfluß, dennoch eröffnen sich ihm Spielräume bei der Gestaltung der erscheinenden Schrift, die sich allerdings wiederum nur im Rahmen der Software-Möglichkeiten bewegen (der Computer oszilliert prinzipiell zwischen Eröffnung von Handlungspielräumen und strikter Kontrolle). Die rekursive Funktionsweise der Programme, die die immer wieder neue Verarbeitung von Daten nach denselben Mustern erlaubt, macht z.B. die spurenlose Korrektur von Fehlern und das Umschreiben von Texten möglich. Da sich hinter dem vertrauten Schriftbild letztlich nur elektronische Impulse verbergen, die bei Öffnen der Dateien durch die Interpretationsleistung der Programme jedes Mal wieder zu Schrift werden, ist die „materielle“ Veränderbarkeit digital gespeicherter Texte zumindest theoretisch unbegrenzt. Die Räumlichkeit von Schrift ist zunächst ebenfalls bestimmt durch die Möglichkeiten der Software. Dreidimensionale Visualisierung von Buchstaben und Wörtern – oft in Verbindung mit Schriftbewegung – wird v.a. in der digitalen Poesie praktiziert. David Knoebels „slow.time" erhält seinen poetischen Charakter nicht zuletzt durch den sanften Fluß der Wörter, der es dem Leser überläßt, eine für ihn sinnvolle Kombinatorik herzustellen. Jim Rosenberg dagegen arbeitet in seinen Diagrams mit Textschichten, „layers“, die übereinander gelegt werden und sich erst durch die Mausbewegung von den ihnen unterliegenden (oder sie überlagernden) Schichten lösen und lesbar werden. Radikaler nutzt Simon Biggs diese Möglichkeit bei „The Great Wall of China . Dem Projekt liegt eine Datenbank zugrunde, die aus den Wörtern der unvollendeten Kafka-Erzählung „Beim Bau der Chinesischen Mauer“[8] besteht. Der erscheinende Text wird automatisch aus diesen Wörtern (nach programmierten Syntaxregeln) generiert – die Maus des Benutzers, die über diesen Text fährt, ist das auslösende Moment für eine kontinuierliche Texttransformation, die erst dann zum Stillstand kommt, wenn die Maus sich aus dem Text herausbewegt. Verschiedene Textblöcke sind in ihrer Transformation dabei miteinander gekoppelt. „The Great Wall of China“ macht deutlich, daß hier der Schwerpunkt der Wahrnehmung verschoben wird – vom Lesen fixierter Buchstaben hin zu einer umfassenden Wahrnehmungsleistung, bei der die Suche nach Bedeutung von der Schrift abgekoppelt und auf den Prozeß der Transformation verlagert wird. Zusätzlich wird die Frage der Autorenrolle problematisiert – daß die entstehenden Texte computergeneriert sind (auch wenn der verwendete Wortpool von Kafka stammt) wirft die Frage nach der Bedeutung von Intentionalität und damit der kommunikativen Funktion von Texten wieder auf. Das Bewußtsein, hier eine Maschine als Autor vor sich zu haben, verändert auch die Einstellung des Lesers; die Betonung der Transformation verhindert zusätzlich, daß nach einer textbasierten Bedeutung gesucht wird. Der Bedeutungsraum wird somit verlagert und "globalisiert": Er geht vom Text über dessen Transformation zu der Beobachtung des eigenen Rezeptionsverhaltens angesichts der Unmöglichkeit des traditionellen Leseverhaltens. Dasselbe gilt noch potenziert für ein anderes Projekt, „BEAST“ von Jacques Servin. Bei diesem Projekt steht der Benutzer zunächst machtlos den sich unabhängig von seiner Einflußnahme transformierenden semiotischen Systemen gegenüber, die miteinander in Interaktion treten. Die Dynamik des Projekts entwickelt sich beginnend mit Zitaten aus den fiktionalen und essayistischen Texten unterschiedlicher Autoren, die bestimmten Kategorien zugeordnet sind und deren Generierung zufällig erfolgt – der Benutzer kann zwar das Anfangsthema wählen (fünf große Themenbereiche stehen zur Verfügung), nicht aber den Text, der daraufhin erscheint (dieser wird programmiertechnisch zufällig aus dem der Kategorie zugeordneten Textpool generiert). Greift der Leser nicht ein, so schreiben sich die Texte selber fort, meist in einer Geschwindigkeit, die ein gründliches Lesen unmöglich macht. Begleitet wird diese "Textrolle" von verschiedenen Tonelementen, die ebenfalls einen gewissen Bezug zum Thema vermuten lassen. Nach einer gewissen Zeit öffnet sich ein navigierbares zusätzliches Fenster mit „floating images“ – Symbolen, deren Generierung von den Inhaltsschwerpunkten der bisher erschienenen Texte abhängt. Jedem Symbol ist wiederum ein Tonelement zugeordnet – klickt der Benutzer auf eines der Symbole, fixiert er es und löst damit gleichzeitig das dazugehörige akustische Feature sowie die Generierung eines thematisch mit dem Symbol korrelierten Textsegments aus, gleichzeitig erscheint eine "Karte", die das Symbol erklärt. Die programmgesteuerte Text-, Bild- und Tongenerierung ist somit inhärent miteinander gekoppelt, wobei die Hypermedialität den Rezipienten zunächst einmal einerseits durch den Transformationsprozeß, andererseits durch die Interaktion kognitiv überfordert, zumal er gleichzeitig mit (fingierten) Systemmeldungen unter Druck gesetzt wird, die im Falle seiner Untätigkeit mit Computerabsturz drohen. Erst nach und nach erschließen sich ihm die Steuerungsmöglichkeiten, die dieses auf einer hochaufwendigen Programmierarbeit basierende Projekt ihm übrig läßt. Deutlich wird hier eine weitere Konsequenz der Computerbasiertheit: Semiotische Systeme können nun in direkte Interaktion miteinander treten, wodurch der Text endgültig seine Bedeutungsdominanz verliert. Auch bei „BEAST“ wird der Bedeutungsraum von den einzelnen semiotischen Systemen abgekoppelt und aus deren Oszillationsbewegung und Transformationspotentialen eine neue umfassende Interpretationssphäre geschaffen, die sich auf das Wahrnehmungs- und Aktionsverhalten des Betrachters erstreckt. Diese Entwicklung
hin zu Transformation, Bewegung und Räumlichkeit, schließlich
– in letzter Konsequenz der Auschöpfung der hypermedialen Potentiale
des Computers – zur Interaktion mit anderen semiotischen Systemen verändert
grundlegend die Funktionsweise von Schrift und damit zwangsläufig
auch die Wahrnehmungsgewohnheiten des Lesers. Die repräsentative
Qualität von Sprache wird hier aufgehoben – sobald sich die Schrift
nicht nur in der philosophischen Konstruktion der Poststrukturalisten,
sondern auf der materiellen Ebene von ihrer Fixierung löst, wird
sie zu einer Performance, bei der keine intentionalisierte oder interpretierbare
Sequentialität, sondern Rekursivität der Prozesse mit wechselndem
Dateninput die Transformation beeinflußt und diese nicht mehr
in der Interpretationsleistung, sondern in der tatsächlichen Austauschbarkeit
der Wortkombinationen liegt.[9] Im Falle von Simon Biggs’
„The Great Wall of China“ wird dies besonders deutlich: Hier liegt keine
„Verfilmung“ von Schrift vor (eine sequentielle Abfolge von Wörtern,
die vor den Augen des Benutzers abläuft wie z.B. bei zahlreichen
Hyperfictions, z.B. dem „Vorspann“ zu Mark Amerikas Grammatron“
oder zum Teil bei Berkenhegers „Zeit
für die Bombe“), sondern eine kontinuierliche, vom Rezipienten
nicht mehr zu steuernde Transformationsleistung der Maschine, die nicht
darauf abzielt, „Lesbarkeit“ zu erzeugen, sondern eine Wahrnehmungs-
und Interpretationsleistung verlangt, die über den semantischen
Raum von Zeichen und Bezeichnetem hinausgeht und die Grenzen des Textes
überschreitet. Der Verlust der Repräsentationsfunktion von Schrift hängt nicht nur mit diesen transformatorischen und performativen Qualitäten der Digitalisierung zusammen, sondern ist inhärent an die medienintegrativen Potentiale des Computers gebunden, die die Erkenntnis verstärken, daß andere Visualisierungstechniken semantische Funktionen besser erfüllen können als die Schrift. Auch hier wieder spielt die Transformation eine entscheidende Rolle: Waren graphische Darstellungen, Diagramme, etc. auf dem Trägermedium Papier dazu verurteilt, statisch zu sein, ist hier die Darstellung von Veränderungen, v.a. die visuelle Umsetzung der Zeitdimension, ein Faktor, der graphisch wirkungsvoller dargestellt werden kann als durch Schrift.[12] „Agree to Disagree“ von Janet Cohen, Keith Frank und Jon Ippolito stellt den Versuch dar, einen Dialog dreier Sprecher zeitlich und graphisch zu dynamisieren. Dabei wird die doppelte Zeitdimension des Sprechens visualisiert: Einerseits kann die semantische Kohärenz der Argumentationsanschlüsse, andererseits die tatsächliche Abfolge der gesprochenen Argumente verfolgt werden. Arbeitet dieses Projekt noch stark textbasiert und drückt die Dynamik des Gesprächs nur mit Pfeilen aus, so ikonisiert das jüngste Projekt der drei Kontrahenten die semantische Ebene des Streitgesprächs: „Three Degrees of Separation“ visualisiert mit Hilfe der RGB-Farben die Übereinstimmung der Gesprächsteilnehmer mit dem jeweils angeführten Argument. Die sonst nur im interpersonellen Gespräch ablaufenden Kommunikationsfaktoren wie Gestik, Mimik, Augenkontakt, die zusätzlich Aufschluß über das Maß der Übereinstimmung oder Differenzen geben, werden hier mit Hilfe von Farbquadraten gleichzeitig abstrahiert (in ein anderes Medium übertragen), aber auch konkretisiert bzw. überhaupt darstellbar. Das Augenmerk wird damit nicht so sehr auf den Inhalt der jeweils vorgebrachten Argumente, sondern auf die Dynamik der Zustimmung oder Ablehnung zwischen den drei Sprechenden gelenkt. Bei diesen Projekten geht es um eine Visualisierung bereits stattgefundener Gespräche, gleichzeitig aber verdeutlichen sie – in gewisser Weise in einem Paradoxon – daß die Schrift in einem völlig anderen Kontext revitalisiert wird: im technisch vernetzten Gespräch. Geht es bei der Dialog-Visualisierung um den Versuch, die Dynamik der Interaktion zwischen Sprechenden mit graphischen Mitteln umzusetzen, so ist das tatsächlich stattfindende medial vermittelte Gespräch mit Hilfe vernetzter Computer (insbesondere im Internet) mehr als bei allen anderen kommunikativen Medien auf die Schrift angewiesen. E-Mail-Kommunikation, Chats und Gespräche in virtuellen Welten funktionieren (noch) textbasiert, wodurch sich gleichzeitig eine Anpassung der Schrift an das gesprochene Wort vollzieht, die sich v.a. in Abkürzungen, umgangssprachlicher Syntax und Wortwahl sowie graphologischen Vereinfachungen niederschlägt (hinzu kommen noch Elemente, die Mimik oder Stimmung ausdrücken, v.a. die "Emoticons"). Im technisch vermittelten Gespräch also erhält die Schrift eine wesentlich kommunikativere, weil im direkten Austausch involvierte Funktion als sie aus der Buchkultur bekannt ist. Auch der Briefaustausch beruhte nicht auf der zeitlichen Unmittelbarkeit, die im elektronischen textbasierten Gespräch herrscht – mit dem Resultat, daß es sich hierbei, ähnlich wie bei der face-to-face Kommunikation, um ein ephemeres Schrifterscheinen handelt, das, sobald die Kommunikation beendet ist, auch wieder verschwindet.[13] Diese Verstärkung der Schrift als Kommunikationsmedium zeigt sich auch in zahlreichen kooperativen Schreibprojekten, die für die Beteiligung aller geöffnet werden. Hier wird die Grenze zwischen Literaturwissenschaften und Sozialwissenschaften durchlässig, da die institutionalisierte Rollenverteilung von Leser und Autor und damit auch die Grenze von Kunst und Leben aufgebrochen wird; das jahrhundertelange Bemühen von Literatur um Kommunikation, das durch die Herausbildung des Literatursystems und der veränderungsfeindlichen Bewahrungsmentalität des Buchdruckparadigmas unterlaufen wurde, nun tatsächlich auf unmittelbare Weise realisiert werden kann.[14] Einerseits ist nun nicht mehr institutionell – durch Verlage, zentrale Kontroll- und Steuerungsmechanismen sowie Marktbedingungen festgelegt, wer Autor und wer Leser zu sein hat; andererseits geht es bei solchen Projekten auch nicht mehr um die Erfüllung ästhetischer Richtlinien, respektive "Qualitätskontrolle", sondern um die Betonung der Aktion, des kommunikativen, kooperativen Schreibens und Lesens. Aus den zahlreichen Beispielen solcher Projekte im Internet, die wiederum auf der Basis ihrer unterschiedlichen kommunikativen Struktur in verschiedene Typen eingeteilt werden können, möchte ich nur eines herausgreifen, den "Assoziationsblaster". Der Textkorpus besteht aus Einzeltexten, die nach Keywords gegliedert sind. Will man einen Text beitragen, so muß man sich zunächst an die schon bestehenden Keywords halten, darf dann aber nach drei produzierten Texten ein eigenes Keyword wählen. Die Texte werden automatisch (durch Programmierung) nach ihrer Eingabe gemäß den Keywords, die sie enthalten, verlinkt. Der Link hat hier also keine semantische, sondern eine formale Funktion. Die Assoziationen der Beiträger werden so eher willkürlich miteinander verbunden, wenn auch die Texte unter ihren jeweiligen Keywords abgespeichert werden. Klickt man auf eines der Links, so erscheint – per Zufallsgenerator ausgewählt – einer der unter diesem Stichwort abgelegten Texte. Unsinnsbeiträge, Ausrufe, längere, bedeutungsschwere Texte – hier findet sich alles zu einem großen Assoziationsnetzwerk zusammen. Unnötig zu sagen, daß nach einem kohärenten Sinn oder einer bedeutungsvollen Gesamtaussage zu suchen, sich hier völlig erübrigt. Hier hat nun endgültig das Spiel und die Produktion die Herrschaft über Bedeutungsvermittlung und vollendetem Werk übernommen. Nur wer mitmacht, wird wirklich in das Projekt involviert. Hinzu kommt, daß sich abseits vom Textkorpus eine eigene "Community" herausgebildet hat, die per E-Mail im Rahmen des Projekts miteinander kommuniziert – neben der internen, indirekten Textkommunikation ist also auch maschinenvermittelte Mensch-zu-Mensch-Kommunikation ein inhärenter Teil des Assoziationsblasters geworden; es hat sich im Rahmen dieses Projekts eine Gemeinschaft gebildet. Auch hier zeigt sich, daß die textbasierte Bedeutungskonstruktion in den Hintergrund gerückt wird. Im Unterschied zu den oben erwähnten Transformationsprojekten hat hier jedoch der Leser/Autor die Möglichkeit, die Transformation inhaltlich zu beeinflussen; dabei aber geht es gar nicht mehr so sehr um die Bedeutungsfunktion von Schrift, sondern um die Produktionshandlung und das "Mitmachen" als solches. Die kommunikative Texttransformation steht im Mittelpunkt; klickt man sich durch den Assoziationsblaster als reiner lesender Rezipient, so ist der Gesamteindruck doch eher der des Banalen. Das Lesen dieser Texte erhält seine Bedeutung erst durch die dahinter stehende Intention des "Selber-Schreiben-Wollens", d.h. wenn man nach Anschlußstellen für seinen eigenen Text, für seine eigenen Assoziationen sucht. Der Leseprozeß
wird hier ebenfalls inhärent verändert; das Spiel, das bei
den oben genannten Projekten innerhalb des von den Projektinitiatoren
gesetzten Rahmen stark technikbasiert stattfindet, wird bei den kooperativen
Schreibprojekten zum Auslöser der eigenen Produktion. Der Text
wird hier von der "Last der Sinnproduktion" befreit, die Textproduktion
wird zum Spiel, das Spiel aber wiederum zum Zentrum der Kommunikation.
Dies aber wird nur möglich durch die Einführung einer opaken, nicht einsehbaren Ebene – die der technischen (und in Form der Programmiersprachen letztlich ebenfalls semiotisch verschlüsselten) Prozesse, die diese Erscheinungsformen überhaupt erst möglich machen. Genau auf die Verdeutlichung dieser für den normalen Benutzer undurchschaubaren Ebene zielen "BEAST" und "The Great Wall of China" ab. Sie konfrontieren den Leser mit dem Verlust seiner Kontrolle über den Text bzw. die anderen semiotischen Systeme und sabotieren das Lesen als normiertes Verhalten der Schrift gegenüber. Sie entheben die Schrift ihrer Bedeutungsfunktion (die sie tatsächlich erst verliert, wenn sie als „Festgeschriebenes“ verschwindet) und transformieren sie in ein visuelles Erlebnis, das neue, texttranszendierende Bedeutungsräume erschließt, die unweigerlich einen Konnex zu den Wahrnehmungs- und Verhaltensgewohnheiten im Umgang mit den Zeichensystemen herstellen, aber auch im Umgang mit dem Medium, in das die Codes gestellt werden. Dieser Form der Kommunikation zwischen Mensch und Maschine, die hier hergestellt wird, steht in einer einerseits weiterführenden, andererseits schriftverstärkend wirkenden Bewegung die gesprächsorientierte Nutzung der technischen Vernetzung und in der Aufforderung zur eigenen, unmittelbaren Textproduktion gegenüber. Beide Bewegungen widersprechen sich nicht, sondern sind in erster Linie Ausdruck der multiplen Funktionen des Computers, der das transparent macht, was sich kulturwissenschaftlich betrachtet schon lange abzeichnet: die Multiplizität von Wahrnehmungs- und Verhaltensmodi, die die technisierte Welt dem Individuum abverlangt. Andererseits unterstreichen sie aber auch das Bedürfnis von Kunst und Literatur, die Grenzen zwischen „Werk“ und Betrachter endgültig aufzuheben und konstituieren einen unmittelbaren sozialen Bezug. Kommunikative Projekte im Internet verändern das Rezeptionsverhalten insofern, als durch die Aufforderung zur Texteingabe und Beteiligung die Aktion als Teil, schon fast als Voraussetzung der Rezeption definiert (in diesem Sinne fallen hier Aisthesis und Poiesis zusammen). Aufgrund der fehlenden Komplexität und "literarischen" Qualität der meisten kooperativen Projekte führt die reine Rezeptionshaltung zwangsläufig zu einer tiefen Skepsis; erst die eigene Beteiligung, die spielerische Freude an der (kommunikativen) Textproduktion fügt den (nach wie vor notwendigen) "Sinngehalt" hinzu. Dieser ist nun nicht mehr – wie noch in der Rezeptionsästhetik propagiert – vom imaginativen Füllen vorgegebener Leerstellen abhängig, sondern wird hier – ebenfalls ein Phänomen der Transparenz – materiell umgesetzt. Das Inhaltliche tritt in beiden Bewegungen hinter das Spiel mit der Schrift zurück – um den Preis dessen, daß es sich um ein ephemeres Vergnügen handelt, das nur solange anhält, solange man in das Spiel involviert bleibt. Dies gilt für die technisch-transformatorischen Projekte genauso wie für die kommunikativen. Erstere erscheinen dem Benutzer nie in derselben Form und Sequenz, wie er sie schon erfahren hat – sie zeitigen immer andere Erscheinungsformen und sind nie konstant. Kommunikative Projekte leben dagegen nur solange, wie Menschen an ihnen teilnehmen und sie fortschreiben. Dies ist insbesondere der Kern solcher Projekte wie dem Assoziationsblaster, der völlige inhaltliche Freiheit erlaubt und die Verlinkung – die in den traditionellen Autoren-Hypertexten noch zu einem inhaltlichen Element gezählt werden kann – von einem Softwareprogramm vornehmen läßt. Solche Projekte wollen keine Bedeutung mehr vermitteln, sondern nur noch die Freude am Spiel und an der Kommunikation mit den Texten anderer. Es entstehen also weniger für die Ewigkeit gedachte, abgeschlossene Werke, sondern prozedurale, spielerische und kommunikative Projekte, die sich ständig verändern. Eine solche Ästhetik des gemeinsamen, ephemeren und transformativen Spiels beruht auf den Charakteristika des vernetzten Mediums, in dem sie erzeugt wird: Der in Bewegung versetzte Text (oder auch das Bild und der Ton) entspricht der Dynamik der ihm zugrundeliegenden Computerprozesse, die Vernetzung der Computer spiegelt sich in der ortsunabhängigen Vernetzung von Menschen durch die Maschine. Bei allen Projekten geht es nicht mehr um ein zu fixierendes Ergebnis, sondern um die Aufrechterhaltung der verschiedenen Projekte durch Transformation – mit der Konsequenz, daß wir uns von der "Zentralperspektive", der Fixierung ästhetischer Phänomene, wie sie von der Aktionskunst schon in den 60er Jahren unterlaufen wurde, in der computerbasierten Kunst und Literatur nun endgültig verabschieden müssen; mit epistemologischen Konsequenzen, die ahnen lassen, daß es in Zukunft weniger um Bewahrung und Analyse statischer Objekte, sondern viel mehr um Veränderung und Kontrollmöglichkeiten der Prozeßdynamik (technisch, kognitiv und sozial) und – auf der Metaebene – um Darstellung ihrer Performanzen gehen wird. [1] Dies ist besonders der Fall bei den beiden
Medientheoretikern Marshall McLuhan und Vilém Flusser, die
dementsprechend mit der Heraufkunft der elektronischen Medien das
Verschwinden der Schrift prognostizieren. Vgl. McLuhan, Marshall:
Die magischen Kanäle – Understanding Media. Dresden/Basel 1994
(orig.: 1964), S. 130; Flusser, Vilém: Die Schrift. Hat Schreiben
Zukunft? Frankfurt am Main 1992, S. 131. Für beide ist die Schrift
ein Resultat der Herausbildung einer linear-logisch-analytischen Epistemologie,
die in kleine Einheiten segmentiert und damit die Komplexität
der Welt auf das rationale, verschriftlichbare Wissen reduziert und
dessen Hegemonie begründet. In der strukturalistischenKonzeption
des Sprachsystems passiert das genaue Gegenteil: Hier wird die Vermischung
von Sprache und Medium zur Basis der Entwicklung des strukturalistischen
Sprachbegriffes, der sich konzeptionell an der typographischen Technik
orientiert, ohne diese mitzureflektieren. Vgl. Giesecke, Michael:
Sinnenwandel, Sprachwandel, Kulturwandel. Frankfurt am Main 1992,
S. 11.
[2]
Selbst im Poststrukturalismus sagt Schrift immer noch etwas aus –
und wenn es das ist, was sie verschweigt. "Repräsentationsfunktion"
wird hier im allerallgemeinsten Sinne verstanden: Etwas steht
für etwas anderes und verweist demnach auf etwas, d.h. es gibt
nach wie vor eine Bedeutungsdimension, die von der Schrift repräsentiert
wird.
[3]
Daß die Definitionen von “Schreiben” als Tätigkeit abhängig
sind von den jeweils vorherrschenden kulturellen Epistemen macht Foucault
zum Gegenstand seiner Untersuchung in „Die Ordnung der Dinge“. Doch
auch hier bleibt die mediale Komponente ausgeschlossen; die Formen
des Schreibens sind für Foucault Repräsentationen der jeweils
gültigen Wissenskonstruktionsmechanismen. Vgl. Foucault, Michel:
Die Ordnung der Dinge. Frankfurt am Main 91990.
[5] Vgl. u.a. Bolter, Jay David: Writing
Space. The Computer, Hypertext and the History of Writing. Hillsdale/New
Jersey 1991. Bolter suggeriert, daß print-literarische
Hypertexte wie z.B. James Joyces Werke im elektronischen Medium viel
besser aufgehoben wären, da sie dann ihre zahlreichen Anspielungen
und Assoziationen delinear und transparenter darstellen könnten.
Daß die Avantgarde-Literatur aber gerade aus dem Spannungsfeld
der begrenzten Möglichkeiten des Buchdrucks und dem Versuch,
diesen Grenzen zu entkommen, ihre provokative Kraft schöpft,
und daß das elektronische Medium wohl völlig andere Formen
des Schreibens entwickeln wird, entgeht ihm in diesem Fall. Eine ähnliche
Argumentation läßt sich bei George Landow und Michael Joyce
feststellen; vgl. Landow, George P.: Hypertext 2.0. The Convergence of Contemporary Critical Theory
and Technology. Baltimore/London 1997, S. 182 sowie Joyce, Michael:
Of Two Minds. Hypertext Pedagogy and Poetics. Michigan
1995, S. 138.
[6]
An dieser zwangsläufigen Beziehung wird deutlich, daß es
fast nicht möglich ist, die sprach- und schriftphilosophische
Diskussion unabhängig von der Materialitäts- und Mediendiskussion
zu führen - auch wenn dies nach wie vor allenortens praktiziert
wird. Es wäre ein aufschlußreiches Unternehmen, beide Stränge
zusammenzuführen.
[7]Dies wird besonders deutlich an der Browsersoftware,
die Schrift darstellt, indem sie Befehle (HTML-Tags) interpretiert.
„Alternative“ Browser, wie der Netomat ; oder der Web Stalker ,
machen deutlich, daß es ganz andere Darstellungsformen gibt,
als die der standardisierten Browser Netscape und Internet Explorer
und daß die Erscheinungsformen vom technisch festgelegten Interpretationsspielraum
abhängen.
[9]
In dieser Hinsicht könnte man tatsächlich von einer "Materialisierung",
einer sichtbaren Umsetzung der "unendlichen Semiose" (Umberto Eco)
sprechen, oder – poststrukturalistisch – von der von Paul de Man
konstatierten unendlichen Interpretationsbewegung, die keine Metatexte
mehr erlaubt, weil diese aufgrund der Unvereinbarkeit von rhetorischer
und wörtlicher Bedeutung wieder zum Objekt einer Interpretation
werden. Die Konsequenzen gehen jedoch darüber hinaus: Wenn
die Flüchtigkeit der Sprache derart visualisiert wird, gibt
es keinen festgeschriebenen Text mehr, von dem eine Interpretation
ausgehen könnte. Die Normierung des Textes läuft auf einer
anderen Ebene ab: der Festschreibung der Algorithmen, die die Transformationsregeln
bestimmen.
[10]Dies
gilt v.a. im Hinblick darauf, daß der Autor einen Teil der
Kontrolle an die Maschine abgibt – er wird nie das sehen, was der
Rezipient sieht, weil die technischen Bedingungen für jeden
Benutzer andere sind (wie es die Browsersoftware besonders deutlich
macht). Es steht keine mechanische Maschine mehr zwischen dem Körper
des Schreibenden und dem Papier, sondern Instrumente, die diverse
nur eingeschränkt kontrollierbare Interpretationsleistungen
erbringen – damit wird die normierende Zentralperspektive des Buchdrucks
durch die Technologie unterlaufen. Die automatische Generierung
von Text ist insofern eine konsequente Verstärkung dieses Kontrollverlusts.
[11]
Hier kann durchaus ein Bezug zur Spieltheorie hergestellt werden,
die sich mit Strategien des Verhaltens in der Interaktion mit anderen
beschäftigt. Die Spieltheorie versucht Handlungsspielräume
zu formalisieren, indem sie mit Wahrscheinlichkeiten arbeitet, die
helfen sollen, das Verhalten des Gegenübers zu antizipieren.
Die Regeln des Spiels sind vorgegeben, das Verhalten selbst wird
in der Interaktion der jeweiligen Situation angepaßt und durch
die Regeln nach den Prinzipien der Wahrscheinlichkeitsrechnung berechenbar.
Ähnliches passiert hier im Umgang mit der Maschine. „BEAST“
konstituiert ein explizites Machtspiel zwischen Computer und Mensch,
das nur dann produktiv wird, wenn der Benutzer sein Verhalten an
die Situation anpaßt. Auf einer Metaebene ergibt sich eine
weitere Beziehung zwischen Spieltheorie und der Computerarchitektur:
Die Berechnung der Wahrscheinlichkeit von aufeinanderfolgenden Zuständen
ist die Grundlage für die Informationstheorie der Nachrichtenübertragung,
auf deren Basis auch die Computerarchitektur aufbaut. So war es
neben dem Ökonomen Oskar Morgenstern auch ein Mathematiker,
der die Grundlagen der Spieltheorie erstmals formulierte: John von
Neumann, der wiederum wesentlich an der Entwicklung des modernen
Computers teilhatte. Einen erweiterten Bezug zum sozialen Verhalten
stellt schließlich Luhmanns Konzeption der Kommunikation als
Erwartung von Erwartungshaltungen, also Abschätzung von Verhaltenswahrscheinlichkeiten
dar. Diese Konzeption der Prozeßerfassung durch Berechnungen,
die sich wiederum in einem Spannungsfeld von Kontrolle (Regeln)
und Handlungsspielräumen (Wahrscheinlichkeiten) abspielen,
scheint tatsächlich den Charakter eines epistemologischen Paradigmas
angenommen zu haben, dessen Rahmen durch den Systembegriff gegeben
ist.
[12]
Dies ist nur eine logische Konsequenz der Favorisierung des Prozesses
gegenüber dem Sein. Die gesamte Naturwissenschaft zeigt Spuren
dieser Schwerpunktverlagerung (man denke nur an die Chaostheorien);
das sich durch alle wissenschaftlichen Disziplinen durchziehende
Systemparadigma beruht inhärent auf Prozeßanalysen, die
zwangsläufig den Zeitfaktor miteinbeziehen müssen.Auch der Computer kann – zumindest aus seiner Nachkriegshistorie
heraus – als Repräsentation der Gehirnprozesse aufgefasst werden
(selbst wenn die KI-Forschung mittlerweile etwas in den Hintergrund
gedrängt wurde). Prozeßrepräsentation löst
also die Darstellung von „Gegebenheiten“ ab. Dafür erscheint
nun die Schrift in der Tat nicht geeignet, eine dynamische Ikonisierung
(in welcher Form auch immer) ist hier sehr viel aussagekräftiger.
[13]
Ausnahme sind Mailing-Listen, die ihre Beiträge archivieren,
wie Nettime oder Rhizome. Dennoch sind solche "Monumentalisierungen"
– ähnlich wie bei der Archivierung beendeter MUDs – zum Teil
mühsam zu durchforsten, weil die gesprächsartigen Elemente
– meist ein Schlagabausch von Kommentaren, die an Äußerungen
anderer anschließen – in archivierter Form ihre Dynamik und
damit auch ihre Aussagekraft verlieren.
[14]
Vgl. z.B. die Diskussion zwischen Roland Barthes und Jean Hyppolite
über das Spannungsfeld von Schreiben als Monolog und Gesprächssuche.
Eine Zusammenfassung dessen findet sich in White, Hayden: Schreiben
im Medium. In: Gumbrecht, Hans-Ulrich/Pfeiffer, Karl Ludwig (Hg.):
Schrift. München 1993, S. 311-318 (hier: S. 314).
|