Die Presse vom Samstag, 15. März 1997, S. VIII

Die Übertragung von Wissenschaftstexten ins Internet hat ihre Tücken. Deren "Polyphonie" sichtbar und die Bildschirmseiten attraktiv zu machen, das stellt die Forscher vor ungewohnte Aufgaben.

Von Peter Handler

Im Hagelschlag der Buchstaben

Es gab eine Zeit, da existierte ein Internet, und niemand wußte davon. Niemand? Doch: Ein paar Wissenschaftler saßen in ihren Studierstuben und Labors, und um nicht ganz allein zu sein, schickten sie einander über Leitungen hin und wieder einige Formeln und Programmzeilen zu.

So könnte man die Geschichte jenes Mediums beginnen lassen, das heute als weltumspannendes Netz das Leben von Abermillionen Menschen mitbestimmt. Denn das Internet entstand tatsächlich aus dem Kommunikationsbedürfnis vorerst militärischer, dann auch ziviler Forschungsstätten. Eine Weile konnten die "Braintrusts" nahezu "ungestört" damit arbeiten, bis die restliche Welt das Wunderding ebenfalls entdeckte und ihm die bekannten exponentiellen Zuwachsraten bescherte. Die Wissenschaftler mußten plötzlich bemerken, daß ihre Elfenbeintürme nicht mehr in einem elitären Reservat standen, sondern mitten in einem Erlebnispark.

Dort bildet sich ganz simpel das Leben selbst ab. Es kommt darin das Gute und das Böse vor, die Leute verständigen sich und reden aneinander vorbei (oder sie beschimpfen einander sogar); man kann in exotischen Landschaften spazieren, steckt aber vielleicht im Megastau, bevor man noch dort ist. Geht nun die wissenschaftliche Nutzung in diesem Getöse unter? Nicht unbedingt, denn bei all dem Trubel und manchen "Troubles" bringt die Öffnung für die "Masse" auch eine Dynamik im Fortschritt der Zeichenrepräsentation, die ihrerseits wieder der Wissenschaft zugute kommen kann, indem sie ihre Ausdrucksmöglichkeiten bereichert. Begeben wir uns auf Spurensuche, wird uns das gleich in die Sphären der Bildschirmtextualität führen, samt den zauberhaften Multimediaanwendungen.

Doch zuerst gilt es noch mit manchem Vorurteil aufzuräumen, das sich schon im nackten Schriftkode festgesetzt hat. Da wurde ein Gegensatz proklamiert zwischen einer vagen, vieldeutigen, redundanten Alltagssprache und einer vorgeblich präzisen, eindeutigen, ökonomischen Sprache der Wissenschaft. Nach genauerem Hinsehen kamen neuere Forschungen sehr bald zur Nestroy-Diagnose: "'s ist alles nit wahr." Schon innerhalb der Wissenschaft(en) und ihren Unterverzweigungen trifft man auf eine Stilvielfalt sondergleichen: rigide Normierungen des Schreibhabitus ebenso wie vitale Individualität, leider auch den Bluff-Jargon und blutleeres Gerede. Rhetorisch sorgfältig durchorganisierte Argumentation benutzt dagegen zwar scheinbar überflüssige Strukturierungswörter, erleichtert jedoch gerade dadurch die Verstehbarkeit.

All diese Vorgaben wirken auch ins elektronische Medium hinein. Zudem hat es Formen entwickelt, die noch immer primär wortzentriert sind, aber hier wieder neue Bedingungen schaffen. Dazu gehört die E-Mail (wenn auch deren "Emoticons" auf Schriftzeichenbasis schon ins Bildliche gehen).

Doch werfen wir einen Blick in die elektronischen Äquivalente des wissenschaftlichen Publikationswesens, die E-zines und Electronic Journals. Darin wird es erst so richtig lebendig: Da verbindet sich Forscherehrgeiz mit prozeduralen Möglichkeiten, die von den neuen Programmen geradezu aufgedrängt werden. Noch zuvor kann man ganz einfach herkömmliche Texte "ins Netz stellen". Wenngleich damit viele Funktionalitäten des Mediums brachliegen, wird die Geschwindigkeit und das Distributionspotential genutzt; neue Einsichten können rasch verbreitet werden. Dieses Charakteristikum ist vor allem für die Naturwissenschaften ein elementarer Vorteil.

Die Folgen erforscht der kanadische Kommunikationswissenschaftler Guédon: Während das traditionelle Publikationswesen bisher drei grundlegende Aufgaben (Verbreitung neuer Erkenntnisse, Archivierung des Wissens sowie Zuweisung von wissenschaftlichem Prestige) in sich vereinte, verliert besonders die erstgenannte Funktion zusehends an Bedeutung. Wo es um schnelle Bekanntmachung neuer Errungenschaften geht, geschieht dies einerseits direkt auf Kongressen, andererseits eben über elektronische Vernetzung. Dem Papiermedium bleibt die Archivierung; doch auch da treten andere Datenträger als Konkurrenten auf. Einige Initiativen steuern überhaupt in die Gegenrichtung. Sie entreißen wissenschaftliche Klassiker der Endlagerung in Tiefspeichern und bieten die Texte im Internet an.

Nun hat die Textübertragung von einem Medium in ein anderes aber ihre Tücken. Bei Prosa mag das weniger auffallen, doch viele Wissenschaftstexte sind "polyphon" aufgebaut; sie bestehen aus einem Hauptduktus und mehreren Zusatzebenen, die verschiedenen Zwecken dienen: Zitiernachweise, Tabellen, Illustrationen, Texterschließungsregister und so fort, ganz abgesehen von den hochkomplexen "kritischen Apparaten" von Literatureditionen mit entstehungsgeschichtlichen Varianten und Kommentaren. Wo das Lesen - nahezu - linear verläuft und stets zeilenweise fortschreitet, ändert sich auf dem Bildschirm gegenüber dem Buch nur wenig (sieht man von ergonomischen Implikationen der Bildschirmarbeit einmal ab).

Wo aber ein Buch selbst schon "sprunghaft" gelesen wird, stellt sich die Frage, wie die komplexen Rezeptionsprozeduren "übersetzt" werden können, damit sie auch per Bildschirm funktionieren. Dabei sollte es sich überdies um Darstellungsweisen handeln, die auch der Sache selbst angemessen bleiben. Die Ausgangslage ist nicht so schlecht. Die verschiedenen Bestandteile des Wissenschaftstexts laufen ja nicht unverbunden nebeneinander her, sondern haben konkrete Anhalts- und Verknüpfungspunkte, so daß eine natürliche Affinität zum Hypertextschema besteht. Und das ist zugleich das primäre Organisationsprinzip des "World Wide Web".

Tatsächlich wird in vielen elektronisch repräsentierten Wissenschaftstexten in diesem Sinn vom Hypertext Gebrauch gemacht. Gewöhnungsbedürftig ist das Faktum, daß die Ausschnitthaftigkeit der Bildschirmseite die bekannten Probleme mit der Übersichtlichkeit aufwirft, wogegen selbst ein Wälzer einer kritischen Ausgabe noch ein - wenngleich trügerisches - Ganzheitsgefühl vermittelt, weil man zumindest alles simultan "im Griff" hat. Ein weiteres Problem: Von der Textverarbeitung her lebt man noch damit, den Bildschirm zwar als Eingabe- und Bearbeitungsinstrument zu schätzen, jedoch nur, um letztlich zu komfortabel lesbaren Ausdrucken zu gelangen. Je intensiver nun aber die eigentliche Qualität der Hypertextverknüpfung in einem Beitrag genutzt wird, desto unbrauchbarer ist dieser als Konvolut von Druckseiten.

Manch andere Einschränkungen schaffen sich leichter Kompensationen: Auch in der Wissenschaft stellt man sich auf eine Universalie des Netz-Surfens ein, daß nämlich die Attraktivität der ersten Bildschirmseite darüber entscheidet, ob der "Besucher" bleibt oder davongleitet. So entwickelt sich eine Tendenz zu "Kurzabstracts" auf dieser Einstiegsseite, vergleichbar mit den "Vorspannblöcken" von Zeitungsartikeln. Und damit man dann "dranbleibt", locken umfangreiche Zwischentitel, Hervorhebungen von Textausschnitten, besondere Schriftauszeichnungen und Graphiken.

Über die Umsetzung von Texttraditionen und die Kompensation von neuen, medial bedingten Zwängen hinaus ist nun noch zu fragen, inwieweit zu den Geschwindigkeits- und Verfügbarkeitsvorzügen des Netzes andere, originäre Qualitäten hinzutreten, also ganz neue Möglichkeiten - ein "Mehrwert", wie es Angelika Storrer nennt, die in Mannheim eine hypermediaorientierte deutsche "Grammatik mit der Maus" konzipiert.

Dafür ist der Textbegriff entsprechend weit zu fassen, denn die entscheidende Entwicklung geht in Richtung Bild, Graphik und Rezeptionsoperationalisierung; im Extremfall würde man letztlich beim Terminus "Animation" landen, vielleicht noch etwas irritierend für manchen Wissenschaftler. Die Einfügung von Lauf- und Blinkzeilen in eine philosophische Abhandlung wird wohl als vermessen gelten, doch immerhin finden sich solche Effekte bereits in Tagungsankündigungen.

Hier sind wir aber erst dabei zu lernen: wie Texte durch logisch jeweils spezifisch indizierte Links zusätzlich strukturierbar sind, wie weit man die Bildaufnahmefähigkeit strapazieren kann, wie Web-Seiten für jeweils verschiedene Zwecke optimal zu gestalten sind oder wie man mit verschiedenen "Navigationsstilen" umgeht. Das braucht Zeit und behutsames Vorgehen.

Dem stehen unüberlegte Schnellschüsse gegenüber, multimediale Feuerwerke ohne Substanz; sofern nicht überhaupt pure Scharlatanerie im Spiel ist, die nicht einmal mit den Grundfunktionalitäten der elektronischen Zeichenrepräsentation richtig umgeht. Damit ist die Qualitätsdimension angesprochen: Papier ist geduldig, das Internet aber nicht minder - und das betrifft auch den Inhalt. Manch einer gibt der Versuchung nach, einen Beitrag, den niemand publizieren wollte, eben per Netz zu verbreiten.

Das Bedürfnis nach qualitativer Orientierung angesichts solcher Praktiken bewahrt den wissenschaftlichen Zeitschriften und Reihen ihre Bedeutsamkeit, indem sie ihre dritte Aufgabe, die Zuweisung von Prestige, ausspielen. Mit dem Namen von renommierten Publikationsorganen verbindet sich eine Zertifizierung, und die viferen Verlage haben sich längst auch ihren Platz im Internet gesichert. Und siehe da: Vorbei ist's mit der Gratis-Herrlichkeit, es blitzen einem höchstens "Abstracts" als Appetithappen entgegen; den Zugriff gibt es nur gegen Bares - Qualität hat ihren Preis.