Diese Website ist seit dem Ende des Studiengangs Informationswissenschaft
im Juni 2014 archiviert und wird nicht mehr aktualisiert.
Bei technischen Fragen: Sascha Beck - s AT saschabeck PUNKT ch
Drucken

Studium Informationswissenschaft

Virtuelles Handbuch Informationswissenschaft

4. Die Informatisierung

Das Worldwide Web als Informationsmedium

Heinz-Dirk Luckhardt

Entstehung dieses Artikels: März 1995; letzte Überarbeitung: August 2003

Was Sie schon immer gar nicht wissen wollten – im Worldwide Web (WWW) finden Sie es garantiert. Und was Sie brauchen, suchen Sie oft vergebens. Ist das überspitzt formuliert? Hat mancher vielleicht bisher einfach zuviel an Information erwartet, wo andere nur das Gefühl der Leichtigkeit oder des Abgehobenwerdens erleben wollen, wie es den Surfer überkommt? Wie wertvoll ist das WWW wirklich für denjenigen, der „harte“ Informationen sucht? Im folgenden eine eher nüchterne Sicht auf den derzeitigen Stand des WWW.

Lassen Sie uns mit dem Begriff „Surfen“ beginnen. Er drückt eine der Möglichkeiten aus, mit dem WWW umzugehen, nämlich sich „im Meer des Wissens“ treiben zu lassen. Eine andere Sicht ist mit der Assoziation des „Island Hopping“ verbunden: das Springen von einer „(Informations-)Insel“ zur nächsten, oder wieder zurück. Jeder Tastendruck lässt den WWW-Reisenden einen neuen Hafen ansteuern. Wie gut er sich zurechtfindet, hängt von der Touristeninformation am Hafen ab, und davon, ob er im Haupthafen ankommt oder nur an einem Anlegesteg an einem einsamen Strand, von dem kein Pfad irgendwohin zu führen scheint.

Aber zunächst einmal genug der Bilder. Um ein tieferes Verständnis des Phänomens WWW zu entwickeln, werfen wir einen Blick zurück.

Die Idee ist bestechend, die Vannevar Bush schon in den 40er Jahren (‚As we may think‚, Atlantic Monthly 176, Juli 1945) in seiner Utopie MEMEX formulierte: alles Wissen der Welt miteinander verknüpft und für jedermann bequem zugänglich. Theodore Nelson gab dem Konzept in den 60er Jahren einen Namen: Hypertext – auf einem elektronischen Medium verfügbare Texte (Artikel, Bücher, Vorträge, …) mit Verweisen (Hyperlinks) zwischen diesen, die dem „Leser“ jeden Text unmittelbar verfügbar machen. Dieses Konzept hat sich in Richtung „Hypermedia“ entwickelt, da es längst nicht mehr nur um Texte, sondern auch um Bilder, Töne, Filme geht, die per Tastendruck abgespult werden können.

Diese unmittelbare Verfügbarkeit ist das eigentlich Neue, denn „Verweise“ gab es schon immer. 1. Fallbeispiel: Enzyklopädien. Fast jeder hat sich schon einmal in einer solchen „verirrt“, indem er den „siehe auch“-Verweisen folgte und sich plötzlich bei Maria Theresia wiederfand, obwohl er doch zunächst nur etwas über das Auspflanzen von Tomatensetzlingen wissen wollte. Bisher nannte man so etwas (zumindest auf Westfälisch) „vom Hölzken auf’s Stöcksken kommen“, heute heißt es „lost in hyperspace“, wobei es sich in unserem Beispiel natürlich nur um den Mikrokosmos der 1- oder mehr-bändigen Enzyklopädie handelt.

2. Fallbeispiel: In allen Arten von (wissenschaftlichen) Büchern wimmelt es nur so von „Verweisen“, die den Leser vom linearen Lesepfad vom Buchanfang zum Buchende abbringen, die ihm aber helfen sollen, sich in dem jeweiligen Werk zurechtzufinden, das Werk in einen größeren Zusammenhang einzuordnen, bestimmte Aussagen zu verstehen etc.. Zu diesen Verweisen gehören: Fußnoten, Anmerkungen, Indizes, Inhaltsverzeichnisse. Einziger Unterschied zu Hyperlinks: die Papierform bringt es mit sich, dass man blättern oder ein anderes Buch aus dem Regal oder der Bibliothek holen muss.

Das ist natürlich schon ein Unterschied zum Prinzip „Hypertext“ bzw. „Worldwide Web“ – mit der Betonung auf „Prinzip“, denn von der virtuellen Bibliothek, in der man per Tastendruck jedes beliebige Buch bekommt, ist man noch weit entfernt. Warum das so ist, wird jedem klar, der im WWW nach (größeren) Texten sucht: was man findet, ist in der Regel copyrightfrei und wurde von WWW-Enthusiasten ins WWW gebracht. Die Aufbereitung von Texten für das WWW ist nämlich immer noch viel Arbeit, Arbeit, für die man in der Regel nicht bezahlt wird, denn es gibt nach wie vor wenige hauptamtliche WWW-Schreiber, und wahrscheinlich kaum jemanden, der ganze Bücher ins Netz bringt, abgesehen vom Gutenberg-Projekt, dessen deutscher Ableger bis heute (August/2003) 50.000 copyrightfreie Text- und Bilddateien elektronisch verfügbar gemacht hat (2.500 kommen monatlich dazu). Dies aber ist eine Ausnahme ohne kommerzielle Basis und sie führt zu der Frage, wie die Ausnahme zur Regel werden, d.h. wie das elektronische Angebot von Texten finanziert werden kann, wenn das Produkt kostenlos im WWW verfügbar ist? Und dass sich Verlage in großem Stil bereiterklären, das Copyright an der verlegten Literatur aufzugeben zugunsten einer kostenlosen Veröffentlichung im WWW, ist nicht zu erwarten. Mit Büchern, also verkaufbaren Objekten, lässt sich Geld verdienen, im WWW werfen allenfalls einige Nischenprodukte bzw. -anwendungen Geld ab. Aber selbst erfolgreiche Unternehmen dieser Branche schreiben noch rote Zahlen.

Was man also an Texten bisher im WWW findet, gab es schon immer (fast) umsonst (evtl. gegen Erstattung der Druck- und Portokosten): graue Literatur, Test-, Arbeits-, Projekt-, Geschäftsberichte etc. Und hier tut sich ein weites Feld auf, denn wer bisher bereit und in der Lage war, Literatur kostenlos zu verteilen, wird dies mithilfe des WWW umso lieber tun, denn er kann so eine ungleich größere Leserschaft erreichen – mit weniger Aufwand, denn er stellt seinen Text ja nur öffentlich zur Verfügung und überlässt es den Lesern, wie sie ihn lesen, am Bildschirm oder – ausgedruckt – auf Papier.

Was bei all dem fehlt, und was wissenschaftlichen Veröffentlichungen bisher zu ihrem wissenschaftlichen Wertsiegel verholfen hat, ist der Begutachtungsprozess durch ein Gutachtergremium oder ein Verlagslektorat, den eine Veröffentlichung durchlaufen muss, um der (Fach)Öffentlichkeit als wissenschaftlich fundiertes Buch bzw. als Zeitschriftenartikel oder Vortrag präsentiert werden zu können. Dieses Verfahren hat bisher in der Regel bei wissenschaftlicher Literatur einen gewissen Qualitätsstandard garantiert, der den Veröffentlichungen im WWW vollkommen fehlt. Hier kann meist nur der Experte beurteilen, ob ein im Netz angebotener Artikel etwas taugt. Immerhin gibt es erste Beispiele für wissenschaftliche elektronische Zeitschriften nach tradionellem Vorbild, also z.B. mit Gutachtergremium. Hier ist etwa RIS (Review of Information Science) zu nennen: http://www.inf-wiss.uni-konstanz.de/RIS

Es wird vieles angeboten, und wer sucht, der findet. Zahlreiche sogenannte Suchmaschinen (LYCOS, GOOGLE, ALTA VISTA etc.) überfliegen (scannen) das auf Millionen von Computern bereitgehaltene Wissen, merken sich jedes vorkommende Wort (außer den sinnleeren Wörtern wie: der, die, das etc.) und die Adresse des Textes, in dem es vorkommt, und bieten das Ganze in einer Datenbank zur Suche an. Wer also etwas zu „nouvelle cuisine“ sucht, gibt diese beiden Wörter bei Altavista ein – und wird mit 125.643 Adressen von Computern überschüttet, auf denen sich diese beiden Wörter gemeinsam befinden (Stand vom 8.8.2003; am 10.5.2007 in google: 592.000). Ob die Information, die man sucht, sich darunter befindet, oder zumindest eine, die man verwerten kann, ist ungewiss. Sicher weiß es erst derjenige, der alle Adressen besucht hat.

Das Problem, dass man in großen Daten- bzw. Textsammlungen eine Information meist wie die Nadel im Heuhaufen sucht, ist seit langem bekannt. Lange, bevor es das WWW gab, konnte man auf weltweit verteilten Computern Informationen suchen. Ein ganzer Industriezweig beschäftigt sich damit: die Informationsindustrie. Darunter versteht man ein weltweites Geflecht von Unternehmen, die in sog. Online-Datenbanken Wissen kostenpflichtig anbieten. In diesen in der Regel sachgebietbezogenen Datenbanken lässt sich sehr viel zielgerichteter nach einer Information suchen als im WWW. Die Erfolgswahrscheinlichkeit ist dementsprechend höher. Dafür gibt es verschiedene Gründe. Zum einen werden die jeweiligen Wissensgebiete systematisch erfasst, indem z.B. die relevanten Fachzeitschriften ausgewertet werden. Eine Datenbank deckt also den Sachstand ihres Fachgebiets zu einem hohen Prozentsatz ab. Zum anderen haben sich im Laufe der Zeit Verfahren herausgebildet, mit denen man auch in großen Datensammlungen mit spezifischen Suchanfragen Erfolg hat.

Das alles hat aber seinen Preis, denn es ist ein hoher Aufwand erforderlich, beim Aufbau der Datenbank und bei der Suche selbst, so dass eine Informationssuche einerseits kompliziert und andererseits teuer ist. Einen hohen Preis für eine Information zahlen wird aber nur derjenige, der diese Information wirtschaftlich nutzt (Produktionsfaktor „Information“!), und so ist es in der Regel Fachwissen für Industrie und Handel, z.B. chemische Formeln und Verfahren, Wirtschaftsdaten, erteilte Patente etc. Manko dieser Online-Datenbanken war lange Zeit neben den hohen Kosten das komplizierte Zugangsverfahren – ein Relikt aus der Zeit, als es nur Großcomputer gab. Heute stellen die Fachinformationszentren für den ungeübten Informationssuchenden bequeme Webinterfaces zur Verfügung.

Am Ende steht die Frage, wie man die Vorteile beider Welten – WWW und Online-Datenbanken – miteinander vereinigen könnte: den kostengünstigen, bequemen Zugang zum Wissen der Welt mit der Gewissheit, dass man die gewünschte Information auch wirklich bekommt, weil das Wissen umfassend ist und man detailliert formulieren kann, was man eigentlich sucht.

Für das WWW würde dies bedeuten, dass Wissen nicht nur sporadisch und unvollständig, sondern regelmäßig und umfassend eingespeist wird. Und dazu gehört mehr als nur die (vielleicht vorübergehende) Begeisterung Einzelner an dem neuen Medium. Dazu gehört der Aufbau fester Strukturen, wie sie bei den Online-Datenbanken vorliegen. Dazu gehört ein Kostenkonzept, das die Bezahlung der erforderlichen Arbeiten garantiert. Und dazu gehört, dass bei all dem die „freie Fahrt“ auf der Datenautobahn erhalten bleibt, die dem WWW zu seiner großen Popularität verholfen hat.

Fußnote

Wissen ist nicht gleich Information. Erst dann, wenn mir etwas, das ich erfahre, nützt, wenn es mir bei der Lösung eines Problems hilft, wird daraus Information. So gesehen ist der Begriff „Information Superhighway“ falsch, denn was da transportiert wird, sind schlicht „Daten“. Ob darunter eine Information ist, entscheidet jeweils der Empfänger für sich allein. So wird die Metapher „Datenautobahn“ dem WWW eher gerecht (oder dem Internet insgesamt, aber das ist eine andere Geschichte).