home |
 
 
Dirk Schröder, Konstanz

Der Link als Herme und Seitensprung

Linktyopologie und Navigationsformen in pädagogischen Hypertextwissensbasen

Im Jahre 1945 versuchte Bush in seinem Essay "As we may think" eine Brücke zwischen der Funktionsweise des menschlichen Gedächtnisses und der bibliothekarischen Datenorganisation zu schlagen. Grundlage hierfür waren zum einen die Betrachtung des Gehirns als neuronales Netzwerk, zum anderen die Erfahrung des oft assoziativen Fortschreitens der Gedanken. Dieser Ansatz ist bis heute im Gebrauch, für ihn spräche, sagt das Schlagwort, eine "kognitive Plausibilität".

In beiderlei Hinsicht fungiert Bushs Vorschlag vor allem als Analogiezauber. Weder funktioniert das Gehirn so, wie er und seine Adepten sich das vorstellten - z.B. müssen neuronale Signale immer wieder neu initialisiert werden, um Informationseinheiten über einen längeren Zeitraum zur Verfügung zu stellen - noch lassen sich assoziative Mnemotechniken für alle Menschen gleich brauchbar in fixe Informationsstrukturen gießen.

Während 20 Jahre später Ted Nelson Bushs Überlegungen in 'Literary Machines' zum Manifest eines Weltdokuments übersteigert, nahm die Diskussion des Hypermediaeinsatzes zur Entwicklung von digitalen Lernumgebungen die euphorischen Maximalforderungen Bushs Schritt um Schritt zurück.

Anfänglich schien EDV-basiertes Lernen eine rein behavioristische Angelegenheit. Wie im berühmten Pawlowschen Modell des reizgesteuerten Hundes wurde alles personenimmanente Geschehen, etwa Gefühle, als nicht-bestimmbar in eine Blackbox abgeschoben. Die sogenannte "kognitive Wende" Ende der 50er Jahre brachte den Lernenden zurück in den Mittelpunkt der Aufmerksamkeit. Damit verbunden war der Ruf nach selbstbestimmtem Lernen. Bis heute werden allerdings sowohl Ansätze der möglichst weitergehenden Außensteuerung als auch der ausschließlichen Selbststeuerung von Lernprozessen nebeneinander verfolgt, was im Hypermediaeinsatz sich am Grad der Vorstrukturierung von Lernwegen quantifizieren lässt.

Hier ist zwischen intelligenten Tutorsystemen und Hypermedia-Wissensbasen zu unterscheiden. Während rein tutorielle Systeme sich analog der Teacher-Lerner-Modelle um programmierte Instruktion bemühen, also danach trachten, eine Zielrealität auf die Lernenden quasi zu kopieren, setzen pädagogische Wissensbasen ein hohes Maß an Eigenverantwortung des Lernenden voraus. Innerhalb der Lernpsychologie spricht man von objektivistischem und konstruktivistischem Herangehen. Letzteres bedeutet im Extremfall für den Lernenden, Hypermedia-Wissensbasen nicht zu benutzen, sondern selbst zu erstellen. Die teilweise ernüchternden Erfahrungen der informationswissenschaftlichen Arbeitsgruppe Rainer Kuhlens in Konstanz mit Hypermedia-Teaching zeigten bereits in den 80ern, dass sich nur in diesem Extremfall eine Überlegenheit nichtlinearer Wissensvermittlung wirklich nachweisen lässt.

Die bloße Benutzung von Hypermedia-Wissensbasen stellt den Lernenden vor Probleme des Information-Retrival, wie sie beim Einsatz relationaler Datenbanken auftreten. Pädagogisch bedeutet dies, dass die Informationsbeschaffung zum Teil der Wissenakquisition wird. Information wird so lange angesammelt und kategorisiert, bis die verfügbaren Schemata — das sind kognitive Strukturen, die dazu dienen, neue Erfahrungen in das bestehende Wissen einzufügen — nicht mehr in der Lage sind, sie aufzunehmen, und konzeptuell erweitert oder um neue Schemata ergänzt werden müssen. Anreiz zur nächsten Suchaufgabe bildet somit jeweils der Versuch, Störungen auszugleichen, bzw. Widersprüche zu glätten.

Idealerweise liegen Informationen in Hypermedia-Wissensbasen in möglichst kleinen sinnvollen Einheiten vor, deren Verknüpfungen vom Lernenden individuell erstellt werden können. Hierbei verlagert sich der Interessensschwerpunkt des Lernenden vom Lerninhalt, dem Stoff, zum Lernfortschritt selbst.

Hieraus ließe sich nun folgern, dass im Ausgangszustand der Wissensbasen zwischen den einzelnen Knoten gar keine Verknüpfung bestehen sollten. Das aber trifft weder für die vom Lernenden selbst erstellten Wissensbasen, bei denen Knoten und Verknüpfungen stets gemeinsam angelegt werden, noch für vorgefertigte Hypermedia-Lernsysteme zu. Ziel ist hier gerade nicht, aus einer beliebigen Informationsmenge mittels Filterprozessen diskrete Informationseinheiten zu gewinnen - für Expertensysteme durchaus ein gangbarer Weg -, sondern Zusammenhänge möglichst anschaulich werden zu lassen. Statt auf vorgegebene Pfade zu verzichten, werden konkurrierende Navigationsinstrumente implementiert.

Je weitergehender diese Freiheit der Informationsaufteilung und -Verknüpfung genutzt wird, desto drohender erscheint der Verlust jeglicher Kohärenz. Eine Ansammlung von für sich noch so stämmigen Sätzen gibt kein Argument. Daraus resultiert für jede Form hypermedialer Lernsoftware, am dringlichsten aber für die Wissensbasen, die Forderung, dass sich zumindest kohärente Teilmengen erarbeiten lassen müssen. Dies wiederum setzt voraus, dass für alle Benutzer gleichermaßen sinnvolle minimale Verknüpfungsstrukturen gefunden werden können.

Hierfür haben sich in der Praxis folgende Lösungen durchgesetzt:

  • quasilineare Verknüpfung nach den pre-chunking-Zusammenhängen (stoff-determiniert)
  • Zusammenfassende Verknüpfungen auf der Basis von Metainformationen (Composite Units)
  • Lernzielorientierte Verknüpfungsreihen (Pfade)

Stoffdeterminierte Verknüpfung liegt allein schon deswegen nahe, weil die einzelnen Knoten nur selten wirklich für die jeweilige Wissensbasis eigens erstellt werden. In der Regel wird vorhandenes Text- oder Bildmaterial gescannt und anschließend zerlegt. Sogar die Generierung von Verknüpfungen ist weitgehend automatisiert.

Darüber hinaus werden Pfade vorgegeben, die an Feedbackgeber gekoppelt sind. So soll es möglich sein, jederzeit einen aktuellen Status des Lernfortschrittes auszugeben.

Die Gefahr dabei ist, die Wissensbasen letztlich auf die Funktionalität schlichter Datenbanken zu reduzieren. Je nach Fehlerzahl bei bestimmten Aufgaben müssen z.B. einzelne Lektionen wiederholt werden. Dieselbe Verflachung droht beim intensiven Einsatz von Metainformationen, wie dies etwa bei Multimedialexika geschieht.

Aufgrund der inzwischen etablierten Standards für hypermediale Lernsoftware gehört allerdings die Möglichkeit individueller Lernpfade zum Grundrepertoire jeder bessern Hypertextbasis. Der Grad der Eigensteuerung wird dabei fallweise nach Zielgruppe und Stoff bestimmt.

Obwohl es bereits 1981 erste Ansätze zu einer Typisierung von Hyperlinks nach Verwendung in digitalen Lernumgebungen gegeben hat und Randall Trigg in seiner Dissertation 1983 ca. 80 Link-Klassen für die Verwendung in akademischen Arbeiten nach überwiegend rhetorischen Kriterien unterscheidet, wurden dazu bis heute, mit Ausnahme Nielsens, der aber an einer systematischen Aufarbeitung nicht interessiert scheint, kaum weitere Versuche unternommen. Ebenso gibt es nur wenige einschlägige Arbeiten, die Bushs Ansatz einer gemeinsamen Diskussion der Informationswissenschaften, insbesondere der Schnittstellenforschung, und der Neurophysiologie des Gedächtnisses weiterführen.

Zusammen mit Elena Segar habe ich daher 1998 begonnen, am Beispiel einiger aktueller Projekte aus dem Bereich der EDV-Didaktik, zumindest einen Katalog häufiger Gebrauchsarten von Verknüpfungen zu erstellen. Dabei wurden bislang ausschließlich Wissensbasen untersucht, die mit Toolbook-Derivaten erstellt worden sind. Hyperlinklisten aus Metainformationsknoten wurden dabei nicht berücksichtigt. Aufgrund dieser Beschränkungen wurden auch keine bidirektionalen Verknüpfungen erfasst.

Relativ leicht fiel dabei die Definition des Hyperlinks selbst. Hier lässt sich mit den Juristen sagen: "Ein Link ist ein Verweis zu einer anderen Quelle, verbunden mit der technischen Hilfe, diese aufzurufen." Unter Internet-Bedingung wäre diese Definition allerdings völlig unzureichend. Als Quelle verstehen wir ein Informationsobjekt, unabhängig ob es sich dabei um Text, Grafiken oder andere Mediendaten handelt - und ebenso unabhängig davon, ob dieses Objekt einen Knoten ausfüllt oder nur den Teil eines Knotens ausmacht.

Auch eine technisch-funktionale Typologie von Verknüpfungen, die also Antwort gibt auf Fragen wie "ist Knoten X mit Knoten Y verknüpft?" oder "wird hier aus dem aktuellen Hypertext heraus verwiesen?" bereitet kaum Probleme. (Eine übersicht geben die Blätter "Hypertext Knoten Links" [pdf-Datei].)

Unverhältnismäßig schwierig gestaltet sich aber die Unterscheidung von Gebrauchstypen. Zwar bleibt etwa eine Quellenangabe eine Quellenangabe - gleich wo sie durch welche Verknüpfung auch immer erscheint - die meisten Weisen des Linkgebrauchs, also der Verknüpfungsstrategie, scheinen sich jedoch kaum außerhalb ihres jeweiligen Kontextes bestimmen zu lassen. Den Kontext geben hier vor allem der Stoff, die Zielgruppe und die pädagogische Intention.

Ein Beispiel: ein Autor hatte stets alle Illustrationen zu einzelnen Lerneinheiten in einem Knoten zusammengefasst, wobei jede Grafik genau einer Textpassage zugeordnet werden konnte. Die Grafiken selbst fungierten als Anker, d.h. sie linkten zu den auf sie verweisenden Knoten zurück. Damit waren zu allen Composite Units relativ willkürliche Verzeichnisse entstanden - willkürlich, da ja nur die Knoten gelistet waren, zu denen Illustrationen gehörten. Das schien mir so lange unverständlich, bis der Autor erklärte, warum er diese Aufteilung gewählt hatte: er hatte auf manchen Knoten (die jeweils nur eine Bildschirmseite beanspruchen durften) zu wenig Platz für die Grafiken und wollte dennoch alle Abbildungen in gleicher Weise präsentieren. Was ich für Metainformation gehalten hatte, erwies sich als Layoutlösung.

Gleicherweise kann die eine Absicht die andere vereiteln.

So ist die nötige Systematisierung noch nicht weit fortgeschritten. Eine Übersicht einiger bisher identifizierter Kategorien gibt die (leider unfertige, noch auf 3D zu erweiternde) Tabelle Verwendungstypen /Entscheidung.

Gerade die im computergestützten Lernen sehr beliebten Verzweigungsfragen, etwa denen der Treefiction vergleichbar, erweisen sich häufig als desorientierend. Das kommt nicht nur daher, dass sie die Selbstbestimmung des Lernprozesses aufheben, sondern resultiert auch aus der meist geringen Transparenz der Auswirkung der einzelnen Antworten. i.d.R. werden hierzu lediglich allgemeine Andeutungen in den Einleitungsinformationen für Neubenutzer gegeben. Aber auch andere Verknüpfungstypen scheinen das Gefühl des "lost in Hyperspace" zu fördern. Daher möchte ich noch eine andere Einteilung vorschlagen:

  • orientierende Verknüpfungen
    (metainformationbasiert in Baumstrukturen)
  • PopUps
    (Sackgassenverweise zu Detailinformationen)
  • Entscheidungs-Verknüpfungen
    (historybasiert in Baumstrukturen)
  • Empfohlene Pfade
    (gekennzeichnete Hauptstraßen in Netzen)
  • desorientierende Verknüpfungen
    (für Freunde der Überraschung und der Prophetie)

Keineswegs ist einem Anker stets anzusehen, welchen Zweck der jeweilige Link verfolgt. Abhilfe böte eine Auszeichnung der Anker durch ein System von Designregeln, das dem Benutzer bekannt sein muss. Ein Beispiel hierfür ist etwa die für "Link", "aktiver Link" und "besuchter Links" unterschiedliche Farbgebung der Anker in HTML-Dokumenten. Ein viel besseres Beispiel sind die von Matterform entwickelten Q-Bullets, kleine Symbole, die zusätzlich Aufschluss über den hinter dem Verweis zu erwartenden Mediatyp geben.

Hier gibt es folgende Kategorien:

  1. Navigationshinweise
  • OutLink Links zu einer anderen Web Site
  • Scroll Up /Down Links zu einer anderen Stelle auf derselben Seite
  1. Multimediahinweise
  • Picture Links zu einer eigenständigen Abbildung
  • Movie Downloads lädt eine Filmdatei und spielt sie
  1. Seitentypenhinweise
  • Fill-Out Form Links zu einer Seite mit interaktivem Formular
  • Email Link ruft das Emailprogramm auf
  • Search Links zu einer Suchseite
  • Note Links zu einer erläuternden Seite, ohne weitere Links
  • Help Links zu hilfreichen Verweisen oder Informationen
  1. Netzdiensthinweise
  • Downloadable File verweist auf ein ftp Archiv
  • Telnet Links zu einem Telnet-Server

Damit sind wir bei der dritten Art der Verküpfungstypologien angelangt:

  1. Auf welchen Ort innerhalb des Gewebes wird verwiesen?
  2. Auf welchen Inhalt wird verwiesen?
  3. Auf welchen Medientyp wird verwiesen?

Ich will hier keineswegs dafür plädieren, die Vorteile von Hypertext und Hypermedia durch permanent präsente Metainformation aufs Spiel zu setzten. Durchaus aber für eine gründliche "Vermessung" und Katalogisierung der verschiedenen Verknüpfungstypen - nicht zuletzt, um mit der Neurophysiologie des Gedächtnisses ins Gespräch kommen zu können. Und ich möchte dafür plädieren, die Strukturierung von Hyperspaces bewusster anzugehen und - wenn anders ausreichende Orientierung nicht zu schaffen ist, zumindest eine werkeigene Linktypologie zu erstellen und die Anker entsprechend zu kennzeichnen - durchaus mit individuellen Mitteln, aber im "Einverständnis" mit dem Benutzer.

Jedenfalls soweit es digitale Aufbereitung von Wissen in der Lehre betrifft.



Homepage Literaturserver am See: http://literatur.lake.de