Wie kann man das Internet erschließen?

Sondersammelgebiete und das World-Wide Web

Thomas Fischer, SUB Göttingen

  1. Vorbemerkung
  2. Einleitung
  3. Das World-Wide Web als globale Informationsstruktur
  4. Suchen im Internet: Hoffnungslos?
    1. Besser suchen: Automatische Indizierung
    2. Mehr Informationen bieten: Metadaten
  5. SSG-FI: Erschließung thematischer Server im World-Wide Web
    1. Struktur der SSG-FI-Daten
    2. SSG-FI-Daten im Internet
    3. Die Erschließung des Internet als kooperatives Projekt
 

Vorbemerkung

Dies ist ein Internet-Artikel. Das heißt, ein Artikel über das Internet (bzw. einige seiner Facetten), aber auch ein Artikel aus dem Internet: der Autor arbeitet im und mit dem Internet. Das heißt insbesondere, daß ein Großteil der zitierten Literatur sich im Internet befindet, dort eingesehen werden kann (genauer: heute, am Freitag, 13. März 1998) und typischerweise auch weitere Verweise zu verwandter Literatur (eigentlich: Hypertexten) enthält. Solche Zitate werden mit der Adresse, der URL (Uniform Resource Locator), angegeben und sind damit mit einem Internet Kommunikationsprogramm, einem Browser (z.B. Netscape Navigator), auffindbar.
 

Einleitung

Seit 1996 besteht an der Niedersächsischen Staats- und Universitätsbibliothek (SUB) Göttingen ein Projekt zur Erschließung wissenschaftlicher Internet-Ressourcen. Exemplarisch werden in den Bereichen Geowissenschaften, Mathematik und Anglo-Amerikanischer Kulturraum Informationsführer aufgebaut. Die Hauptziele dieses Projektes sind:

Das Problem der wissenschaftlichen Informationsflut ist nicht neu. Wie es heute keine Universalgelehrten mehr geben kann, die das ganze Wissen unserer Zeit überblicken, so kann auch keine Bibliothek mehr alle wichtigen (in welchem Sinne auch immer) Bücher bereitstellen. Aber das Problem verschärft sich: Selbst in eng gefaßten wissenschaftlichen Bereichen können nicht alle wissenschaftlichen Bibliotheken die Fachliteratur umfassend zur Verfügung stellen. Eine Lösung für dieses Problems ist das Bemühen, diese Literatur wenigstens in einer Bibliothek zu sammeln. Zu diesem Zweck besteht in den (west­) deutschen wissenschaftlichen Bibliotheken seit 1949 das System der Sondersammelgebietsbibliotheken, das sichern soll, daß möglichst alle Fachpublikationen wenigstens in einem Exemplar in Deutschland verfügbar ist. Dazu wurde der gesamte Wissenschaftsbereich in etwa 110 Gebiete aufgeteilt, die von einzelnen Bibliotheken zur Pflege übernommen wurden. An diesem System sind rund 40 Bibliotheken beteiligt; seit der Wiedervereinigung werden Bibliotheken in den neuen Ländern verstärkt einbezogen.

Für den Wissenschaftler bzw. die Wissenschaftlerin bedeutet dies, daß er oder sie jedes wissenschaftliche Werk zumindest per Fernleihe bestellen kann. In der Regel wird die Bestellung von der Bibliothek, die die Fernleihe bearbeitet, durchgeführt, so daß sich der oder die einzelne um die Sondersammelgebietsbibliotheken nicht zu kümmern braucht. Wenn aber vorab geprüft werden soll, ob ein bestimmtes Buch schon vorrätig ist oder ob zu einem bestimmten Thema Literatur vorliegt, ist es wünschenswert, Einblick in den Katalog der zuständigen Sondersammelgebietsbibliothek zu nehmen. Um dies zu ermöglichen, gibt es seit 1995 an der Staats- und Universitätsbibliothek Hamburg das Projekt WEBIS: "Aufbau eines World-Wide-Web-Servers für Sondersammelgebietsbibliotheken".[1] Dieses Projekt stellt über das Internet Informationen zu den verschiedenen Sondersammelgebieten zur Verfügung und ermöglicht insbesondere einen Zugriff auf die Kataloge der jeweils zuständigen Bibliotheken. Somit wird das Internet von den Sondersammelgebietsbibliotheken als Kommunikationsmedium schon seit längerem genutzt. Auch andere wissenschaftliche Bibliotheken und Bibliotheksverbünde bieten ihre Kataloge zunehmend "im Netz" an. Das verweist auf ein ganz anderes Problem: Wenn es im Bereich des World-Wide Web zunehmend Informationen von wissenschaftlicher Relevanz gibt, wie können interessierte WissenschaftlerInnen sie finden?; und zusätzlich: Welche Verantwortung haben die Sondersammelgebietsbibliotheken für die elektronischen Informationen?
 

Das World-Wide Web als globale Informationsstruktur

Das Internet ist unter anderem aus dem Versuch wissenschaftlicher Institutionen hervorgegangen, eine intensivere und direktere Kommunikation zu ermöglichen.[2] Zusammen mit der umfassenden Vernetzung der Computer wird das Internet zum weltumspannenden Informationsmedium:

E-Mail und Diskussionsgruppen im USENET hatten sich schon fest etabliert, als 1991 das World-Wide Web (WWW) von Tim Berners-Lee am European Laboratory for Particle Physics in Genf (CERN) entwickelt wurde.[3] Mit dem WWW wurde das Internet multimediafähig: nicht nur Texte, auch Bilder, Töne, Animationen und Videosequenzen können übertragen werden. Damit begann eine dramatische Entwicklung: Die Zahl der "Web-Server" nimmt exponentiell zu, und das Internet dringt mit immer neuen Inhalten in immer weitere Bereiche der Öffentlichkeit vor.

Abbildung 1: Entwicklung der Zahl der WWW-Server

Zahl der WWW-Server

Auch der wissenschaftliche Bereich des Internet ist stark gewachsen: Nicht nur ist mittlerweile (fast?) jede deutsche Universität im Netz präsent, sondern immer mehr Fakultäten, Fachbereiche und Institute stellen sich auf eigenen Servern dar und bieten zunehmend nicht nur organisatorische Informationen von Adressen bis Studienordnungen, sondern auch inhaltliche: Forschungsprojekte stellen sich vor, Artikel liegen in Auszügen oder vollständig bereit. Zusätzlich sind Forschungsinstitute und Fachgesellschaften präsent, Zeitschriften stellen Inhaltsverzeichnisse oder Artikel zur Verfügung, neue elektronische Zeitschriften werden gegründet… Einen annähernden Überblick über die Inhalte des World-Wide Web gibt die Verteilung der Einträge in den 14 Hauptkategorien von Yahoo.
 

Suchen im Internet: Hoffnungslos?

Die Entwicklung des Internet insgesamt zu überschauen erscheint unmöglich. Die Anzahl der WWW-Server überstieg im März 1996 die 100.000 und im April 1997 eine Million. Im März 1998 wurden über zwei Millionen Server gezählt. Wie viele Seiten oder Dokumente auf diesen Servern liegen, kann man nur schätzen - sie liegt aber sicher im Milliardenbereich. Von diesen sind wiederum vielleicht 10% wissenschaftlich relevant.

Abbildung 2: Themenbereiche im World-Wide Web

Themenbereiche im World-Wide Web

So liefert eine Anfrage bei einer der klassischen Suchmaschinen, wie z.B. AltaVista (URL: altavista.digital.com/cgi-bin/query?pg=q&text=yes) typischerweise Tausende von Einträgen, in denen sich die wenigen relevanten oft erfolgreich verstecken. Die Situation wird zunehmend als unbefriedigend empfunden, und es gibt verschieden Vorschläge, wie ein Weg durch das Informationsdickicht gebahnt werden könnte. Im wesentlichen geht es dabei um eine Annäherung aus zwei Richtungen: Auf der einen Seite sollen die Suchmaschinen besser ausgestattet werden, so daß sie in stärkerem Maße in der Lage sind, aus einem Dokument relevante Inhalte und nicht nur einzelne Worte zu entnehmen. Auf der anderen Seite sollen die Dokumente selbst die Suche unterstützen und mit zusätzlichen Daten die nötigen Informationen liefern.
 

Besser suchen: Automatische Indizierung

Die Wucht der schieren Masse hat dazu geführt, sich die automatische Klassifikation der Internetdokumente von verfeinerten Suchmaschinen zu erhoffen. Ein interessantes Projekt ist das "GERman Harvest Automated Retrieval and Directory" (GERHARD) an der Universität Oldenburg (URL: gerhard.bis.uni-oldenburg.de/). Mittels der Harvest-Technologie sammelt GERHARD den Text von einer Million Dokumenten auf deutschen Servern von

Diese werden durch einen Vergleich mit Wörtern und Textphrasen auf entsprechende Einträge des UDK Klassifikationssystems abgebildet. Gefundene Zuordnungen werden durch verschiedene statistische Verfahren unter Beachtung der strukturellen Information aus dem Dokument und dem Klassifikationssystem bewertet und nach Relevanz selektiert. Die so gewonnenen Daten werden in einer Datenbank gespeichert und können über Internet abgerufen werden.[4] Die Klassifikationsprobleme sind jedoch gewaltig: Schon einfache Aufgaben wie die Feststellung von Titel oder AutorIn, die (wenn angegeben) einem Menschen keine Schwierigkeiten bereiten, können nur schwer programmiert werden. Die Zuordnung von Wort und Bedeutung ist nicht eindeutig und von dem jeweiligen Kontext abhängig. Die Betreiber haben jedoch die Hoffnung, daß in Zukunft mit dem GERHARD-Projekt ein Großteil der wissenschaftlich relevanten Quellen des deutschsprachigen Raums erfaßt und richtig klassifiziert werden kann.
 

Mehr Informationen bieten: Metadaten

Wenn es einer Maschine so schwer fällt, aus einem Dokument Sinn zu extrahieren, so müßte sie unterstützt werden. Diese Überlegung steht am Beginn einer umfangreichen Debatte, die unter dem Schlagwort "Metadaten" geführt wird.[5] Die Grundidee ist hierbei, dem Dokument zusätzliche Daten zuzufügen, die Informationen über das Dokument enthalten - Metadaten. Mit den Metadaten werden Worte und Begriffe in einen Kontext eingeordnet, der es erlaubt, zu unterscheiden, ob ein Wort Teil eines Titels, des Autorennamens oder einer Inhaltsbeschreibung ist. Dann wäre es zum Beispiel kein Problem, Dokumente über Fischfang von Dokumenten mit dem Autor "Fischer" zu trennen.

Der international verbreitetste Vorschlag dazu ist das "Dublin Core"-Konzept, das zuerst 1995 auf dem Metadaten Workshop am Online Computer Library Center (OCLC) in Dublin, Ohio (USA) vorgestellt wurde. Seitdem ist dieses Konzept in verschieden internationalen Konferenzen weiter bearbeitet worden, zuletzt auf dem "5th Dublin Core Metadata Workshop" in Helsinki, Finnland.[6] Die aktuelle Version dieser Metadaten sieht vor, daß in 15 Kategorien Zusatzinformationen zu einem Dokument angeboten werden, diese Kategorien werden teilweise durch Qualifikatoren ("Scheme") oder Untergruppierungen ("Subelements") verfeinert. Die Kategorien können grob in drei Teilbereiche eingeteilt werden, die sich auf den Inhalt, das geistige Eigentum und die Bereitstellung des Dokumentes beziehen.

Abbildung 3: Basiskategorien der Dublin-Core-Metadaten

Inhalt Geistiges Eigentum Bereitstellung
TitleCreatorDate
SubjectPublisherType
DescriptionContributorFormat
SourceRightsIdentifier
Language  
Relation  
Coverage  

Ein Projekt, das konsequent auf Metadaten setzt, ist der "MathN Broker", ein Regionalindex für mathematische Preprints (URL: www.mathematik.uni-osnabrueck.de/harvest/brokers/MathN/). Der MathN Broker kompiliert die Indizes, die mit der Harvest-Technologie von verschieden mathematischen Institutionen erstellt werden. Hier ist es auch möglich, die Effektivität der Metadaten sozusagen "live" zu studieren: Wenn man in einer der vorgegebenen Kategorien sucht (z.B. Autor, Schlagwort, Titel), bekommt man nur die Texte, die diese Angaben in den Metadaten enthalten - und diese liefern dann im Allgemeinen auch die anderen Grunddaten in übersichtlicher Form. Sucht man statt dessen im Bereich "Freier Text", so werden alle Dokumente geliefert, die das entsprechende Wort enthalten. Das sind dann zwar viel mehr, die mitgelieferten Informationen zu den Fundstellen enthalten aber nicht die wesentlichen Metadaten: keinen Titel, kein Autor, keine Klassifikation. Statt dessen sehen die gefundenen Einträge so aus: "rot_293.ps on:kbibmp3.ub.uni-kl.de". Diese Fundstelle verweist auf ein Dokument "rot_293.ps" (wegen ps-Endung: wahrscheinlich eine PostScript-Datei) auf dem Server "kbibmp3.ub.uni-kl.de" (wegen uni-kl vielleicht bei der Universität Kaiserslautern?). Wenn man mehr Informationen haben möchte, muß man das Dokument aufrufen. Man kann es auf seinem Rechner speichern und ausdrucken oder es ansehen, wenn man ein Programm hat, das PostScript-Dateien darstellt. Dieses langwierige Verfahren (die erwähnte Datei hat einen Umfang von177 Kilobytes) für jede Fundstelle durchzuführen wäre aber zu aufwendig. So stochert man blind im Nebel des Gesamtindex.

Somit zeigt sich, daß die Benutzung der Metadaten sehr effektiv ist, dafür müssen diese aber vorhanden sein: Wer legt die Kategorien fest, produziert die Metadaten, sorgt für ihre Konsistenz? Diese Fragen sind für das Internet noch nicht beantwortet. Projekte im Umkreis der Math-Bib-Net-Gruppe wie der MathN Broker versuchen, die Verwendung von Metadaten zur Voraussetzung einer Web-Veröffentlichung in ihrem Bereich zu machen. Dazu wird ein Programm ("Mathematics Metadata Markup") zur Verfügung gestellt, das es erlaubt, die Metadaten in ein Formular einzutragen und so den BenutzerInnen die HTML-Programmierung zu ersparen.

Ein anderer Vorschlag sieht vor, die Metadaten nicht von den AutorInnen der Web-Dokumente selbst, sondern von "vertrauenswürdigen Dritten" erstellen zu lassen, ähnlich wie auch die Katalogisierung in einer Bibliothek durch spezielle Kräfte mit entsprechender Ausbildung erfolgt.
 

SSG-FI: Erschließung thematischer Server im World-Wide Web

An diesem Punkt kommen nun verschieden Stränge der bisherigen Diskussion über die Erschließung des Internet zusammen.

  1. Die Verantwortung der Sondersammelgebiete zur Erfassung und Bereitstellung wissenschaftlich relevanter Informationsquellen kann das Internet nicht mehr ausklammern.
  2. Die Erschließung wissenschaftlich relevanter Informationsquellen ist derzeit nicht automatisiert lösbar, sondern erfordert intellektuellen Aufwand.
  3. Der Umfang der Informationen in Internet erlaubt nicht die Erschließung aller wichtigen Einzeldokumente, wohl aber der entsprechenden "thematischen Server".
  4. Diese Erschließung wird als Erzeugung von Metadaten von qualifizierten Dritten im Rahmen der Sondersammelgebietsstruktur geleistet.

Genau diese Überlegungen liegen dem Projekt Sondersammelgebiet-Fachinformationen (SSG-FI) zugrunde, das seit 1996 unter Förderung der Deutschen Forschungsgemeinschaft an der Niedersächsischen Staats- und Universitätsbibliothek (SUB) Göttingen besteht. Im Rahmen dieses Projektes wird für einige an der SUB Göttingen angesiedelte Sondersammelgebiete in den Feldern Mathematik, Geowissenschaften und Anglo-Amerikanischer Kulturraum modellhaft ein System zur Erfassung wissenschaftlich relevanter Internet-Quellen entwickelt.

Wenn automatische Verfahren derzeit keine Erfassung des Internets leisten, die wissenschaftlichen Kriterien genügen würde, muß "das Internet" intellektuell erfaßt werden, im wesentlichen mit klassischen bibliothekarischen Methoden der Klassifikation und Beschreibung. Dabei ist zunächst zu klären, welche Informationen erfaßt werden sollen. Im SSG-FI-Projekt wird in diesem Zusammenhang der Begriff des thematischen Servers benutzt, um einen Bereich zusammengehöriger Dokumente zu bezeichnen, die von einer Person oder Institution im Internet veröffentlicht werden. Dies ist ein nicht unproblematischer Begriff, da er

Als Beispiel kann der Server der American Mathematical Society dienen, der der Mathematik gewidmet und somit ein thematischer Server ist. Dieser Internet-Bereich ist aber so groß, daß für eine übersichtliche Erfassung Untereinheiten (z.B. der AMS Preprint Server) oder gar deren Teilbereiche (z.B. der AMS Preprint Server für assoziative Ringe und Algebren) beschrieben werden müssen.

Eine grobe Überschlagsrechnung zeigt die Grenzen einer intellektuellen Erfassung: Wenn auf den zwei Millionen WWW-Servern eine Milliarde Dokumente liegen, von denen 10% wissenschaftlich relevant sind, so ergeben sich bei gleichmäßiger Verteilung auf die 110 Sondersammelgebiete etwa eine Million Dokumente pro Fach. Diese konzentrieren sich im wesentlichen auf thematischen Servern, die normalerweise jeweils zwischen hundert und tausend Dokumente umfassen, so daß sich eine Zahl von 1000 bis 10 000 Einträgen ergibt, die intellektuell erfaßt werden müssen.
 

Struktur der SSG-FI-Daten

Im Rahmen des SSG-FI-Projektes wurde zur Beschreibung und Klassifikation dieser Quellen eine Liste von etwa 40 Kategorien erarbeitet, mit denen die einzelnen Einträge erfaßt werden; diese Einträge werden in einer Datenbank gesammelt und verwaltet. Die Kategorien bauen auf dem Dublin-Core-Modell auf, um auch international anschlußfähig zu bleiben, gehen aber darüber hinaus. Erfaßt werden:

Eine besondere Kategorie ist der Formalschlüssel, mit dem in Anlehnung an die "Regeln für den Schlagwortkatalog" des Deutschen Bibliotheksinstituts[7] thematische Server klassifiziert werden. Typische Ausprägungen sind hier der Server eines Fachbereichs, einer Fachgesellschaft, eines Forschungsinstituten oder einer Zeitschriften. Der Formalschlüssel wird als eine Auswahlkategorie zum Einstieg in das Informationssystem genutzt; einen anderen Einstieg bietet die jeweils fachspezifische Gliederung des Themenbereiches, die sich möglichst an internationalen Standards orientiert. Den dritten Zugang bietet die Suchfunktion, die es erlaubt, nach Wörtern im allgemeinen Text oder in bestimmten Kategorien zu suchen.

Die über fachspezifische "Linklisten", mit Suchmaschinen oder nach dem Schneeballsystem gefunden Quellen werden von WissenschaftlerInnen oder qualifizierten studentischen Hilfskräften beschrieben und in der Datenbank gespeichert. Der Inhalt der Datenbank wird schließlich in einer Form und Struktur exportiert, die den effektiven Zugriff über das Internet ermöglicht. Dieses System ist unter der URL http://www.SUB.Uni-Goettingen.de/ssgfi verfügbar.
 

SSG-FI-Daten im Internet

Zu jedem thematischen Server wird eine HTML-Datei angelegt, in der in Tabellenform die Einträge aus der Datenbank angezeigt werden. Zusätzlich besitzen diese Dokumente aber auch einen umfassenden (unsichtbaren) Satz von Metadaten, die von entsprechenden Suchmaschinen eingesammelt und ausgewertet werden können. Diese Metadaten werden von der lokalen Suchmaschine des SSG-FI-Bereiches ausgewertet: Ein Programm (SWISH-E) indiziert sowohl die Volltexte als auch die Metadaten aller Dokumente, und aus dem Index kann ein weiteres Programm (WWWwais) die gesuchten Informationen extrahieren. Das erfordert bei der Benutzung keine Metadaten-Kenntnisse, sondern nur das Ausfüllen eines Formulars und die Auswahl der gewünschten Kategorien.

Eine wichtiger Schritt wäre es, wenn auch die bekannten internationalen Suchmaschinen wie AltaVista oder Verzeichnisse wie Yahoo die Metadaten qualifiziert auswerten würden. Mit der Aufwertung des "Meta-Tags" im neuen HTML-Standard 4.0 und dem 5. Dublin-Core-Workshop gibt es gute Voraussetzungen für die Akzeptanz der Metadaten in der Internet-Gemeinde. Je mehr Sites Metadaten bereitstellen, um so eher wird es sich auch für die kommerziellen Anbieter lohnen, diese zu indizieren. Dann können diese Metadaten gezielt global gesucht und gefunden werden: der SSG-FI-Bereich wäre dann eine Durchgangsstation zwischen den Informationssuchenden und den Informationslieferanten.

Die Struktur des SSG-FI-Systems ist hierarchisch gegliedert und möglichst flach gehalten. Zunächst ist das gewünschte Fach auf der Homepage des SSG-FI-Projektes auszuwählen. Hier stehen auch allgemeine Informationen zum System und Projekt zur Verfügung, die aber zur eigentlichen Benutzung nicht wichtig sind. Dies ist die globale Auswahl, die mit der Zeit wachsen soll, wie mit "???Guide" angedeutet wird :

Abbildung 4: Globalauswahl im SSG-FI-Bereich

Globalauswahl im SSG-FI-Bereich
 

Jeder Einzelbereich ist intern wieder auf die gleiche Weise gegliedert, so daß sich in der lokalen Auswahl immer die drei Möglichkeiten des Einstiegs über die formale Beschreibung der Informationsquelle (Formalschlüssel), die Sachstruktur des Faches und die (freie) Suche bieten:

Abbildung 5: Lokale Auswahl im SSG-FI-Bereich

Lokale Auswahl im SSG-FI-Bereich
 

Diese grundsätzliche Struktur wird nur in Ausnahmefällen verändert, wenn die vorliegenden Daten sonst unübersichtlich würden, so wird z.B. im MathGuide die Liste der Fachbereichs-Server zusätzlich nach Ländern untergliedert.
 

Die Erschließung des Internet als kooperatives Projekt

Das Projekt SSG-FI ist zeitlich begrenzt, und es wird derzeit nur in drei Fachgebieten verfolgt. Wie kann es also weitergehen? Dazu gibt es zwei Antworten.

  1. Das Projekt ist auf Nachnutzung angelegt, das heißt, daß die erarbeiteten Arbeitsweisen, Datenstrukturen und Programme an andere Sondersammelgebiete weitergereicht werden, damit dort jeweils eigene Verzeichnisse aufgebaut werden können. Das System selbst ist weitgehend unabhängig von benutzter Soft- und Hardware, derzeit wird mit einer Allegro-Datenbank (MS-DOS) unter Windows und einem LINUX-Server gearbeitet, aber jedes Datenbankmanagementsystem könnte die entsprechenden Daten verwalten. Die HTML-Dateien sind sowieso reine Textdateien, die jeder Server anzeigen kann. In diesem Jahr soll mit dem Weiterreichen des SSG-FI-Systems begonnen werden.
  2. Eine umfassende Erfassung aller wissenschaftlich relevanten Informationsquellen im Internet kann nur mit Unterstützung der Scientific Community erreicht werden. Dazu sind bei SSG-FI Rückmeldeformulare geschaffen worden, die über Internet aufgerufen werden können. Sie erlauben es, entweder eine Netzadresse mit einer Bemerkung an das SSG-FI-Team zu schicken oder einen ganzen Datensatz für einen Server zu erstellen. Die erste Möglichkeit richtet sich an allgemeine Benutzer, die einen Fund melden, aber auch an die Betreiber von Servern, die von Veränderungen berichten oder Einträge berichtigen wollen. Das zweite, sehr komplexe Formular ist eher an "Profis" (BibliothekarInnen oder WissenschaftlerInnen) gerichtet, die die Sondersammelgebiete in der Erfassung unterstützen. Es erlaubt aber auch die verteilte Pflege der Datenbank, wenn zu einem Bereich mehrere Sondersammelgebiete an unterschiedlichen Orten beitragen.

Die Hoffnung ist, mit dem Aufbau des SSG-FI-Systems auf verschiedenen Ebenen zur Übersicht im Internet beizutragen:

Ein Erfolg wäre ein wichtiger Schritt für die Etablierung der Sondersammelgebiete als Vermittler elektronischer Informationen. Dies wäre auch ein Baustein in dem umfassenden Projekt einer virtuellen Fachbibliothek, die die verschiedenen Dienste einer klassischen Bibliothek mit den Möglichkeiten elektronischer Kommunikation verbindet.


Anmerkungen:
  1. Dieses Projekt ist unter der URL webis.sub.uni-hamburg.de/ im Internet erreichbar, dort stehen auch umfassende zusätzliche Informationen zur Verfügung.
  2. Zur Geschichte des Internet vergleiche z.B. den Geschichtsbereich der Internet Society (URL info.isoc.org/internet/history/index.shtml).
  3. Eine kurze Beschreibung der WWW-Entwicklung am CERN gibt Ben Segal: URL wwwcn.cern.ch/pdp/ns/ben/TCPHIST.html.
  4. Der so aufgebaute Index ist jetzt öffentlich und kann direkt überprüft werden.
  5. Zu fast allen Aspekten der Metadaten-Debatte(n) gibt es Material auf dem Göttinger Metadaten-Server: URL www2.SUB.Uni-Goettingen.de.
  6. Berichte vom 5th Dublin Core Metadata Workshop von Paul Miller und Tony Gill sind unter URL www.ariadne.ac.uk/issue12/metadata, von Stuart Weibel und Juha Hakala unter www.dlib.org/dlib/february98/02weibel.html zu finden.
  7. Deutsches Bibliotheksinstitut, Regeln für den Schlagwortkatalog (RSWK), Berlin 1991

Valid HTML 4.0! © Thomas Fischer @ SUB Göttingen, May 13, 1998