Flüchtige digitale Welten
Im Juni 2006 trat das "Gesetz über die Deutsche Nationalbibliothek" in Kraft. Es erweitert den Sammelauftrag der Deutschen Bibliothek erheblich. Internetveröffentlichungen, so genannte Netzpublikationen, gehören nun mit zur Sammlung. Doch der Auftrag des Gesetzgebers bereitet den Archivaren allerhand Kopfzerbrechen.
Früher da wühlten sich Forscher auf der Suche nach altem Wissen durch die Papierberge der Archive und Sammlungen. Heute klickt sich der moderne Wissenschaftler durchs Netz und sucht auf Websites und in digitalen Datenbanken nach Informationen.
"Wenn man wirklich eine gesamte Kultur dokumentieren möchte und soll, dann geht das nicht, wenn man den Aspekt des Internets herauslässt, weil ein ganzer Bereich an neuer, entstehender Literatur wäre dann nicht mehr abgedeckt."
Die Leiterin des Instituts für Museumskunde der Staatlichen Museen zu Berlin, Monika Hagedorn, macht sich Gedanken darüber, wie Forscher in Zukunft die Informationen wieder finden, die nur im Internet veröffentlicht wurden. Denn Daten, die online publiziert werden, sind flüchtig. Sie vergilben nicht wie Blätter, verschwinden aber blitzschnell, wenn sie gelöscht oder geändert werden. Was ein Original und was eine überarbeitete Fassung ist, ist online meist nicht mehr nachzuvollziehen, sagt Stefan Rohde Enslin, der sich im bundesweiten Projekt Nestor mit der Langzeitarchivierung von digitalen Daten befasst.
"Noch schwieriger sind mehrschichtige Daten, von denen zum Beispiel Denkmalpfleger Gebrauch machen. Das sind interaktive Karten, wo ich mir alle Kleindenkmale einblenden lassen kann und nebenbei auch alle Hotels. Es taucht im Internet immer mehr solcher Software auf. Die ist ziemlich schwierig zu archivieren. Denn die gibt es nur in dem Moment, in dem ich sie aufrufe. [...] Also alle die Sachen, die nur einen Augenblick existieren, sind schwierig."
Nachrichten, Literatur oder Forschungsberichte, alles was online auf Deutsch publiziert wird, soll für die Nachwelt erhalten bleiben. So steht es zumindest im Gesetz über die deutsche Nationalbibliothek, das seit Juni 2006 gilt.
Doch wie archiviert man über zehn Millionen deutsche Websites? Die Antwort lautet derzeit, dass ist ein große Ziel, aber wahrscheinlich unmöglich. Trotzdem muss man mit der Archivierung des Internets anfangen, damit nicht weiter wichtige Daten verloren gehen, sagt Monika Hagedorn.
"Wenn wir diese Dokumente nicht aufbewahren, bzw. nicht drauf achten, dass sie in Zukunft auch noch lesbar sind, dann geht es uns viel schlimmer als unseren Vorfahren, von denen wir ja heute noch deren Reiseberichte lesen können, wo sie ihre Expeditionen gemacht haben und die rübergebracht haben."
Die Archivierung von Internetpublikation stößt derzeit nicht nur an ihre logistische Grenze, sondern fast ebenso schnell an ihre technische Machbarkeit.
Programme werden laufend verändert, neue Dateiformate kommen hinzu. Was heute als gängiges Format gilt, wird in einigen Jahren nicht mehr zu öffnen sein.
"Es ist wichtig, dass man von Anfang offene Formate nimmt, zweitens gut dokumentierte Formate und weit verbreitete. […] Die Hauptfrage ist, vielleicht gar nicht das wie archivieren, - lacht - das ist natürlich die Schlüsselfrage, aber die Frage davor müsste eigentlich sein, was archivieren?"
Schließlich geht es um Millionen von deutschen Websites, sagt Stefan Rohde-Enslin. Selbst von der Nationalbibliothek erwartet der Gesetzgeber nicht, dass sie diese Menge allein bewältigen kann. Deshalb soll die Internet Community beim Aufbau des digitalen Nationalarchivs mithelfen.
Betreiber deutscher Websites haben per Gesetz die Pflicht, ihre Werke der Bibliothek in einfacher Ausfertigung zur Verfügung zu stellen.
Darunter fallen Weblogs, Diskussionsforen im Internet und auch Seiten mit privaten Urlaubfotos, all das gehört zum kulturellen Ausdruck der heutigen Gesellschaft.
Erprobt wird außerdem gerade ein System, das automatisch das Internet durchforstet. Die Technik heißt Webharversting und schickt Roboter ins Netz, die Seiten einsammeln, die auf .de enden.
Tatsächlich gesammelt und archiviert werden aber bislang nur Online-Dissertationen. Und wie das große digitale Langzeitarchiv konkret aussehen soll, darüber wird noch diskutiert. Zurzeit gibt es zwei Ideen: Die eine heißt Depot: Irgendwo steht ein großer Speicher, auf dem alle Daten gesammelt werden. Die andere Idee, erklärt Stefan Rohde-Enslin, hält die Daten ständig in Bewegung.
"... , die kreisen immer durchs Internet auf verschiedenen Computern, in dem Moment wo ein Computer ausfällt merkt es das System, nimmt sich von der zweiten Kopie, die auf irgendeinem Computer irgendwo auf der Welt ist – macht es automatisch eine Kopie und speichert auf irgendeinem andren Computer im System."
Wenn Forschern in einigen hundert Jahren die Türen der Geschichte aufstoßen, und versuchen, die Vergangenheit per Mausklick oder Tastendruck zu rekonstruieren, dann wird ihnen das nur gelingen, weil heute schon Forscher an die Zukunft denken.
"Wenn man wirklich eine gesamte Kultur dokumentieren möchte und soll, dann geht das nicht, wenn man den Aspekt des Internets herauslässt, weil ein ganzer Bereich an neuer, entstehender Literatur wäre dann nicht mehr abgedeckt."
Die Leiterin des Instituts für Museumskunde der Staatlichen Museen zu Berlin, Monika Hagedorn, macht sich Gedanken darüber, wie Forscher in Zukunft die Informationen wieder finden, die nur im Internet veröffentlicht wurden. Denn Daten, die online publiziert werden, sind flüchtig. Sie vergilben nicht wie Blätter, verschwinden aber blitzschnell, wenn sie gelöscht oder geändert werden. Was ein Original und was eine überarbeitete Fassung ist, ist online meist nicht mehr nachzuvollziehen, sagt Stefan Rohde Enslin, der sich im bundesweiten Projekt Nestor mit der Langzeitarchivierung von digitalen Daten befasst.
"Noch schwieriger sind mehrschichtige Daten, von denen zum Beispiel Denkmalpfleger Gebrauch machen. Das sind interaktive Karten, wo ich mir alle Kleindenkmale einblenden lassen kann und nebenbei auch alle Hotels. Es taucht im Internet immer mehr solcher Software auf. Die ist ziemlich schwierig zu archivieren. Denn die gibt es nur in dem Moment, in dem ich sie aufrufe. [...] Also alle die Sachen, die nur einen Augenblick existieren, sind schwierig."
Nachrichten, Literatur oder Forschungsberichte, alles was online auf Deutsch publiziert wird, soll für die Nachwelt erhalten bleiben. So steht es zumindest im Gesetz über die deutsche Nationalbibliothek, das seit Juni 2006 gilt.
Doch wie archiviert man über zehn Millionen deutsche Websites? Die Antwort lautet derzeit, dass ist ein große Ziel, aber wahrscheinlich unmöglich. Trotzdem muss man mit der Archivierung des Internets anfangen, damit nicht weiter wichtige Daten verloren gehen, sagt Monika Hagedorn.
"Wenn wir diese Dokumente nicht aufbewahren, bzw. nicht drauf achten, dass sie in Zukunft auch noch lesbar sind, dann geht es uns viel schlimmer als unseren Vorfahren, von denen wir ja heute noch deren Reiseberichte lesen können, wo sie ihre Expeditionen gemacht haben und die rübergebracht haben."
Die Archivierung von Internetpublikation stößt derzeit nicht nur an ihre logistische Grenze, sondern fast ebenso schnell an ihre technische Machbarkeit.
Programme werden laufend verändert, neue Dateiformate kommen hinzu. Was heute als gängiges Format gilt, wird in einigen Jahren nicht mehr zu öffnen sein.
"Es ist wichtig, dass man von Anfang offene Formate nimmt, zweitens gut dokumentierte Formate und weit verbreitete. […] Die Hauptfrage ist, vielleicht gar nicht das wie archivieren, - lacht - das ist natürlich die Schlüsselfrage, aber die Frage davor müsste eigentlich sein, was archivieren?"
Schließlich geht es um Millionen von deutschen Websites, sagt Stefan Rohde-Enslin. Selbst von der Nationalbibliothek erwartet der Gesetzgeber nicht, dass sie diese Menge allein bewältigen kann. Deshalb soll die Internet Community beim Aufbau des digitalen Nationalarchivs mithelfen.
Betreiber deutscher Websites haben per Gesetz die Pflicht, ihre Werke der Bibliothek in einfacher Ausfertigung zur Verfügung zu stellen.
Darunter fallen Weblogs, Diskussionsforen im Internet und auch Seiten mit privaten Urlaubfotos, all das gehört zum kulturellen Ausdruck der heutigen Gesellschaft.
Erprobt wird außerdem gerade ein System, das automatisch das Internet durchforstet. Die Technik heißt Webharversting und schickt Roboter ins Netz, die Seiten einsammeln, die auf .de enden.
Tatsächlich gesammelt und archiviert werden aber bislang nur Online-Dissertationen. Und wie das große digitale Langzeitarchiv konkret aussehen soll, darüber wird noch diskutiert. Zurzeit gibt es zwei Ideen: Die eine heißt Depot: Irgendwo steht ein großer Speicher, auf dem alle Daten gesammelt werden. Die andere Idee, erklärt Stefan Rohde-Enslin, hält die Daten ständig in Bewegung.
"... , die kreisen immer durchs Internet auf verschiedenen Computern, in dem Moment wo ein Computer ausfällt merkt es das System, nimmt sich von der zweiten Kopie, die auf irgendeinem Computer irgendwo auf der Welt ist – macht es automatisch eine Kopie und speichert auf irgendeinem andren Computer im System."
Wenn Forschern in einigen hundert Jahren die Türen der Geschichte aufstoßen, und versuchen, die Vergangenheit per Mausklick oder Tastendruck zu rekonstruieren, dann wird ihnen das nur gelingen, weil heute schon Forscher an die Zukunft denken.