Das dunkle Jahrhundert - über den drohenden Verlust des kulturellen Gedächtnisses durch die Digitalisierung

Mittwoch, 20. Januar 2016

Als im Jahr 2007 die Gießener Universität ihr 400jähriges Jubiläum feierte, habe ich mit einem studentischen Seminar eine virtuelle Ausstellung auf CD-ROM zur Geschichte der politischen Bildung in Gießen in diesen Jahrhunderten veröffentlicht. Unter anderem haben wir Auszüge aus Vorlesungsverzeichnissen aus dem 18. Jahrhundert dokumentiert, um Beispiele für frühe akademische Lehre zu politischen Themen zu zeigen. Diese Beispiele zu finden war leicht: Die entsprechenden Vorlesungsverzeichnisse waren und sind in gedruckter Form in der Universitätsbibliothek einsehbar.

Wie sicher ist es, dass Forscher in zweihundert Jahren in Vorlesungsverzeichnissen aus unserer Zeit recherchieren können? Die Wahrscheinlichkeit dafür dürfte nahe bei null liegen, denn heutige Vorlesungsverzeichnisse liegen nur in digitaler Form vor.


Als „dunkle Jahrhunderte“ werden in der historischen Forschung Zeiträume bezeichnet, über die wenig bekannt ist, weil kaum Quellen aus diesen Zeiten überliefert sind. Das 21. Jahrhundert ist auf dem besten Weg, zu einem solchen dunklen Jahrhundert zu werden. Die fortschreitende Digitalisierung des Publikationswesens entzieht immer größere Anteile des veröffentlichten Wissens der langfristigen Zugänglichkeit. Nichts anderes gilt für Literatur, amtliche Dokumente oder Zeugnisse des Alltagslebens, soweit sie nur in digitaler Form aufbewahrt werden. Dies mag zunächst überzogen oder alarmistisch klingen. War mit dem Internet nicht das gegenteilige Versprechen verbunden, allen alles zugänglich zu machen? Sind digitale Dokumente nicht billiger, schneller und effektiver herzustellen und aufzubewahren als bedrucktes Papier?
Inzwischen erweisen sich diese Versprechen und Hoffnungen aus der Frühzeit der Digitalisierung als Illusionen. Gewiss, die Sicherung und Aufbewahrung digitaler Daten ist ein großes Thema in allen seriösen Institutionen geworden, es gibt eine Vielzahl von Forschungsprojekten zur Archivierung digitaler Daten und es hat sich ein Markt für entsprechende Technologien entwickelt. Bibliotheken, Archive und Museen haben sich mit einem „Kompetenznetzwerk Langzeitarchivierung“ (nestor) auf die Suche nach Lösungen begeben. Aber dies alles erinnert an das Märchen vom Hasen und vom Igel. Je mehr Anstrengungen zur langfristigen Datensicherung auch unternommen werden, je mehr Geld in diese Technologien investiert wird, die schiere Menge an verfügbaren Daten wächst immer noch schneller und die ungelösten Probleme werden größer. „Langzeitarchivierung“ ist in diesem Zusammenhang ohnehin eine Beschönigung – von Jahrhunderten als Aufbewahrungszeit wagt kaum jemand zu sprechen, es geht allenfalls um Jahrzehnte, wenn überhaupt konkrete Zeiträume genannt werden. In einem nestor-Ratgeber für Museen werden eine Reihe konkreter, durchaus anspruchsvoller und aufwändiger Maßnahmen empfohlen, mit denen dennoch nur eine sehr bescheidene Perspektive eröffnet wird: „die Chance, Ihre Daten auch noch in einigen Jahren nutzen zu können.“
Wir müssen uns eingestehen, dass jedenfalls aus heutiger Sicht keine realistische Chance besteht, digitale Daten für Zeiträume aufzubewahren und zugänglich zu halten, die auch nur entfernt an die Lebensdauer von gedruckten Büchern heranreichen. Die Gründe dafür sind technologischer wie finanzieller Art. Da sie sich zwingend aus den Merkmalen digitalen Publizierens ergeben, ist nicht zu sehen, wie die sich daraus ergebenden Probleme gelöst werden sollen.
Man muss sich nur einige allgemein bekannte Selbstverständlichkeiten vor Augen führen, um diese Gründe zu verstehen:
Digitale Dateien werden mit Computern erstellt, die derzeit innerhalb weniger Jahre veralten. Sie werden mit Hilfe von Software – Anwendungsprogrammen und Betriebssystemen – erzeugt und gelesen, die ebenfalls ständigen Veränderungen und häufigen Formatwechseln unterliegt. Die Lesbarkeit solcher Daten ist damit vollständig abhängig von der langfristigen Verfügbarkeit von Maschinen und Technologien, deren konkrete Lebensdauer aber äußerst limitiert ist. Begrenzt ist auch die Lebensdauer aller Medien, die für die Speicherung digitaler Daten genutzt werden, sie beträgt derzeit maximal etwa 30 Jahre (Festplatten, Magnetbänder, DVD). Das ganze System der Erzeugung, Speicherung und Lesbarkeit digitaler Daten beruht wiederum auf den heutigen technischen Standards und Gewohnheiten bei der Nutzung von Elektrizität für die Energiegewinnung.
Für nichts davon kann als sicher oder auch nur als wahrscheinlich gelten, dass es in zwei oder drei Jahrhunderten zur Verfügung stehen wird, um unsere heutigen eBooks oder digitalen Zeitschriften dann noch lesen zu können. Es gehört zur Hybris der selbsternannten „wissenschaftlich-technischen Zivilisation“ unserer Zeit, stillschweigend zu unterstellen, dass auch künftige Generationen sich unserer Technologien bedienen werden. So wenig sich wohl die von der Beleuchtung der Städte durch Gaslaternen begeisterten Menschen vor 150 Jahren das Verschwinden dieser Technik vorstellen konnten, so wenig können wir heute wissen, auf welchen Basistechnologien die Kommunikationsnetze menschlicher Gesellschaften im Jahr 2300 basieren werden.
Dies soll die derzeitigen Bemühungen im Bereich der „Langzeitarchivierung“ nicht diskreditieren. Mehrfachkopien auf unterschiedlichen und immer neuen Datenträgern, Sicherung auf Servern unter besonderen klimatischen Bedingungen und mit hohem Energiebedarf, komplexe Metadaten für besseres Auffinden gespeicherter Dateien, bessere Nachhaltigkeit von Dateiformaten, regelmäßige Migration von Dateien in neuere Formate und anderes mehr sind unumgängliche Nothilfen, um digitale Daten zumindest für eine gewisse Zeit, sozusagen auf Sichtweite, verfügbar zu halten. Für bestimmte Kulturgüter wie Filme, Bilder und Tonaufnahmen gibt es dazu auch keine erkennbare Alternative, weil für sie – anders als das Papier bei gedruckten Texten – keine analogen Speichermedien zur Verfügung sehen, die für mehrere Jahrhunderte lesbar sein können. Es würde die Anstrengungen im Bereich der Archivierung digitaler Daten schon entlasten, wenn sie sich alleine auf solche audiovisuelle Dokumente beschränken könnten.
Denn alles dies kostet Geld, sehr viel Geld, und dies führt zu den finanziellen Gründen, die einer wirklichen Langzeitsicherung digitaler Daten im Wege stehen. Nach Berechnungen des Schweizerischen Bundesarchivs sind die Kosten für digitale Archivierung neunmal höher als die für analoge Aufbewahrung. Das lässt sich auf Bibliotheken übertragen: Ein gedrucktes Buch braucht zwar ein wenig Stellplatz in einem Regal, ist aber ohne jede technische Hilfe lesbar, es benötigt weder Computer noch Datenmigration noch regelmäßig wechselnde Datenträger noch Techniker, die sich um all das kümmern. Es braucht nicht einmal elektrischen Strom.


Auch die oft mit hohem moralischen Anspruch daher kommende „Open Access“-Bewegung in der Wissenschaft hat in monetärer Hinsicht ihre Unschuld längst verloren. Sie begann 2002 mit dem „Budapester Appell“, in dem gefordert wurde, mit Hilfe des Internet alle wissenschaftlichen Publikationen allen Menschen kostenfrei zur Verfügung zu stellen. Aber solange irgendeine Infrastruktur gebraucht und irgendeine Form von Arbeit verrichtet werden muss, gibt es kein wirklich kostenfreies Publizieren, erst recht dann nicht, wenn inhaltliche Qualitätskontrollen gewünscht sind. Inzwischen zeigt sich daher, dass die Kosten der „Open Access“-Publikationen nur verlagert werden: einerseits auf die Autoren, von denen einschlägige Zeitschriften oftmals Kostenbeiträge im vierstelligen Bereich für die Publikation eines Aufsatzes verlangen, andererseits auf die öffentliche Hand, der in Gestalt der Bibliotheken die Verantwortung für die nachhaltige Bereitstellung dieser Publikationen aufgebürdet werden soll. Wenn die Bibliotheken dies eines Tages nicht mehr leisten können, und dieser Tag wird umso eher kommen, je mehr Publikationen ausschließlich in digitaler Form angeboten werden, wird sich der „Open Access“ der Gegenwart zu einem „No Access“ für künftige Generationen verwandeln, weil die Langzeitarchivierung des wachsenden Bestands an digitalen Publikationen aus technischen wie aus finanziellen Gründen nicht möglich sein wird.
Mancher wird einwenden, dass dies angesichts der explosionsartigen Zunahme der Zahl an wissenschaftlichen Publikation, die eine drittmittel- und indikatorengesteuerte Wissenschaftskultur nach sich gezogen hat, auch nicht weiter zu bedauern ist, weil ein großer Teil dieser Arbeiten überspezialisiert ist, schnell veraltet und schon heute kaum Leser findet. Aber haben wir wirklich das Recht zu entscheiden, was künftige Generationen aus unserer Wissenschaftskultur noch lesen dürfen und was nicht? Vielleicht werden ja eines Tages gerade die negativen Folgen einer Überproduktion an schnell und im Wesentlichen für die Produktion von Leistungsindikatoren geschriebenen Texten ein interessantes Forschungsfeld für die Wissenschaftsgeschichte sein.


Lässt sich die Entwicklung zu einem dunklen Jahrhundert noch aufhalten? Skepsis ist angebracht, Resignation nicht. Vielleicht wird es in den Naturwissenschaften, deren wissenschaftliche Publikationskultur weitgehend auf das digitale Format umgestellt ist, nicht mehr zu verhindern sein, dass die wissenschaftsgeschichtliche Forschung späterer Jahrhunderte die Wege und Irrwege der naturwissenschaftlichen Forschung in unserer Zeit nicht mehr wird rekonstruieren können. In den Geisteswissenschaften, die bislang mit großer Beharrlichkeit am gedruckten Buch als Leitmedium der Wissenschaften festhalten, sieht die Lage derzeit noch weniger düster aus. In jedem Fall aber sind die Institutionen, die für das kulturelle Gedächtnis besondere Verantwortung tragen, die Bibliotheken, Archive und Museen, aufgefordert, aus der Rolle der Getriebenen herauszufinden und eine selbstbewusste Position gegenüber den Akteuren und Profiteuren einer fortschreitenden Digitalisierung zu entwickeln.
Was dies konkret bedeuten könnte, soll am Beispiel der wissenschaftlichen Bibliotheken und des wissenschaftlichen Publizierens an wenigen Aspekten erläutert werden.


Original und Kopie: Digitale Medien sind gute Kopierer und Verbreiter, aber schlechte Originale. Die PDF-Datei eines Buches oder wissenschaftlichen Aufsatzes lässt sich schneller und effektiver verbreiten als die gedruckte Version, aber sie lässt sich aus den genannten Gründen wesentlich schlechter oder gar nicht auf längere Sicht sichern und lesbar vorhalten. Es wäre sehr viel gewonnen, wenn die Bibliotheken gegenüber den Anbietern auf dieser Differenz bestehen würden. Konkret könnte das bedeuten, wo immer möglich nur noch Lizenzen für solche digitale Publikationen zu erwerben, von denen zumindest ein Printexemplar in zureichender Druck- und Papierqualität als Original mitgeliefert wird, und zugleich die langfristige Aufbewahrung auf dieses Original zu beschränken. Die strategische Perspektive der Bibliotheken sollte hierbei sein: digital gerne, aus Gründen der Nutzerfreundlichkeit, aber print first. Jenen Verlagen und Fächern, deren Zeitschriften alleine in digitaler Form vorliegen, sollte sehr klar signalisiert werden, dass die öffentlichen Bibliotheken für deren langfristige Archivierung und Lesbarkeit keine Verantwortung übernehmen können. Gesetzliche Regulierungen wie Bibliotheksgesetze sollten entsprechend novelliert werden.
Kostenwahrheit und Kostenklarheit: Wenn eine Universitätsbibliothek ihren Studenten ein Buch oder einen Zeitschriftenartikel als PDF-Datei kostenfrei zur Verfügung stellt, ist das ohne Frage bequem, nützlich und sinnvoll. Aber letzten Endes erspart die Bibliothek ihren Nutzern damit nur Zeit und Kopierkosten. Über den Preis dieses Service wird freilich nicht gesprochen; in der Regel finden sich weder auf den Nutzerseiten der Bibliotheken noch auf den Homepages der Verlage dazu klare Angaben. Wenn etwa eine Bibliothek einen oder zwei Titel benötigt, der Verlag die digitalen Dateien dieser Bücher aber nur in einem Paket mit mehren anderen anbietet (was häufig der Fall ist), dann können die gewünschten Campuslizenzen für zwei Bücher, die als Printexemplare zusammen vielleicht 50 Euro kosten, leicht 5000 Euro betragen. Die Nutzer spüren davon nichts und werden in der Illusion gehalten, digitale Texte seien kostenfrei zu haben. Im Sinne der Kostenwahrheit und -klarheit sollten Bibliotheken solche Kosten auf ihren Nutzerseiten veröffentlichen. Darüber hinaus sollten Gebührenmodelle geprüft werden, die die Bereitstellung einer digitalen Kopie anders als die Ausleihe eines Printexemplars mit einem kleinen Kostenbeitrag versehen, der sich an den eingesparten Kopierkosten der Nutzer orientiert und den Bibliotheken zumindest ein wenig hilft, die Mehrkosten in Folge der Digitalisierung zu kompensieren. Die Bibliotheken sollten sich auch damit dem Druck von Verlagen und Nutzern widersetzen, immer höhere Anteile ihrer Budgets für digitale Publikationen zu investieren, deren Folgekosten unter dem Aspekt der Langzeitarchivierung unabsehbar sind.
Kein Zwang zu Open Access: Dass Open Access nur die Kosten für digitales Publizieren von den Nutzern auf die Autoren und die Bibliotheken verlagert, wurde schon gesagt. Die Verlage, gegen deren Marktmacht sich die Open Access-Bewegung richtete, haben sich mit diesem Trend arrangiert und daraus lukrative Geschäftsmodelle entwickelt, die Michael Hagner jetzt in seiner Schrift „Zur Sache des Buches“ in aller Gründlichkeit analysiert hat. Es gibt unter dem Aspekt, dass digitale Medien gute Verbreiter sind, Argumente für das Recht der Autoren auf kostenfreie digitale Zweitverwertung ihrer Publikationen in angemessenem Abstand zum Erscheinungszeitpunkt, wie es das deutsche Urheberrecht seit 2014 auch vorsieht. Aber dem mehr oder weniger subtilen oder massiven Druck, den manche Akteure aus der Forschungsförderung und der Politik auf Wissenschaftler ausüben, um sie zum Open Access-Publizieren zu zwingen, muss entschlossener Widerstand entgegengesetzt werden. Glücklicherweise ist ein Versuch Baden-Württembergs im Jahr 2013, Hochschullehrer zu Open-Access-Publikationen zu verpflichten, an zahlreichen Protesten gescheitert. Aber es wird nicht der letzte Versuch dieser Art gewesen sein. Hier geht es nicht nur um die Nachhaltigkeit des digitalen Publizierens, hier geht es auch um die Freiheit der Wissenschaft, die manche um einer nur halb durchdachten Mode willen opfern wollen.


Die eingangs erwähnte virtuelle Ausstellung ist schon heute, wenige Jahre nach ihrer Publikation, von vielen neueren Computern nicht mehr lesbar. Hätten wir 2007 die nicht unerheblichen Mittel für dieses Projekt in den Druck einer hochwertig gestalteten Dokumentation in Buchform investiert, könnte diese sehr wahrscheinlich auch zum 500jährigen Jubiläum der Gießener Universität noch gelesen werden. Mit einer virtuellen Ausstellung auf CD-ROM wird dann wohl niemand mehr etwas anfangen können.

 

Druckversion | Sitemap
© Wolfgang Sander