Mittwoch, 20. Januar 2016
Als im Jahr 2007 die Gießener Universität ihr 400jähriges Jubiläum feierte, habe ich mit einem studentischen Seminar eine virtuelle Ausstellung auf CD-ROM zur Geschichte der politischen Bildung in
Gießen in diesen Jahrhunderten veröffentlicht. Unter anderem haben wir Auszüge aus Vorlesungsverzeichnissen aus dem 18. Jahrhundert dokumentiert, um Beispiele für frühe akademische Lehre zu
politischen Themen zu zeigen. Diese Beispiele zu finden war leicht: Die entsprechenden Vorlesungsverzeichnisse waren und sind in gedruckter Form in der Universitätsbibliothek einsehbar.
Wie sicher ist es, dass Forscher in zweihundert Jahren in Vorlesungsverzeichnissen aus unserer Zeit recherchieren können? Die Wahrscheinlichkeit dafür dürfte nahe bei null liegen, denn heutige Vorlesungsverzeichnisse liegen nur in digitaler Form vor.
Als „dunkle Jahrhunderte“ werden in der historischen Forschung Zeiträume bezeichnet, über die wenig bekannt ist, weil kaum Quellen aus diesen Zeiten überliefert sind. Das 21. Jahrhundert ist auf dem
besten Weg, zu einem solchen dunklen Jahrhundert zu werden. Die fortschreitende Digitalisierung des Publikationswesens entzieht immer größere Anteile des veröffentlichten Wissens der langfristigen
Zugänglichkeit. Nichts anderes gilt für Literatur, amtliche Dokumente oder Zeugnisse des Alltagslebens, soweit sie nur in digitaler Form aufbewahrt werden. Dies mag zunächst überzogen oder
alarmistisch klingen. War mit dem Internet nicht das gegenteilige Versprechen verbunden, allen alles zugänglich zu machen? Sind digitale Dokumente nicht billiger, schneller und effektiver
herzustellen und aufzubewahren als bedrucktes Papier?
Inzwischen erweisen sich diese Versprechen und Hoffnungen aus der Frühzeit der Digitalisierung als Illusionen. Gewiss, die Sicherung und Aufbewahrung digitaler Daten ist ein großes Thema in allen
seriösen Institutionen geworden, es gibt eine Vielzahl von Forschungsprojekten zur Archivierung digitaler Daten und es hat sich ein Markt für entsprechende Technologien entwickelt. Bibliotheken,
Archive und Museen haben sich mit einem „Kompetenznetzwerk Langzeitarchivierung“ (nestor) auf die Suche nach Lösungen begeben. Aber dies alles erinnert an das Märchen vom Hasen und vom Igel. Je mehr
Anstrengungen zur langfristigen Datensicherung auch unternommen werden, je mehr Geld in diese Technologien investiert wird, die schiere Menge an verfügbaren Daten wächst immer noch schneller und die
ungelösten Probleme werden größer. „Langzeitarchivierung“ ist in diesem Zusammenhang ohnehin eine Beschönigung – von Jahrhunderten als Aufbewahrungszeit wagt kaum jemand zu sprechen, es geht
allenfalls um Jahrzehnte, wenn überhaupt konkrete Zeiträume genannt werden. In einem nestor-Ratgeber für Museen werden eine Reihe konkreter, durchaus anspruchsvoller und aufwändiger Maßnahmen
empfohlen, mit denen dennoch nur eine sehr bescheidene Perspektive eröffnet wird: „die Chance, Ihre Daten auch noch in einigen Jahren nutzen zu können.“
Wir müssen uns eingestehen, dass jedenfalls aus heutiger Sicht keine realistische Chance besteht, digitale Daten für Zeiträume aufzubewahren und zugänglich zu halten, die auch nur entfernt an die
Lebensdauer von gedruckten Büchern heranreichen. Die Gründe dafür sind technologischer wie finanzieller Art. Da sie sich zwingend aus den Merkmalen digitalen Publizierens ergeben, ist nicht zu sehen,
wie die sich daraus ergebenden Probleme gelöst werden sollen.
Man muss sich nur einige allgemein bekannte Selbstverständlichkeiten vor Augen führen, um diese Gründe zu verstehen:
Digitale Dateien werden mit Computern erstellt, die derzeit innerhalb weniger Jahre veralten. Sie werden mit Hilfe von Software – Anwendungsprogrammen und Betriebssystemen – erzeugt und gelesen, die
ebenfalls ständigen Veränderungen und häufigen Formatwechseln unterliegt. Die Lesbarkeit solcher Daten ist damit vollständig abhängig von der langfristigen Verfügbarkeit von Maschinen und
Technologien, deren konkrete Lebensdauer aber äußerst limitiert ist. Begrenzt ist auch die Lebensdauer aller Medien, die für die Speicherung digitaler Daten genutzt werden, sie beträgt derzeit
maximal etwa 30 Jahre (Festplatten, Magnetbänder, DVD). Das ganze System der Erzeugung, Speicherung und Lesbarkeit digitaler Daten beruht wiederum auf den heutigen technischen Standards und
Gewohnheiten bei der Nutzung von Elektrizität für die Energiegewinnung.
Für nichts davon kann als sicher oder auch nur als wahrscheinlich gelten, dass es in zwei oder drei Jahrhunderten zur Verfügung stehen wird, um unsere heutigen eBooks oder digitalen Zeitschriften
dann noch lesen zu können. Es gehört zur Hybris der selbsternannten „wissenschaftlich-technischen Zivilisation“ unserer Zeit, stillschweigend zu unterstellen, dass auch künftige Generationen sich
unserer Technologien bedienen werden. So wenig sich wohl die von der Beleuchtung der Städte durch Gaslaternen begeisterten Menschen vor 150 Jahren das Verschwinden dieser Technik vorstellen konnten,
so wenig können wir heute wissen, auf welchen Basistechnologien die Kommunikationsnetze menschlicher Gesellschaften im Jahr 2300 basieren werden.
Dies soll die derzeitigen Bemühungen im Bereich der „Langzeitarchivierung“ nicht diskreditieren. Mehrfachkopien auf unterschiedlichen und immer neuen Datenträgern, Sicherung auf Servern unter
besonderen klimatischen Bedingungen und mit hohem Energiebedarf, komplexe Metadaten für besseres Auffinden gespeicherter Dateien, bessere Nachhaltigkeit von Dateiformaten, regelmäßige Migration von
Dateien in neuere Formate und anderes mehr sind unumgängliche Nothilfen, um digitale Daten zumindest für eine gewisse Zeit, sozusagen auf Sichtweite, verfügbar zu halten. Für bestimmte Kulturgüter
wie Filme, Bilder und Tonaufnahmen gibt es dazu auch keine erkennbare Alternative, weil für sie – anders als das Papier bei gedruckten Texten – keine analogen Speichermedien zur Verfügung sehen, die
für mehrere Jahrhunderte lesbar sein können. Es würde die Anstrengungen im Bereich der Archivierung digitaler Daten schon entlasten, wenn sie sich alleine auf solche audiovisuelle Dokumente
beschränken könnten.
Denn alles dies kostet Geld, sehr viel Geld, und dies führt zu den finanziellen Gründen, die einer wirklichen Langzeitsicherung digitaler Daten im Wege stehen. Nach Berechnungen des Schweizerischen
Bundesarchivs sind die Kosten für digitale Archivierung neunmal höher als die für analoge Aufbewahrung. Das lässt sich auf Bibliotheken übertragen: Ein gedrucktes Buch braucht zwar ein wenig
Stellplatz in einem Regal, ist aber ohne jede technische Hilfe lesbar, es benötigt weder Computer noch Datenmigration noch regelmäßig wechselnde Datenträger noch Techniker, die sich um all das
kümmern. Es braucht nicht einmal elektrischen Strom.
Auch die oft mit hohem moralischen Anspruch daher kommende „Open Access“-Bewegung in der Wissenschaft hat in monetärer Hinsicht ihre Unschuld längst verloren. Sie begann 2002 mit dem „Budapester
Appell“, in dem gefordert wurde, mit Hilfe des Internet alle wissenschaftlichen Publikationen allen Menschen kostenfrei zur Verfügung zu stellen. Aber solange irgendeine Infrastruktur gebraucht und
irgendeine Form von Arbeit verrichtet werden muss, gibt es kein wirklich kostenfreies Publizieren, erst recht dann nicht, wenn inhaltliche Qualitätskontrollen gewünscht sind. Inzwischen zeigt sich
daher, dass die Kosten der „Open Access“-Publikationen nur verlagert werden: einerseits auf die Autoren, von denen einschlägige Zeitschriften oftmals Kostenbeiträge im vierstelligen Bereich für die
Publikation eines Aufsatzes verlangen, andererseits auf die öffentliche Hand, der in Gestalt der Bibliotheken die Verantwortung für die nachhaltige Bereitstellung dieser Publikationen aufgebürdet
werden soll. Wenn die Bibliotheken dies eines Tages nicht mehr leisten können, und dieser Tag wird umso eher kommen, je mehr Publikationen ausschließlich in digitaler Form angeboten werden, wird sich
der „Open Access“ der Gegenwart zu einem „No Access“ für künftige Generationen verwandeln, weil die Langzeitarchivierung des wachsenden Bestands an digitalen Publikationen aus technischen wie aus
finanziellen Gründen nicht möglich sein wird.
Mancher wird einwenden, dass dies angesichts der explosionsartigen Zunahme der Zahl an wissenschaftlichen Publikation, die eine drittmittel- und indikatorengesteuerte Wissenschaftskultur nach sich
gezogen hat, auch nicht weiter zu bedauern ist, weil ein großer Teil dieser Arbeiten überspezialisiert ist, schnell veraltet und schon heute kaum Leser findet. Aber haben wir wirklich das Recht zu
entscheiden, was künftige Generationen aus unserer Wissenschaftskultur noch lesen dürfen und was nicht? Vielleicht werden ja eines Tages gerade die negativen Folgen einer Überproduktion an schnell
und im Wesentlichen für die Produktion von Leistungsindikatoren geschriebenen Texten ein interessantes Forschungsfeld für die Wissenschaftsgeschichte sein.
Lässt sich die Entwicklung zu einem dunklen Jahrhundert noch aufhalten? Skepsis ist angebracht, Resignation nicht. Vielleicht wird es in den Naturwissenschaften, deren wissenschaftliche
Publikationskultur weitgehend auf das digitale Format umgestellt ist, nicht mehr zu verhindern sein, dass die wissenschaftsgeschichtliche Forschung späterer Jahrhunderte die Wege und Irrwege der
naturwissenschaftlichen Forschung in unserer Zeit nicht mehr wird rekonstruieren können. In den Geisteswissenschaften, die bislang mit großer Beharrlichkeit am gedruckten Buch als Leitmedium der
Wissenschaften festhalten, sieht die Lage derzeit noch weniger düster aus. In jedem Fall aber sind die Institutionen, die für das kulturelle Gedächtnis besondere Verantwortung tragen, die
Bibliotheken, Archive und Museen, aufgefordert, aus der Rolle der Getriebenen herauszufinden und eine selbstbewusste Position gegenüber den Akteuren und Profiteuren einer fortschreitenden
Digitalisierung zu entwickeln.
Was dies konkret bedeuten könnte, soll am Beispiel der wissenschaftlichen Bibliotheken und des wissenschaftlichen Publizierens an wenigen Aspekten erläutert werden.
Original und Kopie: Digitale Medien sind gute Kopierer und Verbreiter, aber schlechte Originale. Die PDF-Datei eines Buches oder wissenschaftlichen Aufsatzes lässt sich schneller und
effektiver verbreiten als die gedruckte Version, aber sie lässt sich aus den genannten Gründen wesentlich schlechter oder gar nicht auf längere Sicht sichern und lesbar vorhalten. Es wäre sehr viel
gewonnen, wenn die Bibliotheken gegenüber den Anbietern auf dieser Differenz bestehen würden. Konkret könnte das bedeuten, wo immer möglich nur noch Lizenzen für solche digitale Publikationen zu
erwerben, von denen zumindest ein Printexemplar in zureichender Druck- und Papierqualität als Original mitgeliefert wird, und zugleich die langfristige Aufbewahrung auf dieses Original zu
beschränken. Die strategische Perspektive der Bibliotheken sollte hierbei sein: digital gerne, aus Gründen der Nutzerfreundlichkeit, aber print first. Jenen Verlagen und Fächern, deren Zeitschriften
alleine in digitaler Form vorliegen, sollte sehr klar signalisiert werden, dass die öffentlichen Bibliotheken für deren langfristige Archivierung und Lesbarkeit keine Verantwortung übernehmen können.
Gesetzliche Regulierungen wie Bibliotheksgesetze sollten entsprechend novelliert werden.
Kostenwahrheit und Kostenklarheit: Wenn eine Universitätsbibliothek ihren Studenten ein Buch oder einen Zeitschriftenartikel als PDF-Datei kostenfrei zur Verfügung stellt, ist das ohne Frage
bequem, nützlich und sinnvoll. Aber letzten Endes erspart die Bibliothek ihren Nutzern damit nur Zeit und Kopierkosten. Über den Preis dieses Service wird freilich nicht gesprochen; in der Regel
finden sich weder auf den Nutzerseiten der Bibliotheken noch auf den Homepages der Verlage dazu klare Angaben. Wenn etwa eine Bibliothek einen oder zwei Titel benötigt, der Verlag die digitalen
Dateien dieser Bücher aber nur in einem Paket mit mehren anderen anbietet (was häufig der Fall ist), dann können die gewünschten Campuslizenzen für zwei Bücher, die als Printexemplare zusammen
vielleicht 50 Euro kosten, leicht 5000 Euro betragen. Die Nutzer spüren davon nichts und werden in der Illusion gehalten, digitale Texte seien kostenfrei zu haben. Im Sinne der Kostenwahrheit und
-klarheit sollten Bibliotheken solche Kosten auf ihren Nutzerseiten veröffentlichen. Darüber hinaus sollten Gebührenmodelle geprüft werden, die die Bereitstellung einer digitalen Kopie anders als die
Ausleihe eines Printexemplars mit einem kleinen Kostenbeitrag versehen, der sich an den eingesparten Kopierkosten der Nutzer orientiert und den Bibliotheken zumindest ein wenig hilft, die Mehrkosten
in Folge der Digitalisierung zu kompensieren. Die Bibliotheken sollten sich auch damit dem Druck von Verlagen und Nutzern widersetzen, immer höhere Anteile ihrer Budgets für digitale Publikationen zu
investieren, deren Folgekosten unter dem Aspekt der Langzeitarchivierung unabsehbar sind.
Kein Zwang zu Open Access: Dass Open Access nur die Kosten für digitales Publizieren von den Nutzern auf die Autoren und die Bibliotheken verlagert, wurde schon gesagt. Die Verlage, gegen
deren Marktmacht sich die Open Access-Bewegung richtete, haben sich mit diesem Trend arrangiert und daraus lukrative Geschäftsmodelle entwickelt, die Michael Hagner jetzt in seiner Schrift „Zur Sache
des Buches“ in aller Gründlichkeit analysiert hat. Es gibt unter dem Aspekt, dass digitale Medien gute Verbreiter sind, Argumente für das Recht der Autoren auf kostenfreie digitale Zweitverwertung
ihrer Publikationen in angemessenem Abstand zum Erscheinungszeitpunkt, wie es das deutsche Urheberrecht seit 2014 auch vorsieht. Aber dem mehr oder weniger subtilen oder massiven Druck, den manche
Akteure aus der Forschungsförderung und der Politik auf Wissenschaftler ausüben, um sie zum Open Access-Publizieren zu zwingen, muss entschlossener Widerstand entgegengesetzt werden. Glücklicherweise
ist ein Versuch Baden-Württembergs im Jahr 2013, Hochschullehrer zu Open-Access-Publikationen zu verpflichten, an zahlreichen Protesten gescheitert. Aber es wird nicht der letzte Versuch dieser Art
gewesen sein. Hier geht es nicht nur um die Nachhaltigkeit des digitalen Publizierens, hier geht es auch um die Freiheit der Wissenschaft, die manche um einer nur halb durchdachten Mode willen opfern
wollen.
Die eingangs erwähnte virtuelle Ausstellung ist schon heute, wenige Jahre nach ihrer Publikation, von vielen neueren Computern nicht mehr lesbar. Hätten wir 2007 die nicht unerheblichen Mittel für
dieses Projekt in den Druck einer hochwertig gestalteten Dokumentation in Buchform investiert, könnte diese sehr wahrscheinlich auch zum 500jährigen Jubiläum der Gießener Universität noch gelesen
werden. Mit einer virtuellen Ausstellung auf CD-ROM wird dann wohl niemand mehr etwas anfangen können.