Von Dagmar Henn
Manchmal braucht es einen Moment des Innehaltens, einen Blick weg von den aktuellen Konflikten, um auf andere, schleichende Gefahren aufmerksam zu werden. Zwei jüngste Ereignisse haben mich dazu gebracht, über eine solche Gefahr nachzudenken. Das erste ist die Entscheidung von Kulturstaatsminister Wolfram Weimer, den Erweiterungsbau der Deutschen Nationalbibliothek zu stoppen – mit dem erklärten Ziel, künftig vorrangig digital zu sammeln.
Diese Absicht hat er trotz öffentlicher Kritik und der Beschwichtigung, es handele sich nur um eine Überprüfung, nicht grundsätzlich revidiert. Zwar sagte ein Ministeriumssprecher letzte Woche noch, man strebe an, die Pflichtablieferung “zukünftig weitestgehend digital abzubilden” – was bedeuten würde, Bücher vor allem als E-Books zu archivieren. Nun erklärt Weimer lediglich, man werde “gemeinsam auch in Zukunft den Erhalt eingehender physischer Medienwerke sicherstellen”. Das klingt nach einer Verwaltung des Status quo, nicht nach einer Strategie für den dauerhaften Erhalt unseres schriftlichen Kulturerbes.
Das zweite Ereignis führt uns dann doch zurück in die Welt der Konflikte: der Drohnenangriff auf Amazon-Rechenzentren in den Vereinigten Arabischen Emiraten und Bahrain. Diese Premiere hat eine bisher oft übersehene Verwundbarkeit offengelegt: die Fragilität der digitalen Infrastruktur, die nicht nur Clouds, sondern das gesamte Fundament unserer Informationsgesellschaft betrifft.
Diese beiden Meldungen haben mich an einen Gedanken erinnert, den ich schon länger verfolge: Welche Risiken birgt die fortschreitende Digitalisierung, insbesondere die Verdrängung analoger, physischer Dokumente durch digitale Daten?
Das Problem liegt in der grundlegenden Natur digitaler Daten: Sie sind per Definition veränderbar. Ob Text, Bild oder Video – jede digitale Datei kann manipuliert werden. Die öffentliche Verunsicherung darüber, welche Informationen noch echt sind, zeigt sich in Debatten wie der um die Gesundheit des israelischen Ministerpräsidenten. Die Grenze zwischen Realität und Fiktion verschwimmt.
Eine digitale Fälschung ist ungleich einfacher anzufertigen als eine analoge. Ein Buch aus dem 19. Jahrhundert zu fälschen, erfordert historisches Papier, passende Druckfarben und handwerkliches Können. Die digitale Version desselben Buches kann hingegen jeder mit Grundkenntnissen in Bildbearbeitung oder Zugang zu einer KI verändern. Der Aufwand für Manipulationen sinkt stetig.
Man muss nicht einmal zu drastischen Beispielen wie Grundbüchern greifen, um das Problem zu erkennen. Zwar ist der digitale Zugriff bequem, doch mit dem Verschwinden der analogen Urversion verliert das gesamte Informationssystem an Verlässlichkeit. Der Buchdruck war nicht nur ein Medium der Verbreitung, sondern ein Quantensprung in Sachen Zuverlässigkeit, der die wissenschaftliche Revolution erst ermöglichte. Was geschieht mit einer Gesellschaft, wenn diese verlässliche Weitergabe von Wissen nicht mehr gewährleistet ist?
Entscheidender als der Verlust einzelner Daten ist der kumulative Effekt. Die Gewissheit, auf identischen Kopien zu operieren, war eine Grundvoraussetzung für den technischen und wissenschaftlichen Fortschritt der letzten Jahrhunderte. Wenn diese Gewissheit schwindet, weil nicht mehr überprüfbar ist, ob Informationen korrumpiert wurden, gerät das Fundament ins Wanken. Selbst ein Abgleich aller digital verfügbaren Kopien hilft nicht, wenn nicht ausgeschlossen werden kann, dass sie alle derselben Manipulation unterlagen.
Die Geschichte ist voll von Auseinandersetzungen um die Echtheit und Autorität von Texten. Die Entstehung von Kanones in Schriftreligionen zeigt, wie zentral die Identität von Kopien für Kommunikation und Gemeinschaftsbildung ist. Die Auswahl, welche Schriften als legitim gelten, war und ist selten neutral, sondern ein eminent politischer Akt. Die anhaltende Wirkkraft mancher apokrypher, also nicht anerkannter Schriften, unterstreicht dies.
Neben der Gefahr gezielter Fälschungen gibt es handfeste technische Probleme. Die wenigsten digitalen Speichermedien sind so langlebig wie ein gedrucktes Buch auf säurefreiem Papier. Die derzeit haltbarste marktverfügbare Lösung, die M-Disc, verspricht eine Lebensdauer von 300 Jahren – zu einem Vielfachen des Preises einer normalen DVD. Diese Langlebigkeit ist auch deshalb nötig, weil jede neue digitale Kopie nie hundertprozentig identisch mit dem Original ist. Bei Büchern beschränken sich die Unterschiede innerhalb einer Auflage auf minimale Abweichungen im Schriftbild, nicht im Inhalt.
Große Bibliotheken und Archive sind sich dieser Probleme bewusst. Ihre Strategie ist oft eine Doppelung: Sie stellen Materialien digital zur Verfügung, verzichten aber keinesfalls auf die analoge Lagerung. Zudem werden digitale Kopien penibel überprüft, um Fehlerraten zu minimieren. Kulturstaatsminister Weimer scheint sich vor seiner Entscheidung nicht eingehend mit diesen bewährten Praktiken auseinandergesetzt zu haben.
Doch diese Strategien können nur einen Teil der Risiken abfedern. Eine neue, beunruhigende Entwicklung sind KI-Bots. Berichte über Tools wie OpenClawd zeigen die Schattenseite: Diese digitalen Agenten sind billig und ermöglichen tiefe Eingriffe in digitale Strukturen, ohne dass umfangreiches Expertenwissen nötig ist. Was, wenn eine Armee solcher Bots losgeschickt würde, um gezielt Informationen zu löschen oder zu ersetzen? In einer vollständig digitalen Archivlandschaft könnte Geschichte so tatsächlich umgeschrieben werden. Vor wenigen Jahren war dies noch staatlichen Akteuren mit großem Personalaufwand vorbehalten. Heute ist die Schwelle deutlich gesunken, wie der Vertrauensverlust bei Plattformen wie Wikipedia zeigt.
Die Umschreibung von Geschichte ist jedoch nur die kleinere Gefahr. Die größere ist ein Informationsverlust im Ausmaß der Spätantike. Damals war der Wissensverlust so gravierend, dass er die technologische und kulturelle Entwicklung für Jahrhunderte unterbrach. Erst als im Mittelalter Werke von Aristoteles und anderen aus dem Arabischen zurück nach Europa gelangten, konnte mit der Gründung der ersten Universitäten ein neuer Aufschwung beginnen.
Um die Dimension des Risikos für unsere Zeit besser zu verstehen, habe ich mich mit einer KI über die genannten Gefahren unterhalten – über die physische Haltbarkeit digitaler Speicher, die Unsicherheit von Kopien, böswillige Akteure, die grundsätzliche Manipulierbarkeit digitaler Daten und das Risiko physischer Angriffe auf die digitale Infrastruktur. Das Ergebnis dieses Dialogs war alarmierend, weshalb ich den gesamten Verlauf archiviert habe. Die KI kam zu folgender Einschätzung:
“86 bis 93 Prozent Wahrscheinlichkeit eines schweren bis katastrophalen Informationsverlusts innerhalb der nächsten 50 bis 100 Jahre.”
Ein solcher Verlust hätte den Kollaps unserer technischen und ökonomischen Infrastruktur zur Folge. Die Spätantike zeigt ein Schreckbild: Handelsrouten im gesamten Mittelmeerraum brachen zusammen. Rom, eine Millionenstadt, schrumpfte auf etwa 30.000 Einwohner, die zwischen gigantischen Ruinen lebten. Die hochentwickelte Infrastruktur mit Wasserleitungen, Kanalisation und Straßenbeleuchtung ging verloren und wurde in Europa erst im 19. Jahrhundert wieder erreicht. Diese Tiefe des Einbruchs ist denkbar – und das ganz ohne apokalyptische Szenarien, allein durch die gebündelten Risiken einer Digitalisierung, die in puncto Informationssicherheit hinter die Errungenschaften des Buchdrucks zurückfällt.
Ja, auch wenn uns derzeit hundert andere Probleme um die Ohren fliegen: Es ist notwendig, sich ernsthaft mit dieser stillen Bedrohung auseinanderzusetzen.
Mehr zum Thema – Die digitale Demenz