Wie lassen sich digitale Daten so konservieren, dass sie auch in Dutzenden oder sogar Hunderten von Jahren noch problemlos gelesen und verstanden werden? Diese Frage treibt zurzeit Archivare in der ganzen Welt um – und bereitet nicht wenigen von ihnen schlaflose Nächte. Denn eine Patentlösung für die Langzeitarchivierung digitaler Daten gibt es noch nicht.

Migration: Konvertieren bis in alle Ewigkeit
Bisher bleibt den großen Archiven meist nur eine Möglichkeit: Ihre Datenbestände ständig zu kontrollieren, umzukopieren und auf den neuesten Stand zu bringen – im Wettlauf mit der Zeit und den Fortschritten der Technik. Die Informationen müssen dabei von veralteten Dateiformaten oder Betriebssystemen regelmäßig auf die jeweils aktuellen Programme und Formate konvertiert werden.
Diese Datenmigration hat den Vorteil, dass die Informationen mit der jeweils gängigen Hard- und Software lesbar bleiben. Nachteil ist jedoch, dass dieses Konvertieren angesichts der oft hunderttausenden Dateien in großen Archiven selbst mit automatisierten Routinen enorm aufwändig ist. Das kann dazu führen, dass Archive nur noch Teile ihrer Bestände auf diese Weise pflegen – der Rest geht im Laufe der Zeit verloren.
Hinzu kommt, dass bei jedem Kopiervorgang Fehler passieren können. Daher sind aufwändige Kontrollprozeduren nötig, um die Lesbarkeit der Kopien zu garantieren. Beim Getty-Bildarchiv wird dafür beispielsweise automatisch die Bitmenge jeder Datei, die sogenannte „Checksum“ erfasst und verglichen. Erst wenn beide übersteinstimmen und damit garantiert ist, dass Original und Kopie bis ins letzte Bit übereinstimmen, wird die alte Version gelöscht.