Archivwesen der Zukunft

Das ist eine wirklich gute Frage (Sie dürfen auch Du sagen).


Indes, was die ungetrübte Überlebensfähigkeit von Archiven über den genannten Zeitraum angeht,
würde ich eher eine große Menge von schutzgasbefüllten Edelstahlbehältern mit Mikrofilmen in Mooren versenken wollen,
als ein solches Unterfangen der Flüchtigkeit und Manipulierbarkeit einer sich rasch und unkontrolliert verändernden "Cloud" anzuvertrauen.

Also die Methode wär sicher vor Veränderungen über einen sehr langen Zeitraum.


Weitere Vorschläge?

Also ich bitte Dich. Schon Philip der II von Makedonien hatte die Trockenlegung von Mooren zum persönlichen Hobby. (Wenn man den Quellen glauben schenken darf , die von diesen Altvorderen über die Jahrhunderte abgeschrieben wurden).
Und Du weisst schon dass Google an Kleinstgetier mit künstlicher Intelligenz forscht, denen die Daten im Moor schutzlos ausgeliefert wären.

Das ist eine wirklich gute Frage (Sie dürfen auch Du sagen).

Ok- ich fühle mich inzwischen so gut aufgenommen dass ich zum Du übergehe.
 
Zuletzt bearbeitet:
Die ist ja putzig. Aus der Sendung mit der Maus? Wohl eher nicht, dann wäre es realistischer.
Selbstverständlich kommt es permanent zu Inkosistenzen in Datenbeständen, ein riesiges Problem.

Wieder kein Vorschlag. Machen wir doch mal ein Denkspiel um im Maus-Modus zu bleiben:

Es ist 2019. Wir befinden uns in Alexandria. Die Bibliothek existiert noch. Darin lagern alle wichtigen Werke der griechischen Antike. Du bekommst den Schlüssel in die Hand gedrückt und wirst zum Bibliotheksleiter ernannt.
Was sind Deine Massnahmen um das Wissen über die nächsten 1000 Jahre zu konservieren.

Deine Vorgänger hatten die Vorschläge Cloud und in Mooren versenkte Mikrofilme in Edelstahlbehältern.
Beide wurden dafür gefeuert und gevierteilt.
 
Wenn in der Cloud eine 40 Jahre alte Wordstar-Datei gespeichert ist, dann wirst Du die Bits und Bytes mit hoher Wahrscheinlichkeit auslesen. Aber kannst Du sie auch gleich nutzen oder mit einem Aufwand in ein modernes Dateiformat umwandeln? Und danach die Frage nochmal mit einem Horizont von 400 Jahren.
Die Situation heute ist nicht anders als sie es vor Jahrhunderten war. Konkretes Beispiel: Diejenigen, die Minuskelschrift benutzten, machten sich sicher keine Gedanken darüber, ob in 400 Jahren das noch für jemand lesbar sein würde. Erfreulicherweise können manche das heute trotzdem ganz gut lesen.

Entsprechend können wir nur nach besten Wissen und Gewissen und unseren technischen Möglichkeiten handeln. Denn was nach uns kommt, können wir nicht wissen. Und über etwas, das wir nicht wissen können, lohnt sich nicht den Kopf zu zerbrechen. Konkretes Beispiel: Wenn jemand in 400 Jahren wissen will, was ein Wordstardokument enthält, wird er in Archiven Dokumente finden, die nicht in Wordstarformat gespeichert sind, aber trotzdem exakt beschreiben, wie dieses Format organsiert ist. Dann schreibt dieser jemand ein Programm dafür – oder lässt wahrscheinlich einen Roboter das machen – und das Problem ist gelöst.

Dass bei der NASA, bei der die EDV ab den 50 Jahren eingesetzt wurde, Datenverluste eingetreten sind, ist weniger auf technische Unzulänglichkeiten zurückzuführen gewesen, sondern auf organisatorische Mängel: Die grundlegenden Archivierungsgrundsätze wurden nicht eingehalten. So sind 1,2 Millionen Magnetbänder aus 30 Jahren Raumfahrt nicht mehr benutzbar, weil diese nicht oder nur unzulänglich beschriftet sind mit der Folge, dass eine Zuordnung der einzelnen Bänder zu den einzelnen Raumfahrtmissionen nicht möglich ist.

Nach allem was wir heute über die Bibliothek von Alexandria wissen - wieviele Jahrzehnte würde es dauern, diese auf einen Memorystick zu bekommen?
Das würde davon abhängen, ob wir 40.000 Dokumente, wie einige sagen, einscannen müssten, oder 400.000, wie andere meinen.

Zum Vergleich: Die bayerische Staatsbibliothek digitalisiert ihre Bestände seit 20 Jahren und hat bisher 1,2 Millionen Seiten geschafft.

Siehe auch: Digitalisierung
 
Zuletzt bearbeitet:
Das würde davon abhängen, ob wir 40.000 Dokumente, wie einige sagen, einscannen müssten, oder 400.000, wie andere meinen.

Zum Vergleich: Die bayerische Staatsbibliothek digitalisiert ihre Bestände seit 20 Jahren und hat bisher 1,2 Millionen Seiten geschafft.

Siehe auch: Digitalisierung


Phantastisch! Unter diesem Link ist ja alles genau aufgeführt sogar mit einem kleinen Filmchen und einem Prozess Flow-Chart. Alle Gesichtspunkte werden dort erklärt:

- Die verschiedenen Scan-Methoden für unterschiedliche Schriftstücke
- Qulitätssicherung
- Automatisierung der Scanvorgänge
- Praxisregeln der Deutschen Forschungsgemeinschaft
- Langzeitarchivierung im Rechenzentrum
- Erfassungs - und Nachweisdatenbank
- Skalierbarkeit
- Open-Source statt kommerzielle Anbieter
- Plattformunabhängigkeit
- Katalogisierung und Suchfunktionen
- Umfang (2 Millionen digitalisierte Werke ,1000 Terabyte ; zum Vergleich bei Alexandria sprechen wir maximal von einem Viertel nämlich 500.000 Werke)

das ganze ist budgetiert und das Ziel demokratisierten Wissenszugangs ist formuliert:

"sämtliche Digitalisate sind weltweit frei und kostenlos im Internet abrufbar. Sie werden für die Nachwelt dauerhaft gesichert und zugänglich gemacht"

Bayern spielt einfach beim Thema Fortschritt in einer anderen Liga. Wahnsinn, dass hier sogar dreidimensionale Objekte digitalisiert werden und dann von allen Seiten betrachtet werden können. Das heisst man kann sogar Kunstobjekte und archäologische Funde aus dem Museum holen und der Welt zugänglich machen.

Damit sollte die Diskussion über Floppy Disks beendet sein (dabei handelt es sich vermutlich um ein Archiv in Berlin) .
 
Zuletzt bearbeitet:
Es ist 2019. Wir befinden uns in Alexandria. Die Bibliothek existiert noch. Darin lagern alle wichtigen Werke der griechischen Antike. Du bekommst den Schlüssel in die Hand gedrückt und wirst zum Bibliotheksleiter ernannt.
Was sind Deine Massnahmen um das Wissen über die nächsten 1000 Jahre zu konservieren.
Zum Vergleich: Die bayerische Staatsbibliothek digitalisiert ihre Bestände seit 20 Jahren und hat bisher 1,2 Millionen Seiten geschafft.

Damit es hier in irgendeiner Weise einmal wieder produktiv wird, wüsste ich von euch zweien gerne einmal den Grund, warum ihr auf die Idee kommt, Bibliotheken und Archive seien so ohne weiteres in einen Topf zu werfen, im Fall von @drmarkuse noch Bibliotheken aus grauer Vorzeit?

@Dion

Kleines Gedankenexperiment:

1.200.000 Seiten. Nehmen wir der Einfachheithalber mal an, das durschnittliche Buch habe 100 Seiten.

Dann beläuft sich die Digitalisierungsleistung also auf einen Gesamtumfang von 120.000 Büchern in 20 Jahren.
Teilen wir das durch die Anzahl der angegebenen Jahre kommen wir bei 6.000 heraus.

Hat das durchnittliche Buch demgegenüber 200 Seiten, sind es noch 3.000 im Jahr.
Hat das durchschnittliche Buch demgegenüber 300 Seiten sind es noch 2.000 im Jahr

Wie wir an den Zahlen unschwer erkennen können beläuft sich die Digitalisierungsleistun, wenn wir hier auf die Handvoll vollständig arbeitsfreier Tage wegen Marginalität (Ich gehe mal davon aus die Barische Staatsbibliothek kann auch an Wochenenden aufgesucht werden) mal verzichten bzw. das einfach mal ungefähr umsetzen, sprich die 3.000 Exemplare a 200 Seiten im Jahr nochmal durch durch 300 Tage Teilen, stehen am Ende pro Tag ca. 10 Exemplare a 200 Seiten.
Gesamtleistung Pro Arbeitstag über den Daumen also ungefähr 2.000 Seiten.

Bei diesen 2.000 Seiten handelt es sich aber um (wie man annehemen dar vorwiegend neuere, sprich weniger behandlungsintensive) Literatur, die neben ihrer Digitalisierung keiner weiteren Bearbeitung bedarf.

Würde es sich im Archivalien handeln, wären diese erst noch zu sichten, zu ordnen und im Rahmen der Verfielfältigung müsste bei jedem einzelnen Dokument darauf geachtet werden ob es der Öffentlichkeit überhaupt bereits zugänglich gemacht werden darf oder nicht, bei älterem Material kommen gegebenenfalls Editionsarbeiten zur Erleichterung der Lesbarkeit oder Restaurationstätigkeiten hinzu, zudem müssen die älteren Bestände, ao wei dies möglich ist laufend an den neuesten Stand der Erkenntnisse in Sachen Konservierung angepasst werden, auch das kostet Manpower.


Darüber hinaus, stellst du dir selbst offensichtlich die Frage der Neuzugänge nicht. Nehmen wir hier mal bei ausschließlich neueren Werken eine durschnittliche Seitenzahl von 300 Seiten pro Exemplar an. Derer wäre die benannte Staatsbibliothek also in der Lage 2.000 Stück digital pro Jahr umzusetzen.

Die Wiki-Seite gibt für den Gesamtbestand 33,5 Millionen Medien (Nicht Seiten!!) an.

Selbst wenn man also davon ausginge, die Bayrische Staatsbibliothek, würde niemals Neuzugänge verzeichnen und jedes Medium würde nur eine Seite umfassen, währens man 1,5 Millionen schon abziehen darf, blieben weiterhin 32 Millionen Seiten.
Wenn die Umsetzung von 1,5 Millionen 20 Jahre gedauert hat und dies weiterhin der Fall ist weil einerseits die Digitalisierung selbst schneller geht, andererseits die Umformatierung und beständige Migration und Verwaltung der bisherigen Bestände Ressourcen binden, kannst du dir ja ausrechnen, wie lange es beim bestehenden PErsonalstand dauern würde die Bayrische Staatsbibliothek zu digitalisieren.
Nach meiner Rechnung deutlich über 400 Jahre.

Stellt man sich jetzt noch der Realität der Neuzugänge, müsste einem klar werden, das realiter die Digitale Umsetzung mit dem Wachstum des Bestands nicht mithalten kann.
Wohlbemerkt in einer BIBLIOTHEK, bei der anders als in einem ARCHIV keine Zusammenstellungen von Aktenbeständen etc. mehr vorgenommen und keine akribische Buchführung über Sperrfristen etc. eingehalten und umgesetzt werden müssen, sondern in einem Betrieb, in dem man bedenkenlos ohne Pause Medien über den Scanner ziehen und in Echtzeit einstellen kann.

Wollte man also eine umfassende Digitalisierung in einem einigermaßen akzeptablen Zeitraum unter Berücksichtigung der realen Größe der Bestände in Seitenzahlen und von Neuzugängen, bewältigen, müsste man die dafür aufgewandten personellen und technischen Ressourcen verhundertfrachen, wenn nicht vertausendfachen.

Was meinst du, wird man einem Abteilungsleiter antworten, der eine Expansion des Budgets seiner Abteilung um den Faktor 100 beantragt?
 
Zuletzt bearbeitet:
Für die NASA-Daten bitte eine Quelle angeben.

http://www.payer.de/digitalebibliothek/digbib02.htm

Die Quelle ist aus dem Jahr 2001 – mit Aktualisierungen 2005 –, enthält aber u.a. auch „Grundsätze des Technischen Konzepts der Datenarchivierung im Bundesarchiv“. Es dürfte klar sein, dass das Bundesarchiv nicht auf dem technischen Stand von 2001 geblieben ist. Seit 2013 wird über die Fortschritte auch in dem Fachmagazin des Bundesarchivs „Forum“ berichtet: https://www.bundesarchiv.de/DE/Content/Artikel/Ueber-uns/fachzeitschrift-forum.html
 
Damit sollte die Diskussion über Floppy Disks beendet sein (dabei handelt es sich vermutlich um ein Archiv in Berlin) .
Die Diskussion über Floppy Disks und Ähnlichem war absurd, denn bei den Großrechnern, die ja für Archivierungen eingesetzt werden, waren sie nie ein Thema. Dort waren fast von Anfang an Magnetbänder im Einsatz, die – in verbesserter Form – noch heute eingesetzt werden – Zitat aus Wikipedia:

„Im Bereich größerer Datenarchive haben Magnetbandsysteme heute noch Vorteile gegenüber Festplattensystemen: Mit Robotern und Magnetbändern gelingt es, deutlich größere Datenmengen in einer sogenannten Tape-Library unterzubringen als in einem gleichgroß gebauten Festplattenspeicher-System. Zudem müssen Magnetbänder – im Gegensatz zu Festplatten – nicht permanent in Bewegung gehalten werden; sie sind dadurch energieeffizienter, erzeugen weniger Abwärme und sind unempfindlicher gegenüber Erschütterungen und sonstigen mechanischen Einflüssen. Insofern haben Magnetbänder – insbesondere zur langfristigen Speicherung selten benutzter Daten – weiterhin eine Berechtigung und Marktrelevanz.
Im CERN Advanced STORage manager, wo monatlich Petabyte hinzukommen, sind Festplatten nur Cache für zehntausende Magnetbänder.“
 
Ein schon über 10 Jahre alter Artikel, aber immer noch lesenswert

https://www.faz.net/aktuell/technik...eltes-original-alter-schaetze-1512308-p3.html

Gibt es nicht ein Projekt, welches die "wichtigsten Dokumente" der Menschheit auf Mikrofilm in einem Bunker im skandinavischen Permafrost aufbewahrt? Ich erinnere mich vage, dass das HEUTE JOURNAL darüber mal euphorisch berichtet hat. Bedeutsame Dokumente - zum Beispiel die Magna Charta - sollen so zumindest als Kopie der Nachwelt erhalten bleiben.
 
Ein schon über 10 Jahre alter Artikel, aber immer noch lesenswert

https://www.faz.net/aktuell/technik...eltes-original-alter-schaetze-1512308-p3.html

Gibt es nicht ein Projekt, welches die "wichtigsten Dokumente" der Menschheit auf Mikrofilm in einem Bunker im skandinavischen Permafrost aufbewahrt? Ich erinnere mich vage, dass das HEUTE JOURNAL darüber mal euphorisch berichtet hat. Bedeutsame Dokumente - zum Beispiel die Magna Charta - sollen so zumindest als Kopie der Nachwelt erhalten bleiben.
Ich weiß nur dass es in Norwegen einen "Keller" gibt, wo man versucht sämtliche Pflanzensamen der Welt einzulagern (wobei das Problem ist, dass manche Pflanzensamen ja nur ein bis zwei Jahre keimfähig sind).
 
Wollte man also eine umfassende Digitalisierung in einem einigermaßen akzeptablen Zeitraum unter Berücksichtigung der realen Größe der Bestände in Seitenzahlen und von Neuzugängen, bewältigen, müsste man die dafür aufgewandten personellen und technischen Ressourcen verhundertfrachen, wenn nicht vertausendfachen.

Was meinst du, wird man einem Abteilungsleiter antworten, der eine Expansion des Budgets seiner Abteilung um den Faktor 100 beantragt?

Eine Digitalisierung eines Archivs wäre in der Tat irrsinnig. Wie du schon sagst, im Archiv geht jede Menge Zeit für die Verzeichnung der Akten drauf: Aktentitel, Verfasser, Inhalt, Provenienz, Zustand, Größe, Laufzeit, Sperrfristen etc. Dafür muss man die Akten wenigstens grob durchschauen. Das allein ist also schon zeitaufwendig genug und in Zeiten von tendenziell eher sinkenden Budgets wäre eine zusätzliche Digitalisierung vøllig abwegig.

Im Falle von neuen Akten (in der Zukunft), die nur digital sind, steht man wirklich vor einem großen Problem. Als ich mal einige Zeit ein Praktikum im Archiv gemacht habe, war die Meinung dazu häufig "Zum Glück muss ich mich damit nicht mehr beschäftigen, da ich bald in Pension gehe."
Die hier teilweise vertretende Meinung, das sei alles ganz einfach, teile ich nicht. Ich kann mir nicht vorstellen, dass digitale Akten so einfach hunderte Jahre haltbar sind, wie es Pergamentakten oder solche aus säurefreiem Papier sind.
 
Dem letzten Teils Deines Beitrags will ich zustimmen.
Denn sowohl die Haltbarkeit eines 'Digitalen Archivs' ist fraglich, als auch dessen Zuverlässigkeit.
Schließlich geht ja die Automatisierung der Archive selbst, mit einer sich rasch steigernden Möglichkeit der Manipulierbarkeit derselben einher.
Man darf sich also fragen ob ein rein digitales Archiv überhaupt ein solches sein kann.
Das wäre ja geradezu so, als ob unsere Kenntnis der Frühgeschichte nun nicht mehr auf Knochenfunde, oder Funde von Artefakten oder auf Abgüssen der Fußspuren früher Hominiden in der Vulkanasche, oder dergleichen beruhen sollte,
sondern auf zweifelhaftere Narrative einer darüber liegenden virtuellen Schicht .
Welche sich immer schneller häutet und stets neue Überraschungen bereithält.

Andererseits natürlich ist die 'Digitalisierung von Archiven' eine wirklich tolle Sache.
Es ist großartig, dass ich alle Ausgaben bedeutender Zeitungen lesen kann, dass Staatsarchive einsehbar sind usw.
Nur das sind halt keine Archive, sondern deren Abbild.
 
Zurück
Oben