Im Einführungsreferat zeichnet Martin Kaiser den Weg vom Archiv mit Zettelkatalog und Magazin zum Archivinformationssystem bzw. Bibliotheksverwaltungssystem mit digitalem Magazin und Repository auf Speichermedien bzw. immer häufiger virtualisiert in Cloud-Speichern. Zur häufig kritisch diskutieren Datensicherheit meint Kaiser, dass Datenverlust meistens menschlich verschuldet sind, weshalb grundsätzlich die Sicherheit mit der Grösse und Professionalität des Speicherbetreibers steigt. Andere Risiken wie Fusionen, Konkurse oder Aufgabe von Dienstleistungen bleiben aber bestehen. Die Archivierung von digitalen AV-Dokumenten unterscheiden sich von anderen Medien durch die grossen Datenmengen, was einen Einfluss auf die Speicherkosten und auf die Geschwindigkeit der Integration in den Datenspeicher hat.
In der Diskussion erklärt Kaiser den Unterschied zwischen Backup und Repository: Das Repository bildet eine zusätzliche Schicht über dem Datenspeicher und verwendet zusätzliche Metadaten, welche die Prüfung der Integrität der Daten erlauben. Es wird ein bestimmter Zustand eingefroren. Die Datensicherheit wird über Spieglungen erreicht. Das Backup dagegen kann Arbeits-Prozesse (verlorene, gelöschte Dateien) rekonstruieren, wobei häufig nur die Veränderungen gespeichert werden (sog. inkrementelles Speichern).
Die anschliessenden sechs Kurzpräsentationen von Repository-Lösungen aus ganz unterschiedlichen Institutionen legten den Fokus auf die Funktionsweise der Applikation und die besonderen Herausforderungen für die Archivierung von AV-Daten.
Jean-Yves Le Meur stellt die Lösung des CERN mit Archivematica vor, die in vielerlei Hinsicht noch experimentell ist. Im Unterschied zu «normalen» Gedächtnisinstitutionen ist das CERN das Handling von grossen (Forschungs-)Datenmengen gewöhnt. Daneben archiviert das CERN aber auch Kulturgut-Daten in einem Speichersystem, das im Moment noch auf bit-stream-Preservation beschränkt ist, bald aber OAIS-zertifiziert werden soll. Das CERN verwendet Invenio als Repository und Archivematica für die Verwaltung des Archivspeichers. Zur Verbindung der beiden wurden eigene Elemente entwickelt. Auch für das CERN ist die Herstellung von AIPs mit grossen AV-Datenmengen nach OAIS eine noch zu meisternde Herausforderung.
Rolf Lang vom Landesarchiv Baden-Württemberg stellte die Eigenentwicklung DIMAG (Digitales Magazin), die ab 2006 aufgrund fehlender Lösungen auf dem Markt entwickelt wurde. Die modularen Elemente von DIMAG kombinieren Storage, Ingest, Web Crawler, Präsentation, Erhaltung etc. Das DIMAG Kernmodul, das auf flexibel anpassbaren Elementen aufbaut, bildet die Archivtektonik ab (ähnlich der Weboberfläche von Scope). Bei der Entwicklung von DIMAG wurde darauf geachtet, Primär- und Metadaten von archivwürdigen Dokumenten gleichermassen zu berücksichtigen. Das Produkt wird auch ausser Haus vertrieben. Als Schwächen bezeichnet Lang die 32-bit-Orientierung, die Einsprachigkeit und v.a. die beschränkte «Mandantenfähigkeit», die in Zukunft aber noch verbessert werden soll.
Tobias Wildi, Miteigentümer der Firma Docuteam und Archivar der Stadt Baden zeigt die Funktionsweise des Produktes Docuteam Cosmos, das aus denselben Gründen wie DIMAG entwickelt wurde. Als erstes digitales Stadtarchiv der Schweiz nahm Baden das System 2011 in Betrieb und migrierte es 2016 in eine Cloud. Die Entwicklung fokussiert auf grösstmögliche Automatisierung und legt besonderen Wert auf Programmierschnittstellen. Die Software hat Ingest-Workflows für unterschiedlichen Quellen/Arten der Ablieferungen vorkonfiguriert. Als Katalog wird ein eigenes AIS (Archivinformationssystem), aber auch AtoM mit Webclient angeboten. In «Cockpit» werden verfügbaren Speicher, Dateiinformationen überwacht, um «preservation planning» machen zu können. Für den Cloudspeicher wird SWITCHenginges genutzt, das komplett in der Schweiz liegt, langfristige Verträge und ein interessantes Preismodell anbietet. Wildi beurteilt den Stand der Entwicklung positiv, da das Produkt sehr früh und praxisnah mit Fokus auf Standardisierung und Automatisierung entwickelt werden konnte.
Franziska Geisser präsentiert die Repository-Lösung Rosetta der ETH-Bibliothek. Sie wird seit 2012 im «ETH Data Archive» eingesetzt und archiviert im Moment ca. 160TB Daten, darunter viele Bilddateien in TIFF- und Videodateien in MKV/FFv1. Die Lösung ist vollständig OAIS-compliant, nutzt aber z.T. andere Begriffe, da mit dem Metadatenstandard PREMIS gearbeitet wird. Aus Kapazitätsgründen kann das Preservation Planning (Erzeugen einer neuen Version) nur für wenige definierte Formate geleistet werden, der Rest wird im Originalformat als Bit Stream abgelegt. Geisser betont, dass eine gute Vor- und Aufbereitung der Daten vor dem Ingest darüber entscheidet, was die Archivierung später leisten kann.
Hedi Bruggisser vom Staatsarchiv Thurgau stellt die Lösung Scope OAIS vor, die in Frauenfeld gerade eingeführt wird. Der Entscheid für dieses Produkt hängt mit dem Wunsch nach Kompatibilität zum Scope-Archivinformationssystem zusammen, das seit langem im Gebrauch ist. Die Verwaltung des Kantons stellt aktuell auf die elektronische Aktenführung mit dem Produkt Fabasoft um. Für den Ingest in das digitale Archiv nutzt das Staatsarchiv Thurgau die archivischen Ablieferungsschnittstelle eCH-0160.
Zum Abschluss präsentiert Andreas Christe die Lösung des Schweizerische Bundesarchivs. Seit 2009 arbeitet das BAR mit Preservica (2015 in der 2. Version). Katalog und Repository sind nicht integriert und werden manuell verbunden. Das Standardprodukt der Applikation wurde den Bedürfnissen des BAR angepasst; eine Kontrolle der Daten vor dem Ingest ist. Für den Zugang wird ein anderes Produkt verwendet. Das BAR arbeitet mit 6–7 Jahre alten Workflows und Best Practices, da bisher keine Zeit für Anpassungen da war. Deshalb ist auch der Support einschränkt. Bis 2020 möchte das BAR die nötigen Anpassungen vornehmen.
In der abschliessenden Diskussion werden zwei Fragen aufgeworfen: Wie können Files validiert werden, wenn DROID/PRONOM nicht ausreicht? Für gewisse Dateiformate und für SIPs gibt es das Tool KOST-Val.
Anschliessend präsentiert Jonas Arnold (Archiv für Zeitgeschichte, AfZ) die Aufgaben des Workshops. Auf der Grundlage der «Core Trustworthy Data Repositories Requirements» werden die Voraussetzungen für die Übernahme der Videos aus dem Projekt «disparu mais pas loin» in das NMB herausgearbeitet. Zur Umsetzung dieses Vorhabens wurden im Vorfeld einige Annahmen getroffen, die nicht der aktuellen Realität entsprechen. Die Workshop-Gruppen gehen von zwei unterschiedlichen Speicherlösungen aus: zwei Gruppen (je eine in Deutsch und eine in Französsich) untersuchen die Möglichkeiten einer Cloud-Lösung, die beiden anderen Gruppen arbeiten mit der Hypothese einer lokal verfügbaren physischen Speicherlösung.
Einige Resultate der Workshops werden im Plenum diskutiert:
Gedächtnisinstitutionen sollten so viel Wissen und Kompetenzen erhalten/aufbauen wie möglich, um «auf Augenhöhe» mit technischen Anbietern verhandeln/diskutieren zu können. Die Frage der Teilung von Verantwortung und Kompetenzen stellt sich besonders bei der Externalisierung, z. B. von Cloud-Speicher.
Zum Schluss beteuert die Gastgeberin Bernadette Walter, dass sie an der Tagung die Erkenntnis gewann bzw. festigte, dass das NMB in der behandelten Thematik Kompetenzen aufbauen muss.