Home / post / Vergangenes / Rückblick auf Memoriav Fachtagung 2019
#Zusammenfassung

Rückblick auf Memoriav Fachtagung 2019
#Zusammenfassung

Die Mitte März von Memoriav organisierte Fachtagung im Neuen Museum Biel war sehr gut besucht und ermöglichte mit diversen Referaten, Praxisberichten und Workshops auf die Bedürfnise und Bedingungen zu schauen, mit denen unterschiedliche Institutionen bei der Speicherung, Verwaltung und dem Zugänglichmachen von audiovisuellen Daten konfrontiert sind. Finden Sie hier eine Zusammenfassung sowie weitere Dokumente zur Tagung.

Zusammenfassung

Im Einführungsreferat zeichnet Martin Kaiser den Weg vom Archiv mit Zettelkatalog und Magazin zum Archivinformationssystem bzw. Bibliotheksverwaltungssystem mit digitalem Magazin und Repository auf Speichermedien bzw. immer häufiger virtualisiert in Cloud-Speichern. Zur häufig kritisch diskutieren Datensicherheit meint Kaiser, dass Datenverlust meistens menschlich verschuldet sind, weshalb grundsätzlich die Sicherheit mit der Grösse und Professionalität des Speicherbetreibers steigt. Andere Risiken wie Fusionen, Konkurse oder Aufgabe von Dienstleistungen bleiben aber bestehen. Die Archivierung von digitalen AV-Dokumenten unterscheiden sich von anderen Medien durch die grossen Datenmengen, was einen Einfluss auf die Speicherkosten und auf die Geschwindigkeit der Integration in den Datenspeicher hat.

In der Diskussion erklärt Kaiser den Unterschied zwischen Backup und Repository: Das Repository bildet eine zusätzliche Schicht über dem Datenspeicher und verwendet zusätzliche Metadaten, welche die Prüfung der Integrität der Daten erlauben. Es wird ein bestimmter Zustand eingefroren. Die Datensicherheit wird über Spieglungen erreicht. Das Backup dagegen kann Arbeits-Prozesse (verlorene, gelöschte Dateien) rekonstruieren, wobei häufig nur die Veränderungen gespeichert werden (sog. inkrementelles Speichern).

Die anschliessenden sechs Kurzpräsentationen von Repository-Lösungen aus ganz unterschiedlichen Institutionen legten den Fokus auf die Funktionsweise der Applikation und die besonderen Herausforderungen für die Archivierung von AV-Daten.

Jean-Yves Le Meur stellt die Lösung des CERN mit Archivematica vor, die in vielerlei Hinsicht noch experimentell ist. Im Unterschied zu «normalen» Gedächtnisinstitutionen ist das CERN das Handling von grossen (Forschungs-)Datenmengen gewöhnt. Daneben archiviert das CERN aber auch Kulturgut-Daten in einem Speichersystem, das im Moment noch auf bit-stream-Preservation beschränkt ist, bald aber OAIS-zertifiziert werden soll. Das CERN verwendet Invenio als Repository und Archivematica für die Verwaltung des Archivspeichers. Zur Verbindung der beiden wurden eigene Elemente entwickelt. Auch für das CERN ist die Herstellung von AIPs mit grossen AV-Datenmengen nach OAIS eine noch zu meisternde Herausforderung.

Rolf Lang vom Landesarchiv Baden-Württemberg stellte die Eigenentwicklung DIMAG (Digitales Magazin), die ab 2006 aufgrund fehlender Lösungen auf dem Markt entwickelt wurde. Die modularen Elemente von DIMAG kombinieren Storage, Ingest, Web Crawler, Präsentation, Erhaltung etc. Das DIMAG Kernmodul, das auf flexibel anpassbaren Elementen aufbaut, bildet die Archivtektonik ab (ähnlich der Weboberfläche von Scope). Bei der Entwicklung von DIMAG wurde darauf geachtet, Primär- und Metadaten von archivwürdigen Dokumenten gleichermassen zu berücksichtigen. Das Produkt wird auch ausser Haus vertrieben. Als Schwächen bezeichnet Lang die 32-bit-Orientierung, die Einsprachigkeit und v.a. die beschränkte «Mandantenfähigkeit», die in Zukunft aber noch verbessert werden soll.

Tobias Wildi, Miteigentümer der Firma Docuteam und Archivar der Stadt Baden zeigt die Funktionsweise des Produktes Docuteam Cosmos, das aus denselben Gründen wie DIMAG entwickelt wurde. Als erstes digitales Stadtarchiv der Schweiz nahm Baden das System 2011 in Betrieb und migrierte es 2016 in eine Cloud. Die Entwicklung fokussiert auf grösstmögliche Automatisierung und legt besonderen Wert auf Programmierschnittstellen. Die Software hat Ingest-Workflows für unterschiedlichen Quellen/Arten der Ablieferungen vorkonfiguriert. Als Katalog wird ein eigenes AIS (Archivinformationssystem), aber auch AtoM mit Webclient angeboten. In «Cockpit» werden verfügbaren Speicher, Dateiinformationen überwacht, um «preservation planning» machen zu können. Für den Cloudspeicher wird SWITCHenginges genutzt, das komplett in der Schweiz liegt, langfristige Verträge und ein interessantes Preismodell anbietet. Wildi beurteilt den Stand der Entwicklung positiv, da das Produkt sehr früh und praxisnah mit Fokus auf Standardisierung und Automatisierung entwickelt werden konnte.

Franziska Geisser präsentiert die Repository-Lösung Rosetta der ETH-Bibliothek. Sie wird seit 2012 im «ETH Data Archive» eingesetzt und archiviert im Moment ca. 160TB Daten, darunter viele Bilddateien in TIFF- und Videodateien in MKV/FFv1. Die Lösung ist vollständig OAIS-compliant, nutzt aber z.T. andere Begriffe, da mit dem Metadatenstandard PREMIS gearbeitet wird. Aus Kapazitätsgründen kann das Preservation Planning (Erzeugen einer neuen Version) nur für wenige definierte Formate geleistet werden, der Rest wird im Originalformat als Bit Stream abgelegt. Geisser betont, dass eine gute Vor- und Aufbereitung der Daten vor dem Ingest darüber entscheidet, was die Archivierung später leisten kann.

Hedi Bruggisser vom Staatsarchiv Thurgau stellt die Lösung Scope OAIS vor, die in Frauenfeld gerade eingeführt wird. Der Entscheid für dieses Produkt hängt mit dem Wunsch nach Kompatibilität zum Scope-Archivinformationssystem zusammen, das seit langem im Gebrauch ist. Die Verwaltung des Kantons stellt aktuell auf die elektronische Aktenführung mit dem Produkt Fabasoft um. Für den Ingest in das digitale Archiv nutzt das Staatsarchiv Thurgau die archivischen Ablieferungsschnittstelle eCH-0160.

Zum Abschluss präsentiert Andreas Christe die Lösung des Schweizerische Bundesarchivs. Seit 2009 arbeitet das BAR mit Preservica (2015 in der 2. Version). Katalog und Repository sind nicht integriert und werden manuell verbunden. Das Standardprodukt der Applikation wurde den Bedürfnissen des BAR angepasst; eine Kontrolle der Daten vor dem Ingest ist. Für den Zugang wird ein anderes Produkt verwendet. Das BAR arbeitet mit 6–7 Jahre alten Workflows und Best Practices, da bisher keine Zeit für Anpassungen da war. Deshalb ist auch der Support einschränkt. Bis 2020 möchte das BAR die nötigen Anpassungen vornehmen.

In der abschliessenden Diskussion werden zwei Fragen aufgeworfen: Wie können Files validiert werden, wenn DROID/PRONOM nicht ausreicht? Für gewisse Dateiformate und für SIPs gibt es das Tool KOST-Val.

  • Solle alle Dateien, insbesondere originale Repräsentationen von AV-Dokumenten nach deren Normalisierung behalten werden? Verschiedene Praxen: Originalformen/-formate werden nur teilweise erhalten, teilweise wird der «original master» und der «preservation master» erhalten (Rosetta). Abgesehen von der Erhaltung ist auch die «Moderierung» der Informationen zu Repräsentationen wichtiger geworden, was in ISAD (G) nicht möglich ist, mit RiC aber schon.Über Mittag und am Nachmittag hatten die Tagungsbesucherinnen und -besucher die Möglichkeit, einen kleinen Basar zu besuchen. Vier Anbieter von Repository-Lösungen informierten über ihre Produkte.Die Workshops des Nachmittags erarbeiten ein Anforderungsprofil, welches dem Neuen Museum Biel (NMB) die Übernahmen eines digitalen Videobestands ermöglichen würde. Grundlage für dieses halbfiktive Szenario bildet das von Memoriav geförderte Videoerhaltungsprojekt «disparu mais pas loin», dessen langfristige Sicherung das NMB übernehmen möchte.Zum besseren Verständnis dieser Ausgangslage stellt die Direktorin des NMB Bernadette Walter das Museum vor und erklärt ihr Interesse an «disparu mais plas loin». Anschliessend berichtet Yves Niederhäuser von Memoriav über den aktuellen Zustand des Projektes.

Anschliessend präsentiert Jonas Arnold (Archiv für Zeitgeschichte, AfZ) die Aufgaben des Workshops. Auf der Grundlage der «Core Trustworthy Data Repositories Requirements» werden die Voraussetzungen für die Übernahme der Videos aus dem Projekt «disparu mais pas loin» in das NMB herausgearbeitet. Zur Umsetzung dieses Vorhabens wurden im Vorfeld einige Annahmen getroffen, die nicht der aktuellen Realität entsprechen. Die Workshop-Gruppen gehen von zwei unterschiedlichen Speicherlösungen aus: zwei Gruppen (je eine in Deutsch und eine in Französsich) untersuchen die Möglichkeiten einer Cloud-Lösung, die beiden anderen Gruppen arbeiten mit der Hypothese einer lokal verfügbaren physischen Speicherlösung.

Einige Resultate der Workshops werden im Plenum diskutiert:
Gedächtnisinstitutionen sollten so viel Wissen und Kompetenzen erhalten/aufbauen wie möglich, um «auf Augenhöhe» mit technischen Anbietern verhandeln/diskutieren zu können. Die Frage der Teilung von Verantwortung und Kompetenzen stellt sich besonders bei der Externalisierung, z. B. von Cloud-Speicher.

  • Bei Nutzung von Cloud-Lösungen kommen für die Vertrauensbildung auch externe Audits in Frage. Kaiser betont, dass a) der Unterschied zwischen selbst betriebenen, verteilten Datencentern und Cloud-Lösungen nicht (mehr) so gross sind und b) dass zusätzlich zu Vertrauen v. a. Verträge wichtig sind, um die Interessen der Gedächtnisinstitutionen zu wahren.
  • Um die Authentizität eines Korpus zu bewahren, der 2010 digitalisiert wurde, seither aber nicht mehr in Gebrauch war, müsste die Dokumentation der Sammlung und des Projekts ausreichen. Im Zweifelsfall liesse sich (heute) immer noch das Originalmaterial mit den Erhaltungsmaster vergleichen.

Zum Schluss beteuert die Gastgeberin Bernadette Walter, dass sie an der Tagung die Erkenntnis gewann bzw. festigte, dass das NMB in der behandelten Thematik Kompetenzen aufbauen muss.

Dokumentation – Memoriav Fachtagung 2019

WordPress Themes