Schlagwort-Archive: digitale Archivierung

Archivierung von Unterlagen aus Digitalen Systemen – ein Rückblick auf #auds2016

Am 1. und 2. März 2016 fand an der Fachhochschule Potsdam die 20. Tagung des Arbeitskreises „Archivierung von Unterlagen aus digitalen Systemen (AudS)“ statt. Die Veranstaltung war mit über 150 Teilnehmerinnen und Teilnehmern sehr erfolgreich. Unser großer Dank geht an dieser Stelle an Tobias Schröter-Karin (LWL-Archivamt) und Michaela Schmitz (Staatsarchiv Hamburg), die für unser Blog eine Zusammenfassung zur Tagung geschrieben haben. Der Kurzbericht zur Tagung „Digitale Archivierung in der Praxis: Zwischen Standardisierung und Pragmatismus“ kann hier eingesehen werden. Hier geht es zum Twitter-Archiv (#auds2016).

Themenblock 1: Archivierung von Unterlagen mit besonderen               Strukturen

Taylor, Isabel: Eine hydraartige Matrjoschka: Wie wir die Fileablage eines staatlichen Schulamtes bewertet und erschlossen haben

Der erste Themenblock der Tagung widmete sich der Bewertung, Ordnung und Übernahme von Fileablagen und unstrukturierten Dateisammlungen. Schon im ersten Vortrag von Isabel Taylor (Landesarchiv Baden-Württemberg) wurden die neuen Herausforderungen für die Archive deutlich. Taylor berichtete über die Bewertung und Erschließung der Fileablage eines staatlichen Schulamtes mit einem Gesamtvolumen von 57.061 Dateien, 6.701 Ordnern und 18 GB. Neben den Strukturproblemen der angebotenen Aufzeichnungen, die durch die Zusammenlegung zweier Schulämter und die Fusion der beiden Fileablagen entstanden sind, wies Taylor u. a. auf inhaltliche und technische Probleme, wie fehlende Geschäftsgangvermerke, falsch betitelte Ordner, Dubletten, exotische Dateiformate und komprimierte Unterordner hin. Der Bearbeitungsprozess sah zunächst die Erstellung einer Sicherheitskopie und anschließend die Entfernung von Dubletten und leeren Ordnern mit den Tools Fast Duplicate File Finder und Remove Empty Directory vor. Bei der folgenden Bewertung der Aufzeichnungen orientierte sich das Landesarchiv am Bewertungsmodell Schule und erweiterte dies um neu identifizierte Aufgabenbereiche. Aufgrund der mangelnden Übersichtlichkeit fand die Bewertung bei diesem Pilotprojekt auf Dateiebene statt. Insgesamt wurde so 68 Prozent des Bestandes kassiert, so dass am Ende anstatt 57.061 Dateien nur noch 10.884 Dateien übernommen wurden. Im Rahmen der Erschließung wurde die Ordnerstruktur bis zur 4. Unterebene in „scopeArchive“ übernommen. Im Fazit führte

Gruppenfoto - TeilnehmerInnen bei der AUdS-Tagung

Gruppenfoto – TeilnehmerInnen bei der AUdS-Tagung

Taylor an, dass der gesamte Bewertungs- und Übernahmeprozess aufgrund der enormen Dauer (8 Monate) für die Praxis zu unwirtschaftlich sei und eine Aufwandsreduzierung angestrebt werden muss. Außerdem wies sie auf den drohenden Verlust der Authentizität der Daten hin, da die Löschung der Daten in Folge der fehlenden Skalierbarkeit nicht dokumentiert werden konnte.

Simon, Heike: Herausforderungen bei der Übernahme von Unterlagen aus Fileablagen – Zum Einsatz des Pre Ingest Toolset (PIT) im Bundesarchiv

Auch dem Bundesarchiv wurden in den letzten Jahren vermehrt unstrukturierte Fileablagen angeboten, denen kein Aktenplan zu Grunde lag, die keine Aktenstruktur aufwiesen und keine ausreichenden Metadaten enthielten.
Um diesem „Wildwuchs“ Herr zu werden, hat das Bundesarchiv zusammen mit den Firmen „HP“ und „SER“ ein Tool zur Erstellung von Submission Information Packages (SIPs) entwickelt. Das Pre Ingest Toolset, kurz PIT, dient der protokollierten Verarbeitung von Fileablagen und umfasst alle archivischen Prozesse, die notwendig sind, um unstrukturierte Aufzeichnungen zu übernehmen. Während der Vorprozessierung werden inhaltliche und technische Metadaten (Formatanalyse, -validierung) erhoben und ergänzt, Aufzeichnungen kassiert, strukturiert und abschließend paketiert. Die Strukturierung folgt dabei definierten Regeln, um aktenähnliche Strukturen zu erzeugen, bspw. eine Vorgang entspricht einer Informationseinheit, welche dem Informationsobjekt sowie der Verzeichnungseinheit entspricht.
Abschließend benannte Heike Simon einige Herausforderungen, die mit der Übernahme von Aufzeichnungen aus Fileablagen einhergehen. Besonders hob sie dabei die zunehmende Bedeutung der Behördenberatung hervor. Ebenso wie Taylor warf auch Simon Fragen nach der Authentizität der Aufzeichnungen und der Wirtschaftlichkeit des Bewertungs- und Übernahmeprozesses auf. Erzeugt der Archivar durch die Strukturierung der Aufzeichnung einen Zustand der noch nie dagewesen ist? Ist der Aufwand für diesen Eingriff überhaupt gerechtfertigt?

Herschung, Alexander: Ordnen, Bewerten und Übernehmen unstrukturierter Dateisammlungen – ein neues Werkzeug für eine schwierige Aufgabe

Im Anschluss an den Vortrag von Heike Simon stellte Alexander Herschung den in der Entwicklung befindlichen Übernahmeeditor der Firma „startext GmbH“ vor, welcher der protokollierten Aufbereitung unstrukturierter Dateisammlungen für die Übernahme dient. Die plattformunabhängige Java-Anwendung unterstützt neben der Ordnung und Gruppierung der Dateien, die Erhebung von technischen Metadaten, die Indexierung sowie die Beschreibung und Bildung von Übernahmepaketen (SIP). Verschiedene Filter- und Sortierfunktionen ermöglichen dem Anwender die unstrukturierten Dateien zu ordnen. Nicht zu übernehmende Dateien können verworfen werden. In diesem Fall wird der Status der Datei geändert, eine Löschung findet zu diesem Zeitpunkt noch nicht statt. Im abschließenden SIP (zip-Datei) findet sich neben den Primärdaten eine METS-Datei mit dem Protokoll für alle Dateien sowie der Beschreibung der anfänglichen und finalen Ordnerstruktur.
Zurzeit sind noch nicht alle Funktionen, bspw. Dokumentation der Bewertungsentscheidung, Anreicherung der beschreibenden Metadaten, umgesetzt.

Huth, Karsten; Bayer, Peter: Eigenentwicklung von Werkzeugen in einem elektronischen Archiv – Programmieren nach Bedarf

Der erste Themenblock endete mit einem Vortrag von Peter Bayer und Karsten Huth (Sächsisches Staatsarchiv) in dem die Vorzüge einer Programmierung nach Bedarf vorgehoben wurden. Huth betonte in seinen Ausführungen die zunehmende Vielfalt der Form und Struktur der angebotenen Daten. Viele OAIS-konforme Archive sehen fest definierte Prozesse zur Übernahme der Daten vor, was zwangsläufig eine strickte Abarbeitung der festgelegten technische Arbeitsschritte nach sich zieht. Werden die Daten in der falschen Form und Struktur abgeliefert, ist ein Scheitern der Übernahme absehbar. Um die Daten dennoch übernehmen zu können, müsste entweder der Übernahmeprozess im Archiv angepasst oder die Ablieferung an den Registraturbildner zur Korrektur zurückgesendet werden. Beide Maßnahmen verlagern die Übernahme der Daten auf unbestimmte Zeit. Laut Huth gewinnt ein elektronisches Archiv an Wert, wenn es auch technisch komplexe Daten übernehmen kann, die neue/andere Lösungswege erfordern. Das Sächsische Staatsarchiv hat dafür auf die im Haus vorhandenen Programmierkenntnisse zurückgegriffen und eigene Tools, wie das vorgestellte Tool „ByteBarn“, entwickelt. „ByteBarn“ dient der Strukturierung von Fileablagen. Damit werden die Primärdaten und Metadaten in Form einer Tabelle dargestellt. Als Grundlage für das Tool nutzt das Staatsarchiv das Datenbankmanagementsystem (DBMS) „SQLite„, das die Daten sortierbar und abfragbar macht. „SQLite“ ist ein gemeinfreies, unabhängiges und serverloses DBMS, das weltweit angewandt wird, bspw. „Android“. Aufgrund seiner Eigenschaft als DBMS dokumentiert sich das sächsische Tool von selbst, die Wiederherstellung der ursprünglichen Struktur der Ablieferung ist jederzeit möglich.

Sektion 1: „Kleine“ Archive

Im Anschluss an die Mittagspause erwarteten die Teilnehmer der Sektion I: „Kleine“ Archive, in der es vor allem um den möglichen Einstieg kleinerer Einrichtungen in den Bereich Elektronische Langzeitarchivierung ging, interessante Vorträge. Tessa Neumann, Inhaberin des deutschen Archivdienstleisters „ArchivInForm“ und Andreas Steigmeier von der Schweizer Firma „docuteam“ machten in einem interessanten vergleichenden Überblick die Situation kleinerer Archive in Deutschland und in der Schweiz deutlich. Ihr Fazit, dass das Thema digitale Archivierung zwar in der Fachwelt angekommen, aber noch längst nicht als archivarische Daueraufgabe akzeptiert und etabliert ist, konnte wohl jeder Zuhörer unterschreiben.

Hauptgebäude der Fachhochschule Potsdam als Tagungsort

Hauptgebäude der Fachhochschule Potsdam als Tagungsort

Fortgeführt wurde die Diskussion durch Michael Hansmann vom Archiv für christlich-demokratische Politik der Konrad-Adenauer-Stiftung, der anschaulich beschrieb, wie das Archiv sich seit 2008 langsam aber stetig immer weiter in den Bereich Digitale Archivierung einarbeitet und dabei mit einer strategischen und überlegten Herangehensweise sehr erfolgreich arbeitet. Inzwischen ist das Archiv dabei, die Vielfalt der in der Stiftung eingesetzten Erschließungs-, Archivierungs- und Präsentationstools gezielt zu vereinheitlichen. Der etwas plakative Titel „Es begann mit einem Scanner“ hatte dabei durchaus einen ganz reellen Kern, da das gesamte, bis ca. 2020 angelegte Projekt mit dem Anliegen begann, einen Auflichtscanner zu beschaffen.

Zum Abschluss stellte Meike Zepf aus dem Kreisarchiv Esslingen einen ähnlichen Ansatz vor. Aus dem Anliegen heraus, möglichst früh Praxiserfahrung in der digitalen Archivierung zu sammeln, begann man bereits vor einigen Jahren mit kleinen digitalen Übernahmeprojekten. Inzwischen hat das Archiv einen reichen Erfahrungsschatz aufgebaut, als besonders erfreulich darf wohl gelten, dass sogar die Verantwortung für das DMS der Landkreisverwaltung beim Kreisarchiv liegt. Zwar gibt es selbstverständlich offene Baustellen, Meike Zepf schloss aber mit dem Fazit, dass sich ein früher Einstieg in das Thema lohnt, allein schon um eigene Ängste abzubauen.

Auch in der angeregten anschließenden Diskussion kamen die Teilnehmer zu dem Fazit, dass es besser ist, einfach mal anzufangen und möglicherweise Fehler in Kauf zu nehmen, als gar nichts zu tun (und damit z.B. Überlieferungslücken in Kauf zu nehmen). Dies erleichtert schließlich auch eine kritische Einschätzung der zahlreich vorhandenen Empfehlungen, die ohne Fach- und Praxiswissen faktisch nicht möglich ist.

Themenblock 2: Daten – Übernehmen und Verarbeiten

Der Themenblock II: „Daten – Übernehmen und Verarbeiten“ begann mit einem Vortrag von Peter Worm (LWL-Archivamt für Westfalen) und Julia Krämer-Riedel (Historisches Archiv der Stadt Köln – HAStK), die die Umsetzung der Vorgaben des XPSR-Standards zur Archivierung von Personenstandsregistern im Digitalen Archiv NRW vorstellten. Einleitend wurde hier

Musikalische Kaffeepause :-)

Musikalische Kaffeepause 🙂

deutlich gemacht, dass die Implementation entsprechender Übernahmeschnittstellen durchaus zeitkritisch ist, da bereits 2017 die ersten Übernahmen anstehen könnten.

Es folgten Lambert Kansy vom Staatsarchiv Basel-Stadt und Martin Lüthi vom Staatsarchiv St. Gallen, die Ideen zur Entwicklung eines Standards für Archivinformationssysteme darstellten. Bereits die Begriffsbestimmung stellt hier ein großes Problem dar, da der Begriff „Archivinformationssystem“ in verschiedenen Kontexten Verwendung findet. Aufgrund der Heterogenität der Anwendungsbereiche und der Anforderungen bezeichnete bereits 2005 Andreas Berger ein entsprechendes Vorhaben als „Quadratur des Kreises“. Projektziel soll ein generisches Prozess-, Informations- und Datenmodell sein, dass zu geringeren proprietären Abhängigkeiten und besseren Vergleichsmaßstäben führt. Sobald das Projekt abgeschlossen ist, wird um rege Beteiligung am Review-Prozess gebeten!

Den Themenblock und damit auch den ersten Tagungstag beschloss Zbysek Skodulka vom Tschechischen Nationalarchiv in Prag, der die Planungen für ein tschechisches Archivportal vorstellte. Das interessante Konzept stellte gleichzeitig auch einen großen Unterschied zum deutschen Archivwesen dar. Da die tschechische Republik ein zentralistisch organisiertes Archivwesen besitzt und die Nutzung des Portals und der angebundenen Werkzeuge für die meisten tschechischen Archive verpflichtend ist, kann das Projekt viel klarer umrissen und mit weniger Aufwand besser geplant werden, als es in Deutschland möglich wäre.

Themenblock 3: Preservation Planning und OAIS-konforme                    Archivierung

Der zweite Tagungstag begann mit dem Themenblock „Preservation Planning und OAIS-konforme Archivierung“. Zuerst stellte Veronika Krauß, Studentin der Bauhaus-Universität Weimar, das überaus interessante Projekt „Authentizität digitaler Objekte unter Formattransformationen“ vor. Dabei entwickelt die Bauhaus-Universität verschiedene Tests bzw. Tools, mit denen sich z.B. die Authentizität von Bilddateien nach einer Formattransformation anhand festgelegter signifikanter Eigenschaften sicherstellen lässt, indem eine Art digitale SIgnatur aus verschiedenen Messwerten ermittelt wird. Da es sich um ein Lehrprojekt handelt, gibt es leider keinen festen Projektplan, insbesondere aus dem archivfachlichen Bereich freut sich das Projekt jedoch über Ansprechpartner und Feedback bzgl. der fachlichen Anforderungen an die Datenmigration!

Anschließend berichtete Andreas Romeyke von der Staats- und Universitätsbibliothek (SLUB) Dresden über „TIFF“ im allgemeinen sowie darüber, welche Probleme bei der Arbeit mit „TIFF“-Dateien üblicherweise auftreten können und wie man diese beheben kann. Dabei stellte er an der „SLUB“ entstandene, teilweise auch frei verfügbare Tools vor, mit deren Hilfe zumindest einige der klassischen Probleme bei der Arbeit mit TIFF auf einfache Weise behoben werden können, was auch für Archive die digitale Bestandserhaltung erleichtern kann.

Vor welche Probleme einen die Archivierung von Software stellt, machte Winfried Bergmeyer am Beispiel des Computerspielemuseums deutlich, das inzwischen eine Sammlung aus über 40 Jahren Computerspielgeschichte verwaltet und zu erhalten versucht. Dabei stellen sich vielfältige Probleme, angefangen von fehlenden Metadatenschemata und Datenstandards über Fragen der Emulation bis hin zu teilweise nach wie vor ungeklärten Fragen des Copyrights und der Nutzungsrechte.

Im vierten Vortrag stellte Professor Dr. Rolf Däßler von der Fachhochschule Potsdam die auf der Open-Source-Lösung „Archivematica“ basierende Berlin-Brandenburgische Verbundlösung zur Langzeitarchivierung von Digitalem Archivgut vor, die derzeit durch die Koordinierungsstelle Brandenburg Digital (KBD), der Servicestelle Digitalisierung Berlin (digiS) und das Digitalisierungslabor der FH Potsdam am Zuse-Institut Berlin (ZIB) erarbeitet wird. Er betonte dabei die bereits in anderen Vorträgen getroffene Feststellung, dass gerade für kleinere Institutionen aus finanziellen und fachlichen Gründen kein Weg an der Beteiligung an einer Verbundlösung vorbei führt.

Zoltán Lux beendete den Themenblock mit einem Bericht zur OAIS-konformen Archivierung von Datenbanken. Das Ungarische Nationalarchiv nimmt derzeit am EU-Projekt „E-ARK“ teil. Das „E-ARK“-Projekt versucht, eine europaweit nutzbare Methodologie zur Elektronischen Archivierung aufzubauen. Im Rahmen des Projekts führt das Ungarische Nationalarchiv ein Pilotprojekt zur Archivierung von Datenbanken durch.

Themenblock 4: Aus- und Weiterbildung

Nachdem während der Tagung in zahlreichen Redebeiträgen auf die Bedeutung der IT-Inhalte in der archivarischen Ausbildung hingewiesen worden war, schloss #auds2016 mit einem Themenblock zur Aus- und Weiterbildung. Dabei nutzte Ulf Preuß (Koordinierungsstelle Brandenburg Digital) die Gelegenheit, um auf die enge Verflechtung von Forschung und Lehre an der FH Potsdam hinzuweisen. Gerade im regionalen, Berlin-Brandenburgischen Kontext konnte sich der Fachbereich Informationswissenschaften an der Fachhochschule Potsdam kulturspartenübergreifend als neutrale Beratungsinstitution im Bereich Kulturgutpräsentation, -digitalisierung und -bewahrung etablieren.

Zu guter Letzt endete die Tagung mit einem Beitrag von Claudia Engelhardt, Mitarbeiterin der Niedersächsischen Staats- und Universitätsbibliothek (SUB) Göttingen, die in ihrer Master-Arbeit die Anteile der Digitalen Langzeitarchivierung in einschlägigen Studiengängen untersucht. Obwohl die Archivwissenschaften den zweithöchsten Anteil an Themen der Elektronischen Langzeitarchivierung in der Ausbildung beinhaltet – 9 -14 Prozent –  (einen höheren Anteil erreichen nur Studiengänge im Bereich Konservierung neuer Medien und digitaler Information [21-42%]), waren sich in der Abschlussdiskussion alle Anwesenden einig, dass hier in Zukunft noch viel Arbeit auf die Archivcommunity wartet.

Abschlussdiskussion

In der Abschlussdiskussion wurde unter dem Stichwort „Wie pragmatisch dürfen wir eigentlich sein?“  der schmale Grat zwischen der strengen, aber vielleicht praxisfernen Einhaltung von Normen auf der einen Seite und dem Pragmatischen, aber vielleicht fachlich Falschem und der allzu individuellen Handhabung auf der anderen Seite, hervorgehoben.

Zu guter Letzt und vielleicht als Ausblick auf zukünftige Tagungen wurde daran erinnert, dass man bei Fragen der Langzeitarchivierung vor allem die Nutzer nicht aus dem Auge verlieren darf!

Damit schloss die gelungene und interessante Tagung, die zukünftig wohl alljährlich zum Tagungsprogramm der Berichtenden gehören wird.

M12 – Contentmanagementsysteme
(Fernweiterbildung Archiv)

Michael Panitz ist Mitarbeiter bei Mediamid Digital Services GmbH und hat 2012 seinen Master im Studiengang Informationswissenschaften an der FH Potsdam abgeschlossen. In der Fernweiterbildung Archiv lehrt er in diesem Jahr erstmalig das Modul „Content Management systeme“ (CMS). Lehrerfahrungen konnte er bereits in „unserem“ Direktstudium und in der Fernweiterbildung Bibliotheksmanagement sammeln.

Michael_Panitz

Lehrbeauftragter Michael Panitz

Worum geht es bei dem Modul?

Das Modul soll den Studierenden die Bedeutung von Content auf der einen und die Verwaltung desselben mit Hilfe geeigneter Systeme auf der anderen Seite nahe bringen. „Content“ wird heutzutage im digitalen Umfeld oft zitiert, aber nur schwammig „präzisiert“. Der Kurs setzt da an und betrachtet unterschiedliche Arten von Content, die von Webseiten-Inhalten, über Fotos bis hin zu digitalen Archivalien reichen können. Die entsprechende Anzahl von Systemen ist dementsprechend, weswegen ein kleiner Querschnitt präsentiert wird.

Warum sind CMS für die Archivpraxis so wichtig?

Auch „Digitale Archive“ sind im weitesten Sinne Content Management Systeme, ebenso wie Online-Findbücher. Aber die Bedeutung von CMS fängt für ein Archiv bei einer optimalen Webpräsenz an, die den Zugang erleichtert, Besucher über Nutzung und Öffnungszeiten informiert und auch ohne Findbücher wenigstens die Schwerpunkte der Archivinhalte umreißt. Da mit frei verfügbarer Software ohne viel Einarbeitung eine Realisierung möglich ist, sind CMS auch für die Archive wichtig und keine ausschließliche Sache der IT – gerade bei kleineren Archiven.

Was bringen ausgebildete FaMI bereits mit? Auf welche (Ausbildungs-)kenntnisse und –fähigkeiten kann hier aufgebaut werden?2000px-Logo_TYPO3.svg

Trotz des vergleichsweise geringen technischem Know-How ist ein eine gewisse technische Affinität sicherlich von Vorteil. Grundsätzliche Kenntnisse gängiger Office-Anwendungen, Online-Editoren und generelles Interesse an Web-spezifischer /-gestützter Arbeit sind zudem hilfreich für einen leichteren Einstieg, aber kein Muss. Für das Konfigurieren und Aufsetzen vieler Systeme in der Grundausstattung sind oftmals tatsächlich keinerlei Vorkenntnisse notwendig. Je größer die Systeme und der gewünschte Funktionsumfang, desto mehr Einarbeitung ist notwendig.

Welche Prüfungsleistung(en) gibt es?

Es gibt drei schriftliche Hausaufgaben, die zwei Drittel der Endnote ausmachen. Eine praktische Hausaufgabe geht zu einem Drittel in die Endnote ein.

Wie können sich Interessierte darauf vorbereiten?

Tatsächlich ist die „Wikipedia“ hier für den Einstieg sehr gut geeignet:

Herr Dr. Ulrich Kampffmeyer hat im Rahmen seiner Unternehmensberatung „PROJECT CONSULT“ einige interessante Beiträge veröffentlicht:

Und noch allgemeine Infos:

Vielen Dank!

Transformation ins Digitale – Besuchen Sie uns auf dem 85. Deutschen Archivtag in Karlsruhe!

In diesen Tagen findet der 85. Deutsche Archivtag #deutscherarchivtag in Karlsruhe statt. Ganz im Sinne des diesjährigen Tagungsthemas „Transformation ins Digitale“ präsentieren wir in diesem Jahr ausgewählte Abschlussarbeiten nicht in analoger Form, sondern digital! Darunter auch die gestern im Forum Ausbildung und Berufsbild präsentierte Abschlussarbeit von Dr. Benjamin Bussmann „Signifikante Eigenschaften als Schlüssel zur Bewertung und Bestandserhaltung digitaler Unterlagen“.

Sie können uns noch bis morgen am Stand der Fachhochschule Potsdam besuchen. Wir freuen uns auf Sie :-)!

Abstracts zu den Abschlussarbeiten finden Sie hier.

Abschlussarbeiten_Volltext

Möglichkeiten digitaler Archivierung in kleinen Institutionen

Ein Beitrag aus der Reihe “Die besten Abschlussarbeiten im Sommersemester 2014/ Wintersemester 2014/15″ von Eleonore Emsbach

[Zur Person]

Eleonore Emsbach, geb. 1968. Nach einer Ausbildung und Berufstätigkeit als Handwerksbuchbinderin folgte ein Studium der Theater-, Film und Medienwissenschaft und Englischer Sprach- und Literaturwissenschaft. Während des Studiums von 1997 bis 2004 im Archiv und Ausstellungsbereich des Deutschen Filmmuseums tätig. Seit 2007 Archivangestellte in der Abteilung Sammlungen und Nachlässe sowie Projektmitarbeiterin in Onlineportal-, Digitalisierungs- und Normdatenprojekten im Deutschen Filminstitut – DIF e.V., Frankfurt am Main.

[Zur Masterarbeit – Themenfindung]

In meinem Studium habe ich den Schwerpunkt auf die informationstechnologischen Module gelegt. Daher stand für mich fest, auch ein Masterarbeitsthema aus diesem Bereich zu wählen. Im Laufe des Studiums kristallisierte es sich heraus, dass die in meinem beruflichen Alltag momentan größte Herausforderung in der Frage besteht, wie unser Archiv digitales Schriftgut und Bildmaterial, welches bereits vereinzelt angeboten wird, mit den geringen zur Verfügung stehenden Mitteln übernehmen und für die Zukunft erhalten kann. Entsprechend lag es nahe, im Rahmen meiner Abschlussarbeit einen Lösungsweg für dieses aktuell dringliche Problem zu erarbeiten.

[Zur Masterarbeit – Inhalt]

Die Masterarbeit befasst sich mit den Möglichkeiten, die kleinen Archiven bei der Einrichtung eines digitalen Langzeitarchivs zur Verfügung stehen. Problemstellung und Erkenntnisziel bestehen darin, auf der Grundlage der zumeist theoretisch ausgerichteten Fachliteratur ein Konzept zu skizzieren, das auch für nur mit begrenzten Mitteln ausgestattete Archive in der Praxis umsetzbar ist.

Im ersten Teil der Arbeit werden die wichtigsten Grundlagen digitaler Langzeitarchivierung dargelegt. Dies umfasst die Präsentation der relevanten theoretischen Konzepte und Standards, die den meisten aktuellen Aktivitäten und Initiativen zur digitalen Archivierung zugrunde liegen. Hierzu zählen Konzepte zum Aufbau eines digitalen Archivs (OAIS-Referenzmodell), zum Informationsbegriff und zur Definition von Eigenschaften digitaler Objekte (Performance-Modell, Signifikante Eigenschaften). In diesem Kontext wird auch die mögliche Berücksichtigung von Nutzungsinteressen bei der Festlegung der erhaltenswerten Eigenschaften diskutiert (Konzept der Designated Community). Weiterhin werden verschiedene Standards zur Beschreibung digitaler Objekte dargestellt (PREMIS, ISAD(G)). Im Anschluss folgt eine Übersicht über die praktischen Methoden der Erhaltung: Vor- und Nachteile der wichtigsten Erhaltungsstrategien wie Migration, Emulation, Erhalt der ursprünglichen Hard- und Softwareumgebung, gängige Speicherformate und Formatcharakterisierung, Speichermedien und Speicherung durch Dienstleister. Schließlich werden rechtliche Aspekte und Fragen der Vertrauenswürdigkeit digitaler Archive besprochen.

Im Anwendungsteil werden darauf aufbauend die Möglichkeiten digitaler Langzeitarchivierung in kleinen Archiven exemplarisch anhand eines Beispiels aus der Praxis untersucht. Bei der Konzeptentwicklung wird zum einen auf die DIN 31644 – Kriterien für vertrauenswürdige digitale Langzeitarchive Bezug genommen. Zum anderen orientiert sich der Entwurf an einem von Adrian Brown vorgeschlagenen Modell zur Bestimmung des Reifegrads digitaler Archive (Maturity Model), das mit dem Ziel entwickelt wurde, Organisationen eine Hilfestellung bei der Einschätzung ihrer spezifischen Möglichkeiten zu geben.

Es wird im Einzelnen auf folgende Aspekte eingegangen: Die Bewertung und Aussonderung auf der Basis inhaltlich-fachlicher und formaler Kriterien, die Definition von Zielgruppen und Nutzungszielen, die Bestimmung der zu erhaltenden Objekttypen und ihrer signifikanten Eigenschaften sowie die daraus resultierenden geeigneten Speicherformate, die Übernahme digitaler Objekte in das Archiv, die Bildung von Archivinformationspaketen, die Beschreibung digitaler Objekte sowie deren physische und logische Erhaltung. Weiterhin werden die rechtlichen Rahmenbedingungen und ihre Konsequenzen für die digitale Archivierung besprochen sowie die Formulierung einer Preservation Policy behandelt. Fragen des Zugangs und der Nutzung werden dagegen aus Platzgründen ausgeklammert.

Die Masterarbeit zeigt auf, weshalb es insbesondere für kleinere Archive notwendig ist, bei der digitalen Archivierung in noch stärkerem Maße Prioritäten zu setzen als bei der analogen. Für Einrichtungen mit stark begrenzten finanziellen und personellen Mitteln empfiehlt sich daher die Implementierung eines Minimalkonzepts. Der vorgelegte Entwurf gründet sich auf der Erhaltung des Bitstreams, einer den Minimalanforderungen entsprechenden Erfassung der Metadaten und Dokumentation der Bestandserhaltungsaktivitäten sowie einer ad hoc Planung und Umsetzung von Erhaltungsmaßnahmen. Er beruht weiterhin auf der Verwendung freier (nicht proprietärer) und leicht zugänglicher Softwaretools sowie dem weitgehenden Rückgriff auf die bereits vorhandene technische Infrastruktur. Ferner soll durch eine Beschränkung hinsichtlich der Archivformate die Komplexität der Erhaltungsmaßnahmen reduziert werden.

Die skizzierte Lösung ermöglicht es, mit geringen Mitteln eine Basisinfrastruktur für die digitale Archivierung einzurichten, die die Option einer künftigen schrittweisen Weiterentwickelung in sich trägt. Die relativ niedrigen Einstiegshürden unterstützen dabei einen kurzfristigen Beginn von Archivierungsmaßnahmen. Da das Modell zudem einige gängige Standards berücksichtigt, auf denen viele Softwarelösungen zur digitalen Archivierung aufbauen, wird bei einem möglichen künftigen Ausbau des digitalen Archivs die Gefahr der Inkompatibilität minimiert.

Die Masterarbeit wurde von Dr. Christian Keitel und Prof. Dr. Karin Schwarz betreut. Da sie einige vertrauliche Angaben enthält, die nicht für die Öffentlichkeit bestimmt sind, muss auf eine vollständige Publikation leider verzichtet werden. Es ist jedoch geplant, eine leicht gekürzte Fassung verfügbar zu machen. Für Rückfragen stehe ich gerne zur Verfügung.

[Zum Studiengang]

Meine Motivation zur Teilnahme am Masterstudiengang Archivwissenschaft in Potsdam von Oktober 2011 bis März 2015 gründete sich darauf, dass ich bislang im Rahmen meiner beruflichen Tätigkeit vor allem mit der Archivierung von Schriftgut zu tun hatte. Da die Methoden des klassischen Sammlungsmanagements hierfür aber nur bedingt geeignet sind, entschied ich mich für eine berufsbegleitende Weiterbildung zur Archivarin, um meine zukünftige Arbeit auf ein solides fachliches Fundament zu stellen.