Die sechste Lerneinheit befasste sich mit dem Modellieren von Metadaten und der Nutzung von Schnittstellen. Diese war die erste von zwei Lerneinheiten zu diesem Thema. Die zweite Lerneinheit findet bereits morgen statt.

Nachdem im Oktober eine Lerneinheit ausgefallen war, fand die heutige Vorlesung ausnahmsweise an einem Donnerstagabend statt. Auch diese Lerneinheit startete wie bereits alle vorherigen Einheiten mit einer Feedbackrunde zu den Lerntagebüchern. Anschliessend folgte der eigentliche Themenblock. Ich war gespannt was mich erwartet, da ich mich in diesem Thema noch nicht auskenne. Um uns zu zeigen wie diese Lerneinheit mit den anderen Lerneinheiten zusammenhängt, nahmen die Dozenten das Schaubild aus der ersten Stunde zur Hand.

schaubild

Nach dieser Lerneinheit verstehe ich das Schaubild schon besser. Die erstellten Daten aus den kennengelernten Systemen Koha, ArchivesSpace und DSpace können mit Hilfe der OAI-PMH-Schnittstelle, dem Tool VuFindHarvest und der Überführung der Metadatenstandards in einen einheitlichen Standard weiterverarbeitet werden.

Nach der Übersicht ging es mit den Punkten Austauschprotokolle für Metadaten, Metadaten über OAI-PMH harvesten und XSLT Crosswalks weiter. Wir haben uns die drei weit verbreiteten Protokolle Z39.50, SRU und OAI-PMH angeschaut. OAI-PMH haben wir bereits in der letzten Lerneinheit kennengelernt und dieses Protokoll eignet sich besonders für grössere und regelmässige Abfragen. Die Protokolle SRU und Z39.50 eignen sich hingegen mehr für Live-Abfragen oder gezielte Abfragen mit vielen Parametern. Sowohl mit dem OAI-PMH Protokoll wie auch mit dem SRU Protokoll können Anfragen direkt der URL mitgegeben werden und als Antwort erhält man anschliessend die angeforderten Daten im XML-Format.

Nach der Einführung haben wir uns angeschaut wie über die OAI-PMH-Schnittstelle, Metadaten geharvestet (gesammelt) werden können. Dafür haben wir das Tool VuFindHarvest genutzt. Mit diesem Tool können wir die Daten, die wir bereits in Koha, ArchivesSpace und DSpace erfasst haben, abgreifen und lokal auf der VM speichern. Im letzten Teil der Vorlesung haben wir anschliessend die gesammelten Daten über einen Crosswalk vom ursprünglichen Metadatenformat in MARC21XML überführt. Ein Crosswalk bezeichnet somit die Konvertierung von Daten von einem Metadatenstandard in einen anderen Metadatenstandard. Um dies durchzuführen, wird ein Mapping benötigt. Das Mapping stellt sicher, dass die Daten möglichst verlustfrei konvertiert werden. Das Mapping ist eine Art Regelsatz und regelt dabei welche Elemente aus einem Standard, welchen Elementen aus dem anderen Standard zugeordnet werden. Eine verlustfreie 1:1 Konvertierung ist in der Praxis jedoch nur schwer zu erreichen, da die verschiedenen Standards nicht dieselben Elemente beinhalten. So gibt es in Dublin Core beispielsweise das Feld title. In MARC21 ist der Titel hingegen aufgeteilt in Haupttitel (254a) und Untertitel (245b). Um einen solchen Crosswalk selbst durchzuführen, installierten wie MarcEdit. Bevor wir mit dem Crosswalk starten konnten, mussten wir die Software noch für unser Linux System konfigurieren, da die Software eigentlich für Windows entwickelt wurde. Danach fand die Konvertierung unserer Daten aus ArchivesSpace und Koha statt. Da es keine Möglichkeit gibt direkt EAD in MARC21XML zu konvertieren, mussten wir hier einen Zwischenschritt machen und erst von EAD zu MARC21 und dann von MARC21 zu MARC21XML konvertieren. Nach der Konvertierung haben wir festgestellt, dass es zu kleinen Verlusten gekommen ist.