Suchmaschinen und Discovery-Systeme

Am Anfang des Unterrichts wurde nochmals auf das Thema der letzten Vorlesung eingegangen und verschiedene Tools zur Metadatentransformation vorgestellt. Wie im letzten Eintrag geschrieben, möchte ich diese Tools sicherlich im Hinterkopf behalten, falls bei uns auf der Arbeit grössere Metadaten-Bereinigungen anstehen. Natürlich müsste dann eine Evaluation durchgeführt werden, um zu entscheiden, welches dieser Tools am zielführendsten ist und ob sie für unsere Bedürfnisse überhaupt eingesetzt werden können.

Auf diese Unterrichtsstunde sollte auch VuFind installiert und konfiguriert werden (siehe Blogpost der Übung 3). Dabei handelt es sich um eine Anwendung für Bibliotheken, um all ihre Ressourcen durchsuchbar zu machen. Neben den klassischen OPAC-Elementen gibt es auch Komponenten wie lokal zwischengespeicherte Zeitschriften oder institutionelle Repositories (https://vufind.org/vufind/, abgerufen am 24.12.2021).

Das Hauptthema dieser Vorlesung waren dann Suchmaschinen und Discovery-Systeme. Es wurde festgehalten, dass Solr der gängige Standard ist, zusammen mit Elasticsearch. Bei einer anschliessenden Übung wurde dann die Suche in VuFind und in Solr verglichen. Dabei haben wir festgestellt, dass man mit beiden Suchen die gleichen Treffer findet, Solr jedoch direkt den ganzen Datensatz anzeigt, wohingegen VuFind nur einige der Metadaten anzeigt. Zudem ist die Darstellung in VuFind wie ein klassischer OPAC aufgebaut, bei Solr hat es eine Metadaten-Ansicht, was weniger übersichtlich erscheint. Deshalb ist Solr wohl eher für Administratoren gedacht und nicht für den normalen User. Auch spannend fand ich, dass VuFind eine viel schnellere Query Time besitzt (0.08 Sekunden) statt Solr mit 2 Sekunden.

Danach wurde nochmals eine Gruppenarbeit durchgeführt. Dazu haben wir Beispieldaten aus Koha, ArchivesSpace und DSpace in VuFind importiert. Die Befehle, um dies durchzuführen, waren vorgegeben, und hat auch bei den Koha-Daten problemlos funktioniert. Es hat bei einer Suche danach 11 Treffer gefunden. Eine Spezialität war, dass der Import der Datensätze aus ArchivesSpace und DSpace fehlgeschlagen ist. Im Terminal hat es jeweils angezeigt, dass den Dokumenten ein obligatorisches Feld fehlt, nämlich die ID.

Zum Schluss wurde nochmals die Übersichtsgrafik gezeigt, bei welcher nun ersichtlich war, dass wir alle Zwischenschritte im Unterricht durchgenommen haben. Schon letztes Mal habe ich geschrieben, dass ich nun die Grafik viel besser verstehe als noch in der ersten Stunde, und dass auch die Zusammenhänge dadurch klarer sind. Mit dieser Vorlesung wurde nun auch der letzte Schritt abgedeckt. Ich kenne nun somit verschiedene Tools, einerseits um Datensätze aufzunehmen und zu bewirtschaften, wie zum Beispiel Koha oder ArchivesSpace, und andererseits, um die Datensätze in diesen Systemen zu “harvesten” und die Formate zu konvertieren und danach in andere Systeme zu importieren.