Quantitative Analyse mit Normdaten – SPSS in der Historischen Forschung

Katrin Moeller, Historisches Datenzentrum Sachsen-Anhalt (Martin-Luther-Universität Halle-Wittenberg)

Termin: Donnerstag, 23.06.2022, 14:00-17:00 Uhr

Beschreibung:

Gemeinsam genutzte Normdaten spielen in der gegenwärtigen Diskussion um Datenmanagement und Forschungsdatenaufbereitung webbasierter Sammlungen eine prominente Rolle (Linked Open Data, Semantic Web etc.), bleiben aufgrund der Möglichkeiten zur automatisierten Entitätserkennung aber auch immer noch eine Herausforderung. Welche neuen Angebote es hierzu gibt und wie nutzbringend solche Normdatenstände dann tatsächlich für die Analyse von Massendaten Anwendung finden können, soll anhand der Einbindung von berufsbezogenen Vokabularen gezeigt und gemeinsam diskutiert werden. Dies wird mit einer grundlegenden Einführung in das Programm SPSS verbunden. Dabei sollen Möglichkeiten zum Matching von tätigkeitsbezogenen Normdaten sowie methodische Ansätze zur Analyse von quantitativen Massendaten im Vordergrund stehen.

[...]

Quelle: https://digigw.hypotheses.org/4019

Weiterlesen

[Praxislabor] Daten kollaborativ handhaben: FactGrid, eine Wikibase Plattform für Historiker*innen

Olaf Simons

Kaum eine Software zieht in den Digital Humanities derzeit ein so großes Interesse auf sich wie Wikibase, die Datenbank-Erweiterung für Mediawikis, die Wikimedia Deutschland federführend für das Wikidata-Projekt entwickelte.
Das hat zum einen mit dem Wikidata Projekt selbst zu tun, das sich in den letzten Jahren zum Brückenkopf zwischen den verschiedensten Datenbankprojekten entwickelte. Das hat im selben Moment damit zu tun, dass die größeren Bibliothekskonsortien diese Software soeben im Interesse an einem in Zukunft globalen Normdatenaustausch evaluieren.
Vor allem die konzeptionelle Offenheit und Transparenz der Software besticht: Konsequent Trippel-basiert meidet Wikibase die Einengungen herkömmlicher relationaler Datenbanken. Beliebige Datenbankobjekte lassen sich in beliebige Beziehungen zueinander setzen, ohne dass Nutzer vorab wissen müssen, welcherart Statements sie mit der Zeit generieren werden. Standard-Visualisierungen sind mit dem SPARQL-Endpoint im Angebot der freien open source Software. Datenein- und -Ausgabe sind unkompliziert gestaltet. Vor allem aber frappiert die mehrsprachige Nutzbarkeit: Daten lassen sich in beliebigen Sprachen ein- und in andern auslesen – die ideale Voraussetzung für international vernetzte Projekte.



[...]

Quelle: https://digigw.hypotheses.org/3721

Weiterlesen