[Praxislabor] Daten kollaborativ handhaben: FactGrid, eine Wikibase Plattform für Historiker*innen

Olaf Simons

Kaum eine Software zieht in den Digital Humanities derzeit ein so großes Interesse auf sich wie Wikibase, die Datenbank-Erweiterung für Mediawikis, die Wikimedia Deutschland federführend für das Wikidata-Projekt entwickelte.
Das hat zum einen mit dem Wikidata Projekt selbst zu tun, das sich in den letzten Jahren zum Brückenkopf zwischen den verschiedensten Datenbankprojekten entwickelte. Das hat im selben Moment damit zu tun, dass die größeren Bibliothekskonsortien diese Software soeben im Interesse an einem in Zukunft globalen Normdatenaustausch evaluieren.
Vor allem die konzeptionelle Offenheit und Transparenz der Software besticht: Konsequent Trippel-basiert meidet Wikibase die Einengungen herkömmlicher relationaler Datenbanken. Beliebige Datenbankobjekte lassen sich in beliebige Beziehungen zueinander setzen, ohne dass Nutzer vorab wissen müssen, welcherart Statements sie mit der Zeit generieren werden. Standard-Visualisierungen sind mit dem SPARQL-Endpoint im Angebot der freien open source Software. Datenein- und -Ausgabe sind unkompliziert gestaltet. Vor allem aber frappiert die mehrsprachige Nutzbarkeit: Daten lassen sich in beliebigen Sprachen ein- und in andern auslesen – die ideale Voraussetzung für international vernetzte Projekte.



[...]

Quelle: https://digigw.hypotheses.org/3721

Weiterlesen

[Praxislabor] Datendokumentation für eine digitale Edition

Welche Informationen über die Daten brauchen Datennachnutzer:innen?

Marina Lemaire

Es braucht mehr als nur die Forschungsdaten selbst, um sie nachnutzen zu können. Doch WAS ist das MEHR? Und WIE kann man diese Informationen erzeugen und später zur Verfügung stellen? Dies adressiert viel weniger technische Aspekte als die meisten meinen, sondern betreffen vorwiegend inhaltliche Fragen zur wissenschaftlichen Praxis und Methode. D.h. es ist eine breite Diskussion in den geisteswissenschaftlichen Disziplinen dazu notwendig, um die Forschungsprozesse an die digitalen Anforderungen zu adaptieren, um die Forschungsdaten FAIR zu machen.

[...]

Quelle: https://digigw.hypotheses.org/3698

Weiterlesen

[Praxislabor] Einführung in die Nutzung von Geoinformationssystemen (GIS) für Historiker mit QGIS

Niklas Alt

Der Workshop richtet sich an GIS-Interessierte Historiker*innen ohne Vorkenntnisse. Unter Nutzung des Open-Source Geoinformationssystems QGIS wird an historischen Fallbeispielen Grundlagenwissen zu Geodaten, Referenzsystemen und v.a. der Visualisierung von Forschungsdaten vermittelt. Besonderes Augenmerk wird dabei auf die Berücksichtigung der zeitlichen Dimension gelegt. Die Materialien des Workshops werden den Teilnehmern im Vorfeld zur Verfügung gestellt. Die Lektionen verbinden theoretisches Basiswissen mit praktischer Anwendung. Jede Lektion schließt mit Hinweisen auf Ressourcen zur Vertiefung der vorgestellten Inhalte.



[...]

Quelle: https://digigw.hypotheses.org/3712

Weiterlesen

Digitale Quellenkritik: Quellenkritik 1.1 oder besser 2.0?

Zusammenfassung der Session 3.1 “Digitale Quellenkritik” des Barcamps “Vermittlung von Data Literacy in den Geisteswissenschaften“ auf der DHd2020 in Paderborn, ausgerichtet von der AG Datenzentren des DHd.

Übersichtsblogpost zum Barcamp: Ulrike Wuttke, Marina Lemaire: “Offen, vielfältig und kreativ. Ein Bericht zum Barcamp Data Literacy #dhddatcamp20 bei der DHd 2020“, 08.06.2020, DHd Blog.

Autor:innen:

  • Aline Deicke, Digitale Akademie, Akademie der Wissenschaften und der Literatur | Mainz


  • [...]

Quelle: https://dhd-blog.org/?p=14726

Weiterlesen

„Abgeleitete Textformate“ als neuer Ansatz für die Arbeit mit urheberrechtlich geschützten Texten

Bericht vom DFG-Experten-Workshop zu „Strategien für die Nutzbarmachung urheberrechtlich geschützter Textbestände für die Forschung durch Dritte“ an der Universität Trier.

In einem zweitägigen von der DFG geförderten Workshop gingen Expertinnen und Experten am 28. November 2019 sowie am 17. Januar 2020 an der Universität Trier der Frage nach, wie nach geltendem Urheberrecht bisher geschützte Textbestände für Forschungszwecke genutzt und publiziert werden können. Der interdisziplinäre Workshop wurde konzipiert und organisiert von Prof. Dr. Benjamin Raue (Institut für Recht und Digitalisierung Trier) und Prof. Dr. Christof Schöch (Trier Center for Digital Humanities).

[...]

Quelle: https://dhd-blog.org/?p=14616

Weiterlesen

Workshop “Metadaten Analysieren” der DHd-AG Zeitungen & Zeitschriften

von Nanette Rißler-Pipka, Harald Lordick und Torsten Roeder

Während viele Millionen Zeitungs- und Zeitschriftenseiten in Portalen wie Europeana oder der Deutschen Digitalen Bibliothek am Bildschirm lesbar sind, steht maschinenlesbarer Text nur in kleinen Mengen der Forschung zur Verfügung. Schade, denkt man: Damit kann man ja nur begrenzt etwas anfangen. Doch all diese Digitalisate sind katalogisiert und manchmal sogar zu einem Anteil bis auf die Inhaltsverzeichnisse jeder Ausgabe, also bis auf Artikelebene erfasst. Für Zeitungen und Zeitschriften sind diese zusätzlichen Informationen schon durch die Struktur des Mediums besonders reichhaltig und wichtig.

Diese Informationen nennen wir “Metadaten”.[1] Und es ist gut, dass es sie gibt: Sie verraten uns zum einen in systematischer Form das, was aus den Digitalisaten explizit hervorgeht, wie etwa  den Namen der Zeitung/Zeitschrift, den Druckort, das Erscheinungsdatum. Zum anderen enthalten sie beispielsweise auch die Regelmäßigkeit des Erscheinens, die Anzahl der gescannten und der gedruckten Exemplare, die Autorinnen und Autoren sowie weitere Akteure, die Anzahl der Seiten und der Artikel oder die Sprache, in der die Artikel verfasst wurden. All dies kann viel Recherche erfordern.

[...]

Quelle: https://dhd-blog.org/?p=14457

Weiterlesen

Call for Participants: Online Summerschool und Workshop Digitale Editionen

Gemeinsam mit der CAU Kiel und dem Institut für Dokumentologie und Editorik (IDE) bietet die Forschungsstelle für die Geschichte der Hanse und des Ostseeraums (FGHO) eine Summerschool und einen Workshop zum Digitalen Edieren an. Die Summerschool wird wochentags vom 17.-27. August 2020 stattfinden, der Workshop in der zweiten Veranstaltungswoche (24.-27. August) jeweils nachmittags. Aufgrund der COVID-19-bedingten Umstände werden beide Veranstaltungen ausschließlich online abgehalten.

Die Summerschool ist offen für alle, die sich für die Grundlagen digitalen Edierens interessieren. Die Teilnahme ist kostenlos.

[...]

Quelle: https://dhd-blog.org/?p=14022

Weiterlesen

Ärmel hochgekrempelt! – Kompetenzen in den Digital Humanities und im Forschungsdatenmanagement

Leitfragen der Session: Was sind DH-FDM-Skills? Welche Kompetenzen werden benötigt? Gibt es Best Practices? Was gehört in ein Data Literacy Curriculum? Was muss ein/e traditionelle/r Geisteswissenschaftler/in wissen, um mit einem Digital Humanist zusammenzuarbeiten?

Nachbericht zur Session 2.1 des Barcamp „Vermittlung von Data Literacy in den Geisteswissenschaften“ auf der DHd 2020 in Paderborn.
Übersichtsblogpost zum Barcamp: Ulrike Wuttke, Marina Lemaire: „Offen, vielfältig und kreativ. Ein Bericht zum Barcamp Data Literacy #dhddatcamp20 bei der DHd 2020“, 08.

[...]

Quelle: https://dhd-blog.org/?p=13991

Weiterlesen

Datenqualität und LOD in den Geisteswissenschaften

Nachbericht zur Session 1.1 des Barcamp „Vermittlung von Data Literacy in den Geisteswissenschaften“ auf der DHd 2020 in Paderborn.

Autor*innen:
Jonathan Geiger, Digitale Akademie, Akademie der Wissenschaften und der Literatur | Mainz
Thomas Skowronek, Leibniz-Institut für Geschichte und Kultur des östlichen Europa (GWZO), Leipzig 
Aline Deicke, Digitale Akademie, Akademie der Wissenschaften und der Literatur | Mainz

Pinnwand, auf der mit bunten Zetteln die Ergebnisse der Session als Stichworte angepinnt sind
Pinnwand mit den Ergebnissen der Session (Aline Deicke, CC BY)

In der Session “Datenqualität und LOD in den Geisteswissenschaften” des Barcamps “Data Literacy”, organisiert von der DHd-AG Datenzentren auf der DHd-Konferenz 2020 in Paderborn, wurden die beiden Ausgangsfragen nach der Datenqualität in den Geisteswissenschaften und Linked Open Data in einer Trias „Datenqualität“, „Data Literacy“ und „LOD in den Geisteswissenschaften“ aufgespannt. Wie sich in der Diskussion der drei Themenfelder und ihrer Beziehung gezeigt hat, drehen sich Fragen der Qualität, Kompetenz und Standardisierung in den Geisteswissenschaften (und vermutlich nicht nur dort) einerseits um technische Entwicklungen, andererseits – und zu einem großen Teil – um Personen, Prozesse und Ressourcen.

Datenqualität und -standards

Besonders im Fokus stand dabei die Datenqualität. Es gibt einen breiten Konsens darüber, dass in der (geisteswissenschaftlichen) Forschung ein hohes Maß an Datenqualität herrschen und hergestellt werden muss. Datenqualität ist dabei ein komplexes, multidimensionales Gebilde – beispielsweise können eine technische, eine informationelle und eine didaktische Dimension unterschieden werden, die sich aber stets wechselseitig bedingen.

[...]

Quelle: https://dhd-blog.org/?p=13704&utm_source=rss&utm_medium=rss&utm_campaign=datenqualitaet-und-lod-in-den-geisteswissenschaften

Weiterlesen

Von Daten zu Wissen: Workshop zu ausgewählten DH-Tools

veranstaltet durch das DFG-Langfristvorhaben „Kommentierte digitale Edition der Reise- und Sammlungsbeschreibungen Philipp Hainhofers (1578–1647)“ an der Herzog August Bibliothek Wolfenbüttel

Wolfenbüttel, Herzog August Bibliothek, 11.-12. Mai 2020

Ort: Seminarraum im Meißnerhaus

Organisation: Martin de la Iglesia (HAB), Timo Steyer (TU Braunschweig) und Michael Wenzel (HAB)

Der eineinhalbtägige Workshop soll eine Einführung in das Arbeiten mit ausgewählten Technologien bieten, die hochrelevant für eine Vielzahl verschiedener geisteswissenschaftlicher Forschungsfelder sind. In praxisorientierten Sessions erlernen die Teilnehmerinnen und Teilnehmer die Anwendung einiger Tools und wie diese in ihrem wissenschaftlichen Arbeitsalltag eingesetzt werden können. Zugleich soll die kritische Reflexion und Evaluierung dieser Arbeitsmittel angeregt werden. Verbindendes Element dieser Software-Lösungen ist ihre Unterstützung der geisteswissenschaftlich Forschenden in der Kette der Aktivitäten aus Datenerhebung, Datenverarbeitung und Datenauswertung, an deren Ende schließlich die Gewinnung neuen Wissens steht.

[...]

Quelle: https://dhd-blog.org/?p=13115

Weiterlesen