[Praxislabor] Ego-Dokumente als historische Quelle: Recherchieren, Publizieren, Forschen

mit Dr. Katarzyna Adamczak und Dr. Arnošt Štanzel

17.05.2021, 10.00-11.30 Uhr

Ego-Dokumente als Quellen für historische Forschung bieten ein breit ausgefächertes und höchst spannendes Untersuchungsfeld. Was macht sie so interessant?

[...]

Quelle: https://digigw.hypotheses.org/3747

Weiterlesen

[Praxislabor] Gelehrte Journale und Zeitungen als Netzwerke des Wissens im Zeitalter der Aufklärung

Dr. Maja Eilhammer, Veronika Hausler, Sylvia Memmleb (BSB München), Reinhard Spiekermann, Jenny Standke, (Akademie der Wissenschaften zu Göttingen)

Deutungskämpfe in den Gelehrten Journalen

GJZ 18 stellt ein effektives Navigationsinstrument für die Rezensionszeitschriften der gesamten Aufklärungsepoche dar. Das Projekt arbeitet seit dem Jahr 2011 unter der Trägerschaft der Akademie der Wissenschaften zu Göttingen in enger Kooperation mit der SUB Leipzig und der BSB München. Insgesamt 65 deutschsprachige Periodika des 18. Jahrhunderts werden erschlossen und in einer Datenbank der Forschung zur Europäischen Aufklärung zur Verfügung gestellt. Bis 2025 wird das gesamte Zeitschriftenkorpus (mit zwei Vorgängerprojekten) insgesamt 323 Zeitschriften umfassen, bestehend aus ca. 2.775 Bänden.

[...]

Quelle: https://digigw.hypotheses.org/3673

Weiterlesen

[Praxislabor] Geovistory – eine virtuelle Forschungsplattform für Geisteswissenschaften

Francesco Beretta: francesco.beretta@cnrs.fr und David Knecht: knecht@kleiolab.ch

Geovistory ist eine von Projekten in der Schweiz, Frankreich und Holland genutzte Webplattform für geistes- und  – spezifisch – geschichtswissenschaftliche Forschungsprojekte. Geovistory soll Forscher/innen als einfach zugängliches, digitales Werkzeug unterstützen und deren Forschung auf attraktive Weise Geschichtsinteressierten zugänglich machen. Dafür bildet Geovistory den gesamten Forschungsprozess digital ab: Von der Erfassung der Quellen, über die Annotation von Texten, die Verwaltung von projektspezifische Vokabularen, den Aufbau eines Informationsnetzes und die (räumliche) Analyse der Forschungsdaten bis hin zur Publikation der Ergebnisse. Um offene und wiederverwertbare Daten nach den FAIR-Kriterien zu produzieren, ist das CIDOC-CRM-basierte Datenmodell mit dem kollaborativen Ontology Management Environment OntoME verknüpft, das vom Laboratoire de recherche historique Rhône-Alpes (Lyon) betrieben wird.

Im Workshop geben wir Interessierten die Möglichkeit, hands-on einen Einblick in die Forschung mit Geovistory zu erhalten.

[...]

Quelle: https://digigw.hypotheses.org/3679

Weiterlesen

[Praxislabor] Arbeiten mit (vielen) retrodigitialisierten Quellen: Texterkennung und Metadatenextraktion in PDF-Dateien mit freier Software

Moritz Mähr (wiss. Mitarbeiter an der Professur für Technikgeschichte, Zürich)

Lernen Sie in PDF-Dateien Texterkennung (OCR) und Textextraktion mit kostenlosen Befehlszeilenwerkzeugen wie Tesseract und Poppler durchzuführen und sich schnell einen Überblick über eine grosse Anzahl von PDF-Dokumenten zu verschaffen.

Zielpublikum

Wenn Sie eines oder mehrere der folgenden Kriterien erfüllen, wird diese Lektion für Sie lehrreich sein:

  • Sie arbeiten mit textbasierten Quellen und müssen den Inhalt der Quellen extrahieren.
  • Ihre Dateien liegen im PDF-Format vor oder können in dieses Dateiformat konvertiert werden.


  • [...]

Quelle: https://digigw.hypotheses.org/3683

Weiterlesen

[Praxislabor] Digitale Computergenealogie und kollaborative Datenerhebung mit „DES“. Ein Citizen Science-Projekt

Moritz Müller (wiss. Mitarbeiter der Professur Wirtschafts- und Sozialgeschichte, MLU Halle-Wittenberg) und Katrin Moeller (Leiterin des Historischen Datenzentrums Sachsen-Anhalt)

Genealogische Vereine haben im letzten Jahrzehnt riesige Datenbanken kollaborativ erarbeitet. Citizen Science haben einen großen Zulauf. Besonders der Verein für Computergenealogie bietet Daten offen und für alle zugänglich an und hat zahlreiche Werkzeuge und Hilfsmittel zur kollaborativen Zusammenarbeit entwickelt. Mithilfe des digitalen Erfassungssystems „DES“ läuft im Frühjahr 2021 ein großes digitales Erfassungsprojekt zu den evangelischen Kirchenbüchern der Mariengemeinde und der St.-Georgen-Gemeinde in Halle (Saale) aus dem 19. Jahrhundert an, das die bereits existierenden Datensammlungen zur Frühen Neuzeit (Mariengemeinde 1670 bis 1820) ergänzen soll. Der Workshop soll einen Einblick in Computergenealogie und Erfassungsrichtlinen geben und Wissenschaftler*innen und Bürgerwissenschafler*innen zusammenführen.



[...]

Quelle: https://digigw.hypotheses.org/3688

Weiterlesen

[Praxislabor] Historische Karten mit Qgis erstellen und publizieren. Digitaler Workshop

Katrin Moeller

Webservices und Geodatenportale bieten mittlerweile gute Grundlagen zur Nachnutzung von meist modernen räumlichen Daten. Sie basieren auf freien Lizenzen und ermöglichen damit einen effektiven Zugriff und die schnelle digital-grafische Umsetzung darauf basierender räumlicher Informationen. Daher nimmt auch innerhalb der Digital Humanities-Community das Interesse an der Verarbeitung von räumlichen Informationen und Analysen erheblich zu. Mittlerweile gibt es mehrere große Projekte, die sich mit der Georeferenzierung historischer Karten und der Erzeugung und Verarbeitung von Normdaten für historische Raumbeziehungen beschäftigen. Allerdings bieten längst nicht alle Projekte auch offene, nachnutzbare Daten mit freien Lizenzen an, sondern bilden letztlich neue geschlossene Systeme oder kostenpflichtige Services. Mit QGis steht allerdings seit 2002 eine Freeware zur Verfügung, die zwar auf den ersten Blick etwas komplex wirkt, tatsächlich aber schnelle Möglichkeiten bietet, um räumliche Informationen selbst zu präsentieren und zu verarbeiten.

Im Workshop soll ein Einblick in die Software erfolgen und anhand eines Beispiels die Georeferenzierung historischer Karten sowie die Erstellung von Karten, die Anbindung von Daten sowie die Analyse nachvollziehbar demonstriert und mit den Teilnehmer*innen ausprobiert werden. Anhand kleinerer Projekte werden eigene Kartenschichten erzeugt (Layer) und Forschungsdaten aus historischen Projekten visualisiert.

[...]

Quelle: https://digigw.hypotheses.org/3692

Weiterlesen

[Praxislabor] Daten kollaborativ handhaben: FactGrid, eine Wikibase Plattform für Historiker*innen

Olaf Simons

Kaum eine Software zieht in den Digital Humanities derzeit ein so großes Interesse auf sich wie Wikibase, die Datenbank-Erweiterung für Mediawikis, die Wikimedia Deutschland federführend für das Wikidata-Projekt entwickelte.
Das hat zum einen mit dem Wikidata Projekt selbst zu tun, das sich in den letzten Jahren zum Brückenkopf zwischen den verschiedensten Datenbankprojekten entwickelte. Das hat im selben Moment damit zu tun, dass die größeren Bibliothekskonsortien diese Software soeben im Interesse an einem in Zukunft globalen Normdatenaustausch evaluieren.
Vor allem die konzeptionelle Offenheit und Transparenz der Software besticht: Konsequent Trippel-basiert meidet Wikibase die Einengungen herkömmlicher relationaler Datenbanken. Beliebige Datenbankobjekte lassen sich in beliebige Beziehungen zueinander setzen, ohne dass Nutzer vorab wissen müssen, welcherart Statements sie mit der Zeit generieren werden. Standard-Visualisierungen sind mit dem SPARQL-Endpoint im Angebot der freien open source Software. Datenein- und -Ausgabe sind unkompliziert gestaltet. Vor allem aber frappiert die mehrsprachige Nutzbarkeit: Daten lassen sich in beliebigen Sprachen ein- und in andern auslesen – die ideale Voraussetzung für international vernetzte Projekte.



[...]

Quelle: https://digigw.hypotheses.org/3721

Weiterlesen

[Praxislabor] Datendokumentation für eine digitale Edition

Welche Informationen über die Daten brauchen Datennachnutzer:innen?

Marina Lemaire

Es braucht mehr als nur die Forschungsdaten selbst, um sie nachnutzen zu können. Doch WAS ist das MEHR? Und WIE kann man diese Informationen erzeugen und später zur Verfügung stellen? Dies adressiert viel weniger technische Aspekte als die meisten meinen, sondern betreffen vorwiegend inhaltliche Fragen zur wissenschaftlichen Praxis und Methode. D.h. es ist eine breite Diskussion in den geisteswissenschaftlichen Disziplinen dazu notwendig, um die Forschungsprozesse an die digitalen Anforderungen zu adaptieren, um die Forschungsdaten FAIR zu machen.

[...]

Quelle: https://digigw.hypotheses.org/3698

Weiterlesen

[Praxislabor] Einführung in die Nutzung von Geoinformationssystemen (GIS) für Historiker mit QGIS

Niklas Alt

Der Workshop richtet sich an GIS-Interessierte Historiker*innen ohne Vorkenntnisse. Unter Nutzung des Open-Source Geoinformationssystems QGIS wird an historischen Fallbeispielen Grundlagenwissen zu Geodaten, Referenzsystemen und v.a. der Visualisierung von Forschungsdaten vermittelt. Besonderes Augenmerk wird dabei auf die Berücksichtigung der zeitlichen Dimension gelegt. Die Materialien des Workshops werden den Teilnehmern im Vorfeld zur Verfügung gestellt. Die Lektionen verbinden theoretisches Basiswissen mit praktischer Anwendung. Jede Lektion schließt mit Hinweisen auf Ressourcen zur Vertiefung der vorgestellten Inhalte.



[...]

Quelle: https://digigw.hypotheses.org/3712

Weiterlesen

NFDI 4Memory: Aufruf zum Einreichen von „Problem Stories“

Die Errichtung einer Nationalen Forschungsdateninfrastruktur (NFDI) und die Planungen zur Etablierung eines eigenen Konsortiums für die historisch arbeitenden Fächer schreiten voran. Nach zwei Corona-bedingten digitalen Community-Treffen, die Ende März stattfanden, organisiert das geplante 4Memory-Konsortium nun eine weitere Aktion, um die Community der Anwender mit ihren Wünschen und Bedarfen in die Entwicklung mit einzubeziehen.

Diesmal geht es darum, „Problem Stories“ zu teilen, d.h. kurz und knapp jene ganz praktischen Probleme und Hindernisse mitzuteilen, mit denen man in der täglichen Arbeit bei der Erhebung, Analyse, Publikation und Nachnutzung von Forschungsdaten konfrontiert ist. Damit soll das beschrieben werden, was derzeit die Entwicklung einer digitalen Geschichtswissenschaft und konkret einer datengetriebenen Forschung hemmt, um dafür in einem nächsten Schritt Lösungsansätze erarbeiten zu können. Das können Fragen der Datenqualität sein, fehlende Standards oder fehlende Schnittstellen und Datenrepositorien, aber auch Probleme in Bezug auf Ausbildung und Qualifikation, Integration in der Lehre, oder auch Autorschaft und Zitation, fehlende Offenheit und Bereitschaft zum Teilen von Daten, wie allgemein der Anerkennung und Wertschätzung datengetriebener historischer Forschung und ihrer Bewertung.

Diese kurzen „Problem-Stories“ können bis zum 1.

[...]

Quelle: https://digigw.hypotheses.org/3635

Weiterlesen