FactGrid Goes NFDI

Friday week before last, we received the news that so many working groups had been eagerly awaiting: the 4Memory consortium (of historical studies) will become part of the Nationale Forschungsdateninfrastruktur (NFDI), the German National Research Data infrastructure.

This is exciting news for FactGrid, just weeks before its fifth birthday. We will be acting as an official repository for historical data in the upcoming NFDI structure. German projects can now make a good case that FactGrid is the optimal platform for their data.

NFDI4Memory task areas

Changing the rules of our present research data management

The German National Research Data Infrastructure aims to bring transparency and sustainability to all research fields, from microbiology to computational linguistics. Whether researchers are still collecting data entirely for themselves in private Word documents and Excel spreadsheets, or whether they are working on digital platforms that are more or less designed like conventional books, designed to be read and looked at – they will face new questions in their research grant applications: Do they produce data? Do they correct publicly available data? If so, the new questions will be: How do they make sure that others can actually work with their data?

[...]

Quelle: https://blog.factgrid.de/archives/3104

Weiterlesen

[Praxislabor] Digitale Bibliographien und Recherchetools in den Fachinformationsdiensten

Wiebke Herr, Anna Lisa Schwartz, Philipp Weiß (Bayerische Staatsbibliothek), Andreas Hartmann (Universität Augsburg)

Digitale Bibliographien und Recherchetools in den Fachinformationsdiensten. Gnomon Bibliographische Datenbank, Deutsche Historische Bibliografie und historicumSEARCH

Der Umgang mit digitalen Recherchewerkzeugen ist eine Voraussetzung für erfolgreiche wissenschaftliche Arbeit in Studium, Lehre und Forschung. Bibliographische Datenbanken und Metasuchangebote haben sich seit längerem in den Geschichtswissenschaften etabliert und bieten signifikante Mehrwerte gegenüber Printangeboten: Die Datenbestände sind breiter und aktueller angelegt, moderne Suchmaschinentechnologie erleichtert die Auffindbarkeit und Nachnutzung der Daten, und die Recherche ist unabhängig vom lokalen Bestand möglich. Eine effiziente und umfassende Nutzung dieser Angebote setzt gewisse Vorkenntnisse voraus, die im Workshop vermittelt und praktisch erprobt werden sollen. Im Zentrum stehen drei für Historiker*innen relevante Angebote, die im Rahmen der Fachinformationsdienste Geschichtswissenschaft und Altertumswissenschaften von der Bayerischen Staatsbibliothek und ihren Kooperationspartnern entwickelt werden: Gnomon Bibliographische Datenbank, Deutsche Historische Bibliografie und historicumSEARCH. Die Teilnehmer*innen erhalten Informationen aus erster Hand über den jeweiligen Projektstand, den inhaltlichen Zuschnitt der Datenbestände, die fachlich-systematische Erschließung sowie über Suchfunktionalitäten, Verfügbarkeitsanzeige und Exportmöglichkeiten für bibliographische Metadaten. Es besteht Gelegenheit, die theoretischen Kenntnisse praktisch zu vertiefen.



[...]

Quelle: https://digigw.hypotheses.org/3787

Weiterlesen

[Praxislabor] Ego-Dokumente als historische Quelle: Recherchieren, Publizieren, Forschen

mit Dr. Katarzyna Adamczak und Dr. Arnošt Štanzel

17.05.2021, 10.00-11.30 Uhr

Ego-Dokumente als Quellen für historische Forschung bieten ein breit ausgefächertes und höchst spannendes Untersuchungsfeld. Was macht sie so interessant?

[...]

Quelle: https://digigw.hypotheses.org/3747

Weiterlesen

[Praxislabor] Gelehrte Journale und Zeitungen als Netzwerke des Wissens im Zeitalter der Aufklärung

Dr. Maja Eilhammer, Veronika Hausler, Sylvia Memmleb (BSB München), Reinhard Spiekermann, Jenny Standke, (Akademie der Wissenschaften zu Göttingen)

Deutungskämpfe in den Gelehrten Journalen

GJZ 18 stellt ein effektives Navigationsinstrument für die Rezensionszeitschriften der gesamten Aufklärungsepoche dar. Das Projekt arbeitet seit dem Jahr 2011 unter der Trägerschaft der Akademie der Wissenschaften zu Göttingen in enger Kooperation mit der SUB Leipzig und der BSB München. Insgesamt 65 deutschsprachige Periodika des 18. Jahrhunderts werden erschlossen und in einer Datenbank der Forschung zur Europäischen Aufklärung zur Verfügung gestellt. Bis 2025 wird das gesamte Zeitschriftenkorpus (mit zwei Vorgängerprojekten) insgesamt 323 Zeitschriften umfassen, bestehend aus ca. 2.775 Bänden.

[...]

Quelle: https://digigw.hypotheses.org/3673

Weiterlesen

[Praxislabor] Geovistory – eine virtuelle Forschungsplattform für Geisteswissenschaften

Francesco Beretta: francesco.beretta@cnrs.fr und David Knecht: knecht@kleiolab.ch

Geovistory ist eine von Projekten in der Schweiz, Frankreich und Holland genutzte Webplattform für geistes- und  – spezifisch – geschichtswissenschaftliche Forschungsprojekte. Geovistory soll Forscher/innen als einfach zugängliches, digitales Werkzeug unterstützen und deren Forschung auf attraktive Weise Geschichtsinteressierten zugänglich machen. Dafür bildet Geovistory den gesamten Forschungsprozess digital ab: Von der Erfassung der Quellen, über die Annotation von Texten, die Verwaltung von projektspezifische Vokabularen, den Aufbau eines Informationsnetzes und die (räumliche) Analyse der Forschungsdaten bis hin zur Publikation der Ergebnisse. Um offene und wiederverwertbare Daten nach den FAIR-Kriterien zu produzieren, ist das CIDOC-CRM-basierte Datenmodell mit dem kollaborativen Ontology Management Environment OntoME verknüpft, das vom Laboratoire de recherche historique Rhône-Alpes (Lyon) betrieben wird.

Im Workshop geben wir Interessierten die Möglichkeit, hands-on einen Einblick in die Forschung mit Geovistory zu erhalten.

[...]

Quelle: https://digigw.hypotheses.org/3679

Weiterlesen

[Praxislabor] Arbeiten mit (vielen) retrodigitialisierten Quellen: Texterkennung und Metadatenextraktion in PDF-Dateien mit freier Software

Moritz Mähr (wiss. Mitarbeiter an der Professur für Technikgeschichte, Zürich)

Lernen Sie in PDF-Dateien Texterkennung (OCR) und Textextraktion mit kostenlosen Befehlszeilenwerkzeugen wie Tesseract und Poppler durchzuführen und sich schnell einen Überblick über eine grosse Anzahl von PDF-Dokumenten zu verschaffen.

Zielpublikum

Wenn Sie eines oder mehrere der folgenden Kriterien erfüllen, wird diese Lektion für Sie lehrreich sein:

  • Sie arbeiten mit textbasierten Quellen und müssen den Inhalt der Quellen extrahieren.
  • Ihre Dateien liegen im PDF-Format vor oder können in dieses Dateiformat konvertiert werden.


  • [...]

Quelle: https://digigw.hypotheses.org/3683

Weiterlesen

[Praxislabor] Digitale Computergenealogie und kollaborative Datenerhebung mit „DES“. Ein Citizen Science-Projekt

Moritz Müller (wiss. Mitarbeiter der Professur Wirtschafts- und Sozialgeschichte, MLU Halle-Wittenberg) und Katrin Moeller (Leiterin des Historischen Datenzentrums Sachsen-Anhalt)

Genealogische Vereine haben im letzten Jahrzehnt riesige Datenbanken kollaborativ erarbeitet. Citizen Science haben einen großen Zulauf. Besonders der Verein für Computergenealogie bietet Daten offen und für alle zugänglich an und hat zahlreiche Werkzeuge und Hilfsmittel zur kollaborativen Zusammenarbeit entwickelt. Mithilfe des digitalen Erfassungssystems „DES“ läuft im Frühjahr 2021 ein großes digitales Erfassungsprojekt zu den evangelischen Kirchenbüchern der Mariengemeinde und der St.-Georgen-Gemeinde in Halle (Saale) aus dem 19. Jahrhundert an, das die bereits existierenden Datensammlungen zur Frühen Neuzeit (Mariengemeinde 1670 bis 1820) ergänzen soll. Der Workshop soll einen Einblick in Computergenealogie und Erfassungsrichtlinen geben und Wissenschaftler*innen und Bürgerwissenschafler*innen zusammenführen.



[...]

Quelle: https://digigw.hypotheses.org/3688

Weiterlesen

[Praxislabor] Historische Karten mit Qgis erstellen und publizieren. Digitaler Workshop

Katrin Moeller

Webservices und Geodatenportale bieten mittlerweile gute Grundlagen zur Nachnutzung von meist modernen räumlichen Daten. Sie basieren auf freien Lizenzen und ermöglichen damit einen effektiven Zugriff und die schnelle digital-grafische Umsetzung darauf basierender räumlicher Informationen. Daher nimmt auch innerhalb der Digital Humanities-Community das Interesse an der Verarbeitung von räumlichen Informationen und Analysen erheblich zu. Mittlerweile gibt es mehrere große Projekte, die sich mit der Georeferenzierung historischer Karten und der Erzeugung und Verarbeitung von Normdaten für historische Raumbeziehungen beschäftigen. Allerdings bieten längst nicht alle Projekte auch offene, nachnutzbare Daten mit freien Lizenzen an, sondern bilden letztlich neue geschlossene Systeme oder kostenpflichtige Services. Mit QGis steht allerdings seit 2002 eine Freeware zur Verfügung, die zwar auf den ersten Blick etwas komplex wirkt, tatsächlich aber schnelle Möglichkeiten bietet, um räumliche Informationen selbst zu präsentieren und zu verarbeiten.

Im Workshop soll ein Einblick in die Software erfolgen und anhand eines Beispiels die Georeferenzierung historischer Karten sowie die Erstellung von Karten, die Anbindung von Daten sowie die Analyse nachvollziehbar demonstriert und mit den Teilnehmer*innen ausprobiert werden. Anhand kleinerer Projekte werden eigene Kartenschichten erzeugt (Layer) und Forschungsdaten aus historischen Projekten visualisiert.

[...]

Quelle: https://digigw.hypotheses.org/3692

Weiterlesen

[Praxislabor] Daten kollaborativ handhaben: FactGrid, eine Wikibase Plattform für Historiker*innen

Olaf Simons

Kaum eine Software zieht in den Digital Humanities derzeit ein so großes Interesse auf sich wie Wikibase, die Datenbank-Erweiterung für Mediawikis, die Wikimedia Deutschland federführend für das Wikidata-Projekt entwickelte.
Das hat zum einen mit dem Wikidata Projekt selbst zu tun, das sich in den letzten Jahren zum Brückenkopf zwischen den verschiedensten Datenbankprojekten entwickelte. Das hat im selben Moment damit zu tun, dass die größeren Bibliothekskonsortien diese Software soeben im Interesse an einem in Zukunft globalen Normdatenaustausch evaluieren.
Vor allem die konzeptionelle Offenheit und Transparenz der Software besticht: Konsequent Trippel-basiert meidet Wikibase die Einengungen herkömmlicher relationaler Datenbanken. Beliebige Datenbankobjekte lassen sich in beliebige Beziehungen zueinander setzen, ohne dass Nutzer vorab wissen müssen, welcherart Statements sie mit der Zeit generieren werden. Standard-Visualisierungen sind mit dem SPARQL-Endpoint im Angebot der freien open source Software. Datenein- und -Ausgabe sind unkompliziert gestaltet. Vor allem aber frappiert die mehrsprachige Nutzbarkeit: Daten lassen sich in beliebigen Sprachen ein- und in andern auslesen – die ideale Voraussetzung für international vernetzte Projekte.



[...]

Quelle: https://digigw.hypotheses.org/3721

Weiterlesen

[Praxislabor] Datendokumentation für eine digitale Edition

Welche Informationen über die Daten brauchen Datennachnutzer:innen?

Marina Lemaire

Es braucht mehr als nur die Forschungsdaten selbst, um sie nachnutzen zu können. Doch WAS ist das MEHR? Und WIE kann man diese Informationen erzeugen und später zur Verfügung stellen? Dies adressiert viel weniger technische Aspekte als die meisten meinen, sondern betreffen vorwiegend inhaltliche Fragen zur wissenschaftlichen Praxis und Methode. D.h. es ist eine breite Diskussion in den geisteswissenschaftlichen Disziplinen dazu notwendig, um die Forschungsprozesse an die digitalen Anforderungen zu adaptieren, um die Forschungsdaten FAIR zu machen.

[...]

Quelle: https://digigw.hypotheses.org/3698

Weiterlesen