Georg-Eckert-Institut Braunschweig (Georg-Eckert-Institut); Deutsches Historisches Institut Washington (DHIW); Verband der Historiker und Historikerinnen Deutschlands (VHD); CLARIN-D Fach-AG Geschichte AG „Digitale Geschichtswissenschaft“ im VHD
Termin und Ort: 25.09.2017-26.09.2017, Berlin Deadline: 31.05.2017
In der Geschichtswissenschaft hat die Diskussion um große Datenmengen und der Umgang mit Methoden und Theorien aus verschiedenen disziplinären Kontexten eine lange Tradition. Dennoch scheint die fortschreitende Digitalisierung Fragen und Herausforderungen zu evozieren, die für das Fach neu sind, die nach neuen Arbeitsweisen verlangen und Historiker/innen fordern, den Methodenkanon ihres Faches zu erweitern.
Der Workshop richtet sich sowohl an Computerlinguisten als auch an Wissenschaftler im Bereich der Digital Humanities, die DH-Module – und im speziellen NLP – unterrichten. Im Workshop wechseln Vorträge und Diskussionen ab, um Erfahrungen auszutauschen, best practices zu diskutieren, Lehrkonzepte vorzustellen und bereits vorhandene Technologien zu demonstrieren. Der Workshop stellt außerdem ein Forum dar, um Anforderungen und Hilfestellungen für zukünftige Entwicklungen von DH Curricula in Richtung Computerlinguistik zu adressieren. Der Workshop soll Kooperationen fördern und Wissen und Ansätze DH-übergreifend befruchten.
Vom 16.-17. März 2017 fand in Würzburg der 14. Workshop der DH-Tagungsreihe <philtag/> statt. Die etablierte Würzburger Tagungsreihe zum Einsatz digitaler Methoden in den Geistes- und Kulturwissenschaften bietet den Teilnehmern die Möglichkeit, sich über neue Trends, Projekte und Technologien im Bereich der Digital Humanities zu informieren und auszutauschen. Wie schon im Vorjahr wurde der Workshop auch in diesem Jahr wieder von KALLIMACHOS, dem Zentrum für digitale Edition und quantitative Analyse der Universitätsbibliothek Würzburg, ausgerichtet. Den thematischen Schwerpunkt der diesjährigen Tagung stellten Digitale Editionen im erweiterten Sinne dar. Die insgesamt zwölf Vorträge beschäftigten sich mit Verfahren zur Erschließung digitaler Volltexte, insbesondere durch Optical Character Recognition (OCR), sowie mit der Korrektur, Auszeichnung und schließlich der Präsentation und Visualisierung der Texte und Textkorpora im Netz.
Tag 1
Den Anfang machten Wahed Hemati und Tolga Uslu (Universität Frankfurt), die zwei beim Frankfurter Text Technology Lab entwickelte Projekte vorstellten: Das Projekt Wikidition bietet eine Darstellungsumgebung für digitale Editionen, die auf Semantic MediaWiki basiert und unter Anderem Möglichkeiten zur Lemmatisierung, Annotation und Vergleich der erfassten Texte liefert.
»Ich bin der Überzeugung, dass es Ihnen mit diesem Werk gelungen ist, unsere Vorstellung vom Wesen sowohl des ›Griechischen‹ wie des ›Tragischen‹ gültig zu gestalten, gültig und deshalb bleibend. Ähnliches scheint mir nur Gluck mit seinem ›Orpheus‹ und Strauss mit seiner ›Elektra‹ vergönnt gewesen…
International Workshop within the Framework of the European Holocaust Research Infrastructure (EHRI) supported by the European Commission
Organized by Centro di Documentazione Ebraica Contemporanea – CDEC Foundation and the Università Cà Foscari – Venice 29 -30 June 2017
In conjunction with the international LODLAM Summit, Venice, 28th-29th June 2017
We would like to invite you to participate in the international workshop on“ Data Sharing, Holocaust Documentation and the Digital Humanities. Best Practices, Case Studies, Benefits“, to be held in Venice on 29-30 June 2017.
Launched in November 2010, the main goal of EHRI is the implementation of a research infrastructure, which enables collaborative work in Holocaust research and documentation. As part of the infrastructure work, EHRI integrates archival metadata across institutional, national and language boundaries, making it searchable and helping researchers to find relationships between archival collections. This context makes the deployment of efficient data collection, sharing, processing and integration technologies and approaches (including semantic technologies) crucial to achieve success in the implementation of the infrastructure.
Image by Ontotext
The EHRI workshops are organized for the purpose of generating a creative exchange of knowledge and views between professionals in various subfields of Holocaust research and documentation, along with experts outside the field of Holocaust studies who can share their experience and methodologies.
Hypermediale Sprachauskunftssysteme sind logisch strukturierte Informationsangebote im Internet, mit deren Hilfe sich Fakten und Zusammenhänge über natürliche Sprache zunächst speichern und anschließend einem breiten Nutzerkreis zur Verfügung stellen lassen. Eine wesentliche Motivation entspringt der Vision von einem zentralen Informations-Repository, das digitale, hypertextuell oder in einer Datenbank organisierte Inhalte multifunktional nutzbar machen kann. Populär ist in diesem Zusammenhang der Leitsatz „Write once, publish anywhere“, der das Bestreben hervorhebt, einmal niedergeschriebenes Wissen bei Bedarf ohne umfangreiche manuelle Nachbearbeitung für unterschiedliche Publikationskanäle zu verwenden. Ferner steht die Ausrichtung auf den individuellen Endanwender im Fokus, so dass linguistische Inhalte idealerweise für unterschiedliche Nutzergruppen und variable Benutzungssituationen (fundierte Untersuchung vs. Ad-hoc-Recherche etc.) aufbereitet und zur Verfügung gestellt werden.
Sprachauskunftssysteme, die von Forschungsinstitutionen aufgebaut und gepflegt werden – hierzu gehören im deutschsprachigen Raum etwa das grammatische Informationssystem GRAMMIS oder das Wortschatz-Informationssystem OWID am Institut für Deutsche Sprache (IDS), weitere Online-Wörterbücher wie DWDS oder das Leipziger Wortschatz-Portal – , aber auch private Initiativen wie leo.org oder canoo.net sind ursprünglich zumeist für die Nutzung von ForscherInnen konzipiert, die am Desktop-Computer bzw.
Eine zentrale Forderung zur Unterstützung digitaler Editionen und Texterschliessungsvorgänge ist das Anbieten virtueller Umgebungen zur Produktion und zum Management digitaler Daten. In den letzten Jahren wurden aufgrund fachwissenschaftlicher Nachfrage mehrere Plattformen geschaffen, die Prozesse der digitalen Datenerstellung von der Aufnahme von Informationen (Metadaten, Transkriptionen) über die Auswertung und Anreicherung bis hin zur Publikation unterstützen. Die Plattformen unterscheiden sich in ihren zugrundeliegenden Konzepten, den Arbeitsabläufe und den integrierten Hilfsmitteln. Damit unterscheiden sich zwangsläufig auch die Angebote, nicht nur in der Leistungsfähigkeit, sondern vor allem in den unterstützten Prozessen und damit ihrer Eignung für bestimmte Projekte.
Im Rahmen eines Panels an der DHd2017 in Bern wurden aus diesem Grund vier im Bereich der Handschriftentranskription häufig eingesetzte, aber gleichzeitig sehr unterschiedliche Plattformen in ihrer Ausrichtung und ihrem Leistungsumfang verglichen und einander gegenübergestellt, nämlich MONK, TextGrid, Transcribo und Transkribus. Zur Vorbereitung des Panels wurden die Anbieter der vier Plattformen gebeten, einen Fragebogen mit den folgenden Punkten zu beantworten:
Idealtypischer Ablauf für den Gebrauch der Plattform
Zeitliche Anforderungen, um ein Projekt aufzusetzen bzw. ein Dokument zu verarbeiten und zu exportieren
Crowdsourcing, Möglichkeit zum Einbezug von Laien oder Externen
Nachhaltigkeit der Plattform bzw. der darin enthaltenen Daten
Updates bis 2018
Im Panel selbst wurden die Systeme von Lambert Schomaker (MONK), Mirjam Blümm (TextGrid), Thomas Burch (Transcribo) und Tobias Hodel (Transkribus) vorgestellt, moderiert wurde das Panel von Michael Piotrowski (Université de Lausanne).
Von Cristian D. Magnus Am 11. Juli 2016 fand an der HSE ein Wissenschaftsgespräch zum Thema „Forschungsperspektiven im Vergleich – Wissenschaftliche Fundierungen der Lehrerbildung“ statt. Herr Prof. Dr. Jürgen Mayer nahm als Experte am…
Unter der Überschrift „Digitale Nachhaltigkeit“ firmierte die DHd-Konferenz 2017 vom 13. -17. Februar 2017 in Bern. Aber was bedeutet digitale Nachhaltigkeit speziell für digitale Editionen? Verschiedene Beiträge des umfangreichen Programms der DHd2017 beschäftigten sich mit der Frage, wie die langfristige Nutzung von Datenbeständen digitaler Editionen über die Laufzeit der jeweiligen Projekte hinaus sichergestellt werden könnte. Daran schloss sich die naheliegende Frage an, ob die Anlage, der Betrieb und die Unterhaltung einer digitalen Edition im Rahmen einer der bekannten virtuellen Forschungsplattformen (VFU) eine längerfristige Nachnutzbarkeit gewähren könne als die durch viele Editionsprojekte entwickelten, maßgeschneiderten Insellösungen.
Zentral für die Fragestellung war das Panel 6: Virtuelle Forschungsplattformen im Vergleich: MONK, Textgrid, Transcribo (FuD) und Transkribus, das sich zum Ziel gesetzt hatte, durch Kurzvorstellung der einzelnen im Titel genannten VFUs unter immer gleichen, vorgegebenen Gesichtspunkten Vergleichbarkeit unter den bestehenden Lösungen herzustellen. Dieser komprimierte Überblick über die unterschiedlichen zur Verfügung stehenden Dienste sollte der Zuhörerschaft im Vergleich ein Urteil über die Anwendungsmöglichkeiten und Unterstützungsangebote von VFUs erlauben. Im Detail ging es um die Herstellung von Transkriptionen, Erfassung von Metadaten, Bild-Text-Verknüpfungen, Export- und Vernetzungsmöglichkeiten und Nachhaltigkeit der jeweiligen Plattform und die Langzeitverfügbarkeit der dort gespeicherten Daten.