»Ich bin der Überzeugung, dass es Ihnen mit diesem Werk gelungen ist, unsere Vorstellung vom Wesen sowohl des ›Griechischen‹ wie des ›Tragischen‹ gültig zu gestalten, gültig und deshalb bleibend. Ähnliches scheint mir nur Gluck mit seinem ›Orpheus‹ und Strauss mit seiner ›Elektra‹ vergönnt gewesen…
International Workshop within the Framework of the European Holocaust Research Infrastructure (EHRI) supported by the European Commission
Organized by Centro di Documentazione Ebraica Contemporanea – CDEC Foundation and the Università Cà Foscari – Venice 29 -30 June 2017
In conjunction with the international LODLAM Summit, Venice, 28th-29th June 2017
We would like to invite you to participate in the international workshop on“ Data Sharing, Holocaust Documentation and the Digital Humanities. Best Practices, Case Studies, Benefits“, to be held in Venice on 29-30 June 2017.
Launched in November 2010, the main goal of EHRI is the implementation of a research infrastructure, which enables collaborative work in Holocaust research and documentation. As part of the infrastructure work, EHRI integrates archival metadata across institutional, national and language boundaries, making it searchable and helping researchers to find relationships between archival collections. This context makes the deployment of efficient data collection, sharing, processing and integration technologies and approaches (including semantic technologies) crucial to achieve success in the implementation of the infrastructure.
Image by Ontotext
The EHRI workshops are organized for the purpose of generating a creative exchange of knowledge and views between professionals in various subfields of Holocaust research and documentation, along with experts outside the field of Holocaust studies who can share their experience and methodologies.
Hypermediale Sprachauskunftssysteme sind logisch strukturierte Informationsangebote im Internet, mit deren Hilfe sich Fakten und Zusammenhänge über natürliche Sprache zunächst speichern und anschließend einem breiten Nutzerkreis zur Verfügung stellen lassen. Eine wesentliche Motivation entspringt der Vision von einem zentralen Informations-Repository, das digitale, hypertextuell oder in einer Datenbank organisierte Inhalte multifunktional nutzbar machen kann. Populär ist in diesem Zusammenhang der Leitsatz „Write once, publish anywhere“, der das Bestreben hervorhebt, einmal niedergeschriebenes Wissen bei Bedarf ohne umfangreiche manuelle Nachbearbeitung für unterschiedliche Publikationskanäle zu verwenden. Ferner steht die Ausrichtung auf den individuellen Endanwender im Fokus, so dass linguistische Inhalte idealerweise für unterschiedliche Nutzergruppen und variable Benutzungssituationen (fundierte Untersuchung vs. Ad-hoc-Recherche etc.) aufbereitet und zur Verfügung gestellt werden.
Sprachauskunftssysteme, die von Forschungsinstitutionen aufgebaut und gepflegt werden – hierzu gehören im deutschsprachigen Raum etwa das grammatische Informationssystem GRAMMIS oder das Wortschatz-Informationssystem OWID am Institut für Deutsche Sprache (IDS), weitere Online-Wörterbücher wie DWDS oder das Leipziger Wortschatz-Portal – , aber auch private Initiativen wie leo.org oder canoo.net sind ursprünglich zumeist für die Nutzung von ForscherInnen konzipiert, die am Desktop-Computer bzw.
Eine zentrale Forderung zur Unterstützung digitaler Editionen und Texterschliessungsvorgänge ist das Anbieten virtueller Umgebungen zur Produktion und zum Management digitaler Daten. In den letzten Jahren wurden aufgrund fachwissenschaftlicher Nachfrage mehrere Plattformen geschaffen, die Prozesse der digitalen Datenerstellung von der Aufnahme von Informationen (Metadaten, Transkriptionen) über die Auswertung und Anreicherung bis hin zur Publikation unterstützen. Die Plattformen unterscheiden sich in ihren zugrundeliegenden Konzepten, den Arbeitsabläufe und den integrierten Hilfsmitteln. Damit unterscheiden sich zwangsläufig auch die Angebote, nicht nur in der Leistungsfähigkeit, sondern vor allem in den unterstützten Prozessen und damit ihrer Eignung für bestimmte Projekte.
Im Rahmen eines Panels an der DHd2017 in Bern wurden aus diesem Grund vier im Bereich der Handschriftentranskription häufig eingesetzte, aber gleichzeitig sehr unterschiedliche Plattformen in ihrer Ausrichtung und ihrem Leistungsumfang verglichen und einander gegenübergestellt, nämlich MONK, TextGrid, Transcribo und Transkribus. Zur Vorbereitung des Panels wurden die Anbieter der vier Plattformen gebeten, einen Fragebogen mit den folgenden Punkten zu beantworten:
Idealtypischer Ablauf für den Gebrauch der Plattform
Zeitliche Anforderungen, um ein Projekt aufzusetzen bzw. ein Dokument zu verarbeiten und zu exportieren
Crowdsourcing, Möglichkeit zum Einbezug von Laien oder Externen
Nachhaltigkeit der Plattform bzw. der darin enthaltenen Daten
Updates bis 2018
Im Panel selbst wurden die Systeme von Lambert Schomaker (MONK), Mirjam Blümm (TextGrid), Thomas Burch (Transcribo) und Tobias Hodel (Transkribus) vorgestellt, moderiert wurde das Panel von Michael Piotrowski (Université de Lausanne).
Von Cristian D. Magnus Am 11. Juli 2016 fand an der HSE ein Wissenschaftsgespräch zum Thema „Forschungsperspektiven im Vergleich – Wissenschaftliche Fundierungen der Lehrerbildung“ statt. Herr Prof. Dr. Jürgen Mayer nahm als Experte am…
Unter der Überschrift „Digitale Nachhaltigkeit“ firmierte die DHd-Konferenz 2017 vom 13. -17. Februar 2017 in Bern. Aber was bedeutet digitale Nachhaltigkeit speziell für digitale Editionen? Verschiedene Beiträge des umfangreichen Programms der DHd2017 beschäftigten sich mit der Frage, wie die langfristige Nutzung von Datenbeständen digitaler Editionen über die Laufzeit der jeweiligen Projekte hinaus sichergestellt werden könnte. Daran schloss sich die naheliegende Frage an, ob die Anlage, der Betrieb und die Unterhaltung einer digitalen Edition im Rahmen einer der bekannten virtuellen Forschungsplattformen (VFU) eine längerfristige Nachnutzbarkeit gewähren könne als die durch viele Editionsprojekte entwickelten, maßgeschneiderten Insellösungen.
Zentral für die Fragestellung war das Panel 6: Virtuelle Forschungsplattformen im Vergleich: MONK, Textgrid, Transcribo (FuD) und Transkribus, das sich zum Ziel gesetzt hatte, durch Kurzvorstellung der einzelnen im Titel genannten VFUs unter immer gleichen, vorgegebenen Gesichtspunkten Vergleichbarkeit unter den bestehenden Lösungen herzustellen. Dieser komprimierte Überblick über die unterschiedlichen zur Verfügung stehenden Dienste sollte der Zuhörerschaft im Vergleich ein Urteil über die Anwendungsmöglichkeiten und Unterstützungsangebote von VFUs erlauben. Im Detail ging es um die Herstellung von Transkriptionen, Erfassung von Metadaten, Bild-Text-Verknüpfungen, Export- und Vernetzungsmöglichkeiten und Nachhaltigkeit der jeweiligen Plattform und die Langzeitverfügbarkeit der dort gespeicherten Daten.
Eigentlich ist es schon eine merkwürdige Vorstellung, Zeit zu „managen“ Ist sie doch mehr etwas subjektiv Wahrgenommenes, eine reine Anschauungsform. Trotzdem waren erstaunlich viele „nebenberuflich Promovierende“ bei der Veranstaltung des Bonner Graduiertenzentrums (BGZ) der Universität Bonn im Rahmen des Weiterbildungsprogramms „Promotion plus“.
Vor dem Seminar – Mein bisheriges System
Neben der Promotion bin ich im NS-Dokumentationszentrum (NS-Dok) Köln 10 Stunden in der Woche am Projekt „Opposition und Widerstand“ beteiligt und für ein bis zwei Stunden in der Museumspädagogik. Seit dem 01.02. arbeite ich außerdem noch zwanzig Stunden pro Woche für ein Stuttgarter Unternehmen. Diese Tätigkeiten kann ich meist sehr gut miteinander Verknüpfen, so liegen beispielsweise im Landesarchiv in Duisburg nicht nur Akten, die ich für die Dissertation brauche, sondern auch die für das Projekt des NS-Dok Köln.
Die Abteilung Grammatik des Instituts für Deutsche Sprache (IDS) lädt ein zur zweiten Arbeitstagung ars grammatica, die mit dem Thema „Grammatische Terminologie – Inhalte und Methoden“ vom 8.-9. Juni 2017 am IDS in Mannheim stattfindet.
In Form von Einzel- und Gemeinschaftsvorträgen, Posterständen, Systemdemonstrationen und Diskussionen sollen Fragestellungen diskutiert werden, die sich im Spannungsfeld zwischen inhaltlicher Betrachtung und methodischer Anwendung mit Eigenschaften und Eigenheiten grammatischer Fachsprache beschäftigen:
– Unter inhaltlichem Aspekt gilt es, möglichst exakte Definitionen für Fachtermini zu konzipieren und zu verwenden, um linguistische Phänomene und Erklärungen präzise ausdrücken zu können. Dies stellt naheliegenderweise insbesondere solche wissenschaftliche Disziplinen vor Herausforderungen, in denen variierende Theorieansätze, Erkenntnisinteressen oder subjektive Autorenentscheidungen zu einem uneinheitlichen und im Einzelfall sogar widersprüchlichen terminologischen Inventar führen.
– Unter methodischem Aspekt gilt es, ausreichend mächtige und nachhaltige Strukturen für die Kodierung domänenspezifischer terminologischer Systematiken auszuarbeiten. Das Spektrum reicht hier von methodisch angelegten Fachvokabularien über Thesauri bis hin zu Wissensnetzen und Ontologien mit angemessen modellierten Konzepten und Attributen.
Historische Demographie stellt heute in Deutschland etwas anderes dar als in den 1990er Jahren, als sie sich (auch organisatorisch) eng an die deutsche Bevölkerungswissenschaft anlehnte und (in der Nachfolge von Louis Henry) an demographischen Fragen mit historischem Material arbeitete, und zwar mehr oder weniger als Pioniere des Rechnereinsatzes. Mittlerweile sind historische Demographen innerhalb der Geschichtswissenschaft nicht mehr (gefühlt) allein darin, digital zu arbeiten. Historische Demographie hat – wie andere Zweige der Digitalen Geschichtswissenschaft – mit dem Einsatz digitaler Methoden, aber zunehmend auch digitaler Medien zu tun. Daher soll bei dieser Frühjahrstagung verstärkt die Zusammenarbeit mit den „Digital Humanities“ gesucht werden.
Campus der Philosophischen Fakultät I, Martin-Luther-Universität
Hierbei stehen zwei Themenkomplexe im Zentrum:
(1) Die Nachnutzung, Verknüpfung und Erschließung von Forschungsdaten am Beispiel mehrerer Projekte zum Kurfürstentum bzw. Königreich Sachsen;
(2) die Analyse personen- oder berufsbezogener historischer Massenquellen mit Methoden der Informatik.