Die Nachhaltigkeitsproblematik digitaler Editionen – Workshopbericht

Dass digitale Editionen über die Möglichkeiten ihrer gedruckten Vorgänger und Gegenstücke in vielerlei Hinsicht hinausgehen können, ist breit akzeptiert und in manchem Antragstext schon zur festen Floskel geronnen. Die Editionspraxis im digitalen Medium bietet Raum für ein Textverständnis jenseits eindeutig kanonisierter Fassungen. Stattdessen sieht es “fragile, kollektive, kooperative, intertextuell verwobene, hypertextuell gestufte und segmentierte, temporal veränderliche textliche Äußerungsformen” vor, was ein Buch schwerlich leisten könnte.[1]

Seit den Anfängen der digitalen Editorik besteht aber auch ein Bewusstsein dafür, dass digitale Editionen bezüglich Nachhaltigkeit nicht per se besser abschneiden als bedrucktes Papier.[2] Vielmehr stellen sich hier ganz besondere zusätzliche Herausforderungen, die durchaus auch zur Auffassung führen, dass “nur das gedruckte Buch jene Langfristigkeit, Stabilität, Authentizität und Zitierbarkeit gewährleisten könne, die zu den zentralen Erfordernissen einer zu kanonisierenden Textfassung gehören”, wie es Patrick Sahle im Kontext der argumentativen Fundierung von Hybrideditionen beobachtet.[3]

Die (digitale) Methodenentwicklung ging von Anfang an mit Fragen der Nachhaltigkeit einher. Gut aufzeigen lässt sich dies am Beispiel der Text Encoding Initiative (TEI), die schon in ihrer Urfassung (P1) das Ziel verfolgte, ein Standardformat zum Datenaustausch in der geisteswissenschaftlichen Forschung festzulegen, das als reines Textformat ganz bewusst ohne Spezialsoftware bearbeit- und lesbar sein und sich an bestehenden und entstehenden Standards orientieren sollte.[4] Auch an den deutschen Akademien der Wissenschaften wird die Nachhaltigkeitsproblematik schon länger thematisiert, ein Beispiel dafür ist der Workshop zu Datenrepositorien, den die Arbeitsgruppe Elektronisches Publizieren im Oktober 2010 an der Düsseldofer Akademie durchführte.

[...]

Quelle: https://dhd-blog.org/?p=11033

Weiterlesen

11./12. März 2019: Entwickler-Workshop „ediarum“

Mit ediarum entwickelt die TELOTA-Arbeitsgruppe der Berlin-Brandenburgischen Akademie der Wissenschaften seit einigen Jahren eine Arbeits- und Publikationsumgebung für digitale Editionen. Im vergangenen Herbst wurden die Komponenten ediarum.DB, ediarum.BASE.edit und ediarum.REGISTER.edit, die die einfache Bearbeitung zu edierender Texte und Register in TEI-XML ermöglichen, auf GitHub veröffentlicht. Passend dazu veranstaltet TELOTA nun am 11./12. März einen Entwickler-Workshop, wie man diese Module installiert, konfiguriert und für eigene Projekte anpasst.

[...]

Quelle: https://dhd-blog.org/?p=10962

Weiterlesen

13. TextGrid/DARIAH-Nutzertreffen

An der Hochschule Darmstadt findet am 5. Februar 2019 das dreizehnte TextGrid/DARIAH-Nutzertreffen unter dem Motto „TextGrid und andere DARIAH-Werkzeuge für Studierende“ statt. Das Programm sowie weitere Informationen zur Veranstaltung finden Sie auf der DARIAH-Website.

Quelle: https://dhd-blog.org/?p=10934

Weiterlesen

Forschungsdatenworkshop im Kontext des NFDI-Prozesses an der Universität Paderborn

Am 13. und 14. Dezember 2018 findet im Heinz Nixdorf MuseumsForum in Paderborn ein „Workshop zu Forschungsdaten in der Musikwissenschaft / audio-visuelle Kulturgüter“ statt, zu dem die Gesellschaft für Musikforschung, die Landesinitiative NFDI der Digitalen Hochschule NRW, der Virtuelle Forschungsverbund Edirom und das Zentrum Musik – Edition – Medien eingeladen haben.

Ziel dieses Workshops ist einerseits eine genauere Bestimmung der Anforderungen des Faches an eine künftige Nationale Forschungsdateninfrastruktur (NFDI), zum anderen aber auch das Skizzieren der Aufgaben einer solchen Infrastruktur gemeinsam mit potentiellen Beteiligten eines fächerübergreifenden Konsortiums. Die ca. 70 Teilnehmer kommen aus den Bereichen Forschung, Hochschule, Gedächtnisinstitutionen, Museen, Kompetenz- und Rechenzentren sowie Forschungsorganisation und vertreten unterschiedliche Fachverbände.

Das detaillierte Programm ist unter https://nfdi.edirom.

[...]

Quelle: https://dhd-blog.org/?p=10814

Weiterlesen

Workshop-Bericht „Nicht-lateinische Schriften in multilingualen Umgebungen: Forschungsdaten und Digital Humanities in den Regionalstudien“

Welche Anforderungen und Bedarfe hinsichtlich der Ausgestaltung einer (nationalen) Forschungsdateninfrastruktur bestehen aus Sicht geisteswissenschaftlicher Fächer? Diese Frage wird derzeit – nicht zuletzt auf Initiative des DHd-Verbands –  intensiv diskutiert und in Positionspapieren dokumentiert.[i]

Ein vom BMBF-Forschungsprojekt FDM_OAS-Orient[ii] am 03.07.2018 an der Campusbibliothek der Freien Universität Berlin organisierter Workshop  nahm in diesem Zusammenhang das Thema „Nicht-lateinische Schriften in multilingualen Umgebungen: Forschungsdaten und Digital Humanities in den Regionalstudien“ in den Blick.  27 Wissenschaftlerinnen und Wissenschaftler, IT-/Daten-Expertinnen und Experten, Bibliothekarinnen und Bibliothekare kamen aus ganz Deutschland[iii] zusammen, um Herausforderungen und Bedarfe der Erstellung, Verarbeitung, Analyse, Archivierung und Nachnutzung von Forschungsdaten in nicht-lateinischen Schriften im allgemeinen sowie vor dem Hintergrund der im Entstehen begriffenen Nationalen Forschungsdateninfrastruktur (NFDI) im Besonderen zu diskutieren.

Hauptanliegen des Workshops war es, die verschiedenen Problemstellungen im Umgang mit Daten in nicht-lateinischen Schriften zusammenzutragen und diesbezügliche Bedarfe von Forschungsprojekten zu bündeln. Es gab Gelegenheit, bisherige Erfahrungen mit Software und Originalschrift / nicht-lateinischen Schriften zu teilen und gemeinsam mögliche Lösungsansätze zu skizzieren.

[...]

Quelle: https://dhd-blog.org/?p=10669

Weiterlesen

2. Workshop des Projektes “Digital Plato”

Am 26. Oktober 2018 findet an der Martin-Luther-Universität Halle-Wittenberg der 2. Workshop des Projektes “Digital Plato” statt.

Unser Projekt hat es sich zur Aufgabe gemacht, die Platon-Rezeption in der griechischen Literatur der Antike zu erschließen und besonders nicht wörtliche intertextuelle Bezüge detektierbar zu machen. In einer Kooperation von Altertumswissenschaften, Korpuslinguistik und Informatik haben wir zu diesem Zweck eine Webumgebung zur semi-automatischen Paraphrasensuche entwickelt. In diese sind verschiedene Tools zur Suche nach Paraphrasen und Charakterisierung gefundener Instanzen integriert. Nach einem sehr anregenden und produktiven ersten Nutzerworkshop im letzten Jahr möchten wir den zweiten Workshop nun dazu nutzen, um Oberfläche und Tools im Detail vorzustellen und in einem Hands-On gemeinsam mit Ihnen zu erproben. Hierzu werden wir neben dem griechischen Korpus auch englische Texte integrieren. Im Vorfeld des Workshops wird den Teilnehmern einen Testzugang zur Oberfläche zur Verfügung gestellt.

[...]

Quelle: https://dhd-blog.org/?p=10260

Weiterlesen

DARIAH-DE Grand Tour: Annotieren, analysieren, visualisieren

In diesem Workshop, der im Rahmen der DARIAH-DE Grand Tour am Donnerstag, den 20.09.2018 von 11:00 – 12.30 Uhr im Hörsaal des Alten Maschinenhauses der TU Darmstadt stattfindet, wird die Nutzung und Weiterentwicklung interdisziplinär-kollaborativer Annotationsmethoden sowie semantischer Erschließungs- und Visualisierungsstrategien für geisteswissenschaftliche Fachdatenrepositorien durch konsequenten Einsatz von Linked Open Data Technologie am Beispiel ausgewählter Anwendungsfälle vorgestellt.

Der Beitrag „Aristoteles annotieren – Potentiale der Kombination von automatischer und manueller Annotation“ in Kooperation mit dem Sonderforschungsbereich 980 „Episteme in Bewegung“ [8] stellt Best Practices für die Modellierung automatischer und manueller Annotationen gemäß den Empfehlungen des Web Annotation Data Models [1] vor. Darüber hinaus werden Strategien für die Verschränkung der Annotationen zur Erschließung von Handschriftenseiten, Analysemöglichkeiten zur quantitativen Auswertung und Visualisierung sowie die dafür erforderliche technische Infrastruktur präsentiert.

Mit dem Beitrag „Repositorien mergen, analysieren und visualisieren“ wird am Beispiel der epigraphischen Forschungsplattformen DIO (Deutsche Inschriften Online) [2] und epidat (Datenbank zur jüdischen Grabsteinepigraphik) [3] aufgezeigt, wie diese Repositorien in Linked Open Data umgewandelt werden.  Mittels XTriples Service [5] werden die vorliegenden Forschungsdaten, die im Standardaustauschformat EpiDoc: TEI XML [4] für epigraphische Quelle vorliegen,  in RDF transformiert und somit semantisch interoperabel analysierbar und visualisierbar.

[...]

Quelle: https://dhd-blog.org/?p=10194

Weiterlesen
1 2 3 9