Methodenworkshop »Techniken der digitalen Edition für die historisch arbeitenden Textwissenschaften«

  • Veranstalter: Leibniz-Institut für Europäische Geschichte (IEG, http://www.ieg-mainz.de/) und DARIAH-DE (http://de.dariah.eu)
  • Ort: Leibniz-Institut für Europäische Geschichte, Alte Universitätsstraße 19, 55116 Mainz
  • Beginn: 29. Januar 2014, 14.00 Uhr
  • Ende: 30. Januar, 13.00 Uhr

Die Vorrangstellung der Informationsstrukturierung und -vermittlung in Form gedruckter Bücher hat durch den Übergang von traditionellen hin zu neuen, digitalen Formen der Erschließung und Repräsentation von Texten an Bedeutung verloren. Zunehmend lösen digitale Texte die »klassischen« Medien ab. Infolge dieser Entwicklung wird vom Wissenschaftsrat in seinen publizierten Empfehlungen zu »Forschungsinfrastrukturen in den Geistes- und Sozialwissenschaften« empfohlen, »sich nachhaltig für einen Ausbau forschungstauglicher Digitalisierungen« einzusetzen; auch auf wissenschaftspolitischer Ebene können die Vorteile der digitalen Erschließung und Aufbereitung als unbestritten gelten.

Vor diesem Hintergrund und den daraus resultierenden vielfältigen Möglichkeiten der Digital Humanities möchte der vom IEG im Rahmen von DARIAH-DE (gefördert vom Bundesministerium für Bildung und Forschung) organisierte Workshop Grundlagen, Methoden und Techniken von Digitalen Editionen für die historisch arbeitenden Textwissenschaften vermitteln und bereits vorhandene Lösungsansätze und -szenarien mit den Teilnehmern diskutieren. Der Methodenworkshop ist Teil einer Veranstaltungsreihe von DARIAH-DE, die in Kooperation mit Partnerinstitutionen mit unterschiedlichen geisteswissenschaftlichen Schwerpunkten durchgeführt werden.

Der Methodenworkshop nimmt thematisch die Forderung nach dem Ausbau forschungstauglicher Digitalisierungen in Form von »digitalen Editionen« auf. Digitale Editionen sollen dabei das klassische Editionskonzept nicht verwerfen, sondern ergänzen, weil auch dort das Ergebnis der Arbeit darin bestand, mehrere Schichten von Informationen (z.B. in Form von Erläuterungen, inhaltlichen Anmerkungen, Angaben von Textvarianten, bibliographischen Angaben usw.) zu einem Text zu sammeln, zu systematisieren und dem Nutzer in Form eines abgeschlossenen Werks zur Verfügung zu stellen. Mit anderen Worten, beim klassischen Editionsmodell handelt es sich bereits um einen Hypertext. Die Schichtenstruktur klassischer Editionen lässt sich digital leichter – und konsequenter – abbilden. Dabei können viele Beschränkungen des konventionellen Buchdrucks überwunden werden, insbesondere diejenigen, die die materielle Überlieferung betreffen (visuelle Wiedergabe des Textes, Informationsumfang). Gleichzeitig kommen ganz neue Möglichkeiten hinzu wie Mehrdimensionalität und Modifizierbarkeit.

Der Methodenworkshop widmet sich konkret der Frage: Was bedeutet Digitalisierung im Kontext historischer Editionen? Wo müssen Schwerpunkte gesetzt werden, um aus komplexen Textstrukturen digitale Objekte zu erzeugen? Und vor allem: Wie müssen diese Textstrukturen aufbereitet werden, um aus ihnen eine digitale Edition zu formen?

Eine grundlegende Technik zur Erstellung von Digitalen Editionen bilden die Auszeichnungsstandards der Text Encoding Initiative (TEI). TEI wurde als XML-basierte Auszeichnungssprache speziell für die Zwecke der Geisteswissenschaften konzipiert und stellt mittlerweile einen De-facto-Standard für die wissenschaftliche Textkodierung dar, die wiederum als Grundlage für die Aufarbeitung von Texten zu betrachten ist.

Im Rahmen des Workshops werden Grundkenntnisse im Bereich der Textkodierung mit XML/TEI, der Weiterverarbeitung XML-kodierter Daten sowie ihrer Aufbereitung vermittelt, die  als Grundlage für die Erstellung von digitalen Editionen dienen.

Am ersten Tag werden zunächst die Grundlagen von Konzeption und Planung digitaler Ausgaben an zwei konkreten Editionsprojekten (Briefedition Alfred Escher & Kritische Online-Edition der Nuntiaturberichte von Eugenio Pacelli 1917–1929) erläutert. Ausgehend davon können unterschiedliche Konzepte digitaler Editionen diskutiert sowie der jeweils damit verbundene Aufwand und die Anwendbarkeit für verschiedene editorische Fragestellungen/Bedürfnisse thematisiert werden.

Am zweiten Tag sollen sich die Teilnehmer, nach einer knappen allgemeinen Einführung in XML, anhand von kleinen Übungen in die Praxis der Textauszeichnung mit TEI einarbeiten und einen Überblick über die Bedeutung und die verschiedenen Module dieser Sprache erhalten. Vordergründiges Ziel dieser »hands-on session« ist es, die Teilnehmer zum selbstständigen Umgang mit den TEI-Guidelines anzuleiten, um ihnen so ein Werkzeug in die Hand zu geben, mit dem sie später im Rahmen ihrer Projekte selbst arbeiten können.

Der Methodenworkshop ‘Techniken der digitalen Edition für die historisch arbeitenden Textwissenschaften’ richtet sich an alle historisch arbeitenden Textwissenschaftler und möchte insbesondere Nachwuchswissenschaftler (Doktoranden und Post-Doktoranden), aber auch Forscher ansprechen, die sich in ihrem Forschungsalltag und in aktuellen Projekten mit Themen der Planung und Erstellung von Digitalen Editionen beschäftigen.

Um einen reibungslosen Ablauf zu gewährleisten, werden die Teilnehmer gebeten, ihre eigenen Notebooks mitzubringen, so dass gemeinsam anhand von Beispieldaten einige Tools und Anwendungsszenarien getestet werden können. Es besteht ferner die Möglichkeit, dass die Teilnehmer vor Workshopbeginn Daten aus ihren eigenen Forschungsprojekten einreichen, um mithilfe dieser Daten exemplarische Erfassungsprobleme thematisieren und Anwendungsoptionen diskutieren zu können.

Das ausführliche Programm des Workshops, weiterführende Informationen und ggf. weitere Aktualisierungen werden auf www.staff.uni-mainz.de/marcuhel/methods2014 veröffentlicht.

Die Teilnehmerzahl ist auf 20 begrenzt.

Bewerbungen zur Teilnahme am Workshop sind ab sofort bis zum 18. Dezember 2013 möglich. Eine verbindliche Einladung erfolgt am 20. Dezember 2013.

Für die Bewerbung senden Sie bitte eine E-Mail mit einem kurzen Lebenslauf und einem kurzen Motivationsschreiben (jeweils max. eine Seite) an: aurast@ieg-mainz.de und held@ieg-mainz.de.

Bei inhaltlichen oder organisatorischen Rückfragen wenden Sie sich bitte an:

Quelle: http://dhd-blog.org/?p=2626

Weiterlesen

TextGrid-Nutzertreffen: Edieren mit TextGrid

Am 21. und 22. Juni 2013 findet an der Akademie der Wissenschaften und der Literatur in Mainz das nächste TextGrid-Nutzertreffen statt. Der Schwerpunkt dieses Treffens wird das Edieren mit XML in TextGrid sein. Neben einer Einführung zum aktuellen Stand des Projektes werden in Workshops Grundlagen zum Arbeiten mit TextGrid sowie zum Edieren gemäß TEI und MEI vermittelt. Es werden Projekte vorgestellt, die mit TextGrid arbeiten. Auch besteht die Möglichkeit, eigene Projekte, die mit TextGrid in Verbindung stehen, im TextGrid-Café mit einem Poster vorzustellen. Es wird gebeten, sich über das Formular auf

http://www.textgrid.de/community/nutzertreffen-2013/

bis zum 31. Mai anzumelden. Dort finden sich auch weitergehende Informationen.

Progamm am 21. Juni 2013

11:00-11:45: Begrüßung

11:45-12:15: TextGrid: Der aktuelle Stand

12:30-15:30: Projektvorstellungen

16:00-18:00: Workshop „Projektarbeit mit TextGrid“

Programm am 22. Juni 2013

10:00-13:00: Workshop „Einführung in das Edieren mit XML“

10:00-13:00: Workshop „Digitale Musikedition“

14:00-15:00: Abschlussdiskussion

ab 15:00: TextGrid-Café mit Posterpräsentationen

Ankündigungen zu den Workshops

Projektarbeit mit TextGrid

Der Workshop macht mit den grundlegenden Funktionen des TextGrid Laboratories und seiner Oberfläche vertraut. Dabei werden typische Arbeitsabläufe und Fragen behandelt:

  1. Wie werden Projekte angelegt und verwaltet?
  2. Wie vergibt man Rechte an andere Mitarbeiter?
  3. Wie importiere und wie exportiere ich meine Daten?
  4. Wie arbeitet man mit Revisionen?
  5. Was gibt es für TextGrid Objekte und wie verwalte ich sie?
  6. Wie kann ich meine Ergebnisse publizieren?

Einführung in das Edieren mit XML

In der Schulung werden anhand eines konkreten Beispiels einige Grundlagen zum editorischen Arbeiten mit XML nach den Richtlinien der Text Encoding Initiative (TEI) erläutert und geübt. Dabei sollen folgende Fragen behandelt werden:

  1.  Wie kann ich mir die Arbeit mit XML gemäß TEI erleichtern?
  2.  Welche Möglichkeiten gibt es, Texte zu transkribieren und wie kann ich meine Transkription strukturieren?
  3. Wie lassen sich editorische Eingriffe vornehmen und dokumentieren?
  4. Wie lassen sich Schreibprozesse darstellen?
  5. Wie kann ich einen kritischen Apparat erstellen?

Für die Übungen müssen eigene Rechner mitgebracht werden sowie TextGrid und TextGrid-Konten eingerichtet sein. Erste Erfahrungen mit XML sind von Vorteil, aber keine Voraussetzung.

Digitale Musikedition – Einführung in MEI, den MEI Score Editor und die Edirom Tools

Dieser Workshop bietet einen Einblick in grundlegende Arbeitsweisen und entsprechende Software-Werkzeuge für den Bereich der digitalen Musikedition. Dabei steht nicht nur die digitale Publikation, sondern auch die digital unterstützte Editionsarbeit im Mittelpunkt. Zunächst wird das XML-basierte Kodierungsformat MEI vorgestellt, mit dessen Hilfe sich vielfältige Möglichkeiten der Erfassung von Metadaten, kodierter Notentexte und editorischen Annotationen eröffnen. Um die zunächst textlastige Arbeit mit MEI-Daten zu vereinfachen, existiert mit dem MEI Score Editor (MEISE) ein Werkzeug, um in MEI kodierte Notentexte entsprechend bearbeiten und visualisieren zu können. Im Idealfall bilden diese Daten die Grundlage für weitergehende Arbeiten mit den Notentexten, digitalen Quellenfaksimiles und dem Kritischen Apparat, bis hin zur Publikation. Dazu werden die darauf spezialisierten Edirom Tools vorgestellt, die im Rahmen des BMBF-Projekts Freischütz-Digital auch an TextGrid angebunden und dann dort mit zur Verfügung stehen werden. Der Workshop richtet sich hauptsächlich an Personen, die wenig oder keine Erfahrung mit MEI und den genannten Werkzeugen haben. Die Inhalte des Workshops sollen an kleinen Praxisbeispielen jeweils selbst nachvollzogen werden können, weshalb um das Mitbringen eigener Rechner gebeten wird.

Quelle: http://dhd-blog.org/?p=1685

Weiterlesen

Mal wieder und immer noch: Digitized vs. Digital

NeDiMAH, das „Network for Digital Methods in the Arts and Humanities“ enthält unter anderen eine Arbeitsgruppe zu „Scholarly Digital Editions“. Die erste Veranstaltung (ein „Expert Meeting and Workshop“) zu diesem Themenkomplex hatte laut Call einen Schwerpunkt in der definitorischen Grundfrage: Was ist eigentlich eine „digitale Edition“?

Nachdem ich mich mit dieser Frage nun auch schon seit 15 Jahren beschäftige, sie in meiner Dissertation einigermaßen länglich ausgewalzt habe und meine eigene Definition Grundlage meines Katalogs digitaler Editionen ist, war ich froh, sie nun auch einmal im Expertenkreis zur Diskussion stellen zu können.

Die Präsentation zum Vortrag findet man als und bei prezi, ich fasse sie hier nicht noch einmal zusammen. Nur ein Punkt, der eigentlich ein Nebenaspekt ist, soll hier aufgegriffen werden, weil ich mich frage, ob diese Diskussion nicht auch in anderen Bereichen der Digital Humanities produktiv geführt wird oder werden kann  und insofern keine Digitale-Editionen-Spezialdiskussion ist:

Offensichtlich wird die Digitale Edition sinnvollerweise im Aufgreifen der traditionellen Editorik definiert. Und dann in Abgrenzung zu ihr. Hier entsteht aber ein Problem: wenn eine gedruckte Edition einfach digitalisiert wird, müsste man dann nicht von einer digitalen Edition sprechen? Der normale Gebrauch der deutschen Sprache legt dies zunächst nahe. Es ist geradezu schwierig, dem folgenden Satz wiedersprechen zu wollen: „Eine digitalisierte Edition ist eine digitale Edition“. Trotzdem muss es getan werden und müssen wir akademischen Klugscheißer der allgemeinen Sprachlogik wohl ein wenig Gewalt antun Widerstand leisten. Denn wie ich andernorts schon ausgeführt habe, liegt der Kern der Wandlungen in der Editorik (und den Geisteswissenschaften insgesamt?) nicht in einem Wandel der Werkzeuge und Medien – sondern in einer Bewegung hin zur Transmedialisierung. Dies führt dazu, dass die mediale Präsentation – ob im Buchdruck oder digital – nicht „wesentlich“ ist. Das wiederum bedeutet, dass eine „digitale Edition“ nicht einfach dadurch definiert ist, dass sie digital vorliegt. Das Digitale ist eine notwendige, aber keine hinreichende Bedingung. Es entsteht das quasi-definitorische Statement:

„Eine digitalisierte Edition ist (noch lange) keine digitale Edition.“

Dies ist das Gegenstück zu dem positiven Definitionsbaustein aus der gegensätzlichen Richtung:

„Eine digitale Edition kann nicht ohne substanzielle Verluste an Inhalten oder Funktionalitäten gedruckt werden.“


Diese Definition ist zunächst gut, weil sie die Spezifika der digitalen Edition in den Vordergrund stellt. Leider ist sie nicht besonders scharf, weil man sich lange darüber wird streiten können, was „substanziell“ ist. Der Ansatz wurde in der Diskussion dann auch an genau diesem Punkt hinterfragt: Bieten nicht schon digitalisierte Editionen einen funktionalen Mehrwert, wenn man sie z.B. per Knopfdruck durchsuchen kann? Hm, ja, offensichtlich muss es eine Schwelle geben, die überschritten werden muss, um davon reden zu können, dass es sich bei digitalen Editionen um „andere“ Editionen handelt, als die gedruckten Editionen wie wir sie kennen. Diese Schwelle brauchen wir auch deshalb, weil digitale Editionen aus digitalisierten Editionen sehr wohl „herauswachsen“ können. Viele digitale Editionen beginnen mit der Digitalisierung bereits gedruckt vorliegender Editionen. Ab einer bestimmten Ausbau- und Umbaustufe wird man sie dann aber doch als „digitale Editionen“ bezeichnen wollen. Diese Schwelle ist zunächst – wie oben angedeutet – durch Inhalte und Funktionen bestimmt. Hinter dem begrifflichen Wechsel und hinter der Beschreibung von Eigenschaften muss aber letztlich ein konzeptioneller Unterschied stehen. Die digitale Edition ist durch ein eigenes Theoriegebäude und durch eine eigene Methodik bestimmt. Sie folgt einem „digitalen Paradigma“, zu dem eben Konzepte wie Transmedialisierung, abstrakte Modellierung, Daten-Orientierung, Multitext, Prozesshaftigkeit, Transparenz, besere Zugänglichkeit oder vielleicht auch Soziabilität gehören. Wenn ich die Stimmung in der Diskussion richtig gedeutet habe, scheint das auch weitgehend unterstützt zu werden. Zum einen wurde (von, ich glaube, Roberto Rosselli del Turco) einmal mehr darauf hingewiesen, dass ja heute alle Editionen mit digitalen Werkzeugen erstellt würden, man deshalb auch von „digital born printed editions“ sprechen könne, dies aber eben auch noch lange keine digitalen Editionen ausmachen würde. Zum anderen betonte die gewohnt klarsichtige Elena Pierazzo, dass wir digitale Editionen deshalb machen, weil wir andere Gegenstände erschließen und andere Zielstellungen (z.B. in der Repräsentation der Textgenetik) verfolgen wollen. Deshalb könne es nicht darum gehen, bessere Editionen in der Tradition des Buchdrucks zu machen  – selbst dann nicht, wenn man dazu die besten digitalen Mittel einsetzen würde. Man sei schließlich an Dingen interessiert, die im Druck nicht nur nicht möglich sind, sondern in der Druckkultur noch nicht einmal denkbar waren.

Das ist eine klare, aber radikale Position, die wohl nicht von allen geteilt werden würde. Schließlich gibt es daneben auch viele, die betonen würden, dass es sehr wohl auch um die (bessere) Edition von Materalien geht, die man immer schon edieren wollte und um die dabei jetzt anzuwendenden besseren Methoden und Werkzeuge. Aus dieser Perspektive bleibt es schwierig, ein klares Kriterium zu finden, an dem sich die digitalisierte oder bloß irgendwie in digitaler Form vorliegende Edition von der „wirklich“ digitalen Edition unterscheidet.

Die terminologische Trennung scheint übrigens auch auf der internationalen Ebene zu funktionieren: Digitized is not digital. Es gibt zwar auch noch das Wort „digitalized“, aber das scheint (wenn es nicht nur ein furchtbarer Germanismus oder ein einfaches Synonym zu „digitized“ ist) etwas (und zwar verschiedenes) Anderes zu bedeuten.  Nämlich u.a. eine allgemeinere Durchdringung von Wissenschaft und Welt durch die Prinzipien des Digitalen und nicht so sehr das Digital-Werden von bestimmten „Dingen“ oder Informationen. Zuletzt ist „digitalized“ auch in den Digital Humanities auf einem Buchtitel aufgetaucht, nicht aber in dem betreffenden Buch selbst – so dass auch hier weiterhin unklar bleibt, was es denn genau für unseren Fragenkreis bedeuten und beitragen könnte.

Was das Phänomen „eine digitalisierte Edition ist keine digitale Edition“ in seiner sprachlogischen Problematik betrifft, so hätte ich gerne Analogien aus bisherigen Wortentwicklungen. Es müsste so etwas sein wie „ein befreiter Mensch ist kein freier Mensch“ (nur mit mehr Sinn!). Hat jemand ein besseres Beispiel?

Quelle: http://dhd-blog.org/?p=1122

Weiterlesen

Digitale Arbeitsumgebung für das BBAW-Editionsvorhaben »Schleiermacher in Berlin 1808–1834«

Für das Forschungsvorhaben »Schleiermacher in Berlin 1808–1834« an der Berlin-Brandenburgischen Akademie der Wissenschaften (BBAW) wurde von TELOTA eine digitale Arbeitsumgebung eingerichtet, in der die Transkriptionen der Manuskripte inkl. Text- und Sachapparat in TEI-konformem XML bearbeitet und zentral in einer Datenbank gespeichert werden. Eine Website macht den gesamten Datenbestand für die Bearbeiter leicht zugänglich und durchsuchbar. Darüber hinaus wurde eine PDF-Ausgabe implementiert, die den jeweiligen Text in Gestalt der bisherigen Druckausgaben ausgibt. Bei dem Projekt wurde insbesondere auf die Benutzerfreundlichkeit der Arbeitsumgebung Wert gelegt.

Weiterlesen auf digiversity

Quelle: http://dhd-blog.org/?p=986

Weiterlesen

Das altägyptische Totenbuch – Ein digitales Textzeugenarchiv

Seit 20 Jahren arbeiten Forscher aus Bonn an der Erschließung eines der wahrscheinlich bedeutendsten und am weitesten verbreiteten Jenseitstexte: Das Totenbuch des Alten Ägyptens.

Dieses umfasst etwa 200 Sprüche und ergänzt diese zusätzlich durch Abbildungen – die so genannten Vignetten, welche die inhaltlichen Aussagen der Texte zusätzlich  illustrieren.
Seit März 2012 ist das Totenbuch-Archiv nun im Internet zugänglich (http://totenbuch.awk.nrw.de). In der Datenbank sind Schlüsselinformationen und Bildmaterialien über alle weltweit noch erhaltenen und der Forschung bekannten Quellen des Totenbuchs gesammelt, welche nicht nur einem ägyptologischen Fachpublikum, sondern auch den interessierten Laien und der breiteren Öffentlichkeit Zugang zu diesem Forschungsbereich ermöglichen soll.

Zugang zum Material erhält der Nutzer auf zweierlei Weisen: zum einen durch eine “facettierte Suche”, mit der Objekte durch die Angabe von Filterkriterien (auf dem Objekt enthaltene Sprüche, Objektart, Datierung, Herkunft, heutiger Standort, usw.) gefunden werden können, zum anderen durch ein geleitetes Browsing über Menüstrukturen, welche den schnellen Zugriff auf Objekte über Visualisierungen und Register erlaubt, die auf die Kernmerkmale und die auf den Objekten enthaltenen Sprüche ausgerichtet sind.

Die Präsentationsoberfläche fungiert zugleich als Backend für angemeldete Benutzer und Projektmitarbeiter. Nach dem Einloggen kann je nach Rechtevergabe zusätzliches Bildmaterial eingesehen werden und es können Angaben bearbeitet und neue Datensätze hinzugefügt werden.
Zu den besonders bemerkenswerten Aspekten des Projekts gehört die Aufbereitung der Informationen zu einzelnen Objekten und Sprüchen wie auch als Gesamtdatenbank mittels verschiedener Visualisierungsstrategien. Neben zahlreichen Standardvisualisierungen zum Gesamtkorpus, die z.B. die Struktur der Überlieferung darstellen, gibt es auch spezielle Visualisierungen zu einzelnen Forschungsfragen, wie beispielsweise der “Kanonizität der Spruchabfolge” auf den Textzeugen.

Eine Einbindung in die weitere Infrastruktur der ägyptologischen Forschung erfolgt durch
Verwendung von IDs, die mit dem zentralen Nachweisportal der Ägyptologie (Trismegistos) abgeglichen und verlinkt sind.

Im Hinblick auf das weitere technische Setup entspricht das Totenbuch-Projekt dem
state of the art. PURLs, die auf den Trismegistos-IDs basieren und vom technischen System entkoppelt sind, sorgen für sprechende Adressen und gewährleisten die direkte und dauerhafte Adressierbarkeit der Objektbeschreibungen.

Der Server für diese Publikation ist zunächst an der Universität zu Köln angesiedelt, da er vom Cologne Center for eHumanities (CCeH) im Auftrag der Akademie der Wissenschaften und Künste NRW, welche das Projekt seit 2004 fördert, aufgebaut wurde.
Das digitale Textzeugenarchiv zeigt eindrücklich, dass klare Informationsstrukturierung und professionelles Design intuitive Wege zu wissenschaftlichen Ressourcen bahnen können, welche nicht nur einen großen Funktionsumfang haben, sondern auch auf der Seite der Präsentation gefällig und gut benutzbar sind.

Quelle: http://dhd-blog.org/?p=747

Weiterlesen

Briefedition Alfred Escher

Seit Februar 2012 bietet die Alfred-Escher-Stiftung mittels einer digitalen Edition allen Interessierten Zugang zu der Korrespondenz des Politikers und Wirtschaftsführers Alfred Escher, welche ein partei-, sozial-, mentalitäts-, wirtschafts- und nicht zuletzt auch wissenschaftsgeschichtliches Zeitzeugnis für die Schweizer Geschichte des 19. Jahrhunderts und darüber hinaus darstellt.
Die digitale Fassung (www.briefedition.alfred-escher.ch), welche die bereits erschienenen gedruckten Bände aufnimmt, die zukünftig erscheinenden begleiten und insgesamt über die Druckfassung hinausgehen wird, umfasst rund 4500 Schriftstücke – meist in deutscher Kurrentschrift – wovon 1000 Briefe von Escher selbst verfasst, die übrigen an ihn gerichtet sind. In der ersten Veröffentlichung sind 501 Briefe frei verfügbar, die übrigen werden bis 2015 hinzukommen.
Ziel der Edition ist es, die Korrespondenz einem breiten Kreis von Forschern sowie interessierten Laien mittels einer möglichst funktionsreichen, gleichzeitig aber intuitiven und leicht benutzbaren Oberfläche zugänglich zu machen und im Hinblick auf Vernetzung, Präsentation, Personalisierungsmöglichkeiten und Datenmenge alle Möglichkeiten einer digitalen Edition auszuschöpfen – und dabei vielleicht sogar neue Wege aufzuzeigen.
Vielfältige und anwenderfreundliche Mittel ermöglichen den Umgang mit dem umfangreichen  Quellenmaterial. Digitalisate, welche hinsichtlich Lesbarkeit die vorhandenen Originale, die sich größtenteils in verschiedenen Archiven und Bibliotheken der Schweiz befinden, weit übertreffen, sind für alle Briefe vorhanden. Jeder einzelne Brief wird in drei unterschiedlichen Ansichten dargeboten: (1) als
„Editierter Text“, (2) als „Diplomatischer Text und Bild“ und (3) als „Faksimile“. Die Variante „Edierter Text“ bietet eine normierte Transkription, verbunden mit textkritischen und Sachanmerkungen, die der Darstellungsweise in der gedruckten Editionsreihe entspricht. „Diplomatischer Text und Bild“ zeigt eine quellennahe Transkription, welche von editorischen Eingriffen weitgehend frei ist, dafür aber die Eigenheiten des Originaldokuments (z.B. Zeilenfall, Ausrichtung der Absätze, Einfügungen und Streichungen) abbildet. Beim Überfahren der Transkription mit der Maus wird ein gezoomter Ausschnitt des Faksimiles gezeigt, welcher die entsprechende Textzeile enthält, um so die parallele Betrachtung des Originaltextes bequem zu ermöglichen (Text-Image-Linking). Die Ansicht „Faksimile“ gestattet die seitenweise Betrachtung der digitalisierten Originalquellen, welche zur Verbesserung der Lesbarkeit auch vergrößert werden können. In allen Darstellungsvarianten kann zu den „benachbarten“ Briefen navigiert werden.
Neben dem Quellenbestand dienen zahlreiche weitere Texte und Dokumente der Kontextualisierung der Korrespondenz. Ausführliche Register für sämtliche in Briefen und Überblickskommentaren erwähnte Personen (teilweise mit Kurzbiografien) und Orte (Normbezeichnungen), ein Verzeichnis aller verwendeten Abkürzungen sowie eine Bibliographie mit Quellen und Literatur werden ebenfalls bereitgestellt. Die verschiedenen Browsing-Zugänge erleichtern den schnellen Zugriff auf die dargebotenen Materialien. Die Briefe selbst können nach Datierung, Autor oder Empfänger sortiert und nach Korrespondent, Rolle, Datierung und Schlagwort gefiltert werden. Mittels einer “facettierten Suche” kann der Benutzer z.B. wählen, ob er die Suche auf das Briefmaterial, die Überblickskommentare oder Orte einschränken möchte. Für angemeldete Benutzer besteht zudem die Möglichkeit zu einer Personalisierung der Edition. Nach einer einfachen Registrierung erlaubt es diese Funktion, Suchergebnisse, Arbeitsmappen und persönliche Einstellungen zu verwalten und zu speichern.
Einen anderen innovativen Zugang zu den editierten Dokumenten bei gleichzeitiger Verortung der Dokumente in ihrem Kontext stellt die Chronologie dar, welche den gesamten Zeitraum von Eschers Leben (1819 bis 1882) umfasst. Zwei verschiedene Darstellungsweisen sind hier möglich. In der jahresgenauen Ansicht wird die Anzahl der Briefe dargestellt, die in dem jeweiligen Jahr entstanden sind, während zugleich Eschers Ämter und Funktionen, die er zu dieser Zeit inne hatte sichtbar gemacht werden. In der Tagesansicht werden die einzelnen Briefe an ihrem Entstehungstag abgebildet und ebenfalls mit Ereignissen aus Eschers Leben, seinen Ämtern und Funktionen in Beziehung gesetzt, zu denen Kurzinformationen angezeigt werden, wenn der Cursor über das jeweilige Icon bewegt wird. Bei Klick auf das Icon öffnet sich eine Box mit weiterführenden Informationen zum entsprechenden Eintrag.
Vom technischen Setup her entspricht die Briefedition Escher den aktuellen Anforderungen. Persistente URLs zur direkten Adressierung der einzelnen Inhalte stellen die dauerhafte Verfügbarkeit und Zitierfähigkeit sicher. Alle Inhalte liegen im XML-Format vor. Die Datenhaltung der XML-Daten erfolgt in einer nativen XML-Datenbank (eXist). Die Auszeichnung der Dokumente basiert auf den Richtlinien der Text Encoding Initiative (TEI), wurde jedoch für die besonderen Bedürfnisse der Edition angepasst.
Zusammenfassend lässt sich sagen, dass der Escher-Stiftung mit dieser digitalen Edition eine herausragende Arbeit gelungen ist. Auch wurde hier ein wichtiger Beitrag zur Etablierung einer „best practice“ geleistet. Hinsichtlich Vernetzung und Präsentation etabliert die Briefedition Escher einen neuen Standard, an dem sich zukünftige Editionsprojekte messen lassen werden müssen.

Quelle: http://dhd-blog.org/?p=543

Weiterlesen

Bericht vom Interedition Symposium März 2012, oder: was Aquarien, Ozeane, Archäologen und Taucher mit digitalen Editionen zu tun haben

Vom 19.-20. März 2012 fand in Den Haag das Abschluss-Symposium von Interedition zum Thema “Scholarly Digital Editions, Tools and Infrastructure” statt. In dem vielfältigen Programm des Symposiums wurden aktuelle und teils brandneue Entwicklungen im Bereich der Technologien rund um digitale Edition vorgestellt: von hoch flexibel interagierenden microservices über wohldefinierte Tools bis hin zu Infrastrukturprojekten mit Bezug zur digitalen Edition und zur Aufbereitung und Analyse konkreter Textsammlungen.

Im Bereich der microservices wurden beispielsweise mehrere Ergebnisse der Interedition Bootcamps vorgestellt: so unter anderem im Bereich der Kollationierung der flexible Verbund von CollateX mit einem Variant Graph Modul und einem Regularisierungsinterface (Tara Andrews, Troy Griffit, Joris van Zundert); mehrere micoservices im Bereich von Open Annotation und Linked Data (Grant Dickie, Moritz Wissenbach, Marco Petris); ergänzt wurden diese Beiträge durch Reflexionen darüber, wie Kollationierungstools wie Juxta oder CollateX mit oft sehr unterschiedlich kodierten TEI-Texten zurechtkommen können (Gregor Middell).

Im Bereich der eigenständigen Tools standen etablierte Projekte im Vordergrund: beispielsweise die Versioning Machine, die seit 1993 stetig weiterentwickelt wird und deren Bedeutung nicht zuletzt darin liegt, dass sie DH-Neulingen eindrücklich veranschaulicht, welche Möglichkeiten das digitale Medium mit sich bringt (Susan Schreibman); oder das Kollationierungstool Juxta, das mit einer schicken Desktop-Version, zahlreichen Funktionen und (ganz aktuell) mit der verstärkten Expansion in Richtung Webservice und API beeindruckte (Nick Laiacona).

Im Bereich der Infrastrukturen war einerseits Textgrid als Virtuelle Forschungsumgebung vertreten, wobei der Vortrag deutlich machte, wie die Weiterentwicklung dieser Umgebung stetig voranschreitet, unter anderem durch die Integration weiterer Tools, wie bspw. MEISE, der Editor für MEI-Dateien (Celia Krause, Philip Vanscheidt). Und auch DARIAH wurde vorgestellt, wobei der Fokus auf den konkreten DARIAH-Services lag, die DARIAH Entwicklern und Herausgebern von digitalen Editionen anbieten kann, vom Developer Portal über die Bit Preservation bis zu Referenzdaten-Services (Christiane Fritze, Christof Schöch).

Ebenfalls zum Thema Infrastrukturen, aber aus einer etwas anderen Perspektive, gab es zwei weitere Beiträge: ein knackiges Plädoyer dafür, dass doch lieber alle dazu beitragen sollten, einen gemeinsamen Daten- und Tool-Ozean zu managen, anstatt dass jeder ein kleines, privates Aquarium baut (Martin Wynne); und einen Beitrag mit dem schönen Titel “Smaller is Smarter”, der dazu provozierte, die positiven Erfahrungen mit “agile development” und “programming sprints” in den Interedition Bootcamps auch in großen Infrastrukturprojekten wie DARIAH zu nutzen (Doug Reside), wobei letztlich deutlich wurde, dass beide Ansätze sicherlich vor allem in ihrer Komplementarität am nützlichsten sein werden.

An Beiträgen, die weniger aus der Perspektive der Tools auf die Forschung, denn aus der Perspektive eines konkreten Forschungsprojektes auf die Durchführung und technische Umsetzung blickte, mangelte es aber auch nicht. Unter anderem wurde das Womens Writers in History-Projekt vorgestellt, in dem es zentral darum geht, die Rezeptionsgeschichte der Werke weiblicher Autoren in einer Datenbank zu modellieren (Suzan van Dijk, Gertjan Filarski), oder das Ancient Greek Dependency Treebank Projekt, in dem das altgriechische Korpus des Perseus Projects mit morphologischen, syntaktischen und pragmatischen Annotationen angereichtert wird (Marie-Claire Beaulieu, Mathew Harrington, Francesco Mambrini).

Den Abschluss des Symposiums bildete der Vortrag von Joris van Zundert, der Leiter von Interedition, der auf die Erfahrungen aus dem vierjährigen Projekt zurückblickte. Deutlich wurde dabei, dass eine Vision (ein lockeres Netzwerk interoperabler microservices), eine flexible und innovative Arbeitsweise (Bootcamps) und vor allem, motivierte und kompetente Menschen (Programmierer und Editionswissenschaftler) sowie genügend Reisemittel (in diesem Fall COST Action-Mittel) zusammenkommen müssen, damit all die faszinierenden und hochaktuellen Tools entstehen können, die Interedition jetzt vorweisen kann. Auch wenn die Veranstaltung eigentlich das Abschluss-Symposium war, ist kaum vorstellbar, dass es nicht irgendwie weitergeht! Und was ist mit den Archäologen und Tauchern? Zu dieser Geschichte muss jeder Joris van Zundert selbst fragen.

Quelle: http://dhd-blog.org/?p=356

Weiterlesen

DENQ – Software für die Online-Edition

von Jörg Hörnschemeyer DENQ steht für „Digitale Editionen Neuzeitlicher Quellen“. Es handelt sich dabei um ein Softwaresystem für die Online-Edition historischer Dokumente. Die Stärke des Systems liegt darin, dass es den Wissenschaftler in allen Phasen seiner editorischen Tätigkeit unterstützt, d.h. vom Zeitpunkt der Aufnahme der Originaltexte im Archiv über die Eingabe der Texte bis hin [...]

Quelle: http://digiversity.net/2010/denq/

Weiterlesen

Interview: Prof. Michael Stolz – Digitale Edition der Berner Parzival-Handschrift


Herr Michael Stolz ist Professor für germanistische Mediävistik am Institut für Germanistik der Universität Bern und konnte im letzten Jahr ein Editionsprojekt abschliessen, in dem den neuen digitalen, technischen Möglichkeiten eine wichtige Rolle zukam. Hier geht es zum Interview.

Quelle: http://www.infoclio.ch/de/node/19970

Weiterlesen
1 15 16 17