Vorstellung der DARIAH-DE-Fellows 2015: Canan Hastik

Das DARIAH-DE Fellowship-Programm fördert NachwuchswissenschaftlerInnen, die in ihren Forschungsvorhaben innovative digitale Ansätze und Methoden einsetzen und so einen Beitrag zur Weiterentwicklung der Digital Humanities leisten. Im DHd-Blog stellen die DARIAH-Fellows ihre Projekte vor.

Canan Hastik

canan2013_fellowCanan studierte Wissensmanagement und Informationswissenschaften mit Schwerpunkt Bibliothekswissenschaften an der Hochschule Darmstadt. Seit 2011 ist Canan PHD Kandidatin am Cork Institute (Irland) im Bereich Informatik. In ihrer Promotion beschäftigt Sie sich mit der Erforschung von digitalen Kulturphänomenen im Internet, der Entwicklung von Semantik Web Technologien und in diesem Zusammenhang mit digitalen Sammlungen, Ontologien und fachwissenschaftlicher Annotation.

 

Worum geht es in dem Projekt?



[...]

Quelle: http://dhd-blog.org/?p=5494

Weiterlesen

Edirom-Summer-School 2015

Auch ESS2015_logo_CS6-02in diesem Jahr veranstaltet der Virtuelle Forschungsverbund Edirom (Universität Paderborn und Hochschule für Musik Detmold) gemeinsam mit DARIAH-DE vom 7.–11. September 2015 wieder die Edirom-Summer-School (ESS2015) im Heinz-Nixdorf-Institut der Universität Paderborn. Die Anmeldung zu den Kursen Rund um die Themenfelder Digital Humanities und Digitale Musikedition ist auf der ESS-Website noch bis zum 31. Juli 2015 möglich.

Das Kursangebot reicht von Einführungen in die Text Encoding Initiative (TEI) und die Music Encoding Initiative (MEI) bis hin zu praxisorientierten Kursen u.a. zur Arbeit mit und Verarbeitung von XML-Daten oder zum Einsatz digitaler Editionswerkzeuge wie die Edirom Tools oder den MEI Metadaten Editor MerMEId.

[...]

Quelle: http://dhd-blog.org/?p=5351

Weiterlesen

OER Commons: Offene Lehrmaterialien für die Digital Humanities

DH-Schulungsmaterialien von DARIAH-DE sind nun auch auf dem Portal OERCommons mit einer freien Lizenz verfügbar

Schulungsmaterial auf OER CommonsZiemlich genau 1 Jahr ist es her, dass an dieser Stelle über die DARIAH-DE Sammlung von Schulungsmaterialien zu Verfahren, Methoden und Themen der Digital Humanities berichtet wurde. Mittlerweile ist diese Sammlung auf 220 Items angewachsen und seit vergangener Wochen vollständig auf das Portal OERCommons umgezogen, welches von der kalifornischen Non-Profit-Organisation IKSME betrieben wird.

OER steht dabei für “Open Educational Resources“, Mit diesem Begriff werden frei zugängliche und nachnutzbare Lehrmaterialien bezeichnet, welche von den Nutzern bei Bedarf auch angepasst werden können. Der Begriff OER steht also eher nicht für eine statische Repräsentation von Materialien, sondern bezieht sich auf die aktive Förderung der Weiternutzung und Modifikation von Inhalten.

Das Portal OERCommons bietet zum einen den Vorteil, dass mit der hauseigenen Authoringsoftware eigene Lehrmaterialien erstellt werden können. Zum anderen werden auch externe Links gemeinsam mit selbst erstellten Quellen unterschiedslos über Tags und Ordnerstrukturen verwaltet. OERCommons verwendet den weit verbreiteten Metadatenstandard Learning Object Metadata (LOM).

[...]

Quelle: http://dhd-blog.org/?p=5424

Weiterlesen

XML – Kurzreferenz für Einsteiger

Das Institut für Dokumentologie und Editorik (IDE) freut sich die zweite Ausgabe der “XML - Kurzreferenz für Einsteiger” ankündigen zu dürfen.

Sie erklärt anhand anschaulicher Beispiele nicht nur XML, sondern auch die Grundlagen von Schema-Sprachen (exemplarisch an DTDs), XPath und XSLT. Für die Neuausgabe wurde die in Form eines Flyers herausgegebene Referenz überarbeitet, erweitert und neu gestaltet. Sie kann als PDF-Datei über die (neue) Website des IDE heruntergeladen werden und ist in gedruckter Form frei beim IDE erhältlich.

Eine zweite Kurzreferenz für fortgeschrittene X-Technologien, die unter anderem  XQuery, XML-Schema und XSL-FO enthalten wird, ist in Arbeit und wird zusätzlich in englischer Sprache erscheinen.

Anregungen, Kritik, Wünsche und Fehlermeldungen zu den Kurzreferenzen bitte an info@i-d-e.de!

Quelle: http://dhd-blog.org/?p=4652

Weiterlesen

IDE meets DiXiT – Spring School 2015 Advanced XML/TEI technologies for Digital Scholarly Editions

Call for Participation:

We are very pleased to announce the Spring School on Advanced XML/TEI technologies for Digital Scholarly Editions organized and endorsed by the Institute for Documentology and Digital Editing e.V. (IDE) and the Digital Scholarly Editions Initial Training Network (DiXiT). The spring school will be run and held at the at the Centre for Information Modelling – Austrian Centre for Digital Humanities at the University of Graz from 13th to 17th April 2015.

 

The spring school is directed to participants with previous experience in XML/TEI editing who would like to involve themselves more intensively with the creation of digital scholarly editions based on the international encoding standard XML TEI P5. Besides addressing specific issues and use cases of text encoding, the participants will be trained what to do with the data once the encoding is done and how to process it further until the publication on the WWW. To this end the teaching will strongly focus on XPath, XSLT, HTML and CSS as technologies for the web publication of digital scholarly editions.

Since the level of this spring school is advanced, previous knowledge of TEI practices is not only recommended but necessary for participation.

 

The lectures will be held by experts from the field of Digital Scholarly Editing, related to the DiXiT network or the IDE (James Cummings, Franz Fischer, Ulrike Henny, Torsten Schaßan, Martina Semlak, Magdalena Turska, Gunter Vasold, Georg Vogeler). Tara Andrews (Univ. of Bern) has agreed to give a keynote.

The School will cover the following areas:

 

  • issues when working with XML TEI P5 (to be proposed by the participants)
  • customization of the TEI schema
  • creating web pages with HTML/CSS and JavaScript and JQuery
  • transforming the TEI XML with XSLT/XPath
  • publishing frameworks for digital scholarly editions
  • use cases for research on and with digital scholarly editions

 

The IDE-meets-DiXiT Spring School on Advanced XML/TEI technologies for Digital Scholarly Editions is open to interested scholars anywhere in the world with previous experience in digital scholarly editing with the TEI. As the course will strongly focus on practical exercise, we can accept only applications which can bring own material for the exercises. All teaching will be in English.

 

The course offers 20 positions. Participants will be required to arrange their own accommodation and travel to Graz. The participation fee will be 100 EUR. A limited number of bursaries will be available for the participation fee, travel and accommodation in particular for participants from less developed countries and from Eastern Europe.

 

Application closes on 10st February 2015 and early registration is highly recommended.

For the application we need from you

  • your name, address, e-mail, institutional affiliation (if applicable)
  • a short description of your project
  • this online questionnaire

If you want to be considered for the bursary please give indicate

  • approximate amount for travel and accommodation expenses
  • do you need a reduction on the participation fee?
  • academic status (graduate student, PhD student, PostDoc, fully trained scholar, other)

Please send your application and any question you have to dixit@uni-graz.at

We will publish further information on the school at http://www.i-d-e.de/aktivitaeten/schools/spring-school-2015

Quelle: http://dhd-blog.org/?p=4516

Weiterlesen

Viertes TextGrid-Nutzertreffen: Anpassungen und Erweiterungen

Am 4. und 5. August 2014 wird an der Albert-Ludwigs-Universität Freiburg das vierte TextGrid-Nutzertreffen stattfinden. Der Themenschwerpunkt „Anpassungen und Erweiterungen“ verbindet dabei Erfahrungsberichte aus Projekten, die TextGrid nutzen, mit Workshops zur fortgeschrittenen Nutzung von TextGrid Laboratory und Repository. Die Veranstaltung richtet sich aber auch an Interessierte, die noch keine Erfahrung im Umgang mit der Forschungsumgebung TextGrid haben.

In Vorträgen und bei den Posterpräsentationen im Rahmen des TextGrid-Cafés werden die Projekte „SlaVaComp“, „Theodor Fontanes Notizbücher“ und „Blumenbach online“ vorgestellt. Eine einführende Schulung vermittelt im Vorfeld des Treffens die Grundlagen für die Arbeit mit der virtuellen Forschungsumgebung. In Workshops werden Anpassungen aus konkreten Projekten vorgestellt und in Übungen nachvollzogen. In einem Workshop wird gezeigt, wie XML-Datenbanken in TextGrid eingebunden werden können. Ein anderer demonstriert, wie mit XSLT synoptische Ansichten erzeugt werden können. Die Möglichkeit, mit Entwicklern von TextGrid direkt ins Gespräch zu kommen, rundet das Programm ab.

Eine Anmeldung ist erforderlich. Das entsprechende Formular und weitere Informationen finden sich auf der Webseite zum Nutzertreffen.

Quelle: http://dhd-blog.org/?p=3556

Weiterlesen

SlaVaComp bietet Tätigkeit auf Werkvertragsbasis

Stellenausschreibung im Auftrag von Dr. Susanne Mocken (Albert-Ludwigs-Universität Freiburg)

An der Freiburger Albert-Ludwigs-Universität ist im Rahmen des BMBF-geförderten Projekts „SlaVaComp – Computergestützte Untersuchung von Variabiltät im Kirchenslavischen“ zum nächstmöglichen Zeitpunkt eine Beschäftigung auf Werkvertragsbasis (Zeitumfang ca. 60h/Monat) zu vergeben.

Worum geht es? Wir benötigen Unterstützung bei der Transformation von in Textform vorliegenden Glossaren in TEI-konformes XML.

Was erwarten wir? Kenntnisse in einer Skriptsprache (Perl, Python …) oder auch einer anderen Programmiersprache. Darüber hinaus Interesse am Umgang mit natürlichen Sprachen, Engagement sowie sorgfältiges und eigenverantwortliches Arbeiten.

Was bieten wir? Interessante Tätigkeit bei freier Zeiteinteilung und Möglichkeit zur Telearbeit. Ideal für StudentInnen der Informatik oder Computerlinguistik.

Kenntnisse der russischen Sprache bzw. des griechischen und/oder kyrillischen Schriftsystems sind von Vorteil, aber nicht Voraussetzung.

Die Auswahl erfolgt nach den Regeln des AGG (Allgemeines Gleichbehandlungsgesetz).

Kontakt und weitere Informationen:

Dr. Susanne Mocken
susanne.mocken@rz.uni-freiburg.de

Quelle: http://dhd-blog.org/?p=3320

Weiterlesen

Methodenworkshop »Techniken der digitalen Edition für die historisch arbeitenden Textwissenschaften«

  • Veranstalter: Leibniz-Institut für Europäische Geschichte (IEG, http://www.ieg-mainz.de/) und DARIAH-DE (http://de.dariah.eu)
  • Ort: Leibniz-Institut für Europäische Geschichte, Alte Universitätsstraße 19, 55116 Mainz
  • Beginn: 29. Januar 2014, 14.00 Uhr
  • Ende: 30. Januar, 13.00 Uhr

Die Vorrangstellung der Informationsstrukturierung und -vermittlung in Form gedruckter Bücher hat durch den Übergang von traditionellen hin zu neuen, digitalen Formen der Erschließung und Repräsentation von Texten an Bedeutung verloren. Zunehmend lösen digitale Texte die »klassischen« Medien ab. Infolge dieser Entwicklung wird vom Wissenschaftsrat in seinen publizierten Empfehlungen zu »Forschungsinfrastrukturen in den Geistes- und Sozialwissenschaften« empfohlen, »sich nachhaltig für einen Ausbau forschungstauglicher Digitalisierungen« einzusetzen; auch auf wissenschaftspolitischer Ebene können die Vorteile der digitalen Erschließung und Aufbereitung als unbestritten gelten.

Vor diesem Hintergrund und den daraus resultierenden vielfältigen Möglichkeiten der Digital Humanities möchte der vom IEG im Rahmen von DARIAH-DE (gefördert vom Bundesministerium für Bildung und Forschung) organisierte Workshop Grundlagen, Methoden und Techniken von Digitalen Editionen für die historisch arbeitenden Textwissenschaften vermitteln und bereits vorhandene Lösungsansätze und -szenarien mit den Teilnehmern diskutieren. Der Methodenworkshop ist Teil einer Veranstaltungsreihe von DARIAH-DE, die in Kooperation mit Partnerinstitutionen mit unterschiedlichen geisteswissenschaftlichen Schwerpunkten durchgeführt werden.

Der Methodenworkshop nimmt thematisch die Forderung nach dem Ausbau forschungstauglicher Digitalisierungen in Form von »digitalen Editionen« auf. Digitale Editionen sollen dabei das klassische Editionskonzept nicht verwerfen, sondern ergänzen, weil auch dort das Ergebnis der Arbeit darin bestand, mehrere Schichten von Informationen (z.B. in Form von Erläuterungen, inhaltlichen Anmerkungen, Angaben von Textvarianten, bibliographischen Angaben usw.) zu einem Text zu sammeln, zu systematisieren und dem Nutzer in Form eines abgeschlossenen Werks zur Verfügung zu stellen. Mit anderen Worten, beim klassischen Editionsmodell handelt es sich bereits um einen Hypertext. Die Schichtenstruktur klassischer Editionen lässt sich digital leichter – und konsequenter – abbilden. Dabei können viele Beschränkungen des konventionellen Buchdrucks überwunden werden, insbesondere diejenigen, die die materielle Überlieferung betreffen (visuelle Wiedergabe des Textes, Informationsumfang). Gleichzeitig kommen ganz neue Möglichkeiten hinzu wie Mehrdimensionalität und Modifizierbarkeit.

Der Methodenworkshop widmet sich konkret der Frage: Was bedeutet Digitalisierung im Kontext historischer Editionen? Wo müssen Schwerpunkte gesetzt werden, um aus komplexen Textstrukturen digitale Objekte zu erzeugen? Und vor allem: Wie müssen diese Textstrukturen aufbereitet werden, um aus ihnen eine digitale Edition zu formen?

Eine grundlegende Technik zur Erstellung von Digitalen Editionen bilden die Auszeichnungsstandards der Text Encoding Initiative (TEI). TEI wurde als XML-basierte Auszeichnungssprache speziell für die Zwecke der Geisteswissenschaften konzipiert und stellt mittlerweile einen De-facto-Standard für die wissenschaftliche Textkodierung dar, die wiederum als Grundlage für die Aufarbeitung von Texten zu betrachten ist.

Im Rahmen des Workshops werden Grundkenntnisse im Bereich der Textkodierung mit XML/TEI, der Weiterverarbeitung XML-kodierter Daten sowie ihrer Aufbereitung vermittelt, die  als Grundlage für die Erstellung von digitalen Editionen dienen.

Am ersten Tag werden zunächst die Grundlagen von Konzeption und Planung digitaler Ausgaben an zwei konkreten Editionsprojekten (Briefedition Alfred Escher & Kritische Online-Edition der Nuntiaturberichte von Eugenio Pacelli 1917–1929) erläutert. Ausgehend davon können unterschiedliche Konzepte digitaler Editionen diskutiert sowie der jeweils damit verbundene Aufwand und die Anwendbarkeit für verschiedene editorische Fragestellungen/Bedürfnisse thematisiert werden.

Am zweiten Tag sollen sich die Teilnehmer, nach einer knappen allgemeinen Einführung in XML, anhand von kleinen Übungen in die Praxis der Textauszeichnung mit TEI einarbeiten und einen Überblick über die Bedeutung und die verschiedenen Module dieser Sprache erhalten. Vordergründiges Ziel dieser »hands-on session« ist es, die Teilnehmer zum selbstständigen Umgang mit den TEI-Guidelines anzuleiten, um ihnen so ein Werkzeug in die Hand zu geben, mit dem sie später im Rahmen ihrer Projekte selbst arbeiten können.

Der Methodenworkshop ‘Techniken der digitalen Edition für die historisch arbeitenden Textwissenschaften’ richtet sich an alle historisch arbeitenden Textwissenschaftler und möchte insbesondere Nachwuchswissenschaftler (Doktoranden und Post-Doktoranden), aber auch Forscher ansprechen, die sich in ihrem Forschungsalltag und in aktuellen Projekten mit Themen der Planung und Erstellung von Digitalen Editionen beschäftigen.

Um einen reibungslosen Ablauf zu gewährleisten, werden die Teilnehmer gebeten, ihre eigenen Notebooks mitzubringen, so dass gemeinsam anhand von Beispieldaten einige Tools und Anwendungsszenarien getestet werden können. Es besteht ferner die Möglichkeit, dass die Teilnehmer vor Workshopbeginn Daten aus ihren eigenen Forschungsprojekten einreichen, um mithilfe dieser Daten exemplarische Erfassungsprobleme thematisieren und Anwendungsoptionen diskutieren zu können.

Das ausführliche Programm des Workshops, weiterführende Informationen und ggf. weitere Aktualisierungen werden auf www.staff.uni-mainz.de/marcuhel/methods2014 veröffentlicht.

Die Teilnehmerzahl ist auf 20 begrenzt.

Bewerbungen zur Teilnahme am Workshop sind ab sofort bis zum 18. Dezember 2013 möglich. Eine verbindliche Einladung erfolgt am 20. Dezember 2013.

Für die Bewerbung senden Sie bitte eine E-Mail mit einem kurzen Lebenslauf und einem kurzen Motivationsschreiben (jeweils max. eine Seite) an: aurast@ieg-mainz.de und held@ieg-mainz.de.

Bei inhaltlichen oder organisatorischen Rückfragen wenden Sie sich bitte an:

Quelle: http://dhd-blog.org/?p=2626

Weiterlesen

20. Jahrestagung der International TUSTEP User Group zum Thema “Vernetzte Geisteswissenschaften. Projekte – Werkzeuge – Lösungen”

Bereits seit der Mitte der 1960er Jahre stellt sich das Tübinger System von Textverarbeitungsprogrammen (TUSTEP) in den Dienst der wissenschaftlichen Textverarbeitung, indem es einen Baukasten von frei konfigurierbaren Werkzeugen zum Vergleichen, Zerlegen, Annotieren, Umorganisieren und Setzen von Texten anbietet. Die Design-Prinzipien von TUSTEP ermöglichten die ständige Weiterentwicklung des Programmpakets, das heute über vielfältige Funktionen zum Erzeugen und Bearbeiten von XML-Daten ebenso verfügt wie über ein integriertes CGI-Interface. Seit 2011 steht TUSTEP als Open-Source-Produkt zur Verfügung. Bisher wurden zahlreiche gedruckte und digitale Editionen, Register, Glossare, Konkordanzen, Bibliographien und Wörterbücher mit TUSTEP-Unterstützung erarbeitet und/oder publiziert.

Die TUSTEP-Nutzerschaft ist seit 1993 in der International TUSTEP User Group (ITUG) organisiert, die vom 16.-18. September 2013 ihr 20-jähriges Bestehen mit einer Tagung zum Rahmenthema “Vernetzte Geisteswissenschaften. Projekte – Werkzeuge – Lösungen” feiert. Die Tagung findet statt in der Akademie der Wissenschaften und der Literatur (Mainz) und wird ausgerichtet von der Arbeitsstelle für das Mittelhochdeutsche Wörterbuch.

Im Vorfeld der Tagung finden vier Workshops statt, die das Scripting mit TUSTEP, die Nutzung von TUSTEP aus dem XML-Editor <Oxygen/> und spezielle Tipps zum Setzen mit TUSTEP behandeln. In allen Workshops sind noch einige Plätze frei; die Teilnahme ist kostenfrei, eine formlose Anmeldung ist erbeten.

Das Tagungsprogramm und weitere Informationen zur Veranstaltung finden sich unter http://www.uni-trier.de/index.php?id=48817

Dieser Text wurde zur Verfügung gestellt von Ute Recker-Hamm.

Quelle: http://dhd-blog.org/?p=2200

Weiterlesen

Der veſte Buchſtab. Digitale Editionen, ihre Erstellung und Darbietung

  Am 29. und 30.  November 2012 fand in der Geschäftsstelle der Max Weber Stiftung das Arbeitstreffen „digital humanities. Wissenschaftliche Datenbanken und Editionsprojekte“ statt. Zwar gibt es gibt noch keinen Königsweg, der in diesem weiten Bereich zu allen Zielen führt. Umso wichtiger sind Übergangsmöglichkeiten von einem Weg zum anderen. Die Überlieferung von Worten ist das wertvollste Kulturgut überhaupt. Bauten und Bilder, Geschmeide, Melodien und Maschinen können uns nützen, uns freuen, uns staunen und schaudern lassen ‒ aber sie reden nie so zu uns wie Worte, von Mensch zu Mensch. Kein Wunder, dass wir gerade auch dieser Überlieferung digitale Dauer zu geben bestrebt sind, kein Wunder aber auch, dass bei der Ausführung des Vorhabens Schwierigkeiten begegnen. Lösungen solcher Schwierigkeiten war das Arbeitstreffen gewidmet, freilich mit Schwerpunktsetzung: Es ging um schriftliche Überlieferung und das Eingeben, Abspeichern, Aufbereiten und Anzeigen von zugehörigen Metadaten (im weiteren Sinn verstanden, worunter auch schon das Transkript zu einer Abbildung fällt). Und es war wirklich fesselnd zu sehen, wie vielfältige und ausgefeilte Lösungsansätze vorgestellt, gelegentlich auch ‒ freundlich und erfreulich lebhaft ‒ gegenübergestellt wurden und wie sie einander ergänzen oder befruchten konnten.   Aus einer Hölderlinhandschrift mit der im Titel angeführten Stelle. Die Transkription (d oder D oder …?) ist ein primär philologisches, nur sekundär technisches Problem. Dazu unten etwas. (Quelle: Württembergische Landesbibliothek Stuttgart: Hs. Homburg.G,2-7: Blatt 6v: Zeile 6. http://digital.wlb-stuttgart.de/purl/bsz346526833. Lizenz CC BY-NC-ND.) FuD, vertreten von Marina Lemaire und Gisela Minn vom Trierer Kompetenzzentrum, zeigte sich als System mit einem erprobten Kern und einer Vielzahl von entwickelten oder in Entwicklung befindlichen Schnittstellen, um so gut wie alle Editionsschritte zu unterstützen ‒ von der kollaborativen Erfassung in einer MySQL-Datenbank der Uni Trier bis zur Veröffentlichung im Netz oder Druck ‒, aber auch den Wechsel hin zu anderen Systemen anbieten zu können. So gab Sebastian Felten vom DHI London einen interessanten Einblick ins Projekt „Pauper Letters and Petitions for Poor Relief in Germany and Great Britain, 1770 – 1914“ und wie dort sowohl FuD als auch das ‒ noch zu erwähnende ‒ DENQ zusammen genutzt werden, das eine zur Eingabe, das andere zur Anzeige im Netz. BASYS-Invenio, vorgestellt von Thekla Kleinschmidt und Branimir Kolev vom Bundesarchiv, wurde und wird auf der Grundlage von Islandora entwickelt, um Archivalien in einem riesigen Gesamtbestand von einigen hundert Terabytes rasch finden und anzeigen zu können. Eingebaut ist eine sehr lesefreundliche Anzeige in Gestalt des Internet-Archive-Viewers, zudem mit einer maschinellen Texterkennung über Tesseract, was eine Suche im Text der jeweils angezeigten Abbildung ermöglicht. Bei den meisten Bundesarchivalien, gedruckt im 20. bis 21. Jahrhundert, zeitigt eine maschinelle Texterkennung gute Ergebnisse. Peter Stadler stellte die Carl-Maria-von-Weber-Gesamtausgabe vor, die in bewunderungswürdig konsequenter und harmonischer Verbindung von philologischen Kardinaltugenden und modernen XML-Techniken erarbeitet wird: Mit Gründlichkeit und Genauigkeit und der echt philologischen Liebe zum Wort wird aus der sichtbaren Überlieferung, dem Bild, ein lesbarer, und zwar maschinenlesbarer Text, der bis zur Anzahl der Striche bei Unterstreichungen alles von der Überlieferung aufhebt, was irgendwie sinnunterscheidend sein könnte. Ruth und Borries von dem Bussche vom Düsseldorfer Unternehmen Fafalter skizzierten dagegen eine Lösung auf der Grundlage von HTML5, das mit RDF-Annotation angereichert wird ‒ eine Verbindung von Sinn- und Gestaltebene, die früher gemieden wurde, jetzt aber im Verlagswesen und überhaupt im geschäftlichen Umfeld mehr und mehr Anklang findet. Auch, um Netzseiten mit mehr maschinenlesbarem Inhalt im Sinne des „semantic web“ zu erstellen, ist HTML5 mit RDF-Anzeichnung die fortgeschrittenste Lösung. Charlotte Schubert von der Universität Leipzig führte eAQUA vor und machte anhand von Beispielen aus ihrer eigenen Forschung deutlich, welchen außerordentlichen Nutzen ein Korpus von diesem Umfang und Lemmatisierungsgrad, zudem versehen mit den Anzeigemöglichkeiten der Kookkurrenzanalyse und der raumzeitlichen Belegverteilung haben kann. Torsten Schrade von der Digitalen Akademie Mainz stellte einen editorischen Arbeitsablauf vor, der von Ausgangsdokumenten in verschiedenen (und nicht immer günstigen) Formaten hin zum Content-Management-System Typo3 führt. Eine besondere Herausforderung ist im Fall des Beispielprojektes „Medieval Ashkenaz“ die Mischung hebräischer und deutscher Teile, also links- und rechtsläufiger Schriftrichtung, was in besonders schweren Fällen mit einem Zusammenspiel aus weicher Auszeichnung (mit <span dir=”rtl”> … </span>) und harten Steuerzeichen (U+202B für ‘ab hier linksläufig’ und U+202A für ‘ab hier rechtsläufig’) gelöst wird. Die Steuerzeichen werden elegant über das CSS, nämlich über eine an die Anzeichnung dir gebundene content-Eigenschaft eingefügt. DENQ, vorgestellt von Jörg Hörnschemeyer (dem Entwickler) und Jan-Peter Grünewälder vom DHI Rom, ist ebenda entwickelt worden, also gleichsam innerhalb der Max Weber Stiftung. Ein Kernbestandteil ist die XML-Datenbank eXist. Gezeigt wurden eine Suche über mehrere Korpora, auch als Ähnlichkeitssuche auf der Grundlage des Lewenstein-Algorithmus, ferner die Anzeige von Belegen in räumlicher Verteilung, unterlegt mit einer geographischen Karte, sowie die Möglichkeit, die Abbildung eines Textes in Ausschnitte zu zerlegen, die im SVG-Format gespeichert und den je entsprechenden Textausschnitten zugeordnet werden können, was noch in Entwicklung ist. Es konnte aber bereits eine gerade für diese Aufgabe äußerst nützliche maschinelle Vorsegmentierung gezeigt werden, die schon erstaunlich gut war. Zur Dateneingabe sonst: In DENQ wurde oder wird für jedes gewünschte Format eine Überführung in eXist entwickelt. Unter anderem möglich ist die Nutzung eines vertrauten Editors wie Word, in dem dann über Formatvorlagen recht bequem eine semantische Auszeichnung bis auf die Ebene des Zeichens hinab vorgenommen werden kann. Es ist bewundernswert, wie viel Funktionalität und Flexibilität auf schmaler Personalbasis entwickelt und ermöglicht worden ist. TextGrid, vorgestellt von Oliver Schmid von der Technischen Universität Darmstadt, ist vielleicht das komplexeste der vertretenen Systeme und bietet einen zumal gemessen am Projektalter großen Umfang an Funktionen sowie Teilprogrammen, die modular entwickelt und vom Nutzer modular eingebunden werden können. Die Eingabeumgebung, TextGridLab, funktioniert als reines Java-Programm ohne Installation (wenn das Java-Runtime-Environment auf dem Rechner installiert ist, was ja meist zutrifft) und auch offline. Das TextGridRep wiederum dient sowohl der gemeinsamen Arbeit an derselben Datenbank, als auch der Langzeitarchivierung und der Veröffentlichung im Netz mit Suchmöglichkeiten. Zwei vielleicht miteinander zusammenhängende Eindrücke vom Arbeitstreffen: Erstens. Es gibt noch keinen Königsweg, der zu allen Zielen führt; umso wichtiger sind Übergangsmöglichkeiten von einem Weg zum anderen. Zweitens. Gerade als Austauschformat ist XML noch immer und bis auf weiteres „die reine Lehre“, wie Gregor Horstkemper von der Bayerischen Staatsbibliothek in seiner Moderation scherzte. Andererseits wurden hin und wieder die Unzulänglichkeiten von XML in den Randbereichen seiner Verwendung deutlich: Wann immer man Geltungsbereiche auszeichnen will, die unterbrochen sind oder einander überlappen, also nicht in die hierarchische Verschachtelung von XML-Dokumenten passen, muss man zu Behelfen greifen, von denen keiner der Standard ist ‒ die TEI-Richtlinien stellen mehrere gleichberechtigt nebeneinander. Und schlimmer: Um die Behelfslösung einzulesen, etwa bei Abfragen, muss man einen eigenen Parser schreiben (adé Standardkonformität) oder auf Reguläre Ausdrücke zurückgreifen (was sonst als blankes Versagen bei der XML-Verarbeitung gilt) oder XPointer verwenden, was noch kaum umgesetzt und überdies mit einem Patent belastet ist, das bei Sun lag, jetzt also bei Oracle liegen müsste (vgl. http://www.w3.org/TR/xptr-framework/, http://www.w3.org/2002/06/xptr_IPR_summary.html). Oracle hat bekanntlich schon wegen eines anderen von Sun geerbten Patentes einen Rechtsstreit begonnen. Dennoch: Stadler, Leiter der TEI-Interessengruppe „Correspondence“, hat XML mit pädagogischem Impetus hochgehalten: Geisteswissenschaftler sollen mit XML umgehen können, weil der Umgang mit Texten, Textstruktur und Textsemantik zum Kernbereich der Geisteswissenschaft gehört, weil die dabei anfallenden Entscheidungen auch nur der Fachwissenschaftler, kein hilfreich herbeieilender Techniker treffen kann und weil der Umgang mit XML auch gar nicht so schwierig ist wie die wirklich harten Probleme ‒ die sind bei einer Edition stets philologischer Natur. Wenn man von der XML-Frage verallgemeinernd absieht, wird der Impetus ein aufklärerischer: Es geht dann um den Ausgang des Geisteswissenschaftlers aus einer selbstverschuldeten Unmündigkeit, was Datenverarbeitung angeht. Besteht diese Unmündigkeit? Und ist sie selbstverschuldet ‒ aus denselben Ursachen, die Kants berühmter Aufsatz nennt? Hier liegt ein Problem, das unangenehmer ist als etwa das vergleichsweise harmlose Ansinnen, die Geisteswissenschaften im Social Web zu verankern. Dr. Stefan Müller ist Referent für Datenbanken in der Geschäftsstelle der Max Weber Stiftung in Bonn, Redaktion Perspectivia.  

Quelle: http://mws.hypotheses.org/1571

Weiterlesen