Automatische Kollationierung – Zur projektbezogenen Adaption von CollateX für digitale Texteditionen

Code and collate - Workshop Amsterdam (photo: Ellie Bleeker)

Code and collate – Workshop Amsterdam (photo: Ellie Bleeker via Twitter)

Die Erstellung digitaler Editionen ist ein zentraler Arbeitsbereich der Digitalen Geschichtswissenschaften. Die bisher zur Verfügung stehenden Werkzeuge und Arbeitsumgebungen, die ja nicht nur uns Historiker sondern alle textbasierten Wissenschaften betreffen, bleiben dabei aber häufig hinter dem zurück, was man sich hierfür wünscht oder vorstellen kann. Dies gilt auch für das automatische Kollationieren. Doch wie sich auf dem „Code and Collation“ Workshop  gezeigt hat, der vom 2. bis 4. November in Amsterdam stattfand, gibt es hier deutliche Fortschritte zu verzeichnen.

Das Problem – analog

Wenn man an der Edition eines Textes arbeitet, der gleich in mehreren Textzeugnissen überliefert ist, stellt sich immer erst einmal die Frage, welche der Überlieferungen man dem zu erstellenden Editionstext zugrunde legen soll. Mit den Möglichkeiten der digitalen Edition hat sich dieses Problem deutlich vereinfacht.

[...]

Quelle: http://digigw.hypotheses.org/1532

Weiterlesen

Automatische Kollationierung – Zur projektbezogenen Adaption von CollateX für digitale Texteditionen

Code and collate - Workshop Amsterdam (photo: Ellie Bleeker)

Code and collate – Workshop Amsterdam (photo: Ellie Bleeker via Twitter)

Die Erstellung digitaler Editionen ist ein zentraler Arbeitsbereich der Digitalen Geschichtswissenschaften. Die bisher zur Verfügung stehenden Werkzeuge und Arbeitsumgebungen, die ja nicht nur uns Historiker sondern alle textbasierten Wissenschaften betreffen, bleiben dabei aber häufig hinter dem zurück, was man sich hierfür wünscht oder vorstellen kann. Dies gilt auch für das automatische Kollationieren. Doch wie sich auf dem „Code and Collation“ Workshop  gezeigt hat, der vom 2. bis 4. November in Amsterdam stattfand, gibt es hier deutliche Fortschritte zu verzeichnen.

Das Problem – analog

Wenn man an der Edition eines Textes arbeitet, der gleich in mehreren Textzeugnissen überliefert ist, stellt sich immer erst einmal die Frage, welche der Überlieferungen man dem zu erstellenden Editionstext zugrunde legen soll. Mit den Möglichkeiten der digitalen Edition hat sich dieses Problem deutlich vereinfacht.

[...]

Quelle: http://digigw.hypotheses.org/1532

Weiterlesen

Bericht vom Interedition Symposium März 2012, oder: was Aquarien, Ozeane, Archäologen und Taucher mit digitalen Editionen zu tun haben

Vom 19.-20. März 2012 fand in Den Haag das Abschluss-Symposium von Interedition zum Thema “Scholarly Digital Editions, Tools and Infrastructure” statt. In dem vielfältigen Programm des Symposiums wurden aktuelle und teils brandneue Entwicklungen im Bereich der Technologien rund um digitale Edition vorgestellt: von hoch flexibel interagierenden microservices über wohldefinierte Tools bis hin zu Infrastrukturprojekten mit Bezug zur digitalen Edition und zur Aufbereitung und Analyse konkreter Textsammlungen.

Im Bereich der microservices wurden beispielsweise mehrere Ergebnisse der Interedition Bootcamps vorgestellt: so unter anderem im Bereich der Kollationierung der flexible Verbund von CollateX mit einem Variant Graph Modul und einem Regularisierungsinterface (Tara Andrews, Troy Griffit, Joris van Zundert); mehrere micoservices im Bereich von Open Annotation und Linked Data (Grant Dickie, Moritz Wissenbach, Marco Petris); ergänzt wurden diese Beiträge durch Reflexionen darüber, wie Kollationierungstools wie Juxta oder CollateX mit oft sehr unterschiedlich kodierten TEI-Texten zurechtkommen können (Gregor Middell).

Im Bereich der eigenständigen Tools standen etablierte Projekte im Vordergrund: beispielsweise die Versioning Machine, die seit 1993 stetig weiterentwickelt wird und deren Bedeutung nicht zuletzt darin liegt, dass sie DH-Neulingen eindrücklich veranschaulicht, welche Möglichkeiten das digitale Medium mit sich bringt (Susan Schreibman); oder das Kollationierungstool Juxta, das mit einer schicken Desktop-Version, zahlreichen Funktionen und (ganz aktuell) mit der verstärkten Expansion in Richtung Webservice und API beeindruckte (Nick Laiacona).

Im Bereich der Infrastrukturen war einerseits Textgrid als Virtuelle Forschungsumgebung vertreten, wobei der Vortrag deutlich machte, wie die Weiterentwicklung dieser Umgebung stetig voranschreitet, unter anderem durch die Integration weiterer Tools, wie bspw. MEISE, der Editor für MEI-Dateien (Celia Krause, Philip Vanscheidt). Und auch DARIAH wurde vorgestellt, wobei der Fokus auf den konkreten DARIAH-Services lag, die DARIAH Entwicklern und Herausgebern von digitalen Editionen anbieten kann, vom Developer Portal über die Bit Preservation bis zu Referenzdaten-Services (Christiane Fritze, Christof Schöch).

Ebenfalls zum Thema Infrastrukturen, aber aus einer etwas anderen Perspektive, gab es zwei weitere Beiträge: ein knackiges Plädoyer dafür, dass doch lieber alle dazu beitragen sollten, einen gemeinsamen Daten- und Tool-Ozean zu managen, anstatt dass jeder ein kleines, privates Aquarium baut (Martin Wynne); und einen Beitrag mit dem schönen Titel “Smaller is Smarter”, der dazu provozierte, die positiven Erfahrungen mit “agile development” und “programming sprints” in den Interedition Bootcamps auch in großen Infrastrukturprojekten wie DARIAH zu nutzen (Doug Reside), wobei letztlich deutlich wurde, dass beide Ansätze sicherlich vor allem in ihrer Komplementarität am nützlichsten sein werden.

An Beiträgen, die weniger aus der Perspektive der Tools auf die Forschung, denn aus der Perspektive eines konkreten Forschungsprojektes auf die Durchführung und technische Umsetzung blickte, mangelte es aber auch nicht. Unter anderem wurde das Womens Writers in History-Projekt vorgestellt, in dem es zentral darum geht, die Rezeptionsgeschichte der Werke weiblicher Autoren in einer Datenbank zu modellieren (Suzan van Dijk, Gertjan Filarski), oder das Ancient Greek Dependency Treebank Projekt, in dem das altgriechische Korpus des Perseus Projects mit morphologischen, syntaktischen und pragmatischen Annotationen angereichtert wird (Marie-Claire Beaulieu, Mathew Harrington, Francesco Mambrini).

Den Abschluss des Symposiums bildete der Vortrag von Joris van Zundert, der Leiter von Interedition, der auf die Erfahrungen aus dem vierjährigen Projekt zurückblickte. Deutlich wurde dabei, dass eine Vision (ein lockeres Netzwerk interoperabler microservices), eine flexible und innovative Arbeitsweise (Bootcamps) und vor allem, motivierte und kompetente Menschen (Programmierer und Editionswissenschaftler) sowie genügend Reisemittel (in diesem Fall COST Action-Mittel) zusammenkommen müssen, damit all die faszinierenden und hochaktuellen Tools entstehen können, die Interedition jetzt vorweisen kann. Auch wenn die Veranstaltung eigentlich das Abschluss-Symposium war, ist kaum vorstellbar, dass es nicht irgendwie weitergeht! Und was ist mit den Archäologen und Tauchern? Zu dieser Geschichte muss jeder Joris van Zundert selbst fragen.

Quelle: http://dhd-blog.org/?p=356

Weiterlesen