Die (Inter-)Disziplin der digitalen Geisteswissenschaften (Digital Humanities) konturiert sich auch in der Schweiz immer deutlicher. Nach einer Reihe regionaler und nationaler Fachtagungen, erster Berufungen an Universitäten und eines ersten THATCamps – einer relativ informellen und stark partizipaitven Unconference –, das auch in die Nachbarländer und teilweise darüber hinaus ausstrahlte, fand vor wenigen Tagen mit der ersten Digital Humanities Summer School an der Universität Bern (26.-29. Juni 2013) ein weiterer bedeutender DH-Anlass statt. Wie das Lausanner THATCamp (2009) wurde die DH-Summer School durch ein bewährtes Konsortium aus Vertretern der Geschichtsplattformen infoclio.ch (als Hauptorganisator) und hist.net, des Vereins Geschichte und Informatik (also der Hausherren dieses Blogs), des DODIS-Editionsprojekts sowie von Forschenden der Universitäten Bern und Lausanne (LADHUL, DHLab) organisiert und durchgeführt. Dank eines attraktiven Programms mit Präsentatoren und Workshop-Leitern von internationalem Ruf waren die gut hundert Plätze im Frühjahr in kürzester Zeit an Teilnehmer aus zwanzig verschiedenen Ländern vergeben.
Die viertägige Summer School begann am Mittowch, 26. Juni, mit einem Eröffnungsvortrag durch Ray Siemens, Universität Victoria CA und ADHO-Direktor, der das Verhältnis der Digital Humanities zu den hergebrachten Disziplinen und dem Spannungsfeld zwischen ihnen auszuleuchten versuchte, wobei seine wichtigsten Referenzpunkte Cathy Davidsons Begriff ‚Digital Humanities 2.0‘ und Willard McCartys ‚Methodological Commons‘ (ibi p. 118-119) waren. Erscheinen die Digital Humanities von aussen betrachtet verhältnismässig positivistisch geprägt, eröffnen sich aus der Innenperspektive vielerlei kritische Aspekte und unscharfe Grenzziehungen. Siemens plädiert dafür, den definitorischen Problemen nicht auszuweichen, da diesbezüglich eine gewisse Standfestigkeit notwendig sei, um die disziplinäre und interdisziplinäre Forschung voranzubringen.
Susan Schreibman, Trinity College Dublin, lieferte im nächsten Vortrag historischen Kontext zur Genese der Digital Humanities und den wechselnden Selbstverständnissen der Akteure, wobei sich der Bogen von Roberto Busas Lochkarten-basierter Thomas von Aquin-Konkordanz bis hin zu virtuellen Welten spannte, welche die Beantwortung ganz konkreter Fragestellungen ermöglichen sollen, letzteres veranschaulicht durch das laufende Easter Rising-Projekt und dessen virtuelles Strassenpanorama, das, situative Begebenheiten und das Potential der verwendeten Waffen berücksichtigend, Aufschluss über mögliche Opferzahlen während des Dubliner Osteraufstandes von 1916 geben soll. Die Anekdote des zunächst irrtümlicherweise online frei zugänglich gemachten Bandes ‚Digital Humanities‘, welche den Verkauf des Werks erst recht angekurbelt hat, ermöglichte einen interessanten Bezug zu den im Wandel begriffenen Publikationsmodellen und den damit einhergehenden Fragen nach wissenschaftlicher Anerkennung und in der Verlängerung zur viel diskutierten Wertfrage des ‚building and making‘ im Gegensatz zu ‚reading and critique‘. Durch sich verschiebende Gewichte und den postulierten ‚object life cycle‘ bzw. genereller durch die Bestrebungen zur langfristigen Kuration von Forschungsdatenbeständen deutet sich nach Schreibman eine gewisse Konvergenz der bis anhin disparaten Arbeitsfelder von Forschern und Dokumentalisten (Bibliothekaren, Archivaren) an.
Vermochten diese beiden einführenden Referate die Entwicklung und den gegenwärtigen Stand digitaler geisteswissenschaftlicher Forschung einigermassen abzustecken, blieb das inspirierende Moment vielleicht etwas hinter den Erwartungen zurück. Illustrieren lässt sich dies beispielsweise am (zu) verbreiteten Visualisierungstyp der Begriffswolke (word cloud, wordle; bisweilen auch als Vokuhilas des Internets bezeichnet), den Siemens wie Schreibman in ihren Präsentationen verwendeten, was aus dem Publikum prompt hinterfragt wurde und einer Diskussion über den Einsatz von Werkzeugen Weg bereitete, deren Mechanismen häufig nicht evident sind und die folglich Resultate verzerren können.
Elena Pierazzo, Kings College London, verband in ihrem Vortrag kommunikations- und texttheoretische Aspekte konzise mit den vielfältigen praktischen Herausforderungen, die digitale Editionsprojekte mit sich bringen. Ausgehend von der grundlegenden Unterscheidung der linguitischen Konstruktion (Text) vom physischen Objekt (Dokument) erörterte sie das editorische Spektrum, das von einfachen, evident gegliederten, neoplatonischen Texten über Leseausgaben, kritische Editionen und diplomatische Editionen hin zu dokumentnahen Faksimile-Editionen reicht. Seit mehreren Jahrzehnten kommt dabei besonders der materiellen Dimension von Texten grössere Bedeutung (critique génétique, material/new philology) zu, was die — ohnehin komplexe und konventionalisierte — editorische Praxis weiter ausdifferenziert hat. Mit dem Transfer der zugehörigen Editionsformen in den digitalen Raum stellen sich viele Fragen, deren wichtigste Pierazzo schlaglichtartig tangierte und mit zugleich illustrativen und beeindruckenden Beispielen veranschaulichte. Ihr eigener vor dem Hintergrund der Arbeit der TEI Manuscripts SIG entstandener Proust-Prototyp lässt den Leser durch die sequentielle Anzeige von Textpassagen beispielsweise gleichsam dem Autor bei der Entstehung des Texts über die Schultern blicken. Zur Sprache kam mehrfach auch die Position des Editors, dessen Textverständnis im Encoding manifest wird und dessen Rolle und Autorität gerade auch bei Crowdsourcing-Editionsprojekten definiert werden sollte. Zum Themenkreis digitaler Editionsformen vgl. aktuell und ausführlich Sahle (2013) und dann vor allem auch Pierazzos neues Werk zu digital scholarly editions, das in absehbarer Zeit verfügbar sein wird.
In seinem zweiten Vortrag, der sich mit der sozialen Wissenskonstruktion und -produktion (in den Literaturwissenschaften) befasste, äusserte Ray Siemens die These, dass grössere Datenmengen, beschleunigte Arbeitsweisen, unmittelbarere und dichtere Kommunikation sowie verstärkte Teilhabe des Publikums in der Datenerzeugung und im wissenschaftlichen Diskurs das Potential hätten, Forschungsfragen und Forschungsprozesse wesentlich zu beeinflussen. Anknüpfend an die Arbeit des Electronic Textual Cultures Lab (ETCL, U Victoria), und vor dem Hintergrund, dass Wissen in der Regel in chaotischen Strukturen und unter sehr unterschiedlichen Bedingungen entsteht, wobei gerade die informelle Forschungskommunikation bedeutsam ist, beschrieb Siemens eine Umdeutung der Rolle der Forschenden im digitalen Umfeld von didaktischen Autoritäten hin zu Wissensermöglichern (facilitators of knowledge). Kollaborative Werkzeuge, welche grundlegende Funktionen wie die Bereitstellung von Materialien, deren Annotation, Verzeichnung und Analyse ermöglichen — durch Siemens anhand einer Fülle von Beispielen dargelegt, etwa zur Honorierung freiwilliger Partizipation (Gamification), ergänzt durch eine hervorragende annotierte Bibliographie –, sind in diesem Kontext für die Wissensproduktion elementar. Wissen entsteht vor einem grösseren Publikum und durch mehr Akteure, seine Produktion verlagert sich im akademischen Kontext wie in anderen Bereichen (z.B. Journalismus) ausserhalb institutioneller Strukturen. Aus diesen Überlegungen leitet Siemens eine Reihe von Forderungen an zeitgenössische Forscher ab: Damit (Geistes-)Wissenschaftler die Entwicklung neuer Methodologien und Kommunikationsformen mitprägen können, müssen sie die Potenziale neuer Medien untersuchen, um sie bestmöglich zu verstehen, die Mechanismen kollaborativer Arbeitsinstrumente kennen, Grenzen ausloten, unterliegende Ideologien freilegen und einfache positivistische Ansätze in Frage stellen. Neben engagiertes Gestalten und Kreieren soll eine kritische Theorie treten, welche ethische und disziplinäre Standards ständig reflektiert.
Viele der zuvor anklingenden Implikationen der Erweiterung geisteswissenschaftlicher Disziplinen um neue Ansätze und Methoden auf theoretische, moralische und gesellschaftliche Belange bündelte David Berry, Swansea University, in einem dicht befrachteten Vortrag zu DH und Kulturkritik bzw. den Critical Digital Humanities. Auch er setzt bei der Definition und Abgrenzung des Feldes an, dabei er Stephen Ramsays DH-Typisierung aufnehmend, die der vorab praktisch orientierten und relativ institutionalisierten Community wie sie sich in den frühen 1990er Jahren unter dem Schlagwort Computing in the Humanities formierte (DH-Typus I), eine neuere weniger klar umrissene Bewegung entgegenstellt, deren Interessen breit gefächert sind und die mit bisweilen revolutionärer Gesinnung eine eigentliche Erneuerung der Geisteswissenschaften anstrebt (DH-Typus II; Medientheoretiker, Kulturkritiker, Digitalkünstler). Der Frage, was sich in der Konfiguration der geisteswissenschaftlichen Forschung wirklich verändert, näherte sich Berry aus den Perspektiven der Quantifizier- und Kalkulierbarkeit, der Organisation und des Beschleunigungspotenzials. Mit der Überhandnahme eines metrischen Paradigmas, das Hermeneutik durch Mathematik ersetzt und die Formalisierung der Forschung befördert, verändert sich auch der organisatorische Rahmen: Forschung wird projektbezogen betrieben und Administratoren und Projektleiter machen Professoren das Terrain streitig. Zugleich beschleunigt sich die Forschungstätigkeit durch effiziente Analyseformen, hochgradig responsive Kommunikationsmittel und eine in manchen Fällen ausbeuterische Arbeitsteilung. Vorwürfe, die Digital Humanities seien zuvörderst eine opportunistische und marktanbiedernde Ausrichtung der Forschung nach Kosten-Nutzen-Forderungen lassen sich nach Berry nicht kategorisch von der Hand weisen, gibt es doch deutliche Parallelen zwischen DH-Diskursen und Managementfloskeln. Näher betrachtet handle es sich aber um genuin geisteswissenschaftliche Betätigung, die keineswegs bewährte Forschungsprinzipien leichtfertig gegen die gerade angesagtesten Technologien und Ansätze eintauscht. Dafür, dass „digital“ in der politischen Ökonomie der Universitäten längst ein Schlüsselwort im Erschliessen neuer Geldquellen ist, gibt es jedoch zahllose Belege. Berry fordert zurecht mehr Anerkennung für die bereits geleistete kritische Arbeit und mehr Unterstützung für ihren Ausbau. Der möglicherweise resultierende Verlangsamungseffekt könne durchaus produktiv sein, indem die Forschung durch verstärkte Reflexion profitiere, gerade auch jenseits der Projektebene in der längerfristigen Perspektive.
Im Gegensatz zu Berrys übergreifendem Vortrag konzentrierte sich jener von Claire Lemercier, CNRS-Sciences Po, Paris, über Netzwerkanalyse auf eine spezifische Forschungsmethode, ohne es aber zu missen, Bezüge zu quantitativen Methodolgien zu schaffen. Im Vordergrund standen dabei nicht konkrete analytische Werkzeuge, sondern die formalen Möglichkeiten, Forschungsdaten einer Linse gleich aus verschiednen Winkeln und Distanzen zu untersuchen. Das Potential der Methode liege weniger in attraktiven Visualisierungen komplexer (und oftmals wenig aussagekräftiger) Netzwerke als in der Möglichkeit, vorhandene und fehlende Bezüge auf verschiedenen Ebenen zu betrachten und isolierte Effekte aufzuspüren. Der Forschungsprozess soll dabei von der Datensammlung in einem Archiv bis zur Publikation der Resultate von formalen Überlegungen begleitet werden, die es durch eine vorausschauende, der Dimensionalität bewusste Datensatzmodellierung erlauben, einengende Abhängigkeiten im weiteren Forschungsprozess zu vermeiden. Genaue Kenntnisse über den Aufbau eines Datensatzes und daraus abgeleitet mögliche interessante Fragestellungen beeinflussen die Auswahl des Analysewerkzeuges grundsätzlich. Der Netzwerkanalyse verwandte Methoden wie die geometrische Analyse, die multiple Korrespondenzanalyse, die Sequenzanalyse oder auch klassische deskriptive Statistik sind für manche Forschungszwecke besser geeignet als die soziale Netzwerkanalyse, die ihrerseits eigentlich eine Vielfalt von Spielarten umfasst. Die Netzwerk-Sichtweise kann in vielen Bereichen produktiv sein — als Netzwerke aufgefasst werden können Beziehungen unter und zwischen Personen und Organisationen aber auch historischen Ereignissen und Quellen oder linguistischen Einheiten –, um Korrelationen und Beziehungsmuster aufzudecken, sie sollte aber immer auch durch einen qualitativen Blickwinkel auf die Daten ergänzt werden.
Im letzten Vortrag der Summer School präsentierte Frédéric Kaplan, EPFL Lausanne, das kürzlich angelaufene Venice Time Machine-Projekt von EPFL und Universität Ca’Foscari (Digital Humanities Venice) und mithin seine Vision, durch effiziente Digitalisierung und Datenextrapolation vergangene Zeiten virtuell zu erschliessen und durch die Erkenntnisse wesentlich zu einer temporalen Kartografierung von Städten, Ländern und Kontinenten beizutragen. Erste Voraussetzung für die Kreation einer solchen ‚Zeitmaschine‘ ist die Anhäufung zuverlässiger Daten über die Vergangenheit. Wir verfügen nämlich über eine enorme Datendichte in der Gegenwart, die aber bereits für die vorhergehende Dekaden und mehr noch für vergangene Jahrhunderte sehr viel bescheidener ist. Im Venedig-Projekt sollen zu diesem Zweck im Verlauf der nächsten zehn Jahre rund 80 Laufkilometer Archivalien mit über 100 Millionen Dokumenten, die aus einem Zeitraum von über 1000 Jahren stammen und in verschiedenen Sprachen und Dialekten verfasst wurden, digitalisiert und interoperabel aufbereitet werden, so dass dereinst geschätzte 10 Milliarden ‚Ereignisse‘ (Datenpunkte, factlets) abgefragt werden können. Kaplan und sein Team sehen einer Vielzahl von Stolpersteinen entgegen, denen sie mit innovativen Methoden begegnen wollen: optimierte Scan-Roboter (Vision einer Abtastung der Information in geschlossenen Büchern), verbesserte Texterkennung durch Kontextwissen (analog der Spracherkennung), Nutzung der frei erhältlichen Mithilfe tausender motivierter Studenten gegen Akkreditierung von Kursleistungen in massive open online courses (MOOCs), graphbasierte semantische Informationsmodellierung (RDF), Extrapolation und Simulation fehlender Informationen. Der geisteswissenschaftlichen Forschungsdaten eigenen Ungenauigkeit und Unsicherheit soll durch die Zuweisung ‚fiktiver Räume‘, die in Aggregation Wahrscheinlichkeitsaussagen zulassen, begegnet werden, so dass unter einer Vielzahl potentiell möglicher Vergangenheiten die plausibelsten eruiert werden können. Es handelt sich zweifellos um ein hochinteressantes Projekt mit viel Potential für verschiedene Bereiche. Ob die angestrebte effiziente semantische Erschliessung aber in den nächsten Jahren Realität wird und zufriedenstellende Resultate liefern kann, vermag aus heutiger Warte jedoch gewisse Zweifel zu wecken.
Die sieben vielseitigen und interessanten Vorträge wurden durch zwölf Workshops und sieben Unconference-Sessionen ergänzt, die erfreulicherweise oftmals mit einem direkten Bezug zu den Vortragsthemen angeboten wurden und theoretische (Critical Digital Humanities, Zugänglichkeit und Quellenkritik digitaler/digitalisierter Quellen), disziplinäre (DH und die akademische Lehre) und methodische Belange (Datenaufbereitung, Textanalyse, digitale Editionen von Text und Musik, Visualisierungsmethoden, individuelle und kollektive Arbeitspraktiken) sowie deren Überschneidung (semantisch modellierte Forschungsumgebungen) vertieften. Aufgrund der begrenzten verfügbaren Zeit blieb es in vielen Workshops bei der Demonstration und Diskussion, vereinzelt konnten die Teilnehmer aber erfreulicherweise auch durchaus selber aktiv werden, etwa in den Workshops zu TEI-Editionen (E. Pierazzo), Textanalyse (S. Schreibman), Literaturverwaltung (N. Chachereau) oder Gephi-Visualisierungen (M. Grandjean). Für künftige Veranstaltungen sind diese Tutorien-ähnlichen Blöcke sicher sehr wünschenswert, vielleicht auch in ausgedehnter Form über mehrere Zeiteinheiten hinweg oder als eigenständige Hands-on-Tagesveranstaltungen.
Im Rahmen eines Project Slams stellten rund ein Drittel aller Teilnehmer in Kürzestpräsentationen ihre aktuelle Tätigkeit oder ihr hauptsächliches Forschungsinteresse vor, was eine grosse Bandbreite disziplinärer und thematischer Herkunft offenbarte, die sich zuvor schon in den Diskussionen angedeutet hatte. Mit einem ungezwungenen Diner, gemütlichen Abendstunden in der Bundesstadt, einem spontan organisierten Erfahrungs- und Hintergrundbericht von den Taksim Gezi-Park-Protesten in Istanbul durch zwei Teilnehmer und schliesslich einem Abschluss-Picknick, das aufgrund der Witterung leider nicht draussen durchgeführt werden konnte, bot die Summer School gute Gelegenheit, Kontakte zu knüpfen und Erfahrungen und Visionen zu teilen. Es bleibt zu hoffen, dass der ersten Digital Humanities Summer School in der Schweiz weitere folgen werden, woran dank der zunehmenden Verankerung der Digital Humanities auch hierzulande eigentlich kaum zu zweifeln ist. Mit der Ausrichtung der DH 2014 in Lausanne (6.-12. Juli) zeichnet sich für nächstes Jahr bereits ein hervorragender Anknüpfpunkt ab!
Cross-posting: http://blog.ahc-ch.ch/2013/07/tagungsbericht-zur-ersten-digital-humanities-summer-school-bern
Quelle: http://dhd-blog.org/?p=1952