Ende November 2013 fand in Wolfenbüttel eine kleine, vom Mittelalter-Komitee der Herzog August Bibliothek organisierte Tagung zum Thema “Konsequenzen der Digitalisierung” statt. Zur Einstimmung in die Tagungsthematik hatten die drei Organisatoren (Stephan Müller/Wien, Felix Heinzer/Freiburg und ich) kurze Statements vorbereitet, die aus der jeweils eigenen Perspektive inhaltliche und methodische Herausforderungen der fortschreitenden Digitalisierung von mittelalterlichen Bibliotheksbeständen und Konsequenzen für deren Erforschung reflektieren. Meine Eingangsüberlegungen können hier in leicht überarbeiteter Form nachgelesen werden. Auf der Tagung hielten ferner Erik Kwakkel (Leiden), Björn Ommer (Heidelberg), Manuel Braun (Stuttgart), Sonja Glauch und Florian Kragl (Erlangen) Vorträge zu laufenden Digital-Humanities-Projekten im Bereich der Analyse, Paläographie, Edition und Auswertung mittelalterlicher Handschriften. Die Ergebnisse der Tagung sollen in einem gemeinsamen Konzeptpapier zusammengefasst und als Blogbeitrag auf de.hypotheses publiziert werden.
Noch ein Turn
Von all den intellektuellen und technischen turns, die die Geistes- und Sozialwissenschaften im letzten Jahrhundert durchgeführt haben, ist der digitale zweifellos von einer anderen Natur und einer breiteren Wirkung, auch wenn nicht jeder in der akademischen Welt von uneingeschränkter Euphorie erfüllt ist. Die Entwicklung von Digitalität (digitality), im Sinne der Konzeptualisierung durch Nicholas Negroponte als ‘the condition of being digital’, ist nicht nur von allgemeiner gesellschaftlicher Relevanz, vielmehr birgt sie auch bedeutende Konsequenzen für die akademische Welt und die Art und Weise, wie wir forschen. Hierbei stellt sich, insbesondere auch bei dem Thema der Wolfenbütteler Veranstaltung die grundlegende Frage: Digitalität verändert zweifellos unseren akademischen Alltag, aber wie sind diese Veränderungen methodologisch, und wenn man es so formulieren will, epistemologisch zu begleiten?
Vor allem die Sicherung, Dokumentierung und Bereitstellung des kulturellen Erbes in seiner materiellen Vielfältigkeit und Heterogenität stellen uns vor neue Herausforderungen. Hier sind grundlegende methodische Konzepte nicht nur für die so genannten Digital Humanities, sondern für alle geisteswissenschaftlichen, insbesondere auch die historisch arbeitenden Disziplinen insgesamt zu entwickeln. Die Frage ist also eindeutig nicht mehr die Frage nach dem ob der Digitalität und der digitalen Wissensbestände, sondern die nach dem wie. Der Bogen an Möglichkeiten spannt sich von mittlerweile anerkannten Parametern wie der Entwicklung und Anwendung von internationalen Standards, der prinzipiellen Verfügbarkeit des digitalisierten Materials über den Open Access Gedanken und der langfristigen Sicherung dieses Materials über die systematische Dokumentation der digitalen Erschließungstools bis hin zur Herausbildung und Akzeptanz neuer Publikations-, Evaluations- und Anerkennungskulturen im Rahmen digital-gestützter, geisteswissenschaftlicher Forschungsprozesse.
Kulturelle Artefakte und Forschungsobjekte im Wandel
Insbesondere wird nicht nur das Verhältnis zwischen Objekt bzw. Artefakt und wissenschaftlichem Beobachter neu ausgerichtet, sondern auch die prinzipielle Daseinsform dieser beiden Akteure im wissenschaftlichen Prozess, der unter Umständen entkörpert, entzeitlicht und enträumlicht werden kann. Es geht auch darum, das Verhältnis auszuloten zwischen dem historischen (analogen) Objekt und dessen digitalen Repräsentanten bzw. Abstraktionen, oder wie es unsere Oxforder Kollegin Ségolène Tarte formuliert, deren digitalen Avataren, die durchaus ihre eigene Existenzformen haben und auch eigene Gefahren im wissenschaftlichen Umgang mit ihnen bergen. Ferner gibt es auch die so genannten “digital born objects”, die so intendiert, gezielt produziert und ausschließlich digital existieren, wie etwa die nur virtuell vorhandene 3D-Rekonstruktion einer Handschriftenseite aus einem heute völlig verkohlten Fragment oder die Rekonstruktion eines Artefakts, das nie existierte, dessen Planung jedoch aus schriftlichen Quellen bekannt ist. Und schließlich gibt es Formen der Hybridität, der unterschiedliche Existenzformen vereinen.
In diesem Spannungsfeld der Objektvielfalt sind Forschungsprojekte im Rahmen der digitalen Erschließung und Analyse von Handschriftenbeständen angesiedelt, welche entsprechende Erkenntnismöglichkeiten eben nur durch die Existenz der Digitalisate ermöglichen. Dies betrifft sowohl das Digitalisat im Sinne der Einzelüberlieferung (etwa die Analyse einer Handschrift bzw. kleinerer Quellengruppen) als auch der Möglichkeit der Analyse und Auswertung von sehr großem Datenmaterial, das nur mit computergestützten Methoden zu bewältigen ist (hierzu hat Björn Ommer einen spannenden Vortrag zur Computer Vision gehalten). Die Herausforderung im Bereich der Digitalisierung ist es aber auch, wie bereits vielfach und auch auf der Wolfenbütteler Veranstaltung unterstrichen wurde, nicht nur Antworten auf die Fragen von heute (die wir ja kennen und formulieren können) zu finden, sondern auch zukünftige Fragen, die wir unter Umständen heute noch gar nicht fassen können, zu ermöglichen. Dies erfordert eine teilweise unübliche, noch zu erlernende methodologische Offenheit, und eine über die Perspektiven der Einzelfächer hinausgehende grundlegende Bereitschaft zur Interdisziplinarität.
Im Hinblick auf historische Bibliotheksbestände ist die Ausgangslage eine auf den ersten Blick Erfreuliche: Früh hat sich das “digitale” Augenmerk auf diese einmaligen Kulturbestände gerichtet, so dass inzwischen solide Erfahrungswerte vorhanden sind, und vielfach auch entsprechende Digitalisierungsstandards entwickelt werden konnten. Die Anzahl der Digitalisierungsprojekte oder der virtuellen Rekonstruktionsprojekte zu mittelalterlichen Bibliotheken ist etwa bereits für den europäischen Raum kaum zu überschauen, ganz zu schweigen von Vorhaben zu nicht-europäischen Schriftkulturen. Teilweise entstehen – auch durch besondere Umstände bedingt und abhängig von der jeweiligen Fragstellung oder Schwerpunktsetzung – so genannte Insellösungen, die nicht immer mit gängigen Digitalisierungs- und Kodierungsstandards kompatibel sind, und die somit auch eine Vergleichbarkeit und eine Interoperabilität der unterschiedlichen Digitalisierungsprojekte bereits auf nationaler Ebene erschweren. Hier wird eine der wichtigen Herausforderungen der nächsten Zeit sein, Brücken zu schlagen und Austauschmöglichkeiten der Formate zu ermöglichen, um übergreifende Untersuchungsszenarien zu ermöglichen.
Verlässt man die reine Digitalisierungsebene der Bestände in Richtung wissenschaftliche Erschließung, so können einerseits ausgehend von bereits vorhandenen, digitalisierten und entsprechend annotierten Beständen weiterführende Forschungsprojekte angeschlossen werden. Aus dem Trierer DFG-Projekt „Virtuelles Scriptorium St. Matthias“, das die heute dislozierte, mittelalterlich Bibliothek von St. Matthias in Trier virtuell rekonstruiert, ist zum Beispiel das größere, vom BMBF geförderte Kooperationsprojekt „eCodicology“ entstanden, in dem u. a. Philologen, Buchwissenschaftler und Informatiker aus Darmstadt, Karlsruhe und Trier Algorithmen zum automatischen Tagging mittelalterlicher Handschriften entwickeln, die Makro- und Mikro-Strukturelemente einer Handschriftenseite im Hinblick auf Layout und Aufmachung automatisch erkennen und diese Informationen in die Metadaten zu jedem Image einpflegen. Das geht so weit gut, weil wir uns quasi ins gemachte Bett legen, sprich eigene, homogene Daten zu 500 mittelalterlichen Handschriften zu forschungsfragengetriebenen Analysen verwenden können.
Hybridität der Angebote in den digitalen Wissensräumen und Hürden im Forschungsalltag
Anders sieht es bezüglich der Quellengrundlage bei Vorhaben bzw. forschungsgetriebenen Einzelfragen aus, die man gerne als “traditionelle” Vorgehensweise bezeichnet (aber nicht ganz zutreffend, da diese doch eine zeitlose Daseinsform geisteswissenschaftlicher Forschung darstellt), und die auch nicht mit einem vorhandenen, homogenen digitalen Korpus etwa einer Bibliothek bzw. einem bereits fertigen Digitalisierungsprojekts zu einem bestimmten Thema zu bewältigen ist (bzw. es zur Zeit noch nicht ist). Ich möchte hier von einem eigenen Beispiel ausgehen: Im Rahmen einer Untersuchung zur Kulturgeschichte der Annotation habe ich an einer kleineren interdisziplinären Fallstudie, bei der der Ausgangsgedanke war, die Textgeschichte (und auch Texterfindung) des berühmten Architekturtraktates des antiken Autors Vitruvius durch die Überlieferung annotierter Exemplare vom Mittelalter bis in die frühe Neuzeit zu erforschen. Eine erste Stichprobe ergab, (u.a. auch dank der Existenz einer Online-Vitruv-Datenbank, die zumindest einen Teil der Zeitstrecke abdeckte), dass offenbar genügend Digitalisate entsprechender zentraler Handschriften, Inkunabeln und frühen Drucke für diese Fallstudie zugänglich sein müssten. Soweit die Theorie, die Praxis sah jedoch etwas anders aus: Viele Digitalisate, auch aus bekannten Bibliotheken bzw. auf der Europeana-Plattform, waren qualitativ so heterogen, dass zum Teil im schwarz-weißen Avatar der Buchrand selber und auch die eigentlich im Ausgangsobjekt vorhandenen Marginalien nicht mehr erkennbar waren. Ferner gab es regelmäßig Fehlverknüpfungen bzw. ungenaue Zuweisungen der Digitalisate einerseits innerhalb der Bibliothekskataloge selber und andererseits (wenn auch in geringerer Anzahl) in die vorhandene Vitruvdatenbank. Was hier unter Umständen für eine wissenschafts- oder architekturhistorische Fragestellung zu verschmerzen gewesen wäre (aber wahrscheinlich auch dort nicht), war aus philologischer Sicht methodisch deprimierend. Das Resultat war, dass ich die im Netz gewonnenen Daten zwar genauestens im Sinne einer Quellenkritik und auf dem Hintergrund eines Gesamtkorpus geprüft habe, aber dann entschieden habe, das digitale Angebot eher als Zusatzmöglichkeit zu nutzen und sonst gezielt wiederum das Original in der Bibliothek aufzusuchen. Trotz des vermeintlich überlieferungsgeschichtlich gut dokumentierten Vitruv, hat also das zur Zeit vorhandene, recht üppige digitale Angebot nicht gereicht, um (bereits jetzt) eine digital indizierte Einzelstudie durchzuführen, unter anderem eben wegen der unterschiedlichen Qualität der Digitalisate und deren Erschließung. In diesem Zusammenhang kommen die Historizität und Heterogenität der Bestandsdigitalisierung selber zum Vorschein, die im Laufe der letzten fünfzehn Jahre entsprechende Variabilitäten erzeugt hat. Insgesamt wäre es bestimmt interessant für Vitruv-Forschergemeinschaft, auf eine auch eine unkomplizierte, kollaborative Forschungsplattform zurückzugreifen, in der eigene zusätzliche Digitalisate und Erkenntnisse hätten eingepflegt werden können, und so langsam aus dem vorhandenen digitalen Angebot zu schöpfen bzw. diesen gezielt zu ergänzen.
Als Zwischenfazit bleibt im Bereich der einzelnen forschungsfragengetriebenen Analysen (die man auch als bottom-up-Prozesse verstehen kann) der Befund eines qualitativ hybriden Angebots im Bereich der Digitalisierung und der digitalen Erschließung mittelalterlicher Quellen, bei dem wir als Wissenschaftlerinnen und Wissenschaftler sehr genau darauf achten müssen, womit wir es zu tun haben (bzw. in anderen Worten: Prüfe, bevor du dich bindest). Dies sollte jedoch kein Grund sein, digitale Quellen nicht zu nutzen, sondern auch als Ermutigung verstanden werden, sich für eine Verbesserung des Angebots und dessen transparente Dokumentation zu engagieren, und sich auch konsequent für eine entsprechende heuristische Quellenkritik (“critique des sources”) einzusetzen, wie wir es ja sonst auch bei der “traditionellen” Quellenarbeit mit historischem Material tun.
Brainstorming für eine übergreifende Dokumentation einer bestands- und forschungsorientierte Digitalisierung
Die Frage ist ferner, wie man internationale Standards, offene Schnittstellen und Best Practice-Verfahren für die Digitalisierung und Erschließung dieser Bestände nicht nur entwickeln kann (denn die gibt es ja vielfach schon), sondern auch so propagieren kann, dass Insellösungen eher vermieden bzw. mit ihren Besonderheiten anknüpffähig werden, sowie Anforderungen der disziplinenindizierten Grundlagenforschung (wie etwa mit dem Vitruvbeispiel) aufgefangen werden können.
In dieser Hinsicht wäre der Gedanke eines internationalen Digital Documentation Platform of Manuscript Collections überlegenswert (hier könnte dann Erik Kwakkel zum Beispiel nach allen digitalisierten, westeuropäischen Handschriften des 12. Jahrhunderts sammlungsübergreifend suchen, wie er es sich in seinem Wolfenbütteler Vortrag gewünscht hat). Sinnvoll wären in diesem Sinne auch grenzüberschreitende Zusammenschlüsse versierter Wissenschaftlerinnen und Wissenschaftler, die als interdisziplinär aufgestelltes Gremium auch methodologisch-infrastrukturell operieren und das Verhältnis von Digitalisat und analoger Vorlage sowie das Verhältnis zwischen digitalisiertem historischem Objekt und Wissenschaftlern theoretisch ausloten (im Sinne kollaborativer Zusammenarbeit, ohne top-down-Vorgehen). Dabei wären Synergien mit anderen Initiativen zu digitalen Forschungsinfrastrukturen (etwa Nedimah, Dariah u. a.) und Census-Vorhaben zur mittelalterlichen Überlieferung auszuloten und anzustreben.
Auch die Erarbeitung eines Kriterienkatalogs oder “Qualitätssigels” zur wissenschaftlichen Bewertung der digital zur Verfügung stehenden Handschriften bzw. Sammlungen sollte überlegt werden, anhand dessen die Benutzerin auf der jeweiligen Homepage übersichtlich und transparent über das Datenmaterial und dessen Aufbereitung informiert wird, und ihr auch die Möglichkeit eines direkten Feedbacks gegeben wird (etwas was ich mir schon lange für das VD16 und VD17 zum Beispiel wünsche). Notwendig sind ferner die Entwicklung und Auslotung von konkreten Benutzerszenarien und Benutzerstudien, mit deren Hilfe dokumentiert werden kann, welche Anforderungen an Digitalisate sowohl disziplinenorientiert als auch in übergreifender Sicht gestellt werden können und müssen.
Und schließlich sollten Studierende und der wissenschaftliche Nachwuchs frühzeitig für die Gesamtproblematik der Digitalisierung, dem Umgang mit dieser sowie ihrer Konsequenzen sensibilisiert und entsprechend ausgebildet werden – dies nicht nur in den neuen Studiengängen der Digital Humanities, sondern allgemein in den Einzeldisziplinen im Sinne einer traditionellen Heuristik und Quellenkunde im Umgang mit digitalisiertem Kulturgut.
******************
Für die Diskussion über und Anregungen zu meinem Eingangsstatement danke ich den Tagungsteilnehmerinnen und Tagungsteilnehmern sowie Vera Hildenbrandt (Trier Center for Digital Humanities), Falko Klaes (Universität Trier, Ältere Deutsche Philologie) und Georg Schelbert (Humboldt-Universität zu Berlin, Institut für Kunstgeschichte).
********************
Literatur (Auswahl)
Claudine Moulin, Multiples vies paratextuelles: Vitruve, De Architectura, 2013 (abrufbar unter: http://annotatio.hypotheses.org/222)
Nicholas Negroponte, Being Digital, New York 1996
Ségolène Tarte, Interpreting Ancient Documents: Of Avatars, Uncertainty and Knowldege Creation, ESF exploratory workshop on Digital Palaeography, Würzburg, Germany, http://tinyurl.com/esfDPwkshp, Talk given on 22d July 2011(http://oxford.academia.edu/SegoleneTarte/Talks/49627/Interpreting_Ancient_Documents_Of_Avatars_Uncertainty_and_Knowldege_Creation)
Virtuelles Skirptorium St. Matthias: http://www.stmatthias.uni-trier.de/ (DFG-Projekt
ECodicology: Algorithmen zum automatischen Tagging mittelalterlicher Handschriften: http://www.digitalhumanities.tu-darmstadt.de/index.php?id=ecodicology (BMBF-Projekt)
Quelle: http://annotatio.hypotheses.org/353