Codices im Netz – Die Digitalisierung mittelalterlicher Handschriften und ihre Konsequenzen

 

Ende November 2013 fand in Wolfenbüttel eine kleine, vom Mittelalter-Komitee der Herzog August Bibliothek organisierte Tagung zum Thema “Konsequenzen der Digitalisierung” statt. Zur Einstimmung in die Tagungsthematik hatten die drei Organisatoren (Stephan Müller/Wien, Felix Heinzer/Freiburg und ich) kurze Statements vorbereitet, die aus der jeweils eigenen Perspektive inhaltliche und methodische Herausforderungen der fortschreitenden Digitalisierung von mittelalterlichen Bibliotheksbeständen und Konsequenzen für deren Erforschung reflektieren. Meine Eingangsüberlegungen können hier in leicht überarbeiteter Form nachgelesen werden. Auf der Tagung hielten ferner Erik Kwakkel (Leiden), Björn Ommer (Heidelberg), Manuel Braun (Stuttgart), Sonja Glauch und Florian Kragl (Erlangen) Vorträge zu laufenden Digital-Humanities-Projekten im Bereich der Analyse, Paläographie, Edition und Auswertung mittelalterlicher Handschriften. Die Ergebnisse der Tagung sollen in einem gemeinsamen Konzeptpapier zusammengefasst und als Blogbeitrag auf de.hypotheses publiziert werden.

Noch ein Turn

Von all den intellektuellen und technischen turns, die die Geistes- und Sozialwissenschaften im letzten Jahrhundert durchgeführt haben, ist der digitale zweifellos von einer anderen Natur und einer breiteren Wirkung, auch wenn nicht jeder in der akademischen Welt von uneingeschränkter Euphorie erfüllt ist. Die Entwicklung von Digitalität (digitality), im Sinne der Konzeptualisierung durch Nicholas Negroponte als ‘the condition of being digital’, ist nicht nur von allgemeiner gesellschaftlicher Relevanz, vielmehr birgt sie auch bedeutende Konsequenzen für die akademische Welt und die Art und Weise, wie wir forschen. Hierbei stellt sich, insbesondere auch bei dem Thema der Wolfenbütteler Veranstaltung die grundlegende Frage: Digitalität verändert zweifellos unseren akademischen Alltag, aber wie sind diese Veränderungen methodologisch, und wenn man es so formulieren will, epistemologisch zu begleiten?

Vor allem die Sicherung, Dokumentierung und Bereitstellung des kulturellen Erbes in seiner materiellen Vielfältigkeit und Heterogenität stellen uns vor neue Herausforderungen. Hier sind grundlegende methodische Konzepte nicht nur für die so genannten Digital Humanities, sondern für alle geisteswissenschaftlichen, insbesondere auch die historisch arbeitenden Disziplinen insgesamt zu entwickeln. Die Frage ist also eindeutig nicht mehr die Frage nach dem ob der Digitalität und der digitalen Wissensbestände, sondern die nach dem wie. Der Bogen an Möglichkeiten spannt sich von mittlerweile anerkannten Parametern wie der Entwicklung und Anwendung von internationalen Standards, der prinzipiellen Verfügbarkeit des digitalisierten Materials über den Open Access Gedanken und der langfristigen Sicherung dieses Materials über die systematische Dokumentation der digitalen Erschließungstools bis hin zur Herausbildung und Akzeptanz neuer Publikations-, Evaluations- und Anerkennungskulturen im Rahmen digital-gestützter, geisteswissenschaftlicher Forschungsprozesse.

Kulturelle Artefakte und Forschungsobjekte im Wandel

Insbesondere wird nicht nur das Verhältnis zwischen Objekt bzw. Artefakt und wissenschaftlichem Beobachter neu ausgerichtet, sondern auch die prinzipielle Daseinsform dieser beiden Akteure im wissenschaftlichen Prozess, der unter Umständen entkörpert, entzeitlicht und enträumlicht werden kann. Es geht auch darum, das Verhältnis auszuloten zwischen dem historischen (analogen) Objekt und dessen digitalen Repräsentanten bzw. Abstraktionen, oder wie es unsere Oxforder Kollegin Ségolène Tarte formuliert, deren digitalen Avataren, die durchaus ihre eigene Existenzformen haben und auch eigene Gefahren im wissenschaftlichen Umgang mit ihnen bergen. Ferner gibt es auch die so genannten “digital born objects”, die so intendiert, gezielt produziert und ausschließlich digital existieren, wie etwa die nur virtuell vorhandene 3D-Rekonstruktion einer Handschriftenseite aus einem heute völlig verkohlten Fragment oder die Rekonstruktion eines Artefakts, das nie existierte, dessen Planung jedoch aus schriftlichen Quellen bekannt ist. Und schließlich gibt es Formen der Hybridität, der unterschiedliche Existenzformen vereinen.

In diesem Spannungsfeld der Objektvielfalt sind Forschungsprojekte im Rahmen der digitalen Erschließung und Analyse von Handschriftenbeständen angesiedelt, welche entsprechende Erkenntnismöglichkeiten eben nur durch die Existenz der Digitalisate ermöglichen. Dies betrifft sowohl das Digitalisat im Sinne der Einzelüberlieferung (etwa die Analyse einer Handschrift bzw. kleinerer Quellengruppen) als auch der Möglichkeit der Analyse und Auswertung von sehr großem Datenmaterial, das nur mit computergestützten Methoden zu bewältigen ist (hierzu hat Björn Ommer einen spannenden Vortrag zur Computer Vision gehalten). Die Herausforderung im Bereich der Digitalisierung ist es aber auch, wie bereits vielfach und auch auf der Wolfenbütteler Veranstaltung unterstrichen wurde, nicht nur Antworten auf die Fragen von heute (die wir ja kennen und formulieren können) zu finden, sondern auch zukünftige Fragen, die wir unter Umständen heute noch gar nicht fassen können, zu ermöglichen. Dies erfordert eine teilweise unübliche, noch zu erlernende methodologische Offenheit, und eine über die Perspektiven der Einzelfächer hinausgehende grundlegende Bereitschaft zur Interdisziplinarität.

Im Hinblick auf historische Bibliotheksbestände ist die Ausgangslage eine auf den ersten Blick Erfreuliche: Früh hat sich das “digitale” Augenmerk auf diese einmaligen Kulturbestände gerichtet, so dass inzwischen solide Erfahrungswerte vorhanden sind, und vielfach auch entsprechende Digitalisierungsstandards entwickelt werden konnten. Die Anzahl der Digitalisierungsprojekte oder der virtuellen Rekonstruktionsprojekte zu mittelalterlichen Bibliotheken ist etwa bereits für den europäischen Raum kaum zu überschauen, ganz zu schweigen von Vorhaben zu nicht-europäischen Schriftkulturen. Teilweise entstehen – auch durch besondere Umstände bedingt und abhängig von der jeweiligen Fragstellung oder Schwerpunktsetzung – so genannte Insellösungen, die nicht immer mit gängigen Digitalisierungs- und Kodierungsstandards kompatibel sind, und die somit auch eine Vergleichbarkeit und eine Interoperabilität der unterschiedlichen Digitalisierungsprojekte bereits auf nationaler Ebene erschweren. Hier wird eine der wichtigen Herausforderungen der nächsten Zeit sein, Brücken zu schlagen und Austauschmöglichkeiten der Formate zu ermöglichen, um übergreifende Untersuchungsszenarien zu ermöglichen.

Verlässt man die reine Digitalisierungsebene der Bestände in Richtung wissenschaftliche Erschließung, so können einerseits ausgehend von bereits vorhandenen, digitalisierten und entsprechend annotierten Beständen weiterführende Forschungsprojekte angeschlossen werden. Aus dem Trierer DFG-Projekt „Virtuelles Scriptorium St. Matthias“, das die heute dislozierte, mittelalterlich Bibliothek von St. Matthias in Trier virtuell rekonstruiert, ist zum Beispiel das größere, vom BMBF geförderte Kooperationsprojekt „eCodicology“ entstanden, in dem u. a. Philologen, Buchwissenschaftler und Informatiker aus Darmstadt, Karlsruhe und Trier Algorithmen zum automatischen Tagging mittelalterlicher Handschriften entwickeln, die Makro- und Mikro-Strukturelemente einer Handschriftenseite im Hinblick auf Layout und Aufmachung automatisch erkennen und diese Informationen in die Metadaten zu jedem Image einpflegen. Das geht so weit gut, weil wir uns quasi ins gemachte Bett legen, sprich eigene, homogene Daten zu 500 mittelalterlichen Handschriften zu forschungsfragengetriebenen Analysen verwenden können.

Hybridität der Angebote in den digitalen Wissensräumen und Hürden im Forschungsalltag

Anders sieht es bezüglich der Quellengrundlage bei Vorhaben bzw. forschungsgetriebenen Einzelfragen aus, die man gerne als “traditionelle” Vorgehensweise bezeichnet (aber nicht ganz zutreffend, da diese doch eine zeitlose Daseinsform geisteswissenschaftlicher Forschung darstellt), und die auch nicht mit einem vorhandenen, homogenen digitalen Korpus etwa einer Bibliothek bzw. einem bereits fertigen Digitalisierungsprojekts zu einem bestimmten Thema zu bewältigen ist (bzw. es zur Zeit noch nicht ist). Ich möchte hier von einem eigenen Beispiel ausgehen: Im Rahmen einer Untersuchung zur Kulturgeschichte der Annotation habe ich an einer kleineren interdisziplinären Fallstudie, bei der der Ausgangsgedanke war, die Textgeschichte (und auch Texterfindung) des berühmten Architekturtraktates des antiken Autors Vitruvius durch die Überlieferung annotierter Exemplare vom Mittelalter bis in die frühe Neuzeit zu erforschen. Eine erste Stichprobe ergab, (u.a. auch dank der Existenz einer Online-Vitruv-Datenbank, die zumindest einen Teil der Zeitstrecke abdeckte), dass offenbar genügend Digitalisate entsprechender zentraler Handschriften, Inkunabeln und frühen Drucke für diese Fallstudie zugänglich sein müssten. Soweit die Theorie, die Praxis sah jedoch etwas anders aus: Viele Digitalisate, auch aus bekannten Bibliotheken bzw. auf der Europeana-Plattform, waren qualitativ so heterogen, dass zum Teil im schwarz-weißen Avatar der Buchrand selber und auch die eigentlich im Ausgangsobjekt vorhandenen Marginalien nicht mehr erkennbar waren. Ferner gab es regelmäßig Fehlverknüpfungen bzw. ungenaue Zuweisungen der Digitalisate einerseits innerhalb der Bibliothekskataloge selber und andererseits (wenn auch in geringerer Anzahl) in die vorhandene Vitruvdatenbank. Was hier unter Umständen für eine wissenschafts- oder architekturhistorische Fragestellung zu verschmerzen gewesen wäre (aber wahrscheinlich auch dort nicht), war aus philologischer Sicht methodisch deprimierend. Das Resultat war, dass ich die im Netz gewonnenen Daten zwar genauestens im Sinne einer Quellenkritik und auf dem Hintergrund eines Gesamtkorpus geprüft habe, aber dann entschieden habe, das digitale Angebot eher als Zusatzmöglichkeit zu nutzen und sonst gezielt wiederum das Original in der Bibliothek aufzusuchen. Trotz des vermeintlich überlieferungsgeschichtlich gut dokumentierten Vitruv, hat also das zur Zeit vorhandene, recht üppige digitale Angebot nicht gereicht, um (bereits jetzt) eine digital indizierte Einzelstudie durchzuführen, unter anderem eben wegen der unterschiedlichen Qualität der Digitalisate und deren Erschließung. In diesem Zusammenhang kommen die Historizität und Heterogenität der Bestandsdigitalisierung selber zum Vorschein, die im Laufe der letzten fünfzehn Jahre entsprechende Variabilitäten erzeugt hat. Insgesamt wäre es bestimmt interessant für Vitruv-Forschergemeinschaft, auf eine auch eine unkomplizierte, kollaborative Forschungsplattform zurückzugreifen, in der eigene zusätzliche Digitalisate und Erkenntnisse hätten eingepflegt werden können, und so langsam aus dem vorhandenen digitalen Angebot zu schöpfen bzw. diesen gezielt zu ergänzen.

Als Zwischenfazit bleibt im Bereich der einzelnen forschungsfragengetriebenen Analysen (die man auch als bottom-up-Prozesse verstehen kann) der Befund eines qualitativ hybriden Angebots im Bereich der Digitalisierung und der digitalen Erschließung mittelalterlicher Quellen, bei dem wir als Wissenschaftlerinnen und Wissenschaftler sehr genau darauf achten müssen, womit wir es zu tun haben (bzw. in anderen Worten: Prüfe, bevor du dich bindest). Dies sollte jedoch kein Grund sein, digitale Quellen nicht zu nutzen, sondern auch als Ermutigung verstanden werden, sich für eine Verbesserung des Angebots und dessen transparente Dokumentation zu engagieren, und sich auch konsequent für eine entsprechende heuristische Quellenkritik (“critique des sources”) einzusetzen, wie wir es ja sonst auch bei der “traditionellen” Quellenarbeit mit historischem Material tun.

Brainstorming für eine übergreifende Dokumentation einer bestands- und forschungsorientierte Digitalisierung

Die Frage ist ferner, wie man internationale Standards, offene Schnittstellen und Best Practice-Verfahren für die Digitalisierung und Erschließung dieser Bestände nicht nur entwickeln kann (denn die gibt es ja vielfach schon), sondern auch so propagieren kann, dass Insellösungen eher vermieden bzw. mit ihren Besonderheiten anknüpffähig werden, sowie Anforderungen der disziplinenindizierten Grundlagenforschung (wie etwa mit dem Vitruvbeispiel) aufgefangen werden können.

In dieser Hinsicht wäre der Gedanke eines internationalen Digital Documentation Platform of Manuscript Collections  überlegenswert (hier könnte dann Erik Kwakkel zum Beispiel nach allen digitalisierten, westeuropäischen Handschriften des 12. Jahrhunderts sammlungsübergreifend suchen, wie er es sich in seinem Wolfenbütteler Vortrag gewünscht hat). Sinnvoll wären in diesem Sinne auch grenzüberschreitende Zusammenschlüsse versierter Wissenschaftlerinnen und Wissenschaftler, die als interdisziplinär aufgestelltes Gremium auch methodologisch-infrastrukturell operieren und das Verhältnis von Digitalisat und analoger Vorlage sowie das Verhältnis zwischen digitalisiertem historischem Objekt und Wissenschaftlern theoretisch ausloten (im Sinne kollaborativer Zusammenarbeit, ohne top-down-Vorgehen). Dabei wären Synergien mit anderen Initiativen zu digitalen Forschungsinfrastrukturen (etwa Nedimah, Dariah u. a.) und Census-Vorhaben zur mittelalterlichen Überlieferung auszuloten und anzustreben.

Auch die Erarbeitung eines Kriterienkatalogs oder “Qualitätssigels” zur wissenschaftlichen Bewertung der digital zur Verfügung stehenden Handschriften bzw. Sammlungen sollte überlegt werden, anhand dessen die Benutzerin auf der jeweiligen Homepage übersichtlich und transparent über das Datenmaterial und dessen Aufbereitung informiert wird, und ihr auch die Möglichkeit eines direkten Feedbacks gegeben wird (etwas was ich mir schon lange für das VD16 und VD17 zum Beispiel wünsche). Notwendig sind ferner die Entwicklung und Auslotung von konkreten Benutzerszenarien und Benutzerstudien, mit deren Hilfe dokumentiert werden kann, welche Anforderungen an Digitalisate sowohl disziplinenorientiert als auch in übergreifender Sicht gestellt werden können und müssen.

Und schließlich sollten Studierende und der wissenschaftliche Nachwuchs frühzeitig für die Gesamtproblematik der Digitalisierung, dem Umgang mit dieser sowie ihrer Konsequenzen sensibilisiert und entsprechend ausgebildet werden – dies nicht nur in den neuen Studiengängen der Digital Humanities, sondern allgemein in den Einzeldisziplinen im Sinne einer traditionellen Heuristik und Quellenkunde im Umgang mit digitalisiertem Kulturgut.

******************

Für die Diskussion über und Anregungen zu meinem Eingangsstatement danke ich den Tagungsteilnehmerinnen und Tagungsteilnehmern sowie Vera Hildenbrandt (Trier Center for Digital Humanities), Falko Klaes (Universität Trier, Ältere Deutsche Philologie) und Georg Schelbert (Humboldt-Universität zu Berlin, Institut für Kunstgeschichte).

********************

Literatur (Auswahl)

Claudine Moulin, Multiples vies paratextuelles: Vitruve, De Architectura, 2013 (abrufbar unter: http://annotatio.hypotheses.org/222)

Nicholas Negroponte, Being Digital, New York 1996

Ségolène Tarte, Interpreting Ancient Documents: Of Avatars, Uncertainty and Knowldege Creation, ESF exploratory workshop on Digital Palaeography, Würzburg, Germany, http://tinyurl.com/esfDPwkshp, Talk given on 22d July 2011(http://oxford.academia.edu/SegoleneTarte/Talks/49627/Interpreting_Ancient_Documents_Of_Avatars_Uncertainty_and_Knowldege_Creation)

Virtuelles Skirptorium St. Matthias: http://www.stmatthias.uni-trier.de/ (DFG-Projekt

ECodicology:  Algorithmen zum automatischen Tagging mittelalterlicher Handschriften: http://www.digitalhumanities.tu-darmstadt.de/index.php?id=ecodicology (BMBF-Projekt)

 

 

Quelle: http://annotatio.hypotheses.org/353

Weiterlesen

Der mittelalterliche Codex im virtuellen Raum – Zur Rekonstruktion der Bibliothek der Benediktinerabtei St. Matthias in Trier

Die Benediktinerabtei St. Matthias enthielt eine der bedeutenden Skriptorien und Bibliotheken des Mittelalters. Der Bestand ist nicht nur für die Theologie, Geschichte und Altphilologie von zentraler Bedeutung, sondern auch für die Kunstgeschichte, Musikgeschichte, Medizin und Germanistik. Für letzteren Bereich ist eine bedeutende volkssprachige Überlieferung zu verzeichnen, die uns in den Beginn der Geschichte der vernakularen Sprachen im mittelalterlichen Europa führt, und deren textliche Vielfalt unter anderem Zaubersprüche, Segen, Glossen und kleinere Texte umfasst. Zusammen mit der althochdeutschen und altenglischen Überlieferung des nahe gelegenen Klosters Echternach bilden die Bestände aus St. Matthias eine einmalige Überlieferung im Bereich der Handschriftenkulturen des Mittelalters, insbesondere auch für den moselfränkischen Raum.

http://dfg-viewer.de/tei-prototyp/?set[image]=7&set[zoom]=min&set[debug]=0&set[double]=0&set[mets]=http%3A%2F%2Fzimks68.uni-trier.de%2Fstmatthias%2FT2229%2FT2229-digitalisat.xml

StB Trier Hs 2229/1751 8°, Abschrift des Kataloges aus dem 16 Jh.

Ziel des Projekts “Virtuelles Skriptorium St. Matthias” ist es, die überlieferten Handschriften aus St. Matthias zu digitalisieren und damit den mittelalterlichen Bestand virtuell zu rekonstruieren. Insgesamt umfasst der erhaltene Bestand etwa 500 Kodizes, die weltweit auf ca. 25 Standorte verteilt sind. Der weitaus überwiegende Anteil (etwa 400 Handschriften) liegt in Trier, und zwar in der Stadtbibliothek und in der Bibliothek des Bischöflichen Priesterseminars.
Insgesamt ordnet sich das Projekt in einen größeren Zusammenhang ein, in dem seit der letzten Dekade europaweit mittelalterliche Bibliotheken und Archive virtuell erfasst, dokumentiert bzw. rekonstruiert werden (siehe auch die Übersicht der relevanten Vorhaben von Klaus Graf). Eine solche rekonstruierte, virtuelle Bibliothek wird es ermöglichen, das geistige Profil und den “Wissensraum” wichtiger mittelalterlicher Bildungszentren zu erforschen und auch durch die Rekonstruktion selber auch neue Einblicke in die Produktions- und Rezeptionsbedingungen der jeweiligen Bestände zu geben.

Aus der Arbeit des Projekts zu St. Matthias ist auch das BMBF geförderte Projekt „eCodicology. Algorithmen zum automatischen Tagging
mittelalterlicher Handschriften“ entstanden, in dem Methoden und Software entwickelt werden, die u. a. die automatische Messung, Speicherung und Analyse von makro- und mikrostrukturelle Elementen digitalisierter Handschriftenseiten ermöglicht und in den Metadaten ablegt. Unter anderem sollen metrische Daten wie etwa Blattgröße, Schriftraumgröße, Zeilenzahl, Bildfelder, Überschriften, Register, Paratexte, Marginalien, Randzeichnungen, Verhältnis von Bildraum und Textraum erhoben sowie statistisch und qualitativ ausgewertet werden. Das Projekt wird im Jahr 2013 starten (Projektpartner TU Darmstadt, Universität Trier/Trier Center for Digital Humanities, Stadtbibliotheik Trier und KIT Karlsruhe).


Psalterium StBTrier HS7/9 8° s. X

Am 18. und 19. Januar 2013 organisieren wir eine internationale Tagung in Trier, die sich dem Thema „Digitale Rekonstruktionen mittelalterlicher Bibliotheken“ widmet. Es werden verschiedene Vorhaben, die sich im Bereich der Digital Humanities der Rekonstruktion und Erschließung mittelalterlicher Bibliotheksbestände widmen, vorgestellt sowie konkrete Falleispiele erörtert, die aufzeigen, wie diese Bestände wissenschaftlich genutzt werden können. Darüber hinaus rücken unterschiedliche Anbindungsmöglichkeiten in größere Datenrepositorien, Handschriftenportale oder Verbundprojekte (wie etwa TextGrid, Dariah, eCodicology, Manuscripta mediaevalia) in den Fokus sowie auch rechtliche Aspekte wie etwa die Lizenzvergabe (im Rahmen der Erfahrungen mit Europeana). Schließlich sollen die Anforderungen diskutiert werden, die aktuelle Arbeiten aus der Kulturgeschichte, der Kunstgeschichte, den Philologien und der Musikwissenschaft an solche digitalen Rekonstruktionen stellen. Die Tagung wird vom Historisch-Kulturwissenschaftlichen Zentrum (HKFZ Trier) gefördert und findet in der Abtei St. Matthias sowie in der Stadtbibliothek Trier statt. Das Programm ist hier einsehbar.

Gleichzeitig zur Tagung erscheint ein Sammelband über berühmte Handschriften aus St. Matthias, der auf eine Vortragsreihe der St. Matthias Stiftung und der Stadtbibliothek Trier  zurückgeht. Der Band enthält ferner ein von Reiner Nolden erarbeitetes Verzeichnis der Urkundenausfertigungen der Abtei St. Eucharius/St. Matthias.
Michael Embach/ Claudine Moulin (Hg.): Die Bibliothek der Abtei St. Matthias in Trier – von der mittelalterlichen Schreibstube zum virtuellen Skriptorium: Mit einem Verzeichnis der Mattheiser Urkunden im Stadtarchiv Trier, Trier 2013

Literaturhinweise und Links:

Petrus Becker: Die Benediktinerabtei St. Eucharius – St. Matthias vor Trier (Germania Sacra, Neue Folge 34: Die Bistümer der Kirchenprovinz Trier. Das Erzbistum Trier 8), Berlin, New York 1996

Michael Embach, Claudine Moulin, Andrea Rapp: Die mittelalterliche Bibliothek als digitaler Wissensraum: Zur virtuellen Rekonstruktion der Bibliothek von Trier-St. Matthias, in: Mittelhochdeutsch. Beiträge zur Überlieferung, Sprache und Literatur. Festschrift für Kurt Gärtner zum 75. Geburtstag. Herausgegeben von Ralf Plate und Martin Schubert, Berlin 2011, S. 486-497

Falko Klaes, Trierer Glossenhandschriften, in: Die althochdeutsche und altsächsische Glossographie. Hrsg. von Rolf Bergmann und Stephanie Stricker. Berlin – New York 2009, S. 1279-1296

Sabine Scholzen – Philipp Vanscheidt,  “Das Virtuelle Skriptorium St. Matthias”, in: Libri Pretiosi 14 (2011), S. 67-72

Von Artikeln bis zu Zaubersprüchen. Die ältesten deutschsprachigen Texte der Stadtbibliothek Trier (Studentisches Projekt, Universität Trier, FBII/ Ältere Deutsche Philologie, Leitung: Falko Klaes)

Website DFG-Projekt  Virtuelles Skriptorium St. Matthias

Das Projekt wird an der Universität Trier und der Stadtbibliothek Trier durchgeführt und von der Deutschen Forschungsgemeinschaft (DFG) gefördert. Die Projektleitung liegt bei Prof. Dr. Claudine Moulin und Prof. Dr. Andrea Rapp (jetzt Technische Universität Darmstadt) sowie bei Prof. Dr. Michael Embach (Stadtbibliothek Trier). Wissenschaftliche Mitarbeiter sind Sabine Philippi (Stadtbibliothek Trier) und Philipp Vanscheidt (Universität Trier/ Technische Universität Darmstadt). Kooperationspartner sind die Bibliothek des Bischöflichen Priesterseminars Trier, das Trier Center for Digital Humanities, Manuscripta mediaevalia und TextGrid.

 

Quelle: http://annotatio.hypotheses.org/59

Weiterlesen