„Welches Buch würden Sie auf eine einsame Insel mitnehmen?“ – so lautet eine beliebte Frage in People-Magazinen, bei Miss-Wahlen oder Bewerbungsgesprächen. Als sie sich letzthin ganz konkret stellte, habe ich diese Frage für mich mit Ludwik Flecks Entstehung und Entwicklung einer wissenschaftlichen Tatsache beantwortet. In einer Zeit, die von einer wachsenden Zahl von Kommentatoren als beginnendes „postfaktisches Zeitalter“ gehandelt wird, schien mir das nicht die schlechteste Idee.
Tagungsbericht DHd 2016: „Vorträge_5b: Digitale Edition III“
Als Masterstudentin der Computerlinguistik und Texttechnologie an der Justus-Liebig-Universität Gießen habe ich an der diesjährigen DHd-Tagung in Leipzig teilgenommen, die zum Thema „Modellierung – Vernetzung – Visualisierung: Die Digital Humanities als fächerübergreifendes Forschungsparadigma“ vom 7. bis 12. März 2016 über 460 Teilnehmer anzog. In diesem Beitrag möchte ich von meinen Eindrücken im Hinblick auf die Vortragsreihe „Vorträge_5b: Digitale Edition III“ vom 11. März 2016 berichten, in der drei Beiträge aus den Bereichen der Korpuslinguistik, der Digitalen Editorik und der Geschichtswissenschaften vorgestellt wurden. Der Fokus lag bei allen drei Vorträgen auf den Möglichkeiten der Arbeit mit literarischen wie historischen Textkorpora und digitalen Editionen in Infrastrukturen. Zunächst wurde der jeweilige Gegenstand und die entsprechende Infrastruktur skizziert und anschließend ein Anwendungsfall samt Live-Demonstration simuliert, bei dem die benutzten Tools und die gezeigten Arbeitsumgebungen unter die Lupe genommen wurden. Alle drei Vorträge stellten interessante und hilfreiche Tools vor, die mitunter auch innovative, explorative Zugänge zu Textkorpora ermöglichen. In den folgende drei Absätzen gehe ich auf jeden einzelnen Vortrag ein und hebe solche Aspekte hervor, die für mich persönlich ein Zugewinn waren.
[...]
Quelle: http://dhd-blog.org/?p=6779
Marian Dörk über die „Visualisierung kultureller Daten“ – Vortrag in Weimar
Am 11. April 2016 um 18 Uhr hält Marian Dörk (FH Potsdam) im Weimarer Goethe- und Schiller-Archiv einen Vortrag zum Thema „Visualisierung kultureller Daten. Experimentelle Zugänge zu digitalisierten Beständen“. Der Vortrag ist öffentlich, die Teilnahme ist kostenfrei.
In den letzten Jahren haben Archive, Museen und Bibliotheken viel Zeit und Energie in die Digitalisierung ihrer Bestände investiert. Noch dominiert zwar die herkömmliche Textsuche den Zugang. Doch das Interesse an neuen Techniken und Methoden zur Visualisierung der digitalisierten Sammlungen ist groß, da sie neuartige Perspektiven auf das kulturelle Erbe bieten.
In seinem Vortrag gibt Marian Dörk, Forschungsprofessor für Informationsvisualisierung an der Fachhochschule Potsdam, eine Einführung in dieses junge Forschungsfeld und zeigt aktuelle Visualisierungen, die von Wissenschaftlern und Studierenden an der FH Potsdam im Rahmen des dreijährigen Forschungsprojekts „Visualisierung kultureller Sammlungen“ (VIKUS) gestaltet und prototypisch entwickelt werden.
[...]
Quelle: http://dhd-blog.org/?p=6625
Was sind Digital Humanities? Definitionsfragen und Praxisbeispiele aus der Geschichtswissenschaft
„Why can a computer do so little?“, so lautete 1976 die auf den ersten Blick überraschende Frage von Roberto Busa, den man gemeinhin als den Vater der Digital Humanities bezeichnet[1]. Tatsächlich steckt in diesem Satz eine der grundsätzlichen und bis heute gültigen Fragestellungen bezüglich des Einsatzes von Computern und digitalen Methoden in den Geisteswissenschaften: Geht es darum, effizienter zu sein, menschliche Arbeit zu vereinfachen und Arbeitskraft zu sparen? Oder können Computer uns dabei helfen, neue wissenschaftliche Fragestellungen zu generieren und alte Fragestellungen systematischer, tiefer und besser zu beantworten? Ist auch letzteres der Fall – und davon soll hier ausgegangen werden – dann muss man, mit Willard McCarty, die Frage weitertreiben und nicht nur fragen, warum Computer so wenig können, sondern überlegen, warum Geisteswissenschaftlerinnen und Geisteswissenschaftler so wenig mit Computern machen[2]. Und: woher wissen wir eigentlich, dass es tatsächlich so wenig ist? Und weiter: Wenn es nicht so wenig ist oder mehr sein könnte, warum machen wir es dann so?[3]
Die Debatten um die Digital Humanities oder Humanities Computing wie sie bis ca. zum Jahr 2000 hießen, sind zahlreich und gehen mehrere Jahrzehnte zurück.
[...]
Quelle: http://dhdhi.hypotheses.org/2642
Was sind Digital Humanities? Definitionsfragen und Praxisbeispiele aus der Geschichtswissenschaft
„Why can a computer do so little?“, so lautete 1976 die auf den ersten Blick überraschende Frage von Roberto Busa, den man gemeinhin als den Vater der Digital Humanities bezeichnet[1]. Tatsächlich steckt in diesem Satz eine der grundsätzlichen und bis heute gültigen Fragestellungen bezüglich des Einsatzes von Computern und digitalen Methoden in den Geisteswissenschaften: Geht es darum, effizienter zu sein, menschliche Arbeit zu vereinfachen und Arbeitskraft zu sparen? Oder können Computer uns dabei helfen, neue wissenschaftliche Fragestellungen zu generieren und alte Fragestellungen systematischer, tiefer und besser zu beantworten? Ist auch letzteres der Fall – und davon soll hier ausgegangen werden – dann muss man, mit Willard McCarty, die Frage weitertreiben und nicht nur fragen, warum Computer so wenig können, sondern überlegen, warum Geisteswissenschaftlerinnen und Geisteswissenschaftler so wenig mit Computern machen[2]. Und: woher wissen wir eigentlich, dass es tatsächlich so wenig ist? Und weiter: Wenn es nicht so wenig ist oder mehr sein könnte, warum machen wir es dann so?[3]
Die Debatten um die Digital Humanities oder Humanities Computing wie sie bis ca. zum Jahr 2000 hießen, sind zahlreich und gehen mehrere Jahrzehnte zurück.
[...]
Quelle: http://dhdhi.hypotheses.org/2642
DH-Videoclip Adventskalender 2015 – Tür 23
Tür 23 stellt noch ein Video aus Stanford vor, diesmal mit einer coolen Visualisierung.
This video in the Stanford Humanities + Digital Tools series features „Palladio,“ a web-based platform that allows humanities scholars to easily upload data and explore it through a variety of visualizations. Learn more at http://hdlab.stanford.edu/projects/palladio/. (Quelle: https://www.youtube.com/watch?v=nUUVgWxeATs&feature=youtu.
[...]
Quelle: http://dhd-blog.org/?p=6154
Frauen im Widerstand gegen den Nationalsozialismus?
Ich habe vor längerer Zeit das Buch von Karen Holtmann über die Saefkow-Jaacob-Bästlein-Gruppe gelesen. Ihren Ansatz, mehr über die Widerstandsaktivitäten von Frauen herauszufinden, wollte ich in meine Arbeit auch einbringen. – Vor allem in Kombination mit den Überlegungen von Isabell Richter über das Aussageverhalten bei der Gestapo. Im Fall der “Winzengruppe” ist fast ein Drittel aller von mir aus den Quellen erfassten Personen weiblich, dazu kommt, dass mit Hildegard Schimschok (geb. Luke) eine Überlebende das Bild der Gruppe nachhaltig geprägt hat.
Als allgemeine Tendenz in den Verhören konnte ich ausmachen, dass die Frauen der Gruppe meistens als unpolitische Beziehungen dargestellt wurden. – So gab Josef Kasel im Verhör an, Hildegard Schimschok und Lotte Gützloe seien nur durch ein Liebesverhältnis mit Paul Winzen verbunden gewesen.
[...]
Quelle: http://winzen.hypotheses.org/491
Fünf Herausforderungen digitaler Methoden, oder: Ranke re-visited: digital herausfinden, „wie es eigentlich gewesen“?
Nachdem wir uns in der Einleitung mit Methoden generell auseinandergesetzt haben, geht es weiter mit den digitalen Methoden und den Herausforderungen, vor die sie die Geschichtsschreibung stellen. Rieder und Röhle1 zählen in ihrem grundlegenden Beitrag fünf Herausforderungen auf, von denen drei hier näher vorgestellt werden:
1. Die Verlockung der Objektivität
Die erste Herausforderung besteht laut den Autoren darin, dass durch den Einsatz von „unbestechlichen“ Maschinen und Computern Forschungsergebnisse aus dem Bereich der Digital Humanities „objektiv“ erscheinen können. Das ist konträr dazu, dass die Geisteswissenschaften Disziplinen sind, in denen es um interpretatives Wissen und weniger um verifizierbares Wissen geht. Es könnte die Versuchung entstehen, ähnlich wie in den Naturwissenschaften zu objektivierbaren Ergebnissen kommen zu wollen, womit an den Wunsch nach „Wahrheit“ aus dem 19. Jahrhundert anknüpft wird. Die Gefahr besteht darin, im Anschluss an Ranke digital herausfinden zu wollen, „wie es eigentlich gewesen“.
Dabei handelt es sich freilich um ein Missverständnis, das darauf begründet ist, dass Maschinen manche Aufgaben schneller und genauer erfüllen können als Menschen. So entsteht die Vorstellung, dass Computer „wahre“ Ergebnisse liefern, die epistemologisch auf einem höheren Status stehen als eine von Forschenden erstellte Interpretation. So wird leicht vergessen, dass die Genauigkeit der Fragestellung, die Modelle und Vorannahmen, die der Forschung zugrunde liegen, menschlich gemacht sind und damit interpretiert und subjektiv.
Rieder/Röhle weisen darauf hin, dass uns die Faszination für die Objektivität des Computers nicht davon abhalten sollte, Werkzeuge und Software genau zu analysieren und die ihnen zugrunde liegenden Entscheidungen freizulegen. Die Forschung ist darauf angewiesen, dass Vorannahmen, Algorithmen und Modelle als methodische Grundlagen für ein Projekt oder eine Fragestellung transparent gemacht werden.
2. Die Macht des visuellen Beweises
Viele DH-Werkzeuge produzieren ein visuelles Ergebnis, z.B. Netzwerkanalysen, Zeitleisten, angereicherte Karten. Diese haben zumeist auch ästhetische Qualitäten, die sie zu mächtigen argumentativen Werkzeugen machen. Wie kann man diese rhetorischen Qualitäten von Abbildungen und Visualisierungen und ihre argumentative Macht kritisch hinterfragen?
Rieder und Röhle weisen darauf hin, dass Visualisierungen manche Aspekte eines Phänomens sichtbarer machen als textliche Darstellungen, da sie eine reduzierte Repräsentation der beobachteten Wirklichkeit sind. Die Reduzierung entspricht einem Bedarf, Informationen und Dimensionen zu verkleinern, so dass sie überhaupt abbildbar werden, zum Teil in Abhängigkeit von graphischen Bedingungen wie Bildschirmgröße, Auflösung etc. Manchmal sind es technische Bedingungen, die zu einer Reduktion führen, manchmal wird aber auch manipuliert, was in keinem Bereich mittlerweile so offensichtlich sein dürfte wie bei Bildern (Stichwort Photoshop).
Manche Informationen werden in Visualisierungen ganz weggelassen: Durch die Reduzierungen und Auslassungen werden einige Interpretationen und Schlussfolgerungen plausibler als andere. Denn Visualisierungen können trotz der Reduzierung ein sehr großes argumentatives Gewicht haben. Darin liegt ein zweiter Grund für ihre Autorität. Numerische und visuelle Darstellungen werden viel einfacher als Beweis akzeptiert als Text, der eher als argumentativ wahrgenommen wird. Das hängt mit der Produktion des Arguments zusammen. Während man ein textbasiertes Argument recht schnell in sein Gegenteil umwandeln kann – und sei es nur als advocatus diaboli – ist das bei Statistiken, bei Visualisierungen nicht möglich. Quantitative Ergebnisse können nicht umgedreht werden. Man kann ihre Erhebung anzweifeln und man kann sie gegebenenfalls auch unterschiedlich interpretieren. Aber ihre reine Darstellung gilt als Fakt. Sie überrumpeln die Forschenden gleichsam, die Visulisierungen damit weniger hinterfragen oder deren inhärenten Erklärungen kritisch reflektieren.
Als Ausweg aus diesem Dilemma schlagen Rieder und Röhle nach Bettina Heintz2 eine prozessbasierte Herangehensweise an wissenschaftliche Bilder vor: Man solle sie als momentanen Ausdruck eines fortlaufenden Prozesses präsentieren, der noch weiterläuft. Dadurch würde der methodische Fokus auf die Phase vor Schaffung des Bildes gelenkt und damit auf die Entscheidungen und Reduktionen, die während der Produktion stattgefunden haben. Ebenso wird die Phase nach der Präsentation deutlich: die Notwendigkeit, die Ergebnisse zu interpretieren, zu vergleichen, Fragen zu stellen über Gültigkeit, Generalisierbarkeit und vor allem über die Bedeutung der Visualisierungen. Dies ist freilich nicht unumstritten, da ein Bild nach anderer Meinung eher zum Nachdenken über den Inhalt als über Grafik-Design oder Methodik anregen soll.
3. Blackboxing
Die dritte Herausforderung betrifft die technologische Untermauerung und wie sich die Geisteswissenschaftler dazu stellen. Indem digitale Methoden geschaffen werden, werden heuristische Prozesse mechanisiert, wobei methodologische Überlegungen in technische Form gegossen werden. Inhalte werden formalisiert in Datenstrukturen, Algorithmen, Arten der Darstellung und Möglichkeiten der Interaktion. Diese sind nicht unbedingt immer transparent oder verstehbar. Transparenz bedeutet in diesem Zusammenhang die Möglichkeit, die Methode nachvollziehen zu können: wie sie funktioniert, auf welchen Vorüberlegungen sie beruht, sie reproduzieren zu können und sie kritisieren zu können. Es gelte daher, die Labor-Blackbox offen zu legen: den Code der digitalen Werkzeuge zu veröffentlichen, „code literacy“ zu lehren und zu lernen, um den Code lesen und verstehen zu können – womit wir wieder bei der Frage sind, ob HIstoriker programmieren können müssen. Dennoch bleibt dann, so Rieder und Röhle, immer noch ein Teil an Ergebnissen bleibe, der mit statistischen Konzepten nicht zu verstehen sei. Als Beispiel nennen Rieder und Röhle, dass zwei verschiedene Visualisierungsprogramme zu unterschiedlichen Ergebnissen gelangen, da sie nicht unbedingt dieselben Verbindungen in einem Netzwerk prominent darstellen.
Im Seminar probieren wir das auf einer unteren Eben aus, indem wir den Ankündigungstext des Methodenkurses in zwei unterschiedlichen Wordcloud-Tools darstellen lassen und anschließend diskutieren. Die Ergebnisse sind hier abgebildet und sie zeigen, wie verschieden die Clouds tatsächlich wirken, zumal das erst Tool über die Spracheinstellung automatisiert Stoppwörter wie “der”, “die”, “das” rausfiltert, die zweite nicht3.
Der Vollständigkeit halber seien auch die zwei weiteren von Rieder und Röhle genannten Herausforderungen aufgezählt, ohne diese hier weiter auszuführen:
4.) Institutionelle Störungen: Auswirkungen auf die Forschungslandschaft
5.) Streben nach Universalismus kommt zurück
Zusammenfassend plädieren Rieder und Röhle dafür, einen neuen Methodenstreit zu vermeiden. Stattdessen sollten Wissenschaftlerinnen, die digitale Methoden verwenden, ihre methodische Entscheidungen explizit und transparent machen, etwa in projektbegleitenden Websites.
________
Abbildungen
Wordcloud 1 mit TagCrowd.com erstellt (mit Spracheinstellung)
Wordcloud 2 mit WordItOut erstellt (ohne Spracheinstellung)
Literatur
Rieder, Bernhard, Röhle, Theo: Digital Methods: Five Challenges, in: David M. Berry (Hg.), Understanding Digital Humanities, Houndmills 2012, S. 67-84.
Alves, Daniel: Introduction, in: Digital Methods and Tools for Historical Research: A Special Issue. International Journal of Humanities and Arts Computing, Bd. 8, Heft 1 (April 2014). [Paywall: http://www.euppublishing.com/toc/ijhac/8/1]
- Rieder, Bernhard, Röhle, Theo: Digital Methods: Five Challenges, in: David M. Berry (Hg.), Understanding Digital Humanities, Houndmills 2012, S. 67-84.
- Bettina Heintz, Zahlen, Wissen, Objektivität: Wissenschaftssoziologische Perspektiven, in: A. Mennicken, H. Vollmer (Hg.), Zahlenwerk. Kalkulation, Organisation und Gesellschaft, Wiesbaden 2007, S. 65-86.
- Eine Übersicht zu Word-Cloud-Tools gibt es hier: http://praxistipps.chip.de/word-clouds-kostenlos-online-erstellen-die-besten-webseiten_30199
Quelle: http://dguw.hypotheses.org/115
Erkenntnisgenese der Gestapo mit TimelineJS darstellen?
Die Gestapo beobachtete die „Winzengruppe“ über mehrere Monate hinweg. Man kann die Erkenntnisgenese der Beamten chronologisch nachvollziehen. Einerseits durch den ständigen Kontakt mit einem „Vertrauensmann“, also dem Spitzel, dem es gelingt, mehr und mehr Namen in Erfahrung zu bringen, je mehr er in die Gruppe integriert wird, andererseits durch die Überwachung der Post oder auch durch die Beschattung von Gruppenmitgliedern.
Während sich der Spitzel und der mit den Ermittlungen betraute Gestapomann anfangs nur in einem monatlichen Turnus trafen, verdichteten sich die Kontakte der beiden in der letzten Phase der Überwachung. Interessant finde ich beispielsweise die Aktivitäten, die der Ermittler entfaltet, um die Gruppenstruktur als solche zu erhalten: So nimmt er mehrmals Kontakt mit dem Wehrbezirkskommando auf, um Einberufungen aufzuhalten. Die Beobachtung soll so lange wie möglich aufrechterhalten werden, um so viele Leute wie möglich zu identifizieren. Eben diese Aktivitäten sind es, die Paul Winzen mehr durch Zufall irgendwann auffallen. Während eines Termins beim Arzt entdeckt er einen Vermerk darüber, dass die Gestapo in etwaige Entscheidungen über Wehrtauglichkeit miteinbezogen werden muss. Das löst eine Kettenreaktion aus, die schließlich zur Verhaftung aller bisher bekannten Gruppenmitglieder führt.
Diese Abfolge von Ereignissen und deren Dynamik möchte und muss ich schriftlich ausdrücken. Ich hatte zuerst mit einem „Tagebuchstil“ geliebäugelt. [Ganz ähnlich dem Tool TimelineJS, dass Christoph Pallaske dankenswerterweise in seinem Blog vorgestellt und erklärt hat. (Ich kannte es zum Zeitpunkt meiner Überlegungen noch nicht.)]
Diese Art der Darstellung ist allerdings für die Masterarbeit auf mannigfaltige Weise methodisch problematisch. Die Chronologie, die ich eigentlich erreichen will, ist gleichzeitig auch ein Hindernis, denn dadurch wirkt das Kapitel über den Beobachtungsprozess fragmentarisch. Die Ereignisse werden zerstückelt, es gibt keinen Fließtext, der sie systemisch mitteinander verknüpft und Schmiechen-Ackermann würde es wahrscheinlich eine Reproduktion der Verfolgerakten nennen.
Bis jetzt habe ich noch keine Lösung für mein Dilemma gefunden, aber da ich eine Stephen Kingeske Schreibtechnik verfolge, also zunächst einfach runterschreibe und dann verschönere, wird sich vielleicht noch ein Weg eröffnen. Vielleicht ist ja auch beides gleichzeitig möglich.
Quelle: http://winzen.hypotheses.org/114
Bericht zur Tagung „Vom Nutzen der Editionen“
Tagungsbericht von Christian Griesinger (Trier Center for Digital Humanities)
Die 15. internationale Tagung der „Arbeitsgemeinschaft für germanistische Edition“ fand vom 19. bis 22. Februar 2014 an der Universität Aachen statt. In ca. 50 Vorträgen aus den Bereichen der Älteren und Neueren Germanistik, der Musikwissenschaft, Philosophie, Geschichte, Hochschuldidaktik und dem Verlagswesen wurden nicht nur verschiedene Aspekte des Tagungsmottos „Vom Nutzen der Editionen“ beleuchtet, sondern auch aktuelle Editionsvorhaben unter Berücksichtigung des zu erwartenden Nutzens vorgestellt. Die Tagung wurde aufgrund des großen Themenangebots in Plenarvorträge und mehrere parallel zueinander verlaufende Sektionen unterteilt. Daher kann der Tagungsbericht eines einzelnen Berichterstatters nicht alle Vorträge und diskutierten Themen darstellen, sondern muss sich auf eine subjektive Auswahl einzelner Referate sowie übergreifender Tendenzen beschränken – für weiterführende Lektüre sei auf den geplanten Tagungsband verwiesen.
Aspekt Digitale Edition, Visualisierung und Vernetzung
Viele Vorträge der Tagung bestätigten den sich fortsetzenden Trend von der analogen zur digitalen (Hybrid-)Edition. In vielen Fällen kommt nun die Auszeichnungssprache XML in Verbindung mit den Richtlinien der TEI für die Kodierung der Texte zum Einsatz. Die Projektvorhaben umfassen häufig neben einer Druckausgabe zusätzlich eine webbasierte Publikation der Edition und stellen viele ihrer Materialien auf den Projekthomepages zur Verfügung.
So stellte beispielsweise Jakub Šimek die laufende Neuedition des Welschen Gastes Thomasins von Zerklære‘ vor, die seit 2011 in Heidelberg erarbeitet wird. Diese Ausgabe wird eine diplomatische Transkription aller erhaltenen Textzeugen sowie eine Bilddatenbank mit sämtlichen Bilderzyklen enthalten, so dass eine reine Druckfassung schon wegen des Umfangs nicht praktikabel erscheint. Für die Rezipierbarkeit und Verbreitung der Edition ist eine Druckversion des nach dem Leithandschriftenprinzip kritisch edierten Textes geplant, während die diplomatischen Texte der Onlineversion vorbehalten sind. Ein weiterer Fokus der Onlineversion soll auf der Visualisierung des Variantenapparates liegen: Die chronologische Distribution der verschiedenen Lesarten zu einer Textstelle soll sich der Benutzer auf einer Zeitleiste darstellen können, die diatopische Distribution der Überlieferungsträger auf einer elektronischen Landkarte. Das Projekt ist zudem bemüht, die Editionstexte mit dem in Trier digitalisierten und gepflegten „Wörterbuchnetz“ und nach Möglichkeit auch mit dem neuen „Mittelhochdeutschen Wörterbuch“ durch das Verfahren der Lemmatisierung zu verknüpfen.
Die laufenden Unternehmen zu Briefeditionen – wie das von Vera Hildenbrandt und Roland Kamzelak vorgestellte Projekt „Vernetzte Korrespondenzen“ – beschäftigen sich ebenfalls intensiv mit Visualisierungsverfahren, um soziale Netzwerke der Briefschreiber und ihre Themen und Inhalte graphisch ansprechend darzustellen. Auch hier werden Inhalte, zum Beispiel Personen und Orte, mit einem Referenzwerk, der Gemeinsamen Normdatei (GND), verlinkt.
Es zeigt sich demnach, dass Editionen nicht mehr als für sich stehende Werke begriffen werden, sondern in einen übergeordneten Forschungskontext eingeordnet und an verschiedene Standards der Kodierung und Vernetzung angepasst werden. Die Verweise auf die lexikographischen Werke oder die Datenbanksysteme der Normdaten, die nur im elektronischen Medium ihr volles Potenzial ausschöpfen können, ermöglichen editionsübergreifende Fragestellungen und erleichtern sowohl den Datenaustausch als auch die Weiternutzung der Editionen in anderen Kontexten. Mit der wachsenden Komplexität der erarbeiteten Editionen steigt allerdings auch das Bedürfnis der Editoren wie auch der Editionsbenutzer, die Sachverhalte visuell darzustellen.
Leider spielte die einstmals engen fachlichen Verbindung von Editionswissenschaft, Wörterbuch- und Grammatikschreibung auf der Tagung nur eine Nebenrolle. Es wäre wünschenswert, die wechselseitige Nutzung von Editionen in den Wörterbücher- und Grammatikvorhaben wie auch die Nutzung der Lexika und Grammatiken in den Editionsprojekten stärker zu beleuchten.
Aspekt Benutzung historisch-kritischer Ausgaben in der Wissenschaft
Bislang fehlt es an Studien zur Benutzungssituation von Editionen im Wissenschaftsbetrieb. In der Neugermanistik liegen zwar mittlerweile für viele moderne Autoren Historisch-Kritische Ausgaben (HKA) ihrer Werke vor, die sich vornehmlich an wissenschaftliche Nutzer richten, inwiefern sie jedoch benutzt werden, wurde bislang nicht untersucht. Um die Akzeptanz, Verbreitung und Benutzung dieser Editionen zu untersuchen, wertete Rüdiger Nutt-Kofoth hierzu die Jahrgänge 2000–2013 wichtiger Publikationsorgane wie ZfdPh, Euphorion und DVjs aus. In ca. 540 Aufsätzen mit einem Umfang von ca. 29.000 Seiten betrachtete er, welche Textausgaben und welche Teile der Editionen zitiert wurden.
Das Ergebnis war wenig schmeichelhaft, denn in etwa 60% der Fälle wurden die maßgeblichen kritischen Editionen nicht konsultiert, sondern auf andere oder ältere Ausgaben zurückgegriffen. In den 40% Prozent der Fälle, in denen die HKA als Textgrundlage genommen wurden, zitierten die Autoren der Beiträge zu etwa 90% den edierten Haupttext, die Erläuterungen der Ausgaben wurden nur in 10% und die Textvarianten in lediglich 5% der Fälle zitiert. Es scheint damit, dass gerade der aufwendigste Teil einer HKA, der kritische Apparat, am wenigsten berücksichtigt wird. Auch die seltene Verwendung der Erläuterungen, Einleitungen und Vorworte gibt Rätsel auf.
Als mögliche Ursachen für dieses ernüchternde Ergebnis wurde zum einen ein mangelndes Bewusstsein für wissenschaftliche Standards genannt, zum anderen wurde angeführt, dass in vielen Fällen die zumeist teuren und in nur geringen Auflagen publizierten HKA nicht immer zur Verfügung stehen und dann aus Zeitgründen oder Bequemlichkeit auf Taschenausgaben oder verbreitete Einzelausgaben zurückgegriffen werde. Zum dritten wurde auf die Komplexität der HKA hingewiesen, deren teils kryptische Apparate nicht zu einer näheren Beschäftigung einladen. Fest steht jedenfalls, dass diese erste quantitative Erhebung nur der Beginn einer selbstkritischen Untersuchung des wissenschaftlichen Umgangs mit Editionen in der Germanistik sein kann.
Aspekt Edition und Didaxe
In verschiedenen Vorträgen wurde über den Einsatz von Editionen in der Hochschuldidaktik und als Lektüregrundlage in Schulen berichtet. Burghard Dedner erläuterte, wie er anhand des Woyzeck von Georg Büchner Schulklassen textkritische und editorische Fragestellungen nähert bringt. Sehr häufig kämen in Schulklassen veraltete Ausgaben oder von Lehrern selbst erstellte Lernmaterialien zum Einsatz, die dem fragmentarisch erhaltenen Text eine vermeintlich geschlossene Gestalt geben oder Forschungsergebnisse zur Datierung einzelner Textschichten ignorieren. So wird den Schülern zum einen ein falsches Bild von der Genese des Textes vermittelt, zum anderen die Interpretation durch den Willen des Lehrer gelenkt. Die Konfrontation mit im Unterricht nicht benutzen Ausgaben, die den Schülern die Unfestigkeit des Textes vor Augen führen, eignet sich besonders zur Sensibilisierung für textkritische Fragen.
Florian Radvan zeigte anhand didaktischer Modelle und einer statistischen Auswertung verschiedener, in Schulen zur Anwendung kommender Textausgaben, dass die auf Schulen spezialisierten Verlage bei der Vermittlung von Primärliteratur in unterschiedlichem Maße Wort- und Sacherläuterungen in ihre Texte einbauen, aber keineswegs immer ihre Textgrundlage von den maßgeblichen kritischen Ausgaben beziehen.
Den Einsatz der neuen, 15. Auflage von ‚Walthers von der Vogelweide‘ Leich, Liedern und Sangsprüchen (ed. Thomas Bein) in universitären Proseminaren erläuterte Dörte Meeßen. Da diese Auflage viele Strophen ‚Walters‘ in mehreren Fassungen bietet, können an ihr Merkmale der handschriftlichen Textüberlieferung des Mittelalters und die damit verbundenen Fassungsprobleme den Studenten nahe gebracht werden. Darüber hinaus können verschiedene Interpretationsansätze auf den Text angewendet werden, die bei der Darstellung nur einer Fassung verborgen blieben. Allerdings wurde auch in diesem Fall auf die engen Grenzen der Druckfassungen hingewiesen, die die Überlieferung nicht in ihrer gesamten Breite berücksichtigen können. Um die große Varianz der Strophen innerhalb eines Tones darstellbar zu machen, braucht man digitale Werkzeuge und Analyseverfahren.
Fazit
Die Tagung „Von Nutzen der Editionen“ zeichnete sich vor allem dadurch aus, dass sie ein großes Spektrum an Themen und Fachrichtungen berücksichtigte. Auch wenn in der Editionswissenschaft viele unvereinbare editorische Grundsätze nebeneinander existieren und Fragen wie Normalisierung, Apparataufbau, Darstellung der Textgenese und gar die editorische Terminologie heftig umstritten sind, wurde in allen Diskussionsrunden, denen der Berichterstatter beiwohnen konnte, sachlich diskutiert und durchaus auch wissenschaftskritische Positionen bezogen. Dadurch und weil neben Editoren auch Nutzer von Editionen und Verlagsvertreter in Plenarvorträgen ihre Sichtweise und Erfahrungen im Umgang mit Editionen und deren Vertrieb darstellen konnten, war es möglich, Anregungen, Wünsche und Kritik in laufende Editionsvorhaben zu tragen und die Forschungsdiskussion zu bereichern.