Tagungsbericht DHd 2016: „Vorträge_5b: Digitale Edition III“

Als Masterstudentin der Computerlinguistik und Texttechnologie an der Justus-Liebig-Universität Gießen habe ich an der diesjährigen DHd-Tagung in Leipzig teilgenommen, die zum Thema „Modellierung – Vernetzung – Visualisierung: Die Digital Humanities als fächerübergreifendes Forschungsparadigma“ vom 7. bis 12. März 2016 über 460 Teilnehmer anzog. In diesem Beitrag möchte ich von meinen Eindrücken im Hinblick auf die Vortragsreihe „Vorträge_5b: Digitale Edition III“ vom 11. März 2016 berichten, in der drei Beiträge aus den Bereichen der Korpuslinguistik, der Digitalen Editorik und der Geschichtswissenschaften vorgestellt wurden. Der Fokus lag bei allen drei Vorträgen auf den Möglichkeiten der Arbeit mit literarischen wie historischen Textkorpora und digitalen Editionen in Infrastrukturen. Zunächst wurde der jeweilige Gegenstand und die entsprechende Infrastruktur skizziert und anschließend ein Anwendungsfall samt Live-Demonstration simuliert, bei dem die benutzten Tools und die gezeigten Arbeitsumgebungen unter die Lupe genommen wurden. Alle drei Vorträge stellten interessante und hilfreiche Tools vor, die mitunter auch innovative, explorative Zugänge zu Textkorpora ermöglichen. In den folgende drei Absätzen gehe ich auf jeden einzelnen Vortrag ein und hebe solche Aspekte hervor, die für mich persönlich ein Zugewinn waren.



[...]

Quelle: http://dhd-blog.org/?p=6779

Weiterlesen

Marian Dörk über die „Visualisierung kultureller Daten“ – Vortrag in Weimar

Am  11. April 2016 um 18 Uhr hält Marian Dörk (FH Potsdam) im Weimarer Goethe- und Schiller-Archiv einen Vortrag zum Thema „Visualisierung kultureller Daten. Experimentelle Zugänge zu digitalisierten Beständen“. Der Vortrag ist öffentlich, die Teilnahme ist kostenfrei.   

In den letzten Jahren haben Archive, Museen und Bibliotheken viel Zeit und Energie in die Digitalisierung ihrer Bestände investiert. Noch dominiert zwar die herkömmliche Textsuche den Zugang. Doch das Interesse an neuen Techniken und Methoden zur  Visualisierung der digitalisierten Sammlungen ist groß, da sie neuartige Perspektiven auf das kulturelle Erbe bieten.

In seinem Vortrag gibt Marian Dörk, Forschungsprofessor für Informationsvisualisierung an der Fachhochschule Potsdam, eine Einführung in dieses junge Forschungsfeld und zeigt aktuelle Visualisierungen, die von Wissenschaftlern und Studierenden an der FH Potsdam im Rahmen des dreijährigen Forschungsprojekts „Visualisierung kultureller Sammlungen“ (VIKUS) gestaltet und prototypisch entwickelt werden.

[...]

Quelle: http://dhd-blog.org/?p=6625

Weiterlesen

Was sind Digital Humanities? Definitionsfragen und Praxisbeispiele aus der Geschichtswissenschaft

14578927449_aa0a93e58f_k„Why can a computer do so little?“, so lautete 1976 die auf den ersten Blick überraschende Frage von Roberto Busa, den man gemeinhin als den Vater der Digital Humanities bezeichnet[1]. Tatsächlich steckt in diesem Satz eine der grundsätzlichen und bis heute gültigen Fragestellungen bezüglich des Einsatzes von Computern und digitalen Methoden in den Geisteswissenschaften: Geht es darum, effizienter zu sein, menschliche Arbeit zu vereinfachen und Arbeitskraft zu sparen? Oder können Computer uns dabei helfen, neue wissenschaftliche Fragestellungen zu generieren und alte Fragestellungen systematischer, tiefer und besser zu beantworten? Ist auch letzteres der Fall – und davon soll hier ausgegangen werden – dann muss man, mit Willard McCarty, die Frage weitertreiben und nicht nur fragen, warum Computer so wenig können, sondern überlegen, warum Geisteswissenschaftlerinnen und Geisteswissenschaftler so wenig mit Computern machen[2]. Und: woher wissen wir eigentlich, dass es tatsächlich so wenig ist? Und weiter: Wenn es nicht so wenig ist oder mehr sein könnte, warum machen wir es dann so?[3]

Die Debatten um die Digital Humanities oder Humanities Computing wie sie bis ca. zum Jahr 2000 hießen, sind zahlreich und gehen mehrere Jahrzehnte zurück.

[...]

Quelle: http://dhdhi.hypotheses.org/2642

Weiterlesen

Was sind Digital Humanities? Definitionsfragen und Praxisbeispiele aus der Geschichtswissenschaft

14578927449_aa0a93e58f_k„Why can a computer do so little?“, so lautete 1976 die auf den ersten Blick überraschende Frage von Roberto Busa, den man gemeinhin als den Vater der Digital Humanities bezeichnet[1]. Tatsächlich steckt in diesem Satz eine der grundsätzlichen und bis heute gültigen Fragestellungen bezüglich des Einsatzes von Computern und digitalen Methoden in den Geisteswissenschaften: Geht es darum, effizienter zu sein, menschliche Arbeit zu vereinfachen und Arbeitskraft zu sparen? Oder können Computer uns dabei helfen, neue wissenschaftliche Fragestellungen zu generieren und alte Fragestellungen systematischer, tiefer und besser zu beantworten? Ist auch letzteres der Fall – und davon soll hier ausgegangen werden – dann muss man, mit Willard McCarty, die Frage weitertreiben und nicht nur fragen, warum Computer so wenig können, sondern überlegen, warum Geisteswissenschaftlerinnen und Geisteswissenschaftler so wenig mit Computern machen[2]. Und: woher wissen wir eigentlich, dass es tatsächlich so wenig ist? Und weiter: Wenn es nicht so wenig ist oder mehr sein könnte, warum machen wir es dann so?[3]

Die Debatten um die Digital Humanities oder Humanities Computing wie sie bis ca. zum Jahr 2000 hießen, sind zahlreich und gehen mehrere Jahrzehnte zurück.

[...]

Quelle: http://dhdhi.hypotheses.org/2642

Weiterlesen

DH-Videoclip Adventskalender 2015 – Tür 23

Tür 23 stellt noch ein Video aus Stanford vor, diesmal mit einer coolen Visualisierung.

This video in the Stanford Humanities + Digital Tools series features „Palladio,“ a web-based platform that allows humanities scholars to easily upload data and explore it through a variety of visualizations. Learn more at http://hdlab.stanford.edu/projects/palladio/. (Quelle: https://www.youtube.com/watch?v=nUUVgWxeATs&feature=youtu.

[...]

Quelle: http://dhd-blog.org/?p=6154

Weiterlesen

Frauen im Widerstand gegen den Nationalsozialismus?

Ich habe vor längerer Zeit das Buch von Karen Holtmann über die Saefkow-Jaacob-Bästlein-Gruppe gelesen. Ihren Ansatz, mehr über die Widerstandsaktivitäten von Frauen herauszufinden, wollte ich in meine Arbeit auch einbringen. – Vor allem in Kombination mit den Überlegungen von Isabell Richter über das Aussageverhalten bei der Gestapo. Im Fall der “Winzengruppe” ist fast ein Drittel aller von mir aus den Quellen erfassten Personen weiblich, dazu kommt, dass mit Hildegard Schimschok (geb. Luke) eine Überlebende das Bild der Gruppe nachhaltig geprägt hat.

Winzengruppe_Geschlechter

Als allgemeine Tendenz in den Verhören konnte ich ausmachen, dass die Frauen der Gruppe meistens als unpolitische Beziehungen dargestellt wurden. – So gab Josef Kasel im Verhör an, Hildegard Schimschok und Lotte Gützloe seien nur durch ein Liebesverhältnis mit Paul Winzen verbunden gewesen.

[...]

Quelle: http://winzen.hypotheses.org/491

Weiterlesen

Fünf Herausforderungen digitaler Methoden, oder: Ranke re-visited: digital herausfinden, „wie es eigentlich gewesen“?

tagcrowdNachdem wir uns in der Einleitung mit Methoden generell auseinandergesetzt haben, geht es weiter mit den digitalen Methoden und den Herausforderungen, vor die sie die Geschichtsschreibung stellen. Rieder und Röhle1 zählen in ihrem grundlegenden Beitrag fünf Herausforderungen auf, von denen drei hier näher vorgestellt werden:

1. Die Verlockung der Objektivität

Die erste Herausforderung besteht laut den Autoren darin, dass durch den Einsatz von „unbestechlichen“ Maschinen und Computern Forschungsergebnisse aus dem Bereich der Digital Humanities „objektiv“ erscheinen können. Das ist konträr dazu, dass die Geisteswissenschaften Disziplinen sind, in denen es um interpretatives Wissen und weniger um verifizierbares Wissen geht. Es könnte die Versuchung entstehen, ähnlich wie in den Naturwissenschaften zu objektivierbaren Ergebnissen kommen zu wollen, womit an den Wunsch nach „Wahrheit“ aus dem 19. Jahrhundert anknüpft wird. Die Gefahr besteht darin, im Anschluss an Ranke digital herausfinden zu wollen, „wie es eigentlich gewesen“.

Dabei handelt es sich freilich um ein Missverständnis, das darauf begründet ist, dass Maschinen manche Aufgaben schneller und genauer erfüllen können als Menschen. So entsteht die Vorstellung, dass Computer „wahre“ Ergebnisse liefern, die epistemologisch auf einem höheren Status stehen als eine von Forschenden erstellte Interpretation. So wird leicht vergessen, dass die Genauigkeit der Fragestellung, die Modelle und Vorannahmen, die der Forschung zugrunde liegen, menschlich gemacht sind und damit interpretiert und subjektiv.

Rieder/Röhle weisen darauf hin, dass uns die Faszination für die Objektivität des Computers nicht davon abhalten sollte, Werkzeuge und Software genau zu analysieren und die ihnen zugrunde liegenden Entscheidungen freizulegen. Die Forschung ist darauf angewiesen, dass Vorannahmen, Algorithmen und Modelle als methodische Grundlagen für ein Projekt oder eine Fragestellung transparent gemacht werden.

2. Die Macht des visuellen Beweises

Viele DH-Werkzeuge produzieren ein visuelles Ergebnis, z.B. Netzwerkanalysen, Zeitleisten, angereicherte Karten. Diese haben zumeist auch ästhetische Qualitäten, die sie zu mächtigen argumentativen Werkzeugen machen. Wie kann man diese rhetorischen Qualitäten von Abbildungen und Visualisierungen und ihre argumentative Macht kritisch hinterfragen?

Rieder und Röhle weisen darauf hin, dass Visualisierungen manche Aspekte eines Phänomens sichtbarer machen als textliche Darstellungen, da sie eine reduzierte Repräsentation der beobachteten Wirklichkeit sind. Die Reduzierung entspricht einem Bedarf, Informationen und Dimensionen zu verkleinern, so dass sie überhaupt abbildbar werden, zum Teil in Abhängigkeit von graphischen Bedingungen wie Bildschirmgröße, Auflösung etc. Manchmal sind es technische Bedingungen, die zu einer Reduktion führen, manchmal wird aber auch manipuliert, was in keinem Bereich mittlerweile so offensichtlich sein dürfte wie bei Bildern (Stichwort Photoshop).

Manche Informationen werden in Visualisierungen ganz weggelassen: Durch die Reduzierungen und Auslassungen werden einige Interpretationen und Schlussfolgerungen plausibler als andere. Denn Visualisierungen können trotz der Reduzierung ein sehr großes argumentatives Gewicht haben. Darin liegt ein zweiter Grund für ihre Autorität. Numerische und visuelle Darstellungen werden viel einfacher als Beweis akzeptiert als Text, der eher als argumentativ wahrgenommen wird. Das hängt mit der Produktion des Arguments zusammen. Während man ein textbasiertes Argument recht schnell in sein Gegenteil umwandeln kann – und sei es nur als advocatus diaboli – ist das bei Statistiken, bei Visualisierungen nicht möglich. Quantitative Ergebnisse können nicht umgedreht werden. Man kann ihre Erhebung anzweifeln und man kann sie gegebenenfalls auch unterschiedlich interpretieren. Aber ihre reine Darstellung gilt als Fakt. Sie überrumpeln die Forschenden gleichsam, die Visulisierungen damit weniger hinterfragen oder deren inhärenten Erklärungen kritisch reflektieren.

worditoutAls Ausweg aus diesem Dilemma schlagen Rieder und Röhle nach Bettina Heintz2 eine prozessbasierte Herangehensweise an wissenschaftliche Bilder vor: Man solle sie als momentanen Ausdruck eines fortlaufenden Prozesses präsentieren, der noch weiterläuft. Dadurch würde der methodische Fokus auf die Phase vor Schaffung des Bildes gelenkt und damit auf die Entscheidungen und Reduktionen, die während der Produktion stattgefunden haben. Ebenso wird die Phase nach der Präsentation deutlich: die Notwendigkeit, die Ergebnisse zu interpretieren, zu vergleichen, Fragen zu stellen über Gültigkeit, Generalisierbarkeit und vor allem über die Bedeutung der Visualisierungen. Dies ist freilich nicht unumstritten, da ein Bild nach anderer Meinung eher zum Nachdenken über den Inhalt als über Grafik-Design oder Methodik anregen soll.

3. Blackboxing

Die dritte Herausforderung betrifft die technologische Untermauerung und wie sich die Geisteswissenschaftler dazu stellen. Indem digitale Methoden geschaffen werden, werden heuristische Prozesse mechanisiert, wobei methodologische Überlegungen in technische Form gegossen werden. Inhalte werden formalisiert in Datenstrukturen, Algorithmen, Arten der Darstellung und Möglichkeiten der Interaktion. Diese sind nicht unbedingt immer transparent oder verstehbar. Transparenz bedeutet in diesem Zusammenhang die Möglichkeit, die Methode nachvollziehen zu können: wie sie funktioniert, auf welchen Vorüberlegungen sie beruht, sie reproduzieren zu können und sie kritisieren zu können. Es gelte daher, die Labor-Blackbox offen zu legen: den Code der digitalen Werkzeuge zu veröffentlichen, „code literacy“ zu lehren und zu lernen, um den Code lesen und verstehen zu können – womit wir wieder bei der Frage sind, ob HIstoriker programmieren können müssen. Dennoch bleibt dann, so Rieder und Röhle, immer noch ein Teil an Ergebnissen bleibe, der mit statistischen Konzepten nicht zu verstehen sei. Als Beispiel nennen Rieder und Röhle, dass zwei verschiedene Visualisierungsprogramme zu unterschiedlichen Ergebnissen gelangen, da sie nicht unbedingt dieselben Verbindungen in einem Netzwerk prominent darstellen.

Im Seminar probieren wir das auf einer unteren Eben aus, indem wir den Ankündigungstext des Methodenkurses in zwei unterschiedlichen Wordcloud-Tools darstellen lassen und anschließend diskutieren. Die Ergebnisse sind hier abgebildet und sie zeigen, wie verschieden die Clouds tatsächlich wirken, zumal das erst Tool über die Spracheinstellung automatisiert Stoppwörter wie “der”, “die”, “das” rausfiltert, die zweite nicht3.

Der Vollständigkeit halber seien auch die zwei weiteren von Rieder und Röhle genannten Herausforderungen aufgezählt, ohne diese hier weiter auszuführen:

4.) Institutionelle Störungen: Auswirkungen auf die Forschungslandschaft

5.) Streben nach Universalismus kommt zurück

Zusammenfassend plädieren Rieder und Röhle dafür, einen neuen Methodenstreit zu vermeiden. Stattdessen sollten Wissenschaftlerinnen, die digitale Methoden verwenden, ihre methodische Entscheidungen explizit und transparent machen, etwa in projektbegleitenden Websites.

________

Abbildungen

Wordcloud 1 mit TagCrowd.com erstellt (mit Spracheinstellung)

Wordcloud 2 mit WordItOut erstellt (ohne Spracheinstellung)

Literatur

Rieder, Bernhard, Röhle, Theo: Digital Methods: Five Challenges, in: David M. Berry (Hg.), Understanding Digital Humanities, Houndmills 2012, S. 67-84.

Alves, Daniel: Introduction, in: Digital Methods and Tools for Historical Research: A Special Issue. International Journal of Humanities and Arts Computing, Bd. 8, Heft 1 (April 2014). [Paywall: http://www.euppublishing.com/toc/ijhac/8/1]

  1. Rieder, Bernhard, Röhle, Theo: Digital Methods: Five Challenges, in: David M. Berry (Hg.), Understanding Digital Humanities, Houndmills 2012, S. 67-84.
  2. Bettina Heintz, Zahlen, Wissen, Objektivität: Wissenschaftssoziologische Perspektiven, in: A. Mennicken, H. Vollmer (Hg.), Zahlenwerk. Kalkulation, Organisation und Gesellschaft, Wiesbaden 2007, S. 65-86.
  3. Eine Übersicht zu Word-Cloud-Tools gibt es hier: http://praxistipps.chip.de/word-clouds-kostenlos-online-erstellen-die-besten-webseiten_30199

Quelle: http://dguw.hypotheses.org/115

Weiterlesen

Erkenntnisgenese der Gestapo mit TimelineJS darstellen?

Die Gestapo beobachtete die „Winzengruppe“ über mehrere Monate hinweg.  Man kann die Erkenntnisgenese der Beamten chronologisch nachvollziehen. Einerseits durch den ständigen Kontakt mit einem „Vertrauensmann“, also dem Spitzel, dem es gelingt, mehr und mehr Namen in Erfahrung zu bringen, je mehr er in die Gruppe integriert wird, andererseits durch die Überwachung der Post oder auch durch die Beschattung von Gruppenmitgliedern.

Vernehmung

Während sich der Spitzel und der mit den Ermittlungen betraute Gestapomann anfangs nur in einem monatlichen Turnus trafen, verdichteten sich die Kontakte der beiden in der letzten Phase der Überwachung. Interessant finde ich beispielsweise die Aktivitäten, die der Ermittler entfaltet, um die Gruppenstruktur als solche zu erhalten: So nimmt er mehrmals Kontakt mit dem Wehrbezirkskommando auf, um Einberufungen aufzuhalten. Die Beobachtung soll so lange wie möglich aufrechterhalten werden, um so viele Leute wie möglich zu identifizieren. Eben diese Aktivitäten sind es, die Paul Winzen mehr durch Zufall irgendwann auffallen. Während eines Termins beim Arzt entdeckt er einen Vermerk darüber, dass die Gestapo in etwaige Entscheidungen über Wehrtauglichkeit miteinbezogen werden muss. Das löst eine Kettenreaktion aus, die schließlich zur Verhaftung aller bisher bekannten Gruppenmitglieder führt.

Diese Abfolge von Ereignissen und deren Dynamik möchte und muss ich schriftlich ausdrücken. Ich hatte zuerst mit einem „Tagebuchstil“ geliebäugelt. [Ganz ähnlich dem Tool TimelineJS, dass Christoph Pallaske dankenswerterweise in seinem Blog vorgestellt und erklärt hat. (Ich kannte es zum Zeitpunkt meiner Überlegungen noch nicht.)]

Diese Art der Darstellung ist allerdings für die Masterarbeit auf mannigfaltige Weise methodisch problematisch. Die Chronologie, die ich eigentlich erreichen will, ist gleichzeitig auch ein Hindernis, denn dadurch wirkt das Kapitel über den Beobachtungsprozess fragmentarisch. Die Ereignisse werden zerstückelt, es gibt keinen Fließtext, der sie systemisch mitteinander verknüpft und Schmiechen-Ackermann würde es wahrscheinlich eine Reproduktion der Verfolgerakten nennen.

Bis jetzt habe ich noch keine Lösung für mein Dilemma gefunden, aber da ich eine Stephen Kingeske Schreibtechnik verfolge, also zunächst einfach runterschreibe und dann verschönere, wird sich vielleicht noch ein Weg eröffnen. Vielleicht ist ja auch beides gleichzeitig möglich.

Quelle: http://winzen.hypotheses.org/114

Weiterlesen

Bericht zur Tagung „Vom Nutzen der Editionen“

Tagungsbericht von Christian Griesinger (Trier Center for Digital Humanities)

Die 15. internationale Tagung der „Arbeitsgemeinschaft für germanistische Edition“ fand vom 19. bis 22. Februar 2014 an der Universität Aachen statt. In ca. 50 Vorträgen aus den Bereichen der Älteren und Neueren Germanistik, der Musikwissenschaft, Philosophie, Geschichte, Hochschuldidaktik und dem Verlagswesen wurden nicht nur verschiedene Aspekte des Tagungsmottos „Vom Nutzen der Editionen“ beleuchtet, sondern auch aktuelle Editionsvorhaben unter Berücksichtigung des zu erwartenden Nutzens vorgestellt. Die Tagung wurde aufgrund des großen Themenangebots in Plenarvorträge und mehrere parallel zueinander verlaufende Sektionen unterteilt. Daher kann der Tagungsbericht eines einzelnen Berichterstatters nicht alle Vorträge und diskutierten Themen darstellen, sondern muss sich auf eine subjektive Auswahl einzelner Referate sowie übergreifender Tendenzen beschränken für weiterführende Lektüre sei auf den geplanten Tagungsband verwiesen.

Aspekt Digitale Edition, Visualisierung und Vernetzung

Viele Vorträge der Tagung bestätigten den sich fortsetzenden Trend von der analogen zur digitalen (Hybrid-)Edition. In vielen Fällen kommt nun die Auszeichnungssprache XML in Verbindung mit den Richtlinien der TEI für die Kodierung der Texte zum Einsatz. Die Projektvorhaben umfassen häufig neben einer Druckausgabe zusätzlich eine webbasierte Publikation der Edition und stellen viele ihrer Materialien auf den Projekthomepages zur Verfügung.

So stellte beispielsweise Jakub Šimek die laufende Neuedition des Welschen Gastes Thomasins von Zerklære‘ vor, die seit 2011 in Heidelberg erarbeitet wird. Diese Ausgabe wird eine diplomatische Transkription aller erhaltenen Textzeugen sowie eine Bilddatenbank mit sämtlichen Bilderzyklen enthalten, so dass eine reine Druckfassung schon wegen des Umfangs nicht praktikabel erscheint. Für die Rezipierbarkeit und Verbreitung der Edition ist eine Druckversion des nach dem Leithandschriftenprinzip kritisch edierten Textes geplant, während die diplomatischen Texte der Onlineversion vorbehalten sind. Ein weiterer Fokus der Onlineversion soll auf der Visualisierung des Variantenapparates liegen: Die chronologische Distribution der verschiedenen Lesarten zu einer Textstelle soll sich der Benutzer auf einer Zeitleiste darstellen können, die diatopische Distribution der Überlieferungsträger auf einer elektronischen Landkarte. Das Projekt ist zudem bemüht, die Editionstexte mit dem in Trier digitalisierten und gepflegten „Wörterbuchnetz“ und nach Möglichkeit auch mit dem neuen „Mittelhochdeutschen Wörterbuch“ durch das Verfahren der Lemmatisierung zu verknüpfen.

Die laufenden Unternehmen zu Briefeditionen – wie das von Vera Hildenbrandt und Roland Kamzelak vorgestellte Projekt „Vernetzte Korrespondenzen“ – beschäftigen sich ebenfalls intensiv mit Visualisierungsverfahren, um soziale Netzwerke der Briefschreiber und ihre Themen und Inhalte graphisch ansprechend darzustellen. Auch hier werden Inhalte, zum Beispiel Personen und Orte, mit einem Referenzwerk, der Gemeinsamen Normdatei (GND), verlinkt.

Es zeigt sich demnach, dass Editionen nicht mehr als für sich stehende Werke begriffen werden, sondern in einen übergeordneten Forschungskontext eingeordnet und an verschiedene Standards der Kodierung und Vernetzung angepasst werden. Die Verweise auf die lexikographischen Werke oder die Datenbanksysteme der Normdaten, die nur im elektronischen Medium ihr volles Potenzial ausschöpfen können, ermöglichen editionsübergreifende Fragestellungen und erleichtern sowohl den Datenaustausch als auch die Weiternutzung der Editionen in anderen Kontexten. Mit der wachsenden Komplexität der erarbeiteten Editionen steigt allerdings auch das Bedürfnis der Editoren wie auch der Editionsbenutzer, die Sachverhalte visuell darzustellen.

Leider spielte die einstmals engen fachlichen Verbindung von Editionswissenschaft, Wörterbuch- und Grammatikschreibung auf der Tagung nur eine Nebenrolle. Es wäre wünschenswert, die wechselseitige Nutzung von Editionen in den Wörterbücher- und Grammatikvorhaben wie auch die Nutzung der Lexika und Grammatiken in den Editionsprojekten stärker zu beleuchten.

Aspekt Benutzung historisch-kritischer Ausgaben in der Wissenschaft

Bislang fehlt es an Studien zur Benutzungssituation von Editionen im Wissenschaftsbetrieb. In der Neugermanistik liegen zwar mittlerweile für viele moderne Autoren Historisch-Kritische Ausgaben (HKA) ihrer Werke vor, die sich vornehmlich an wissenschaftliche Nutzer richten, inwiefern sie jedoch benutzt werden, wurde bislang nicht untersucht. Um die Akzeptanz, Verbreitung und Benutzung dieser Editionen zu untersuchen, wertete Rüdiger Nutt-Kofoth hierzu die Jahrgänge 2000–2013 wichtiger Publikationsorgane wie ZfdPh, Euphorion und DVjs aus. In ca. 540 Aufsätzen mit einem Umfang von ca. 29.000 Seiten betrachtete er, welche Textausgaben und welche Teile der Editionen zitiert wurden.

Das Ergebnis war wenig schmeichelhaft, denn in etwa 60% der Fälle wurden die maßgeblichen kritischen Editionen nicht konsultiert, sondern auf andere oder ältere Ausgaben zurückgegriffen. In den 40% Prozent der Fälle, in denen die HKA als Textgrundlage genommen wurden, zitierten die Autoren der Beiträge zu etwa 90% den edierten Haupttext, die Erläuterungen der Ausgaben wurden nur in 10% und die Textvarianten in lediglich 5% der Fälle zitiert. Es scheint damit, dass gerade der aufwendigste Teil einer HKA, der kritische Apparat, am wenigsten berücksichtigt wird. Auch die seltene Verwendung der Erläuterungen, Einleitungen und Vorworte gibt Rätsel auf.

Als mögliche Ursachen für dieses ernüchternde Ergebnis wurde zum einen ein mangelndes Bewusstsein für wissenschaftliche Standards genannt, zum anderen wurde angeführt, dass in vielen Fällen die zumeist teuren und in nur geringen Auflagen publizierten HKA nicht immer zur Verfügung stehen und dann aus Zeitgründen oder Bequemlichkeit auf Taschenausgaben oder verbreitete Einzelausgaben zurückgegriffen werde. Zum dritten wurde auf die Komplexität der HKA hingewiesen, deren teils kryptische Apparate nicht zu einer näheren Beschäftigung einladen. Fest steht jedenfalls, dass diese erste quantitative Erhebung nur der Beginn einer selbstkritischen Untersuchung des wissenschaftlichen Umgangs mit Editionen in der Germanistik sein kann.

Aspekt Edition und Didaxe

In verschiedenen Vorträgen wurde über den Einsatz von Editionen in der Hochschuldidaktik und als Lektüregrundlage in Schulen berichtet. Burghard Dedner erläuterte, wie er anhand des Woyzeck von Georg Büchner Schulklassen textkritische und editorische Fragestellungen nähert bringt. Sehr häufig kämen in Schulklassen veraltete Ausgaben oder von Lehrern selbst erstellte Lernmaterialien zum Einsatz, die dem fragmentarisch erhaltenen Text eine vermeintlich geschlossene Gestalt geben oder Forschungsergebnisse zur Datierung einzelner Textschichten ignorieren. So wird den Schülern zum einen ein falsches Bild von der Genese des Textes vermittelt, zum anderen die Interpretation durch den Willen des Lehrer gelenkt. Die Konfrontation mit im Unterricht nicht benutzen Ausgaben, die den Schülern die Unfestigkeit des Textes vor Augen führen, eignet sich besonders zur Sensibilisierung für textkritische Fragen.
Florian Radvan zeigte anhand didaktischer Modelle und einer statistischen Auswertung verschiedener, in Schulen zur Anwendung kommender Textausgaben, dass die auf Schulen spezialisierten Verlage bei der Vermittlung von Primärliteratur in unterschiedlichem Maße Wort- und Sacherläuterungen in ihre Texte einbauen, aber keineswegs immer ihre Textgrundlage von den maßgeblichen kritischen Ausgaben beziehen.

Den Einsatz der neuen, 15. Auflage von ‚Walthers von der Vogelweide‘ Leich, Liedern und Sangsprüchen (ed. Thomas Bein) in universitären Proseminaren erläuterte Dörte Meeßen. Da diese Auflage viele Strophen ‚Walters‘ in mehreren Fassungen bietet, können an ihr Merkmale der handschriftlichen Textüberlieferung des Mittelalters und die damit verbundenen Fassungsprobleme den Studenten nahe gebracht werden. Darüber hinaus können verschiedene Interpretationsansätze auf den Text angewendet werden, die bei der Darstellung nur einer Fassung verborgen blieben. Allerdings wurde auch in diesem Fall auf die engen Grenzen der Druckfassungen hingewiesen, die die Überlieferung nicht in ihrer gesamten Breite berücksichtigen können. Um die große Varianz der Strophen innerhalb eines Tones darstellbar zu machen, braucht man digitale Werkzeuge und Analyseverfahren.

Fazit

Die Tagung „Von Nutzen der Editionen“ zeichnete sich vor allem dadurch aus, dass sie ein großes Spektrum an Themen und Fachrichtungen berücksichtigte. Auch wenn in der Editionswissenschaft viele unvereinbare editorische Grundsätze nebeneinander existieren und Fragen wie Normalisierung, Apparataufbau, Darstellung der Textgenese und gar die editorische Terminologie heftig umstritten sind, wurde in allen Diskussionsrunden, denen der Berichterstatter beiwohnen konnte, sachlich diskutiert und durchaus auch wissenschaftskritische Positionen bezogen. Dadurch und weil neben Editoren auch Nutzer von Editionen und Verlagsvertreter in Plenarvorträgen ihre Sichtweise und Erfahrungen im Umgang mit Editionen und deren Vertrieb darstellen konnten, war es möglich, Anregungen, Wünsche und Kritik in laufende Editionsvorhaben zu tragen und die Forschungsdiskussion zu bereichern.

Quelle: http://scriptorium.hypotheses.org/364

Weiterlesen

17. Magazinierte Geschichte

magazinesPopularität vs. Seriosität?

Regelmäßig bringen sie das Neueste von gestern und vorgestern in den Zeitschriftenhandel: Geschichtsmagazine. Sie erfreuen sich bei einer anhaltend großen Leserschaft einer ebenso anhaltend großen Beliebtheit. In den Bahnhofsbuchhandlungen liegen sie nicht irgendwo versteckt, hinten in der Ecke aus, sondern finden sich prominent am Eingang platziert, zu großen Stapeln aufgehäuft. Aber auch in jedem Kiosk um die Ecke kann man sie finden, diese Hefte, die eine informative und unterhaltsame Reise in die Vergangenheit versprechen. Der Markt für Geschichtsmagazine scheint so gut bestellt zu sein, dass sich schon seit einigen Jahren gleich mehrere von ihnen Konkurrenz machen können.

Neben den Zeitschriften „Damals“ (verkaufte Exemplare 22.779) und „G/Geschichte“ (27.719), die dieses Geschäft schon seit Längerem betreiben und, ebenso wie „P.M. History“ (45.893), auf eine Heftgestaltung gemischten Inhalts setzen, sind es vor allem die großen Verlage, die dieses Segment für sich in Anspruch nehmen. Am prominentesten ist wohl „Geo Epoche“ aus dem Haus Gruner + Jahr (109.320), ein Magazin, das von sich behauptet, die Nummer 1 unter den populären historischen Zeitschriften zu sein. Aber auch „Der Spiegel“ (84.019) und „Die Zeit“ warten seit einiger Zeit mit eigenen Geschichtsmagazinen auf (Alle Verkaufszahlen laut IVW 3. Quartal 2013).

Aus wissenschaftlicher Perspektive sind Geschichtsmagazine durch eine unübersehbare Ambivalenz geprägt. Einerseits kann man sich nur freuen über die Aufmerksamkeit, die historische Themen in der Öffentlichkeit genießen. Vergleichbare populäre Zeitschriften zur Linguistik, Literaturwissenschaft oder Soziologie gibt es nicht. Andererseits wird gerade diese Popularität zuweilen mit dem Verlust wissenschaftlicher Seriosität und Komplexität erkauft.

Aber mir soll es hier nicht um die schon x-fach erörterten Spannungen zwischen wissenschaftlichen Ansprüchen und ihrer Aufbereitung für ein größeres Publikum gehen. Denn gegen solche Formen der Popularisierung zu polemisieren, halte ich offen gestanden für ein Luxusproblem – besser eine komplexitätsreduzierte Übersetzung als gar keine Wahrnehmung. Nein, was ich am Phänomen ‚Geschichtsmagazin‘ viel interessanter finde, ist die aktuelle Geschichtskultur, die sich darin manifestiert. Wenn sich eine Gesellschaft derart für Vergangenes interessiert, dass sie nicht nur in Fernseh-, sondern auch in Heftformaten eifrig darauf zurückgreift – welche Form nimmt dieses Vergangene dann an? Denn Popularisierungen funktionieren üblicherweise über Kreuz: Eine bestimmte Nachfrage soll befriedigt werden, und zwar so, dass sie sich nicht zuletzt auch wirtschaftlich rechnet. Zugleich besteht (zumindest theoretisch) die Möglichkeit, neue Angebote zu machen und Bedürfnisse zu wecken, die bisher möglicherweise noch gar nicht formuliert werden konnten.

Bildlichkeit vs. Genauigkeit?

Die Inhalte der Geschichtsmagazine lassen sich – kaum überraschend – nicht über einen Kamm scheren. Bei den Artikeln ist so ziemlich alles dabei, was man in textlichen Gemischtwarenläden erwarten darf. Vom eher unbeholfenen Artikel des bemühten Volontärs über die schmissig-journalistische Reportage bis zur nüchternen Auseinandersetzung der universitär bestallten Historikerin findet man Erfreuliches und weniger Erbauliches.

Eines ist aber unbedingte Voraussetzung: Die Themen müssen bildfähig sein. Ohne Bebilderung geht gar nichts. Man müsste es noch genauer nachrechnen (was ich nicht getan habe), aber nach meiner Schätzung wird etwa die Hälfte eines Heftumfangs durch Abbildungen eingenommen. Und durch Karten. Insbesondere „Geo Epoche“ nutzt Karten (zusätzlich zu sehr vielen Bildern) ausgiebig, um deutlich zu machen, dass Geschichte nicht nur in der Zeit und im Text, sondern auch im Raum und im Bild stattfindet. Damit haben Geschichtsmagazine eine Möglichkeit, die vielen historischen Büchern aus Kostengründen fehlen, wenn sie so ausgiebig auf Abbildungen zurückzugreifen. Dafür liegen die Preise dann aber auch schon auf dem Niveau von schmalen Büchern. Zuweilen führt diese Visualisierungspraxis zu zweifelhaften Auswüchsen, so wenn Historiengemälde aus dem 19. Jahrhunderts zur Illustration mittelalterlicher Verhältnisse herangezogen werden oder wenn im Heft über den Amerikanischen Bürgerkrieg von „Geo Epoche“ Fotografien digital koloriert wurden, „um ihre Anschaulichkeit zu verstärken“ [1]. Geschichtstuning für Fortgeschrittene.

Es wäre interessant, eine Redaktionssitzung zur Erstellung eines solchen Heftes belauschen zu können, um zu erfahren, nach welchen Gesichtspunkten die einzelnen Beiträge ausgesucht werden. Man kann aber auch ohne entsprechende Abhörprotokolle von den abgedruckten Artikeln auf die übergeordneten Prinzipien schließen: Zunächst geht es um Überblickswissen, das den Rahmen bereiten soll für die Schilderung bestimmter Ereignisse, für Menschlich-Biographisches und für Aspekte des Alltagslebens, die einen wesentlichen Teil des Inhalts ausmachen. Nicht minder interessant sind aber die Themenbereiche, die nur am Rande vorkommen oder auch ganz ausgelassen werden: Es sind all diejenigen, die wenig Anschauliches zu bieten haben, die strukturelle Grundlagen in Wirtschaft, Gesellschaft, Politik oder Kultur betreffen. Befürchtet man hier möglicherweise Langeweile in der Geschichtsunterhaltung – obwohl es gerade hier in einem doppelten Sinn ‚grundlegend‘ werden könnte?

Nicht selten scheinen sich die Artikel aus der ‚Übersetzung‘ wissenschaftlicher Forschung (und dickleibiger Bücher) in Artikelform zu speisen. Insofern liegt hier ein prototypischer (und überhaupt nicht abwertend gemeinter) Fall von Popularisierung wissenschaftlichen Wissens vor. Zweifelsfalten kriechen allerdings auf die Denkerstirn, wenn im Kleingedruckten darauf verwiesen wird, begriffliche Unterschiede nicht ganz so genau zu nehmen. Da wird dann beispielsweise aus Gründen der sprachlichen Varianz die Sklaverei mit Leibeigenschaft, Knechtschaft und Unfreiheit in einen begrifflichen Topf geschmissen. Das ist keine Popularisierung mehr, sondern ziemlich grobe Ungenauigkeit [2].

Distanz als Differenz!

Treten wir aber einen Schritt zurück, sehen von den konkreten Heftinhalten ab und betrachten das größere Themenspektrum. Dann fällt auf, dass Bewährtes aufbereitet, etablierte Themen besetzt und das ohnehin bereits – zumindest ungefähr – Bekannte abgehandelt wird. Klassische Themen, die auch schon den schulischen Geschichtsunterricht prägten, werden vielfach wieder aufgegriffen: das antike Rom, Napoleon, der Nationalsozialismus, die Kreuzritter oder der Erste Weltkrieg – Länder, Menschen, Abenteuer. Man weiß also immer, was man bekommt, Überraschungen bleiben die Ausnahme. Damit bleibt aber leider auch die Möglichkeit ungenutzt, die ausgetretenen Pfade zumindest ein wenig zu verlassen, Vergangenes nicht immer schon von vornherein zu reduzieren auf große Persönlichkeiten, große Ereignisse oder große Reiche. Vielleicht ginge es auch einmal anders. Warum lassen sich denn nicht einmal Themenhefte entwerfen, die vermeintlich Abseitiges, Schräges, Unbeachtetes behandeln? Warum nicht etwas über die Geschichte des Schattens, des Spaziergangs oder der Börsenspekulation? Warum nicht eine genauere Betrachtung der Alpenfurcht und -begeisterung, familiärer Hierarchien oder der Sprache der Diplomatie? Etwa weil die Popularisierung immer nur so weit getrieben werden darf, wie das Zielpublikum bereits vorangeschritten ist? Sicherlich geben bei kommerziellen Unternehmen wie Geschichtsmagazinen die Auflagen den Ton an, weshalb sich immer das am besten verkauft, was ohnehin schon bekannt ist. Aber vielleicht gibt es ja thematische Nachfragen, von denen noch niemand etwas wusste, die gerade deswegen geweckt werden könnten, weil sie eben nicht das immer schon Bekannte aufwärmen?

Ich gebe zu, das ist recht idealistisch gedacht – wahrscheinlich zu idealistisch. Begnügt man sich bis zur Änderung dieses Zustands mit der regelmäßig dargebotenen Hausmannskost, so zeigen die Geschichtsmagazine eine dominierende Vorstellung von der Vergangenheit an, die zwar kein eindimensionales, aber doch recht übersichtliches Set an Funktionen aufweist: Erstens findet sich ein affirmatives Geschichtsbild, das auf Identifizierung, wenn nicht gar auf Identitätsbildung setzt. Hierzu dienen Klassikerthemen wie die Geschichte der jungen Bundesrepublik, noch eher aber biographische Zugänge – Stichwort: Vorbilder. Zweitens findet sich ein historischer Exotismus, der das Fremdartige hervorhebt. Das Mittelalter bietet sich hierfür schon seit Längerem als ideale Spielwiese an, denn hier kann man vermeintlich ohne Hemmungen allen Phantasien von sex’n’crime’n’powerplay frönen. Die dritte Variante ist gewissermaßen die negative Umkehrung der ersten, insofern sie auf Betroffenheit setzt und damit zu einer Identifizierung ex negativo anleiten möchte. Paradethema ist natürlich der Nationalsozialismus, aber alle Formen kriegerischer Auseinandersetzung, gesellschaftlicher Unterdrückung oder ethnischer Verfolgung können dazu herhalten.

Gegen solche Formen der Historisierung ist per se nichts zu sagen. Sie versäumen aber eine wichtige, wenn nicht sogar die wesentliche Qualität historischer Beschäftigung: Sie nutzen die zeitliche Distanz gerade nicht dazu, um Differenz zu thematisieren, um Selbstkritik zu üben und die Grundlagen gegenwärtiger Verhältnisse zu analysieren. Ein Geschichtsmagazin, das eben diese Möglichkeiten nutzt, würde ich gerne einmal lesen wollen – nur um es wohl nach der ersten Nummer wieder eingehen zu sehen.

[1] Geo Epoche, Nr. 60 (2013): Der Amerikanische Bürgerkrieg, S. 13.

[2] Geo Epoche, Nr. 60 (2013): Der Amerikanische Bürgerkrieg, S. 5.


Einsortiert unter:Geschichtskultur, Geschichtsmedien Tagged: Bild, Geschichtsmagazin, Popularisierung, Visualisierung

Quelle: https://achimlandwehr.wordpress.com/2013/12/30/17-magazinierte-geschichte/

Weiterlesen