Fünf Herausforderungen digitaler Methoden, oder: Ranke re-visited: digital herausfinden, „wie es eigentlich gewesen“?

tagcrowdNachdem wir uns in der Einleitung mit Methoden generell auseinandergesetzt haben, geht es weiter mit den digitalen Methoden und den Herausforderungen, vor die sie die Geschichtsschreibung stellen. Rieder und Röhle1 zählen in ihrem grundlegenden Beitrag fünf Herausforderungen auf, von denen drei hier näher vorgestellt werden:

1. Die Verlockung der Objektivität

Die erste Herausforderung besteht laut den Autoren darin, dass durch den Einsatz von „unbestechlichen“ Maschinen und Computern Forschungsergebnisse aus dem Bereich der Digital Humanities „objektiv“ erscheinen können. Das ist konträr dazu, dass die Geisteswissenschaften Disziplinen sind, in denen es um interpretatives Wissen und weniger um verifizierbares Wissen geht. Es könnte die Versuchung entstehen, ähnlich wie in den Naturwissenschaften zu objektivierbaren Ergebnissen kommen zu wollen, womit an den Wunsch nach „Wahrheit“ aus dem 19. Jahrhundert anknüpft wird. Die Gefahr besteht darin, im Anschluss an Ranke digital herausfinden zu wollen, „wie es eigentlich gewesen“.

Dabei handelt es sich freilich um ein Missverständnis, das darauf begründet ist, dass Maschinen manche Aufgaben schneller und genauer erfüllen können als Menschen. So entsteht die Vorstellung, dass Computer „wahre“ Ergebnisse liefern, die epistemologisch auf einem höheren Status stehen als eine von Forschenden erstellte Interpretation. So wird leicht vergessen, dass die Genauigkeit der Fragestellung, die Modelle und Vorannahmen, die der Forschung zugrunde liegen, menschlich gemacht sind und damit interpretiert und subjektiv.

Rieder/Röhle weisen darauf hin, dass uns die Faszination für die Objektivität des Computers nicht davon abhalten sollte, Werkzeuge und Software genau zu analysieren und die ihnen zugrunde liegenden Entscheidungen freizulegen. Die Forschung ist darauf angewiesen, dass Vorannahmen, Algorithmen und Modelle als methodische Grundlagen für ein Projekt oder eine Fragestellung transparent gemacht werden.

2. Die Macht des visuellen Beweises

Viele DH-Werkzeuge produzieren ein visuelles Ergebnis, z.B. Netzwerkanalysen, Zeitleisten, angereicherte Karten. Diese haben zumeist auch ästhetische Qualitäten, die sie zu mächtigen argumentativen Werkzeugen machen. Wie kann man diese rhetorischen Qualitäten von Abbildungen und Visualisierungen und ihre argumentative Macht kritisch hinterfragen?

Rieder und Röhle weisen darauf hin, dass Visualisierungen manche Aspekte eines Phänomens sichtbarer machen als textliche Darstellungen, da sie eine reduzierte Repräsentation der beobachteten Wirklichkeit sind. Die Reduzierung entspricht einem Bedarf, Informationen und Dimensionen zu verkleinern, so dass sie überhaupt abbildbar werden, zum Teil in Abhängigkeit von graphischen Bedingungen wie Bildschirmgröße, Auflösung etc. Manchmal sind es technische Bedingungen, die zu einer Reduktion führen, manchmal wird aber auch manipuliert, was in keinem Bereich mittlerweile so offensichtlich sein dürfte wie bei Bildern (Stichwort Photoshop).

Manche Informationen werden in Visualisierungen ganz weggelassen: Durch die Reduzierungen und Auslassungen werden einige Interpretationen und Schlussfolgerungen plausibler als andere. Denn Visualisierungen können trotz der Reduzierung ein sehr großes argumentatives Gewicht haben. Darin liegt ein zweiter Grund für ihre Autorität. Numerische und visuelle Darstellungen werden viel einfacher als Beweis akzeptiert als Text, der eher als argumentativ wahrgenommen wird. Das hängt mit der Produktion des Arguments zusammen. Während man ein textbasiertes Argument recht schnell in sein Gegenteil umwandeln kann – und sei es nur als advocatus diaboli – ist das bei Statistiken, bei Visualisierungen nicht möglich. Quantitative Ergebnisse können nicht umgedreht werden. Man kann ihre Erhebung anzweifeln und man kann sie gegebenenfalls auch unterschiedlich interpretieren. Aber ihre reine Darstellung gilt als Fakt. Sie überrumpeln die Forschenden gleichsam, die Visulisierungen damit weniger hinterfragen oder deren inhärenten Erklärungen kritisch reflektieren.

worditoutAls Ausweg aus diesem Dilemma schlagen Rieder und Röhle nach Bettina Heintz2 eine prozessbasierte Herangehensweise an wissenschaftliche Bilder vor: Man solle sie als momentanen Ausdruck eines fortlaufenden Prozesses präsentieren, der noch weiterläuft. Dadurch würde der methodische Fokus auf die Phase vor Schaffung des Bildes gelenkt und damit auf die Entscheidungen und Reduktionen, die während der Produktion stattgefunden haben. Ebenso wird die Phase nach der Präsentation deutlich: die Notwendigkeit, die Ergebnisse zu interpretieren, zu vergleichen, Fragen zu stellen über Gültigkeit, Generalisierbarkeit und vor allem über die Bedeutung der Visualisierungen. Dies ist freilich nicht unumstritten, da ein Bild nach anderer Meinung eher zum Nachdenken über den Inhalt als über Grafik-Design oder Methodik anregen soll.

3. Blackboxing

Die dritte Herausforderung betrifft die technologische Untermauerung und wie sich die Geisteswissenschaftler dazu stellen. Indem digitale Methoden geschaffen werden, werden heuristische Prozesse mechanisiert, wobei methodologische Überlegungen in technische Form gegossen werden. Inhalte werden formalisiert in Datenstrukturen, Algorithmen, Arten der Darstellung und Möglichkeiten der Interaktion. Diese sind nicht unbedingt immer transparent oder verstehbar. Transparenz bedeutet in diesem Zusammenhang die Möglichkeit, die Methode nachvollziehen zu können: wie sie funktioniert, auf welchen Vorüberlegungen sie beruht, sie reproduzieren zu können und sie kritisieren zu können. Es gelte daher, die Labor-Blackbox offen zu legen: den Code der digitalen Werkzeuge zu veröffentlichen, „code literacy“ zu lehren und zu lernen, um den Code lesen und verstehen zu können – womit wir wieder bei der Frage sind, ob HIstoriker programmieren können müssen. Dennoch bleibt dann, so Rieder und Röhle, immer noch ein Teil an Ergebnissen bleibe, der mit statistischen Konzepten nicht zu verstehen sei. Als Beispiel nennen Rieder und Röhle, dass zwei verschiedene Visualisierungsprogramme zu unterschiedlichen Ergebnissen gelangen, da sie nicht unbedingt dieselben Verbindungen in einem Netzwerk prominent darstellen.

Im Seminar probieren wir das auf einer unteren Eben aus, indem wir den Ankündigungstext des Methodenkurses in zwei unterschiedlichen Wordcloud-Tools darstellen lassen und anschließend diskutieren. Die Ergebnisse sind hier abgebildet und sie zeigen, wie verschieden die Clouds tatsächlich wirken, zumal das erst Tool über die Spracheinstellung automatisiert Stoppwörter wie “der”, “die”, “das” rausfiltert, die zweite nicht3.

Der Vollständigkeit halber seien auch die zwei weiteren von Rieder und Röhle genannten Herausforderungen aufgezählt, ohne diese hier weiter auszuführen:

4.) Institutionelle Störungen: Auswirkungen auf die Forschungslandschaft

5.) Streben nach Universalismus kommt zurück

Zusammenfassend plädieren Rieder und Röhle dafür, einen neuen Methodenstreit zu vermeiden. Stattdessen sollten Wissenschaftlerinnen, die digitale Methoden verwenden, ihre methodische Entscheidungen explizit und transparent machen, etwa in projektbegleitenden Websites.

________

Abbildungen

Wordcloud 1 mit TagCrowd.com erstellt (mit Spracheinstellung)

Wordcloud 2 mit WordItOut erstellt (ohne Spracheinstellung)

Literatur

Rieder, Bernhard, Röhle, Theo: Digital Methods: Five Challenges, in: David M. Berry (Hg.), Understanding Digital Humanities, Houndmills 2012, S. 67-84.

Alves, Daniel: Introduction, in: Digital Methods and Tools for Historical Research: A Special Issue. International Journal of Humanities and Arts Computing, Bd. 8, Heft 1 (April 2014). [Paywall: http://www.euppublishing.com/toc/ijhac/8/1]

  1. Rieder, Bernhard, Röhle, Theo: Digital Methods: Five Challenges, in: David M. Berry (Hg.), Understanding Digital Humanities, Houndmills 2012, S. 67-84.
  2. Bettina Heintz, Zahlen, Wissen, Objektivität: Wissenschaftssoziologische Perspektiven, in: A. Mennicken, H. Vollmer (Hg.), Zahlenwerk. Kalkulation, Organisation und Gesellschaft, Wiesbaden 2007, S. 65-86.
  3. Eine Übersicht zu Word-Cloud-Tools gibt es hier: http://praxistipps.chip.de/word-clouds-kostenlos-online-erstellen-die-besten-webseiten_30199

Quelle: http://dguw.hypotheses.org/115

Weiterlesen

Poster ‘Historical Source Criticism in the Digital Age’

Am Workshop: ‘Digital Humanities for European Global Studies’ durfte ich ein Poster zum Dissertationsprojekt vorstellen.

Poster - Historical Source Criticism - PF

Poster – Historical Source Criticism in the Digital Age Pascal Föhr, 27.03.2015

Ergänzung (04.04.2015):

Poster - Historische Quellenkritik - PF

Poster – Historische Quellenkritik im Digitalen Zeitalter Pascal Föhr, 27.03.2015

Aufgrund der Bitte von Mareike König (siehe Kommentar) erläutere ich das Poster und füge die deutsche Übersetzung hinzu.

Bisher wurde ein Objekt nach der historisch-kritischen Methode mit den Schritten Heuristik, Quellenkunde, Quellenkritik, Interpretation und Darstellung gesucht und gefunden, eingeordnet, kritisiert, interpretiert und als historische Ressource ‘verwendet’. Die Fragestellung meiner Dissertation dreht sich nun darum, ob die traditionelle historisch-kritische Methode auch auf digitale Objekte angewendet werden kann.

Verschiedene Einflüsse (nicht abschliessende Stichworte computational turn (Medientheorie), Digitalmedien (Social Media etc.), Virtualität (des Objekts, Cyberspace etc.), einem Alterungsprozess unterliegende Hard-/Software, algorithmisch generierte Daten etc. müssen bei der Quellenkritik (Kriterien wie Nachvollziehbarkeit, Persistenz, Echtheit, Authentizität etc.) berücksichtigt werden, die bei physischen Objekten bisher keine Rolle spielten. Digitale Objekte unterscheiden sich grundlegend von bisher bekannten, was eine kritische Auseinandersetzung mit der bisherigen Methode notwendig macht.

Weil digitale Objekte sich grundlegend von bisher bekannten unterscheiden und neuartige Rahmenbedingungen gelten, sind Kriterien der Quellenkritik in der bekannten Form nicht mehr anwendbar. Daraus leite ich für die Verwendung von digitalen Objekten als Forschungsressourcen meine Thesen ab: Es entstanden und entstehen neue, bisher nicht bekannte Quellentypen mit neuartigen Eigenschaften, der Prozess der Objektbeurteilung muss angepasst und neue Methoden der Quellenkritik müssen erarbeitet werden, was den Historiker zwingt auch neue Arbeitsmethoden im Umgang mit digitalen Objekten zu erlernen und anzuwenden.

Ausführlicher erklärt wird dies in meiner Arbeit… :-)

Quelle: http://hsc.hypotheses.org/328

Weiterlesen

Ab wann sehen Babys dreidimensional?

Die Fähigkeit zur Tiefenwahrnehmung entsteht im ersten Lebensjahr. Dies zeigen zahlreiche Studien mit den unterschiedlichsten experimentellen Anordnungen (z.B. Gibson & Walk, 1960; Kellman & Arterberry, 2006). Wann genau entwickelt sich die Fähigkeit zur Tiefenwahrnehmung? Wir erforschen in unserem Projekt die … Weiterlesen

Quelle: http://babyvision.hypotheses.org/112

Weiterlesen

Wie sehe ich, was das Baby sieht?


Was sehen Säuglinge im ersten Lebensjahr?

Wie können wir das wissen, wenn wir sie nicht fragen können?
Mit der letzten Frage haben sich zum Glück schon einige intensiv beschäftigt, sodass wir auf verschiedene häufig eingesetzte Methoden zurückgreifen können, um an den Antworten zur ersten Frage zu arbeiten.
Da wir die kleinen Studienteilnehmer nicht fragen können, beobachten wir ihr Blickverhalten.

Es gibt verschiedene Methoden, um das Blickverhalten von Säuglingen zu beobachten und zu beurteilen. Vorgestellt werden die Methoden, die wir in unseren Studien einsetzen. Wir beurteilen die natürliche Präferenz für bestimmte Bilder und Objekte oder folgen dem Ansatz der Habituations-Dishabituationsmethode.

Der grundlegende Aufbau für unsere Studien sieht so aus, dass das Baby auf dem Schoß der Mutter sitzt und auf einen Monitor schaut. Oberhalb des Monitors befindet sich eine Kamera, die das Gesicht des Kindes aufzeichnet. Auf unserem Kontrollbildschirm können wir somit zeitgleich die Blickbewegung des Kindes aufzeichnen und auswerten. Wir messen immer einmal live während der Untersuchung und später misst ein anderer Mitarbeiter die Blickzeiten mithilfe des aufgezeichneten Videos. Diese Messung dient der Bestimmung der Interraterreliabilität, der Messgenauigkeit unabhängig vom Versuchsleiter.

Ein Durchgang besteht immer aus einem attention getter und einem Testbild. Frei nach dem Prinzip „alles, was sich bewegt und Geräusche macht, zieht die Aufmerksamkeit von Babys auf sich“ zeigen wir ihnen ein sich drehendes buntes Bild, das alle acht Sekunden ein klingelndes Geräusch macht. Sobald wir die Aufmerksamkeit des Babys gewonnen haben, zeigen wir ihm unser Testbild, das entweder zwei gleiche oder zwei verschiedene Bilder anbietet, die jeweils zentriert auf der linken oder rechten Bildschirmhälfte positioniert sind.

Beurteilung der natürlichen Präferenz

Der Ansatz der natürlichen Präferenz geht davon aus, dass Babys bestimmte Bilder oder Objekte lieber anschauen als andere. Dem Baby werden hierfür in der Regel zwei Bilder gleichzeitig angeboten. Dies kann beispielsweise ein natürliches Gesicht gegenüber einem künstlichen sein oder verschiedene Muster.

Es wird beobachtet, welches spontan und länger angeschaut wird. Wir verwenden hierfür zwei verschiedene Messmethoden: Messung der Blickzeiten (Fantz, 1958; Valentine, 1914) oder die Messung der spontanen Präferenz (Berlyne, 1958; Marsden, 1903; Teller, 1997).

Ein Ziel unserer Studien ist, diese Methoden miteinander zu vergleichen.

Messung der Blickzeiten (CNP):

Bei der Messung der Blickzeiten werden zwei Bilder gleichzeitig präsentiert. In unseren Studien erfolgen vier Testdurchgänge mit denselben Bildern, wobei die Position der Bilder ausgetauscht wird.

Die Blicke des Babys werden kontinuierlich durch den Versuchsleiter erfasst. Es wird permanent entschieden, ob das Baby das rechte, das linke oder keines der beiden Bilder anschaut. Die Messung bricht ab, sobald für insgesamt zehn Sekunden die Bilder angeschaut worden sind. Für die Datenauswertung wird die Anblickzeit für eines der beiden Bilder über beide Testdurchgänge relativiert an der Gesamtanblickzeit berücksichtigt.

Spontane Präferenz (FPL):

Bei dieser Methode werden ebenfalls zwei Bilder gleichzeitig präsentiert. Allerdings erfolgen hier im Gegensatz zur CNP-Messung 24 Testdurchgänge. Es wird in jedem Durchgang dasselbe Bildpaar gezeigt, die Position des Paares wechselt randomisiert. Maximal dreimal hintereinander erscheint die Paarung an derselben Position.

Der Versuchsleiter entscheidet in jedem Durchgang, welches der beiden Bilder spontan vom Baby präferiert wurde. Hierfür hat er maximal zehn Sekunden Zeit. Zeigt das Baby keine eindeutige Präferenz oder ist der Versuchsleiter unsicher, läuft die Zeit ohne Urteil ab. Kriterien für die Beurteilung sind z.B. die Richtung des ersten Blicks, das Aufreißen der Augen und die jeweiligen Anblickzeiten der beiden Bilder.
Für die Datenauswertung wird ein relativer Präferenzscore gebildet, der angibt, wie oft das Kind den Testreiz präferiert.

Erfolgreiches Langweilen und Orientierungsreaktion

Einen anderen Ansatz verfolgt die Habituations-Dishabituationsmethode (Fantz, 1964; Saayman, Ames & Moffett, 1964). Ein Baby ist grundsätzlich neugierig auf alles, was neu ist. Wird ihm immer wieder dasselbe gezeigt, verliert es das Interesse. Diese Eigenschaften nutzen wir, indem wir das Experiment in zwei Phasen einteilen, die Gewöhnungsphase (Habituation) und die Orientierungsphase mit einem neuen Bild (Dishabituation).

Über maximal 15 Durchgänge hinweg zeigen wir den Kindern genau dasselbe Bild auf der linken und der rechten Seite des Monitors. Der Versuchsleiter beobachtet, ob das Kind sich eines der beiden Bilder anschaut oder nicht. Schaut es zwei Sekunden lang weg, bricht der Durchgang ab. Auch wenn das Kind über eine Minute lang beide Bilder anschaut, bricht der Durchgang ab.

Zur Beurteilung, ob das Baby erfolgreich gelangweilt wurde, werden die Anblickzeiten der ersten drei Durchgänge aufaddiert und mit den Anblickzeiten der jeweils letzten drei Durchgängen verglichen. Sobald das Baby in den letzten drei Durchgängen insgesamt nur noch halb so lange geschaut hat wie in den ersten drei Durchgängen, gilt es als erfolgreich gelangweilt. Es hat habituiert.

Wir beenden die Habituationsphase und starten die Dishabituationsphase. Hier wird eines der beiden Bilder durch ein neues ersetzt. Das neue Bild erscheint in zwei Durchgängen jeweils einmal auf der linken und einmal der rechten Bildschirmhälfte. Gemessen wird jetzt nach der CNP-Methode.

Dishabituiert das Baby? Entdeckt es das neue Bild und interessiert sich dafür?

Literatur

Berlyne, D.E. (1958). The influence of albedo and complexity of stimuli on visual fixation in the human infant. British Journal of Psychology, 49, 315-318.
Fantz, R.L. (1958). Pattern vision in young infants. Psychological Record, 8, 43-47.
Fantz, R.L. (1964). Visual experience in infants: Decreased attention to familiar patterns relative to novel ones. Science, 146 (3644), 668-670.
Marsden, R.E. (1903). Discussion and apparatus. A study of the early color sense. Psychological Review, 10, 37-47.
Saayman, G., Ames, E. W. & Moffett, A. (1964). Response to novelty as an indicator of visual discrimination in the human infant. Journal of Experimental Child Psychology,1 (2), 189-198.
Teller, D.Y. (1997). First glances: The vision of infants. The Friedenwald Lecture. Investigative Ophthalmology & Visual Science, 38 (11), 2183-2203.
Valentine, C.W. (1914). The colour perception and colour preferences of an infant during its fourth and eighth months. British Journal of Psychology, 6, 363-386.

Quelle: http://babyvision.hypotheses.org/70

Weiterlesen

Digital Humanities 2014 Lausanne

…schon wieder vorbei…

Der mit grosser Kelle angerührte und professionel durchgeführte Anlass vom 7-12 Juli 2014 hat über 700 Personen aus aller Welt nach Lausanne gelockt. Ein umfangreiches Programm bot den Teilnehmern sehr viele Möglichkeiten zum Wissensaustausch und persönlichem Kontakteknüpfen.

Gedanken zu zwei von mir besuchten Workshops:

Leveraging Web Archiving Tools for Digital Humanities Research and Digital Exhibition

(Mo, 9-12)

Der von Scott Reed Der von Scott Reed (von archive.org) geleitete Workshop behandelte die wichtigsten Fakten zu archive.org, Erklärungen zum Anlegen eines Webarchives sowie das selbständige Erstellen eines solchen durch die Teilnehmer.Meine Test-Webseiten umfassten pastperfect.univie.ac.at (interaktive Webseite zu), pennystocks.la/internet-in-real-time (sich alle paar Sekunden selbst aktualisierende Webseite mit Fakten über das Internet), parlamentsgeschichte.ch (interaktive Webseite zur Geschichte der Schweizer Parlamente und historypin.com (kollaborative Webseite zur Erstellung von Geschichtsschnippseln auf einer Landkarte). Mein Ziel war es herauszufinden, wie dynamischer Content archiviert werden kann (wenn überhaupt).Der Anfangsverdacht wurde bestätigt, dass interaktive Webseiten (v.a. mit javascript oder datenbankbasiert) sehr schlecht oder gar nicht archiviert werden können. Scott Reed bestätigte dies und merkte an, dass archive.org daran arbeitet diese Lücke zu schliessen. Es wird aber kaum je möglich sein alle verschiedenen Formate, Strukturen etc einer Webseite 1:1 zu archivieren.Dieses Problem hat schon Niels Brügger formuliert. Seiner Ansicht nach (und ich pflichte ihm bei), ist es nicht möglich ein Dokument des Internets zu archivieren, sondern nur ein Dokument über das Internet. Bspw. stellt eine archivierte Webseite durch fehlende Verlinkungen oder ‘willkürlich’ eingebettete externe Elemente etwas dar, das es so nie gegeben hat oder nur für diesen einen Betrachter. Siehe: Brügger, Niels: Archiving Websites. General Considerations and Strategies, Aarhus 2005.

Fazit: Ein guter Einblick wie Webseiten archiviert werden (können oder eben auch nicht).

Sharing digital arts and humanities knowledge: DARIAH as an open space for dialogue

(Di, 9-16)

Der sehr interaktive Workshop zu DARIAH hatte zum Ziel die Anforderungen von Forschenden an eine digitale Forschungsumgebung zu definieren und zu priorisieren. Die Workshop-Leiter (u.a. Sally Chambers, Emiliano Degl’Innocenti und Stefan Schmunk von DARIAH) versuchten aus den Diskussionen mit den Teilnehmern herauszukristalisieren, welche nächsten Schritte das Projekt DARIAH unternehmen soll, um genau diesen Anforderungen gerecht zu werden.

Wichtig war den Teilnehmern vor allem, dass eine Plattform für den Wissensaustausch zur Verfügung steht (Infrastruktur auch als Interaktion begreifen) und dass eine Übersicht über bestehende Tools geboten wird.

Quinn Dombrowski stellte  in einem kurzen Vortrag zwischendurch das Projekt Bamboo vor (eingestellt) und versuchte den Teilnehmern Tips für solche Projekte weiterzugeben. Auch DARIAH kann von den gemachten Erfahrungen profitieren, besonders was den frühen Austausch mit potentiellen Nutzern und die Kommmunikation mit allen involvierten Personen und Institutionen betrifft. Auf ihrer Webseite bietet sie eine umfangreiche Dokumentation über das Projekt.

Fazit: Ein guter Einblick über die Möglichkeiten und Zukunft von DARIAH. Was die Forschungsumgebung im Hinblick auf Quellenkritik bietet, muss untersucht werden.

Digital Humanities 2014 Lausanne
The program of the DH Conference from 7th to 12th july 2014 offered a wide variety of possibilities for exchange of knowledge and meeting a lot of interesting people. Two workshops were very interesting: web archiving and DARIAH. In the first workshop, my suspicion was confirmed, that interactive content of websites can’t be archived. In the second one, I learnd about the aims of DARIAH and had a very interactive time with the participants.

Quelle: http://hsc.hypotheses.org/299

Weiterlesen

Lernst du noch oder spielst du schon?

Games, Gamification, Serious Games – Spiele als Bereicherung der Hochschullehre Spiele in der Hochschullehre erschienen mir schon vor dem Seminar als gewinnbringende Möglichkeit, die eigene Lehre zu bereichern. Tabu habe ich beispielsweise schon selbst in meinen Lehrveranstaltungen eingesetzt. Die umfangreichen Potentiale und Einsatzmöglichkeiten von Spielen in der Hochschullehre waren mir bisher jedoch unklar. In dem zweitägigen Workshop “Games in Higher Education” bot sich mir endlich die Gelegenheit, diese Lücken zu füllen und die Anwendung verschiedener Spiele für die eigene Lehre zu durchdenken. Auf die […]

Quelle: http://medienbildung.hypotheses.org/5474

Weiterlesen

Fünf Fragen an … Laurent Hablot (Poitiers)

Herr Hablot, vielen Dank, dass Sie sich bereit erklärt haben, ein Interview mit uns für die Veranstaltungshomepage zu führen. Wir sind die Mitglieder des Kurses von Herrn Hiltmann. In diesem Kurs beschäftigen wir uns mit den Themen der Veranstaltungsreihe. Wie … Continue reading

Quelle: http://jeunegen.hypotheses.org/1191

Weiterlesen

Fünf Fragen an …Nelly Labère (Bordeaux)

Guten Abend Frau Labère und vielen Dank für Ihren interessanten Vortrag. Wir sind Studenten aus dem Seminar von Herrn Hiltmann, indem wir uns mit verschiedenen Aspekten der französischen Geschichtsforschung beschäftigen. Im Rahmen dieses Interviews möchten wir Ihnen gerne ein paar … Continue reading

Quelle: http://jeunegen.hypotheses.org/1140

Weiterlesen

Zentrale Texte I. Jörg Rogge: “Nur verkaufte Töchter?” (2002)

Im Jahr 2002 veröffentlichte der Mediävist Jörg Rogge einen programmatischen Aufsatz mit dem Titel „Nur verkaufte Töchter?“, in dem er die Möglichkeiten für eine Sozial- und Kulturgeschichte hochadeliger Frauen auslotet. Mit seinem Titel überspitzt Rogge die Überschrift eines früheren Textes von Katherine Walsh, die noch etwas vorsichtiger formuliert hatte (s. Walsh 1991). Er bleibt aber nicht bei dieser kosmetischen Veränderung stehen, sondern führt dezidiert die Schwächen der üblichen Forschungsansätze aus. Rogge beklagt insbesondere, dass in den meisten Studien zu (hoch)adeligen Frauen die jeweilige sozialhistorische oder geschlechtergeschichtliche Perspektive nicht überschritten wird. So habe jede der beiden tonangebenden Forschungsrichtungen in der jeweils anderen ihren blinden Fleck. Die Geschlechtergeschichte vernachlässige die ständische Dimension der weiblichen Lebenswirklichkeit, während die sozialhistorisch geprägte Adelsgeschichte all zu oft die „Folgen der Geschlechterdifferenz“ (Rogge 2002:243) unterschätze.

Blinde Flecken

Rogges Überlegungen zeigen die Schwächen der Forschung auf. Dadurch, dass die Adelsforschung bisher vor allem die rechtlich-politische Dimension in den Blick genommen hat (Heiratspoltik, Ehe- und Erbverträge u.ä.), vergass man, die Frauen als Akteure wahrzunehmen, die über eigene Handlungsspielräume geboten. Deshalb, so Rogge, sei über das adelige Eheleben auch so wenig bekannt. Auf der anderen Seite ignorierte die Geschlechterforschung hochadelige Frauen lange Zeit (man war wohl .zu sehr damit beschäftigt, andere soziale Gruppen zu untersuchen). Als dieser Ansatz dann aufgegriffen wurde, untersuchte man adelige Damen vor allem „entlang der Geschlechterachse anhand von biologisch-biographischen Konstanten“ (ebd. 242), beschränkte sich also bewusst auf ganz bestimmte Lebensabschnitte und Rollen (insbesondere die Trias Tochter / Ehefrau / Witwe), was bedauerlicherweise die Aussagen über weibliche Lebensführung verzerrte. So ist etwa der Schluss, dass erst das Leben als Witwe für adelige Frauen eine emanzipierte Existenz ermöglichte, bei näherem Hinsehen unhaltbar.

Doing gender

Dann zieht Rogge die Konsequenzen aus seinem Befund und entwickelt gleichsam sein eigenes Forschungsprogramm am Beispiel der vormodernen Fürstin, das sich wie ein Leitfaden liest und deshalb von besonderem Nutzen für den Leser ist. Er tritt dabei mit dem Anspruch an die Forschung heran, die unsystematische und selektive Untersuchung prominenter Einzelpersonen zu überwinden, um systematisch und multiperspektivisch ein Quellenkorpus auszuwerten. Zentrales Moment seiner Ausführungen ist das Konzept des „doing gender“ (stark gemacht u.a. von Bea Lundt, vgl dies. 1998). Geschlecht entsteht erst in der Interaktion eines Individuums mit seiner gesellschaftlichen Umwelt. Es ist kein starrer, überzeitlicher Gegensatz, sondern ein Produkt „gesellschaftlicher Zuweisung und subjektiver Aneignung“ (Rogge 2002:242). Rogges Anspruch und sein methodisch-theoretischer Ansatz zielen darauf, die Lebenswelt einer Fürstin umfassend zu untersuchen, um die Lebensführung und Handlungsspielräume bestimmenden Faktoren zu isolieren. Damit will er der bisherige Tendenz entgegen steuern, adelige Frauen über Zwang, Unselbstständigkeit, gar Unterdrückung zu definieren.

Ein praktischer Leitfaden

Vier Perspektiven sind deshalb zu berücksichtigen. Erstens der materielle Rahmen der Lebensführung. Also finanzielle Ausstattung bei der Hochzeit durch die Mitgift, Einkünfte, finanzielle Möglichkeiten der dynastischen Repräsentation (Kleidung, Schmuck, Feste usw.), aber auch Wohnsituation, Dienerschaft u.a. Zweitens geht es darum, die gesellschaftlichen Normen, Diskurse und Leitbilder im Hinterkopf zu behalten, die ja das Rollenbild und das Rollenverständnis einer Fürstin maßgeblich prägen. Die dritte Perspektive ist die der sozialen Praxis, fokusiert also ganz besonders auf die adeligen Akteure. Im Mittelpunkt des Interesse stehen hierbei natürlich der Ehemann und die anderen Familienmitglieder. Viertens und abschließend lohnt es sich, auf das Innere der Fürstinnen zu blicken. Wenn passende Quellen, wie Schreibkalender, Tagebücher oder aussagekräftige Briefe, vorhanden sind, dann erfährt man so einiges über die subjektiven Erfahrungen und Wahrnehmungsmuster der Frauen, deren Reaktionen und Deutungen auf konkrete Ereignisse.

Ganzheitlich vs. spezifisch

Rogges vielschichtiger Aufsatz macht sehr deutlich, dass man adelige Frauen als Akteure ernst nehmen muss. Um akteurszentriert zu arbeiten muss man freilich die Quellenbasis erweitern. Dabei nicht den Überblick zu verlieren und gezielt historische Vorarbeit einzubeziehen, ist eine Kunst für sich. Ganzheitliches wie mikrohistorisches Arbeiten ist aufwändig. Aber, gerade das unterstreicht Rogge, gerade im Forschungsfeld ‚adelige Frau‘ ist es die Mühe wert und man wird mit neuen, faszinierenden Erkenntnissen belohnt. Natürlich, das soll hier einschränkend gesagt sein, haben eingeschränkte, spezifische Fragestellungen und Zugänge weiterhin ihre volle Berechtigung. Nicht umsonst lernt man bereits im Proseminar, dass der Historiker, die Historikerin den Gegenstand einzugrenzen hat, damit sinnvolles Arbeiten möglich wird. Rogges Verdienst ist es, die Probleme und Lücken aufgezeigt zu haben, die durch Einseitigkeiten entstehen. Sein ganzheitlicher Gegenansatz schwebt aber nicht im luftleeren Raum, sondern er fügt ihm im zweiten Teil seines Aufsatzes Überlegungen an, die einen hilfreichen Leitfaden bilden. Hier überlegt Rogge auch, welche Quellengattungen für sein Forschungskonzept besonders aussagekräftig sind. Und er diskutiert, gleichsam zur methodologischen Absicherung soziologische Rollen- und Identitätstheorien und ihr Anwendungspotenzial für die Geschichtswissenschaft. Diese beiden letztne Aspekte verdienen freilich jeweils einen eigenen Beitrag und werden deshalb später einmal ausgeführt.

Literatur

Bea Lundt: Frauen- und Geschlechtergeschichte, in: Geschichte. Ein Grundkurs, hrsg. v. Hans-Jürgen Goertz, Reinbek 1998, S. 579–597.

Jörg Rogge: Nur verkaufte Töchter? Überlegungen zu Aufgaben, Quellen, Methoden und Perspektiven einer Sozial- und Kulturgeschichte hochadeliger Frauen und Fürstinnen im deutschen Reich während des späten Mittelalters und am Beginn der Neuzeit, in: PRINCIPES. Dynastien und Höfe im späten Mittelalter. Interdisziplinäre Tagung des Lehrstuhls für allgemeine Geschichte des Mittelalters und Historische Hilfswissenschaften in Greifswald in Verbindung mit der Residenzen-Kommission der Akademie der Wissenschaften zu Göttingen vom 15.-18. Juni 2000, hrsg. v. Cordula Nolte u.a., Stuttgart 2002 (= Residenzenforschung XIV), S. 235-276.

Katherine Walsh: Verkaufte Töchter? Überlegungen zu Aufgabenstellung und Selbstwertgefühl von in die Ferne verheirateten Frauen anhand ihrer Korrespondenz, in: Jahrbuch des Vorarlberger Landesmuseumsvereins 135 (1991) S. 129-144.

Quelle: http://edelfrauen.hypotheses.org/88

Weiterlesen

Methodenworkshop »Techniken der digitalen Edition für die historisch arbeitenden Textwissenschaften«

  • Veranstalter: Leibniz-Institut für Europäische Geschichte (IEG, http://www.ieg-mainz.de/) und DARIAH-DE (http://de.dariah.eu)
  • Ort: Leibniz-Institut für Europäische Geschichte, Alte Universitätsstraße 19, 55116 Mainz
  • Beginn: 29. Januar 2014, 14.00 Uhr
  • Ende: 30. Januar, 13.00 Uhr

Die Vorrangstellung der Informationsstrukturierung und -vermittlung in Form gedruckter Bücher hat durch den Übergang von traditionellen hin zu neuen, digitalen Formen der Erschließung und Repräsentation von Texten an Bedeutung verloren. Zunehmend lösen digitale Texte die »klassischen« Medien ab. Infolge dieser Entwicklung wird vom Wissenschaftsrat in seinen publizierten Empfehlungen zu »Forschungsinfrastrukturen in den Geistes- und Sozialwissenschaften« empfohlen, »sich nachhaltig für einen Ausbau forschungstauglicher Digitalisierungen« einzusetzen; auch auf wissenschaftspolitischer Ebene können die Vorteile der digitalen Erschließung und Aufbereitung als unbestritten gelten.

Vor diesem Hintergrund und den daraus resultierenden vielfältigen Möglichkeiten der Digital Humanities möchte der vom IEG im Rahmen von DARIAH-DE (gefördert vom Bundesministerium für Bildung und Forschung) organisierte Workshop Grundlagen, Methoden und Techniken von Digitalen Editionen für die historisch arbeitenden Textwissenschaften vermitteln und bereits vorhandene Lösungsansätze und -szenarien mit den Teilnehmern diskutieren. Der Methodenworkshop ist Teil einer Veranstaltungsreihe von DARIAH-DE, die in Kooperation mit Partnerinstitutionen mit unterschiedlichen geisteswissenschaftlichen Schwerpunkten durchgeführt werden.

Der Methodenworkshop nimmt thematisch die Forderung nach dem Ausbau forschungstauglicher Digitalisierungen in Form von »digitalen Editionen« auf. Digitale Editionen sollen dabei das klassische Editionskonzept nicht verwerfen, sondern ergänzen, weil auch dort das Ergebnis der Arbeit darin bestand, mehrere Schichten von Informationen (z.B. in Form von Erläuterungen, inhaltlichen Anmerkungen, Angaben von Textvarianten, bibliographischen Angaben usw.) zu einem Text zu sammeln, zu systematisieren und dem Nutzer in Form eines abgeschlossenen Werks zur Verfügung zu stellen. Mit anderen Worten, beim klassischen Editionsmodell handelt es sich bereits um einen Hypertext. Die Schichtenstruktur klassischer Editionen lässt sich digital leichter – und konsequenter – abbilden. Dabei können viele Beschränkungen des konventionellen Buchdrucks überwunden werden, insbesondere diejenigen, die die materielle Überlieferung betreffen (visuelle Wiedergabe des Textes, Informationsumfang). Gleichzeitig kommen ganz neue Möglichkeiten hinzu wie Mehrdimensionalität und Modifizierbarkeit.

Der Methodenworkshop widmet sich konkret der Frage: Was bedeutet Digitalisierung im Kontext historischer Editionen? Wo müssen Schwerpunkte gesetzt werden, um aus komplexen Textstrukturen digitale Objekte zu erzeugen? Und vor allem: Wie müssen diese Textstrukturen aufbereitet werden, um aus ihnen eine digitale Edition zu formen?

Eine grundlegende Technik zur Erstellung von Digitalen Editionen bilden die Auszeichnungsstandards der Text Encoding Initiative (TEI). TEI wurde als XML-basierte Auszeichnungssprache speziell für die Zwecke der Geisteswissenschaften konzipiert und stellt mittlerweile einen De-facto-Standard für die wissenschaftliche Textkodierung dar, die wiederum als Grundlage für die Aufarbeitung von Texten zu betrachten ist.

Im Rahmen des Workshops werden Grundkenntnisse im Bereich der Textkodierung mit XML/TEI, der Weiterverarbeitung XML-kodierter Daten sowie ihrer Aufbereitung vermittelt, die  als Grundlage für die Erstellung von digitalen Editionen dienen.

Am ersten Tag werden zunächst die Grundlagen von Konzeption und Planung digitaler Ausgaben an zwei konkreten Editionsprojekten (Briefedition Alfred Escher & Kritische Online-Edition der Nuntiaturberichte von Eugenio Pacelli 1917–1929) erläutert. Ausgehend davon können unterschiedliche Konzepte digitaler Editionen diskutiert sowie der jeweils damit verbundene Aufwand und die Anwendbarkeit für verschiedene editorische Fragestellungen/Bedürfnisse thematisiert werden.

Am zweiten Tag sollen sich die Teilnehmer, nach einer knappen allgemeinen Einführung in XML, anhand von kleinen Übungen in die Praxis der Textauszeichnung mit TEI einarbeiten und einen Überblick über die Bedeutung und die verschiedenen Module dieser Sprache erhalten. Vordergründiges Ziel dieser »hands-on session« ist es, die Teilnehmer zum selbstständigen Umgang mit den TEI-Guidelines anzuleiten, um ihnen so ein Werkzeug in die Hand zu geben, mit dem sie später im Rahmen ihrer Projekte selbst arbeiten können.

Der Methodenworkshop ‘Techniken der digitalen Edition für die historisch arbeitenden Textwissenschaften’ richtet sich an alle historisch arbeitenden Textwissenschaftler und möchte insbesondere Nachwuchswissenschaftler (Doktoranden und Post-Doktoranden), aber auch Forscher ansprechen, die sich in ihrem Forschungsalltag und in aktuellen Projekten mit Themen der Planung und Erstellung von Digitalen Editionen beschäftigen.

Um einen reibungslosen Ablauf zu gewährleisten, werden die Teilnehmer gebeten, ihre eigenen Notebooks mitzubringen, so dass gemeinsam anhand von Beispieldaten einige Tools und Anwendungsszenarien getestet werden können. Es besteht ferner die Möglichkeit, dass die Teilnehmer vor Workshopbeginn Daten aus ihren eigenen Forschungsprojekten einreichen, um mithilfe dieser Daten exemplarische Erfassungsprobleme thematisieren und Anwendungsoptionen diskutieren zu können.

Das ausführliche Programm des Workshops, weiterführende Informationen und ggf. weitere Aktualisierungen werden auf www.staff.uni-mainz.de/marcuhel/methods2014 veröffentlicht.

Die Teilnehmerzahl ist auf 20 begrenzt.

Bewerbungen zur Teilnahme am Workshop sind ab sofort bis zum 18. Dezember 2013 möglich. Eine verbindliche Einladung erfolgt am 20. Dezember 2013.

Für die Bewerbung senden Sie bitte eine E-Mail mit einem kurzen Lebenslauf und einem kurzen Motivationsschreiben (jeweils max. eine Seite) an: aurast@ieg-mainz.de und held@ieg-mainz.de.

Bei inhaltlichen oder organisatorischen Rückfragen wenden Sie sich bitte an:

Quelle: http://dhd-blog.org/?p=2626

Weiterlesen