Quellengattungen – neues Schema nötig?
Heutzutage haben es die (Geistes-)Wissenschaftler nicht mehr nur mit physischen oder oralen Objekten zu tun, sondern in zunehmendem Masse mit digitalen. Diese neuartigen Objekte unterscheiden sich ganz klar von den bisher bekannten und verwendeten. Dazu sei auf den Beitrag von Catherina Schreiber verwiesen, welcher zusammenfasst, was eine digitale Quelle (‘born digital source’) definiert. Eine solche ist genuin digital, multimodal und –dimensional, veränderbar, prozessorientiert sowie zeitlich und räumlich unabhängiger. Zudem kann sie für einen grösseren Umfang an quantitativen und qualitativen Analysen verwendet werden.
Es ist zu klären, ob digitale Quellen in das Gattungsschema eingefügt werden können, oder ob eine weitere Gattung zu definieren ist. Bernheim definierte: “Tradition ist alles, was von den Begebenheiten übriggeblieben ist, hindurchgegangen und wiedergegeben durch menschliche Auffassung; Überreste sind alles, was unmittelbar von den Begebenheiten erhalten geblieben ist.” Tradition ist demnach willkürlich, ein Überrest unwillkürlich überliefert. Eine solch strenge Unterteilung ist jedoch vielfach nicht möglich, weil je nach Fragestellung ein Objekt als Überrest oder als Tradition gelten kann (bspw. ein schriftliches Dokument).
Die Einordnung von digitalen Objekten in dieses Schema ist schwierig, da grosse Unterschiede zu den aufgeführten Objekten bestehen: sie sind genuin digital, also virtuell (vs. physisch), veränderbar und dynamisch (vs. statisch) und prozessorientiert (vs. funktionsorientiert). Zudem entspricht eine Kopie exakt dem Original und kann von diesem nicht unterschieden werden. Mit Ausnahme der Überreste im engeren Sinne, können digitale Objekte allen Gattungen zugeordnet werden.
Im traditionellen Schema können einzelne Objekte nicht genau zugeordnet werden. Jedoch ist es möglich, digitale Objekte von physischen eindeutig zu unterscheiden, vor allem aus dem Blickwinkel der dem Objekt immanenten Flüchtigkeit und Dynamik. Von diesem Ansatz ausgehend, könnte das Schema nach der Materialität des Objektes neu aufgebaut werden:
Auch die mündlichen Quellen werden hier der virtuellen Gattung zugeordnet, da die Rezeption von Mensch zu Mensch erfolgt und deshalb niemals gleich bleibt.
Dieses Schema kann auch die in der Quellenbeschreibung zu beantwortenden Fragen nach der Überlieferung (mit Fund- oder Aufbewahrungsort), des äusseren Erhaltungszustandes und der Lesbarkeit abbilden – die virtuellen Quellen grenzen sich auch hier von den physischen durch die elektronische Speicherung (Binärcode auf Datenträgern) klar ab.
Source classification – new framework necessary?
Because digital sources are very different from the physical ones, maybe we have to draw a new classification table for our sources. One possibility is to replace the terms ‘remains’ and ‘tradition’ with ‘physical’ and ‘virtual’, because this would show the volatility and dynamics of an object. Furthermore the difference between remains and tradition is very small and it depends on the perspective of an approach.
Quelle: http://hsc.hypotheses.org/146
Über die Kartierbarkeit der Geschichte: Anne Kelly Knowles und Historical GIS.
Tony Horwitz: Looking at the Battle of Gettysburg Through Robert E. Lee’s Eyes. In: Smithsonian magazine. Dec. 2012. URL: http://www.smithsonianmag.com/history-archaeology/Looking-at-the-Battle-of-Gettysburg-Through-Robert-E-Lees-Eyes-180014191.html?c=y&story=fullstory
Kernfrage: Welche Rolle können GIS (=Geographic Information Systems)-Verfahren für die Analyse historischer Fragestellungen spielen?
In der Dezember-Ausgabe des Smithsonian Magazine berichtet Tony Horwitz über die Arbeit von Anne Kelly Knowles. Die Geographin erhielt dieses Jahr den Smithsonian Ingenuity Award im Bereich Historical Scholarship und zwar offensichtlich vor allem deshalb, weil sie eine Vorreiterfunktion im Bereich des Einsatzes Historical Geographic Information Systems (HGIS) übernahm. Dabei benutzt man für die Kartographie entwickelte Technologien buchstäblich zum Mapping historischer Ereignisse bzw. Strukturen. Bekannte Beispielanwendungen finde sich im Great Britain Historical Geographical Information System (GBHGIS) oder auch bei HGIS Germany.
Die Digitalisierung historischer Landkarten und das verortende Auftragen von Bezugspunkten (=georeferencing) ermöglicht es, bestimmte Sachverhalte in gewisser im Raum in ihrem Verlauf abzubilden. Die Abbildung der Entwicklung von Grenzverläufen ist da nur ein sehr nahe liegendes Beispiel. Spannend wird es, wenn diese spatiale Dimension mit möglichst konkreten historischen Fakten in Beziehung gesetzt wird. Und Anne Kelly Knowles wird konkret:
“In this instance, she wants to know what commanders could see of the battlefield on the second day at Gettysburg. A red dot denotes General Lee’s vantage point from the top of the Lutheran Seminary. His field of vision shows as clear ground, with blind spots shaded in deep indigo. Knowles has even factored in the extra inches of sightline afforded by Lee’s boots. “We can’t account for the haze and smoke of battle in GIS, though in theory you could with gaming software,” she says.” (Hervorhebung und Einbettung des Links: BK)
Welche Fragestellung man über die Kombination diverser Parameter tatsächlich sinnvoll bearbeitet, hängt selbstverständlich von dem jeweiligen Forschungsgegenstand und -ansatz ab. Deutlich wird jedoch das Potenzial beispielsweise für eine empirische Gegenprüfung überlieferter Quellen. Die Wissenschaftlerin spricht selbst von einer korrektiven Funktion des Mappings. So ermöglicht der Einsatz derartiger Technologien eine neue Perspektive auf bekannte Themen und in gleicher Weise das Aufwerfen von neuen Fragestellungen sowie, drittens, generell neue Möglichkeiten zur Formulierung von Forschungsfragen.
Das Verfahren selbst ist auch eine Art Kombination. Im Webkontext würde man vielleicht von Mash-Up sprechen. Tatsächlich waren Mapping-Anwendung wie das Crime Mapping des Los Angeles Police Departments bahnbrechend bei der Popularisierung derartiger Verknüpfungen. Dass sich die Kombination von (a) raumstrukturierender Visualisierung (Stadtpläne, Landkarten) mit (b) Ereignisdaten (hier: Straftaten) sowie zu mit diesen assoziierten qualitativen Ergänzungsdaten (hier: demographische Angaben) und schließlich (c) einer Zeitachse anbietet, um bestimmte Entwicklungen, Häufungen, Regularitäten und Anomalien zu visualisieren, dürfte spätestens seit Google Maps weithin anerkannt sein. Eine entsprechende Datenbasis vorausgesetzt, lässt sich eigentlich alles, was Geographie, Entwicklung in der Zeit und eine qualitative Konkretisierung verbindet, GIS-basiert abbilden – von der Wetterkarte und Vegetationszyklen bis hin zum Schlagloch.
GIS war vor allem aus der Regionalplanung und kommerziellen Kontexten bekannt. Anne Kelly Knowles realisierte relativ früh (die von ihr herausgegebene Sonderausgabe von Social Science History mit dem Thema Historical GIS: The Spatial Turn in Social Science History erschien im Jahr 2000), dass man diese Technologie ebenfalls sehr gut in geschichtswissenschaftlichen Zusammenhängen einsetzen kann:
“I knew there was a GIS method, used to site ski runs and real estate views, and wondered what would happen if I applied that to Gettysburg.”
Eine wichtige Nebenwirkung dieser Art von Empirisierung mittels expliziter Kartographierung könnte – nicht ganz unpassend zur Kartographie – das Erkennen von Grenzen sein. Nämlich von solchen der Erkenntnisreichweite scheinbar stabiler Einschätzungen sowie der Wege, auf denen diese entstehen:
“We can learn to become more modest about our judgments, about what we know or think we know and how we judge current circumstances.”
Als weiterer Effekt droht im Gegenzug die von Skeptikern häufig angemahnte Überbetonung der Muster gegenüber den Inhalten. Visualisierungen sind in der Regel visuell eindrucksvoll, bleiben bisweilen aber zur Frage, was man konkret aus ihnen ablesen kann, erstaunlich opak.
Anne Kelly Knowles ist mit diesem Problem offensichtlich gut vertraut, zumal sie derzeit das HGIS-Prinzip in einem Projekt zur Holocaust-Forschung („a profoundly geographical event” – A.K. Knowles) einsetzt. Sie weiß also um die Schwierigkeit, „of using quantitative techniques to study human suffering.” Entsprechend argumentiert sie mit der gebotenen Vorsicht:
Knowles is careful to avoid over-hyping GIS, which she regards as an exploratory methodology. She also recognizes the risk that it can produce “mere eye candy,” providing great visuals without deepening our understanding of the past.
Und sie erkennt noch eine weitere Herausforderung: Die der Übersetzung von Messungen und gemappten Strukturen in eine erklärende und verständliche sprachliche Abbildungsform:
Another problem is the difficulty of translating complex maps and tables into meaningful words and stories.
Informationsvisualisierung hat gegenüber der Beschreibung den klaren Vorteil einer Informationsverdichtung. Informationswissenschaftlich gilt der Grundsatz, dass ein Bild sehr viel Information (mehr jedenfalls als tausend Worte) jedoch eher wenig Wissen (nach einem informationswissenschaftlichen Wissensbegriff) speichern kann. Dieses Prinzip wird freilich bei der Hinzunahme einer zeitlichen Dimensionen relativiert. Dennoch bleibt es jedenfalls derzeit notwendig, parallel zur graphischen Abbildung im Mustern eine schlussfolgernde Ableitung des Dargestellten in Textform vorzunehmen. Die visualisierte Informationsmenge muss demzufolge auf Aussagen heruntergefiltert bzw. ausgedeutet werden.
Was man folglich aus dem Artikel und der dort wiedergegebenen Position Anne Kelly Knowles’ mitnehmen kann, ist, dass das Mapping historischer Entwicklungen und Ereignisse mittels GIS einerseits vor allem dafür geeignet ist, bekannte Fragestellungen neu zu betrachten und entsprechend möglicherweise empirisch zu validieren. Und andererseits, im exploratorischen Sinn, Zusammenhänge neu erkennbar zu machen. Für beide Anwendungsfälle gilt jedoch (wie eigentlich immer):
“The technology is just a tool, and what really matters is how you use it”
Wobei zur gelingenden Anwendung insbesondere die Befähigung zur historisch sensiblen und sinnvollen Schlussfolgerung und Interpretation zählen dürfte.
P.S. Eine Kurzbescheibung ihrer Arbeit gibt Anne Kelly Knowles in diesem kurzen Clip.
Quelle: http://dhd-blog.org/?p=1165
Ausschreibung: Methodenworkshop Metadaten (DARIAH und IEG Mainz)
Veranstalter: DARIAH-DE (http://de.dariah.eu) & Leibniz-Institut für Europäische Geschichte | IEG (http://www.ieg-mainz.de/)
Ort: Leibniz-Institut für Europäische Geschichte, Alte Universitätsstraße 19, 55116 Mainz
Beginn: 24. September 2012, 13.00 Uhr
Ende: 25. September 2012, 16.00 Uhr
Der Umgang mit Quellen und (Sekundär)-Literatur ist von zentraler Bedeutung für den Forschungs- und Erkenntnisprozess von Historikern und aller historisch arbeitenden Geisteswissenschaftler. In der Erfassung und Erschließung des Quellenmaterials (z.B. Fotografien, Drucke, Manuskripte, Artefakte oder auch Oral-History-Interviews) liegen wesentliche Voraussetzungen, um dieses Material in Bezug auf eine bestimmte Fragestellung problembezogen analysieren zu können. Diese Erschließung mittels beschreibender “Meta”-Daten ist ein zentraler und komplexer Schritt im geisteswissenschaftlichen Forschungsprozess. Zwar liefern Bibliotheken für moderne Forschungsliteratur und für historische Drucke oftmals standardisierte und qualifizierte Beschreibungen. Möchte der Forscher oder die Forscherin aber ein breiteres Spektrum an – ggf. bisher unveröffentlichten – Quellen und Forschungsprimärdaten untersuchen, so können sie oftmals nicht auf bereits vorliegende Metadaten zurückgreifen. Zugleich eröffnen die digitale Erfassung, Speicherung und Nutzung von (neuen oder vorhandenen) Metadaten neue Herausforderungen und Möglichkeiten für die historisch arbeitenden Geisteswissenschaften.
Vor diesem Hintergrund und den daraus resultierenden vielfältigen Möglichkeiten der Digital Humanities laden das Verbundprojekt DARIAH-DE (Aufbau von Forschungsinfrastrukturen für die e-Humanities) gemeinsam mit dem Leibniz-Institut für Europäische Geschichte (IEG) Mainz zu einem “Methodenworkshop Metadaten” ein, der Grundlagen zum Umgang mit Metadaten und deren Verwendung in historisch arbeitenden Geisteswissenschaften vermitteln und bereits vorhandene Lösungsansätze und -szenarien mit den Teilnehmern diskutieren will. Der Methodenworkshop bildet den Auftakt einer Reihe von Veranstaltungen, die DARIAH-DE in Kooperation mit Partnerinstitutionen in den kommenden Jahren mit unterschiedlichen geisteswissenschaftlichen disziplinären Schwerpunkten durchführen wird.
Der Methodenworkshop Metadaten richtet sich an Historiker und andere historisch arbeitende Geistes- und Kulturwissenschaftler und möchte sowohl Nachwuchswissenschaftler (Doktoranden und Post-Doktoranden) als auch erfahrene Wissenschaftler ansprechen, die sich in ihrem Forschungsalltag mit der Erfassung und Analyse von Metadaten, und mit Konzepten der Interoperabilität und Nachnutzung von Forschungsdaten auseinandersetzen bzw. diese Fragen bei zukünftigen Forschungsprojekten stärker als bisher berücksichtigen möchten.
Am Nachmittag des ersten Workshop-Tages wird als einführender Teil in mehreren Vorträgen der Themenkomplex „Metadaten“ aus verschiedenen geisteswissenschaftlichen und technischen Blickwinkeln beleuchtet. So wird hierbei u.a. die Vergabe von Metadaten im Kontext von Forschungsprozessen thematisiert sowie problematisiert, ob disziplinäre bzw. interdisziplinäre Metadatenstandards für spezifische geschichtswissenschaftliche Forschungsfragen und Erkenntnisinteressen anwendbar sind bzw. welche Bedeutung eine standardisierte Erfassung für den Forschungsprozess hat. Darüber hinaus werden der Spannungsbogen geisteswissenschaftliche Forschung und IT sowie das Thema Metadaten unter der Perspektive einer interoperablen und interdisziplinären Nachnutzung diskutiert.
In einem öffentlichen Abendvortrag wird Prof. Dr. Wolfgang Schmale (Universität Wien) zum Thema „Geisteswissenschaften im ‚Digital Turn‘?“ sprechen. Am zweiten Tag werden eine Reihe von anwendungsorientierten Sitzungen die Grundlagen der Anwendung von Metadatenstandards, die Erfassung und Verwaltung von Metadaten, sowie die forschungsorientierte Nutzung von Metadaten vermitteln.
Um einen reibungslosen Ablauf zu gewährleisten, werden die Teilnehmer gebeten, ihre eigenen Notebooks mitzubringen, so dass kollaborativ anhand von Beispieldaten einige Tools und Anwendungsszenarien getestet werden können. Es besteht ferner die Möglichkeit, dass die Teilnehmer vor Beginn des Workshops Daten (Metadaten, Schemata oder Collection Descriptions) aus ihren eigenen Forschungsprojekten zur Verfügung stellen, um mithilfe dieser Daten exemplarische Erfassungsprobleme thematisieren und Anwendungsoptionen diskutieren zu können.
Der Methodenworkshop Metadaten findet unmittelbar vor Beginn des 49. Deutschen Historikertags in Mainz statt, so dass alle Teilnehmer die Möglichkeit haben, unmittelbar nach Tagungsende an den Veranstaltungen des Historikertages teilzunehmen.
Auf der Webseite des Workshops finden Sie das ausführliche Programm des Workshops sowie weiterführende Informationen und ggf. Aktualisierungen. Für die Teilnahme wird ein Unkostenbeitrag von 20 Euro erhoben, der bei Tagungsbeginn zu entrichten ist. Anmeldungen sind ab sofort bis zum 31. August 2012 möglich. Senden Sie hierzu eine E-Mail mit Ihren Kontaktinformationen an: schmunk@ieg-mainz.de
Bei inhaltlichen oder organisatorischen Rückfragen wenden Sie sich bitte an:
Dr. Christof Schöch – Uni Würzburg – christof.schoech@uni-wuerzburg.de und/oder
Dr. des. Stefan Schmunk – IEG Mainz – schmunk@ieg-mainz.de
Quelle: http://dhd-blog.org/?p=700