Neu erschienen: Masterarbeit zur Langzeitarchivierung von Daten in VFUs für die Digital Humanities

Auf dem e-doc-Server der Humboldt-Universität zu Berlin wurde am Montag in der Reihe Berliner Handreichungen zur Bibliotheks- und Informationswissenschaft die Masterarbeit von Silke Baumann zur Frage der Langzeitarchivierung [von Forschungsdaten] innerhalb Virtueller Forschungsumgebungen im Bereich Digital Humanities publiziert. Der Volltext ist über urn:nbn:de:kobv:11-100214018 abrufbar.

Die Autorin befragte dafür GeisteswissenschafterInnen an der Mainzer Universität zu ihrem Datennutzungsverhalten und zu Einstellungen hinsichtlich der Langzeitarchivierung und Langzeitverfügbarhaltung von Forschungsdaten. (Einige der Ergebnisse finden sich auch im LIBREAS-Tumblr zusammengefasst.)

Silke Baumann ermittelt einen großen Bedarf an entsprechenden Lösungen, stellt aber zugleich fest,

“dass es noch nicht viele erfolgreiche Beispiele für Langzeitarchivierung innerhalb von Virtuellen Forschungsumgebungen im Bereich Digital Humanities gibt.” (S. 31)

Die Architektur des TextGrid Repositories wird jedoch immerhin bereits als sinnvolle und zweckmäßige Annäherung bewertet.

Für den Einsatz von Virtuellen Forschungsumgebungen in den Geisteswissenschaften zieht die Autorin den Schluss:

“[Es wäre] zweckmäßig, den WissenschaftlerInnen einen Rahmen anzubieten, innerhalb dessen sie, durch Werkzeuge und Infrastruktur einer Virtuellen Forschungsumgebung unterstützt, ihre Forschungsfragen kollaborativ, orts- und zeitungebunden, bearbeiten können. Durch eine solche Maßnahme könnten die WissenschaftlerInnen nachdrücklich in ihrem Arbeitsalltag entlastet werden. Dabei wäre es empfehlenswert, eine modulare Architektur zu wählen, die die Anpassung an verschiedenste Forschungsprojekte erlaubt. Die Forschungswerkzeuge müssen in enger Zusammenarbeit mit den WissenschafterInnen entwickelt werden, sodass deren Usability und Akzeptanz durch die Nutzenden sicher gestellt werden können.” (S. 58)

Abstract der Autorin:

In der vorliegenden Arbeit wird an einem konkreten Beispiel betrachtet werden, wie wissenschaftliche digitale Kooperation und die langfristige Speicherung der digitalen Daten im Bereich Digital Humanities aktuell umgesetzt werden bzw. welche Wünsche und Ansichten die ForscherInnen diesbezüglich haben. Zu diesem Zweck wurden WissenschaftlerInnen der Johannes Gutenberg-Universität Mainz zur Beantwortung eines Online-Fragebogens eingeladen. Einführend werden die schwer zu greifenden Begriffe Digital Humanities, Virtuelle Forschungsumgebung, Forschungsdaten und Langzeitarchivierung für den Kontext dieser Arbeit definiert. Es wird betrachtet, was prinzipiell die Anforderungen an Virtuelle Forschungsumgebungen, Forschungsdaten und Langzeitarchivierung im Bereich Geisteswissenschaften sind, wie der derzeitige Entwicklungsstand hier ist und welches Angebot eventuell schon existiert. Im Anschluss folgt ein Blick auf einige Vergleichsstudien, der den bisherigen Kenntnisstand zu Data Sharing und Langzeitarchivierung wiedergibt. Zusammen mit den wissenschaftlichen Hintergrundinformationen ist dieser auch Basis für die Hypothesen, die an den Ergebnissen der Befragung verifiziert werden. Nach Erläuterung der Methode und Methodologie der Datenerhebung folgen eine Beschreibung der erhobenen Daten und daraus resultierende Schlussfolgerungen.

Quelle: http://dhd-blog.org/?p=2864

Weiterlesen

Die FAZ zu den Erwartungen an die “Labore der digitalen Geisteswissenschaften”

Im Wissenschaftsteil der heutigen Ausgabe der Frankfurter Allgemeinen Zeitung referiert Moritz Neuffer einige Einsichten der Tagung Collecting Ideas – The Idea of Collecting, die vom 16. bis zum 18. Mai im Literaturarchiv im Marbach stattfand. Er stellt dabei unter anderem auch eine Rolle der Digitalen Geisteswissenschaften heraus:

“Wo Bestände nicht aus der Ferne sichtbar, die Wege ins Archiv weit und teuer sind, werden Zugänge versperrt. Entsprechend hoch sind die Erwartungen an Digitalisierungsprozesse und die Schaffung von neuen Zugangspfaden, wie sie derzeit in den Laboren der digitalen Geisteswissenschaften entwickelt werden.”

Wir befinden uns dabei eindeutig auf der Ebene der Bestandsvermittlung bzw. der Entwicklung von Zugängen über digitale Kanäle. Diese Eröffnung (und die damit verbundene Transformation) der Bestände wirkt, wie Moritz Neuffer anhand eines Tagungsbeitrags von Ronald Schuchard herausstellt, nicht etwa als Substitut für die materiellen Originale sondern weckt vielmehr – jedenfalls nach den geschilderten Erfahrungen – “einen Hunger nach der Präsenzerfahrung von und mit den Quellen.” Die Aura des Originals könnte folglich entgegen mancher gegenteiliger Erwartungen angesichts seiner digitalen Verwandelbarkeit wenigstens als zeitstabil erweisen.

Zu durchdenken bleibt hier weniger das ob und auch nicht so sehr das wie, sondern tatsächlich das Spannungsverhältnis von Medialität, Materialität und der damit verbundenen Lesbarkeit dessen, was in den Infrastrukturen und Analysewerkzeugen der Digitalen Geisteswissenschaften verarbeitet wird. Dazu zählt übrigens auch eine Metareflektion der Bedingungen des Zustandekommens dieser Werkzeuge und Kanäle.

Paraphrasiert Moritz Neuffer den Diskutanten On Barak mit der Aussage:

“Wo sammelnde Institutionen Wissen und kulturelle Erzählungen produzierten, sei es politisch geboten, diese Produktionsverfahren offenzulegen.”

so gilt dies gleichwohl für die Strukturen, die aus dem Digital-Humanities-Umfeld für die geisteswissenschaftliche Arbeit entwickelt werden. Die Festlegung eines Zugangspfades bedeutet unvermeidlich eine Eingrenzung unter bestimmten Bedingungen und lenkt damit die Zugänglichkeit. Für die, die diese Pfade benutzen, ist es ungemein wichtig, zu wissen, was sie auf diesen erreichen können. Und womöglich sogar noch wichtiger, zu wissen, was nicht. Die Aufgabe einer entsprechend spezialisierten STS-Forschung (Science, Technology and Society) liegt aus meiner Aussicht genau darin, diese Offenlegung der Bedingungen hinter den digitalen Zugängen und Werkzeugen als eine Art Begleittext vorzunehmen.

Quelle: Moritz Neuffer: Die guten ins Töpfchen und die schlechten – in ein anderes. In: Frankfurter Allgemeine Zeitung, 05.06.2013, S. N5

Berlin, 05.06.2013 / @bkaden

Quelle: http://dhd-blog.org/?p=1810

Weiterlesen

Datenpublikation und die Rolle der Informationswissenschaft

In seinem Editorial für die aktuelle Ausgabe des Journal of the American Society for Information Science and Technology reflektiert Blaise Cronin, Chefredakteur dieser für die Informationswissenschaft zentralen Zeitschrift, die Rolle von Daten im Publikationsprozess und stellt fest:

„Data are not simply addenda or second-order artifacts; rather, they are the heart of much of the narrative literature, the protean stuff, that allows for inference, interpretation, theory building, innovation, and invention.” (Cronin, 2013)

Für die Digitalen Geisteswissenschaften, die zu großen Teilen darauf basieren, geisteswissenschaftliche Gegenstände und Bezugsmaterialien möglichst feingliedrig in maschinenlesbare Daten umzuwandeln, um sie mit digital grundierten Methoden durchforschbar zu machen, steckt darin wenig Neues. Das Stichwort Datenpublikation, die die Publikation der Erkenntnisse und Schlussfolgerungen begleitet, und die damit verbundenen Standards markieren daher fraglos ein wichtiges Thema auch für die Digitalen Geisteswissenschaften. Diese müssen ebenfalls grundsätzlich das klären, was die Wissenschaftskommunikation aller Disziplinen, bzw. die Akteure, die diese Kommunikationen professionell organisieren, derzeit mehr oder weniger intensiv umtreibt:

(1)    [H]ow data are to be handled and incorporated into the scholarly workflow […]

(2)    [H]ow and under what conditions authors should make their data available for others to validate, replicate, or reuse as they see fit

Cronin befindet sich damit (erwartungsgemäß und per Zitation bestätigt) in Einklang mit den von Christine L. Borgman ebenfalls in JASIST vor knapp einem Jahr formulierten Grundprinzipien für die Verbreitung von Forschungsdaten (Borgman, 2012):

-            To reproduce or to verify research
-            To make the results of publicly funded research available to the public
-            To enable others to ask new questions of extant data
-            To advance the state of research and innovation

Es ist offensichtlich, dass passende wissenschaftliche Standards zum ersten Prinzip vorrangig innerhalb der Community ausgehandelt werden müssen, dass das zweite Prinzip sehr stark mit der generellen Frage von Open Access verwoben ist, dass das dritte Prinzip vor allem wissenschaftsethisch eine weiterführende Forschung auf gemeinsamen Datengrundlagen betont und schließlich der vierte Aspekt etwas allgemeiner die Förderung von Wissenschaft und Innovation an sich als Ziel verfolgt. All das deutet auf einen notwendigen Metadiskurs darüber hin, welchen Sinn die Publikation von Daten haben kann und soll.

Cronin schreibt zutreffend:

„Humanists and social scientists of all stripes are faced with similar challenges relating to image collections, demographic statistics, economic time series data, literary corpora, social media metroics, etc.: To every field its data trove.” (Cronin, 2013)

Gerade weil der Data Turn jede Disziplin ergreift und man sich neue und vielleicht sogar die interessanteren Ergebnisse zukünftig vor allem aus der Wechselbeziehung von Daten aus unterschiedlichen Feldern vorstellen kann, scheint ein interdisziplinärer Dialog zu den Standards der Datenpublikation und –nachnutzbarkeit geboten.

Die Informationswissenschaft (bzw. Bibliotheks- und Informationswissenschaft) versucht sich naheliegend als Vermittlungsdisziplin zu etablieren. Cronin ist beizupflichten, wenn er meint: „we should avoid advocating procrustean policies“, wenn dies disziplinäre Dateninseln oder die Einschränkung der Data Diversity auf sehr restriktive Vorgaben zur Folge hat. Andererseits wird unter anderem hinsichtlich kommender Forschungskonzepte die Frage, wie heterogene Datenbestände direkt aufeinander bezogen werden, metadisziplinär relevant. Dabei geht es tatsächlich nicht um „an airtight set of requirements or a single, mulitpurpose data availability policy.” Wohl aber um eine Verständigung auch zu fachübergreifenden (Nach)Nutzungsmöglichkeiten von Datenbeständen.

Cronin will als Redakteur von JASIST natürlich erst einmal klären, wie Datenpublikation in seiner eigenen Zeitschrift überhaupt aussehen kann. Nichtsdestotrotz sollte man meines Erachtens darüber hinaus und besonders auch aus der Perspektive der Digital Humanities nicht nur dazu reflektieren, wie Datenpublikationsprozesse in den Digitalen Geisteswissenschaften möglichst nach den Prämissen Transparenz und Nachvollziehbarkeit der Forschung, Open Access sowie Nachnutzbarkeit für weitere Forschungen innerhalb eines jeweils konkreten disziplinären Rahmen gestaltet sein sollen. Sondern – angeregt vom vierten Grundprinzip bei Christine L. Borgman – ebenso überlegen, wie sich interdisziplinär auch über die Digital Humanities hinaus möglichst verbindliche Normen zur (auch verschränkten) Nutzung von Datenbeständen entwickeln lassen.

Da das Problem alle gleichermaßen betrifft, wenn auch unterschiedlich ausdifferenziert, könnte man in der jetzigen Frühphase Lösungen, Standards und Empfehlungen kooperativ nicht zuletzt mit der Maßgabe entwickeln, das zukünftige interdisziplinäre Wechselwirkungen direkt unterstützt werden. Die Debatte darum, ob die Digitalen Geisteswissenschaften eine neue Wissenschaftsdisziplin oder eine neuer Methodenbereich sind (vgl. exemplarisch diesen Kommentar von Charlotte Schubert) zeigt meiner Ansicht nach, dass wir die hier entstehenden Forschungsperspektiven ohnehin disziplinär übergreifend denken müssen. An dieser Stelle eröffnet sich nicht zuletzt die Möglichkeit, sich sehr zukunftsgerichtet zu profilieren.

Ich vermute stark, dass das, was wir derzeit unter den verschiedenen Digital- und eHumanities-Synonyma diskutieren, erst den Einstieg in viel grundlegendere Transformationen der Wissenschaft an sich darstellt. Daraus ergibt nach meinem Verständnis eine Gestaltungspflicht. Als Bibliotheks- und Informationswissenschaftler sehe ich für die Frage nach der Integration der formalisierten Datenpublikation in die Prozesse der Wissenschaftskommunikation einerseits meine eigene Disziplin als Vermittlungswissenschaft in der Verantwortung, sind doch die Prozesse der Sammlung, Erschließung und Vermittlung von Informationen traditionell ihr Kerngebiet. Zudem erscheint es mir andererseits als sehr sinnvoll, wenn die Fachcommunities einen entsprechenden Dialog aktiv suchen. Denn der interdisziplinäre Erkenntnistransfer kann erfahrungsgemäß nur gelingen, wenn er auf gegenseitigem Verstehen beruht.

Quellen

Borgman, Christine L. (2012): The conundrum of sharing research data. In: Journal of the American Society for Information Science and Technology. 63 (6), S. 1059-1078. DOI: 10.1002/asi.22634

Cronin, Blaise (2013): Thinking About Data. Editorial. In:  In: Journal of the American Society for Information Science and Technology. 64 (3), S. 435-436. DOI: 10.1002/asi.22928

Quelle: http://dhd-blog.org/?p=1419

Weiterlesen

LIBREAS #23. Call for Papers zum Thema Forschungsdaten (auch in den Geisteswissenschaften)

Die Zeitschrift LIBREAS.Library Ideas veröffentlichte in der vergangenen Woche einen Call for Papers für ihre Ausgabe 23. Der Schwerpunkt liegt diesmal auf dem Thema Forschungsdaten.

Thema: Forschungs- und andere Daten sowie ihre Organisation und Rolle in Bibliothek und Wissenschaft
Einreichungsfrist: bis 31.05.2013
gewünscht sind: Beiträge, die Wechselwirkungen zwischen Wissenschaft, Daten und Bibliotheken reflektieren, annotieren, dekonstruieren und/oder analysieren
disziplinäre Einschränkungen: keine
Rückfragen: redaktion@libreas.eu

Für die Digitalen Geisteswissenschaften / Digital Humanities ist der im Call beschriebene Ansatz nicht zuletzt deshalb von Interesse, weil bei jeder Auseinandersetzung mit der Wechselbeziehung von Forschungsdaten und Forschungsdatenmanagement durch Infrastrukturanbieter die Frage mitschwingt, wie sich Forschungsdaten überhaupt disziplinär angemessen differenziert darstellen lassen.

Konkreter könnte man fragen, wie sich die unvermeidliche wechselseitige Anpassung

a) von Daten und Datenstrukturen an die Wissenschaft und ihre Forschungsfragen sowie
b) der Wissenschaft und Forschungsfragen an die vorgegebenen technischen Rahmenbedingungen der Datenverarbeitung und -abbildung

ausbalancieren lässt?

Eine automatische Prozessierung und Speicherung von Daten in digitalen Infrastrukturen benötigt bestimmte neue bzw. angepasste und angemessene technische und kommunikative Standards, die sich zwangsläufig über die Zeit verändern. Die Herausforderung liegt für alle Beteiligten darin, Methoden, Verfahren und Systeme zu entwickeln, die der technischen Machbarkeit und den Ansprüchen der Wissenschaftspraxis gleichermaßen gerecht werden.

LIBREAS besitzt zwar eine dezidiert bibliotheks- und informationswissenschaftliche Ausrichtung. Doch gerade die Anforderungen, Wünsche und Probleme, die FachwissenschaftlerInnen außerhalb des Bibliothekswesens bei der Organisation (Sammlung, Erschließung, Zugänglichmachung) geisteswissenschaftlicher Forschungsdaten in Bibliotheken und auch anderen Einrichtungen der Wissenschaftsinfrastruktur feststellen, sind für die Bibliothekswissenschaft und die Bibliothekspraxis von außerordentlichem Interesse. Im Zentrum der Ausgabe 23 steht eine grundsätzliche Frage, die Bibliotheken und Bibliothekswissenschaft nur im Dialog mit den FachwissenschaftlerInnen beantworten können:

Werden Daten ein neues/das neue Arbeitsfeld für Bibliotheken?

In der Konkretisierung fragt LIBREAS u.a. auch:

Wie nehmen die Forschenden die Bibliotheken wahr, wenn diese von Forschungsdatenmanagement sprechen?

LIBREAS würde sich aus diesem Grund sehr freuen, neben Beiträgen von Akteuren, die konkret mit der Entwicklung und dem Betrieb Infrastrukturen für Forschungsdaten befasst sind, auch Beiträge von AutorInnen aus den geisteswissenschaftlichen Disziplinen, die diese Infrastrukturen nutzen (sollen/wollen) zu erhalten.

Den ausführlichen Call for Papers gibt es im LIBREAS-Weblog: Call for Papers: Forschungsdaten, Metadaten, noch mehr Daten. Forschungsdatenmanagement.

Weitere Fragen beantwortet die LIBREAS-Redaktion sehr gern via redaktion@libreas.eu.

LIBREAS.Library Ideas ist eine seit dem März 2005 bestehende e-only Open-Access-Zeitschrift.

Sämtliche in LIBREAS veröffentlichten Beiträge werden auf dem E-Doc-Server der Humboldt-Universität zu Berlin archiviert und über das Directory of Open Access Journals nachgewiesen.

(Anmerkung: Ben Kaden ist Mitherausgeber der Zeitschrift LIBREAS.Library Ideas.)

Quelle: http://dhd-blog.org/?p=1182

Weiterlesen

Über die Kartierbarkeit der Geschichte: Anne Kelly Knowles und Historical GIS.

Tony Horwitz: Looking at the Battle of Gettysburg Through Robert E. Lee’s Eyes. In: Smithsonian magazine. Dec. 2012. URL: http://www.smithsonianmag.com/history-archaeology/Looking-at-the-Battle-of-Gettysburg-Through-Robert-E-Lees-Eyes-180014191.html?c=y&story=fullstory

Kernfrage: Welche Rolle können GIS (=Geographic Information Systems)-Verfahren für die Analyse historischer Fragestellungen spielen?

In der Dezember-Ausgabe des Smithsonian Magazine berichtet Tony Horwitz über die Arbeit von Anne Kelly Knowles. Die Geographin erhielt dieses Jahr den Smithsonian Ingenuity Award im Bereich Historical Scholarship und zwar offensichtlich vor allem deshalb, weil sie eine Vorreiterfunktion im Bereich des Einsatzes Historical Geographic Information Systems (HGIS) übernahm. Dabei benutzt man für die Kartographie entwickelte Technologien buchstäblich zum Mapping historischer Ereignisse bzw. Strukturen. Bekannte Beispielanwendungen finde sich im Great Britain Historical Geographical Information System (GBHGIS) oder auch bei HGIS Germany.

Die Digitalisierung historischer Landkarten und das verortende Auftragen von Bezugspunkten (=georeferencing) ermöglicht es, bestimmte Sachverhalte in gewisser im Raum in ihrem Verlauf abzubilden. Die Abbildung der Entwicklung von Grenzverläufen ist da nur ein sehr nahe liegendes Beispiel. Spannend wird es, wenn diese spatiale Dimension mit möglichst konkreten historischen Fakten in Beziehung gesetzt wird. Und Anne Kelly Knowles wird konkret:

“In this instance, she wants to know what commanders could see of the battlefield on the second day at Gettysburg. A red dot denotes General Lee’s vantage point from the top of the Lutheran Seminary. His field of vision shows as clear ground, with blind spots shaded in deep indigo. Knowles has even factored in the extra inches of sightline afforded by Lee’s boots. “We can’t account for the haze and smoke of battle in GIS, though in theory you could with gaming software,” she says.” (Hervorhebung und Einbettung des Links: BK)

Welche Fragestellung man über die Kombination diverser Parameter tatsächlich sinnvoll bearbeitet, hängt selbstverständlich von dem jeweiligen Forschungsgegenstand und -ansatz ab. Deutlich wird jedoch das Potenzial beispielsweise für eine empirische Gegenprüfung überlieferter Quellen. Die Wissenschaftlerin spricht selbst von einer korrektiven Funktion des Mappings. So ermöglicht der Einsatz derartiger Technologien eine neue Perspektive auf bekannte Themen und in gleicher Weise das Aufwerfen von neuen Fragestellungen sowie, drittens, generell neue Möglichkeiten zur Formulierung von Forschungsfragen.

Das Verfahren selbst ist auch eine Art Kombination. Im Webkontext würde man vielleicht von Mash-Up sprechen. Tatsächlich waren Mapping-Anwendung wie das Crime Mapping des Los Angeles Police Departments bahnbrechend bei der Popularisierung derartiger Verknüpfungen. Dass sich die Kombination von (a) raumstrukturierender Visualisierung (Stadtpläne, Landkarten) mit (b) Ereignisdaten (hier: Straftaten) sowie zu mit diesen assoziierten qualitativen Ergänzungsdaten (hier: demographische Angaben) und schließlich (c) einer Zeitachse anbietet, um bestimmte Entwicklungen, Häufungen, Regularitäten und Anomalien zu visualisieren, dürfte spätestens seit Google Maps weithin anerkannt sein. Eine entsprechende Datenbasis vorausgesetzt, lässt sich eigentlich alles, was Geographie, Entwicklung in der Zeit und eine qualitative Konkretisierung verbindet, GIS-basiert abbilden – von der Wetterkarte und Vegetationszyklen bis hin zum Schlagloch.

GIS war vor allem aus der Regionalplanung und kommerziellen Kontexten bekannt. Anne Kelly Knowles realisierte relativ früh (die von ihr herausgegebene Sonderausgabe von Social Science History mit dem Thema Historical GIS: The Spatial Turn in Social Science History erschien im Jahr 2000), dass man diese Technologie ebenfalls sehr gut in geschichtswissenschaftlichen Zusammenhängen einsetzen kann:

“I knew there was a GIS method, used to site ski runs and real estate views, and wondered what would happen if I applied that to Gettysburg.”

Eine wichtige Nebenwirkung dieser Art von Empirisierung mittels expliziter Kartographierung könnte – nicht ganz unpassend zur Kartographie – das Erkennen von Grenzen sein. Nämlich von solchen der Erkenntnisreichweite scheinbar stabiler Einschätzungen sowie der Wege, auf denen diese entstehen:

“We can learn to become more modest about our judgments, about what we know or think we know and how we judge current circumstances.”

Als weiterer Effekt droht im Gegenzug die von Skeptikern häufig angemahnte Überbetonung der Muster gegenüber den Inhalten. Visualisierungen sind in der Regel visuell eindrucksvoll, bleiben bisweilen aber zur Frage, was man konkret aus ihnen ablesen kann, erstaunlich opak.

Anne Kelly Knowles ist mit diesem Problem offensichtlich gut vertraut, zumal sie derzeit das HGIS-Prinzip in einem Projekt zur Holocaust-Forschung („a profoundly geographical event” – A.K. Knowles) einsetzt. Sie weiß also um die Schwierigkeit, „of using quantitative techniques to study human suffering.” Entsprechend argumentiert sie mit der gebotenen Vorsicht:

Knowles is careful to avoid over-hyping GIS, which she regards as an exploratory methodology. She also recognizes the risk that it can produce “mere eye candy,” providing great visuals without deepening our understanding of the past.

Und sie erkennt noch eine weitere Herausforderung: Die der Übersetzung von Messungen und gemappten Strukturen in eine erklärende und verständliche sprachliche Abbildungsform:

Another problem is the difficulty of translating complex maps and tables into meaningful words and stories.

Informationsvisualisierung hat gegenüber der Beschreibung den klaren Vorteil einer Informationsverdichtung. Informationswissenschaftlich gilt der Grundsatz, dass ein Bild sehr viel Information (mehr jedenfalls als tausend Worte) jedoch eher wenig Wissen (nach einem informationswissenschaftlichen Wissensbegriff) speichern kann. Dieses Prinzip wird freilich bei der Hinzunahme einer zeitlichen Dimensionen relativiert. Dennoch bleibt es jedenfalls derzeit notwendig, parallel zur graphischen Abbildung im Mustern eine schlussfolgernde Ableitung des Dargestellten in Textform vorzunehmen. Die visualisierte Informationsmenge muss demzufolge auf Aussagen heruntergefiltert bzw. ausgedeutet werden.

Was man folglich aus dem Artikel und der dort wiedergegebenen Position Anne Kelly Knowles’ mitnehmen kann, ist, dass das Mapping historischer Entwicklungen und Ereignisse mittels GIS einerseits vor allem dafür geeignet ist, bekannte Fragestellungen neu zu betrachten und entsprechend möglicherweise empirisch zu validieren. Und andererseits, im exploratorischen Sinn, Zusammenhänge neu erkennbar zu machen. Für beide Anwendungsfälle gilt jedoch (wie eigentlich immer):

“The technology is just a tool, and what really matters is how you use it”

Wobei zur gelingenden Anwendung insbesondere die Befähigung zur historisch sensiblen und sinnvollen Schlussfolgerung und Interpretation zählen dürfte.

P.S. Eine Kurzbescheibung ihrer Arbeit gibt Anne Kelly Knowles in diesem kurzen Clip.

Quelle: http://dhd-blog.org/?p=1165

Weiterlesen

Anmerkungen zu John Heuser, Long Le-Khac (2011): Learning to Read Data: Bringing out the Humanistic in the Digital Humanities.

Im LIBREAS-Weblog pflegen wir seit einigen Jahren die Tradition annotierender Referate zu verschiedenen Publikationen, die sich von traditionellen Rezensionen dahingehend unterscheiden, dass sie einerseits eine perspektivische Lektüre betonen und andererseits gern auch eher essayistisch ausgerichtet sind. Bisweilen finden sich in diesem Bereich auch Texte, die Themen aus dem Bereich der Digital Humanities bzw. Digitalen Geisteswissenschaften berühren (hier das entsprechende Tag im LIBREAS-Weblog).

Nun spricht natürlich nichts dagegen, einschlägige Texte dieser Art auch hier zu bloggen, zumal die inhaltliche Perspektive auf die Digital Humanities bei LIBREAS maßgeblich von der Wechselwirkung mit dem Bibliothekswesen geprägt ist. Daher möchte ich mit der nachfolgenden Betrachtung eine möglichst regelmäßige Beteiligung auch an diesem Weblog beginnen. – Ben Kaden 

Anmerkungen zu: John Heuser, Long Le-Khac (2011): Learning to Read Data: Bringing out the Humanistic in the Digital Humanities. In: Victorian Studies Vol. 54, No. 1 (Autumn 2011), S. 79-86 / http://www.jstor.org/stable/10.2979/victorianstudies.54.1.79

Kernfrage: Wie kann das Verfahren der Wortfrequenzanalyse für die Prüfung von Hypothesen zum viktorianischen Roman sinnvoll eingesetzt werden?

Wer sich im Bereich der Digital Humanities bewegt, sieht sich im Gespräch mit eher traditionell orientierten Geisteswissenschaftlern erfahrungsgemäß schnell unter Legitimationsdruck. Wo man nicht mit genereller Ablehnung konfrontiert ist, wird – durchaus berechtigt – die Forderung aufgestellt, man solle doch erst einmal aufzeigen, welches Erkenntnisplus die Anwendung beispielsweise quantitativer Verfahren für die Literaturwissenschaft tatsächlich bringt.

Eine Publikation, die man bei der nächsten Gelegenheit anführen kann und die nach meiner Wahrnehmung in diesem Weblog noch nicht referiert wurde, erschien vor gut einem Jahr in der Zeitschrift Victorian Studies. Ryan Heuser und Long Le-Khac, vielleicht etwas befangen als Mitarbeiter an Franco Morettis Stanford Literary Lab, leisten in ihrem Aufsatz „Learning to Read Data: Bringing out the Humanistic in the Digital Humanities“ ausgewogen und souverän Überzeugungsarbeit für den Einsatz quantitativer Verfahren in der Literaturwissenschaft. Ihr Ansatz: Quantitative Verfahren der Literaturanalyse (mitunter nicht ganz glücklich als „distant reading“ bezeichnet) sind keinesfalls die Ablösung qualitativer Methoden. Sie sind jedoch sehr hilfreich, wenn es darum geht, bestimmte damit gewonnene Erkenntnisse aposteriorisch zu verifizieren.

Zum Einstieg benennen die Autoren zunächst die bekannte Mischung aus Euphorie und Vorbehalten, die Literaturwissenschaftler gemeinhin befällt, wenn sie dem Möglichkeitsspektrum quantitativer Textanalysen nicht in sprachwissenschaftlichen Umgebungen, sondern ihrer eigenen Domäne begegnen. Besonders treibt sie die Frage um, wie sich das traditionell geisteswissenschaftliche Forschung auszeichnende Differenzierungsvermögen und Gespür für die Zwischentöne sowie die zwangsläufige Komplexität ihrer Fragestellungen in solchen Zusammenhängen abbilden lassen. Die Antwort ist nahezu trivial: Indem man diese Aspekte eben möglichst berücksichtigt und mit den Messverfahren integriert. Beide Aspekte sprechen jeweils einen anderen Bereich der Erkenntnisfindung an. Der Schlüssel liegt folglich darin, sie ihren Stärken gemäß anzuwenden. Der Vorteil der messenden Durchdringung eines Korpus liegt in der vollständigen Erfassung. Die Stärke der interpretierten Durchdringung von Texten liegt in der Möglichkeit, einen in sie eingebetteten Sinn zu verstehen und zu beschreiben. Die Kombination empirischer Parameter mit traditionellen Interpretationsverfahren erfüllt den Zweck einer wechselseitigen Kontrolle, wobei der Schwerpunkt auf der Prüfung der Treffsicherheit einer Hypothese liegt.

Wie sich das konkretisieren lässt, illustrieren Heuser und Le-Khac am Beispiel des viktiorianischen Romans. Für einen Bestand von 2779 britischen Titeln mit der Erscheinungszeit zwischen 1800-1900 analysieren sie die Entwicklung der Verwendung von Ausdrücken aus zwei semantischen Feldern in der Zeit. Sie unterscheiden Ausdrücke mit wertorientierter Bedeutung von solchen mit konkret beschreibender und spezifizierender Semantik. Für das Korpus lässt sich in der Zeitachse eine Verschiebung der Häufigkeit des Auftretens vom ersten Typus zum zweiten feststellen. Der entscheidende Schritt der Analyse liegt nun in der Interpretation dieser Messreihe. Die gelingt nur über die Verortung in einem übergeordneten Kontext. Dieser aber wiederum wird nur aus einem entsprechenden, traditionell geisteswissenschaftlichen Vorwissen eingrenzbar.

Der Interpretation geht folglich die Kombination verschiedener Parametern voraus. Je mehr Datenebenen kombiniert werden, so die sich erstaunlicherweise überrascht zeigenden Autoren, desto enger wird der Spielraum, der für die Interpretation bleibt und desto präziser kann diese ausfallen. Ob sie tatsächlich zutrifft ist freilich auch von einem soliden Forschungsdesign abhängig. Aber dies gilt ohnehin in jeder Wissenschaft. Empirisch wird im beschriebenen Beispielverfahren sichtbar, dass bestimmte Ausdrücke zu einem bestimmten Zeitpunkt in einer bestimmten Häufigkeit verwendet wurden. Über das Abtragen auf der Zeitachse lässt sich eine Variabilität darstellen, die man bei Bedarf wieder unter diversen Gesichtspunkten exakt ausmessen kann. Die Messung stellt eindeutige Verschiebungen im Wortgebrauch fest. Addiert man dazu die allgemeine kulturhistorische Dimensionalität mit Aspekten wie Landflucht, Verstädterung, Industrialisierung und der damit verbundenen Erweiterung individueller Handlungsoptionen und -zwänge, lässt sich die These, dass der viktorianische Roman die sich im 18. Jahrhundert vollziehenden sozialen Veränderungen im Vereinigten Königreich auch auf der Ebene des Vokabulars spiegelt, sehr einsichtig erhärten.

Die Erkenntnis selbst ist vielleicht nicht sonderlich verblüffend, sondern entspricht vielmehr dem Eindruck jedes Lesers, der sich diachron durch diese Literatur gearbeitet hat. Das eigentlich Neue ist jedoch, dass man diesen Eindruck nun mithilfe von Wortfrequenzanalysen eindeutig untermauern kann. Die mehrdimensionale Datenanalyse prüft empirisch eine Hypothese, die durchaus auch streitbarer sein kann, als die von den Autoren beispielhaft durchgespielte.

Verfahren der Digital Humanities lösen, so auch die Argumentation der Autoren, die traditionellen Praxen der Geisteswissenschaft nicht etwa ab. Vielmehr setzen sie diese voraus. Die Anwendung solcher Verfahren erfordert ein breites grundständiges Wissen auf dem Anwendungsgebiet. Eingebettet in ein korrektes Forschungsdesign ermöglichen sie jedoch eine empirische und übergreifende Prüfung von Hypothesen, wie sie ohne diese digitalen Mess- und Visualisierungswerkzeuge kaum möglich ist.

(Berlin, 15.11.2011)

Quelle: http://dhd-blog.org/?p=1061

Weiterlesen