La mécanique de l’histoire

Winston Smith ist ein Mann ohne Geschichte. Seine Eltern kennt er kaum, da er im Heim aufwuchs, an seine Kindheit kann er sich fast nicht erinnern. Er ist 39 Jahre alt, lebt in London, der Hauptstadt Ozeaniens, und ist beschäftigt im Ministerium für Wahrheit. Smiths größte Freude in seinem kargen Leben ist die Arbeit. In einem Land, das vom „Big Brother“ beherrscht wird, ist es Smiths Aufgabe, das Archivmaterial des Ministeriums im Sinne der gegenwärtigen politischen Wahrheit zu manipulieren. Smith schreibt alte Zeitungsartikel um, Bücher, Akten. Er bearbeitet Filmmaterial und Fotos so gekonnt, dass man nicht merkt, wenn sie rückwirkend verändert wurden. „Einen Tag um den anderen und fast von Minute zu Minute wurde die Vergangenheit mit der Gegenwart in Einklang gebracht (…). Die ganze Historie stand so gleichsam auf einem auswechselbaren Blatt, das genauso oft, wie es nötig wurde, radiert und neu beschrieben werden konnte“.[1] In George Orwells Roman „1984“, verfasst im Jahre 1949, wird nicht nur die Zukunft zum Gegenstand dystopischer Betrachtung, sondern auch die Vergangenheit, die Frage der historischen Wahrheit, von Faktizität, Aussagekraft archivalischer Quellen und letztlich auch der Beruf des professionellen Vergangenheitsdeuters – des Historikers.

[...]

Quelle: http://histrhen.landesgeschichte.eu/2020/03/la-mecanique-de-lhistoire/

Weiterlesen

Zwischen dashboard und front end: Junge Wissenschaftler üben die Kunst des Bloggens

Lösen blogging, twitter und facebook in der Historiographie  bald klassische Hilfswissenschaften wie Epigraphik, Sphragistik oder Numismatik ab? Mit dieser provozierenden (wenngleich nicht ganz ernst gemeinten) Frage eröffnete der Historiker Bodo Mrozek am 25. Juni in Potsdam einen Workshop über wissenschaftliches Bloggen.

Die Veranstaltung fand statt am Zentrum für Zeithistorische Forschung in Zusammenarbeit mit dem Max-Planck-Institut für Bildungsforschung, der Max Weber-Stiftung, dem Deutschen Historischen Institut Paris, dem Arbeitskreis Popgeschichte und der Plattform de.hypotheses.org. Mareike König, „digital native“ vom DHI-Paris und Sascha Foerster, Community-Manager der der Max-Weber-Stiftung, nahmen zahlreiche (weniger überraschend: vornehmlich junge, durchaus überraschend: mehrheitlich weibliche) Interessierte mit in die Blogosphäre der Geisteswissenschaften.

Vollbesetzte Reihen: Der Potsdamer Workshop “Wissenschaftliches Bloggen”
stieß vor allem bei jungen Wissenschaftlerinnen auf großes Interesse.

Mareike König (DHI Paris) und Sascha Foerster (Max Weber-Stiftung) führen in Potsdam in die Praxis des Bloggens ein.

Vorgestellt wurde die Plattform hypotheses.org, ein nicht-kommerzielles europäisches Blogportal für Geistes- und Sozialwissenschaften. Hypotheses ermöglicht, das Genre des Blogs und seinen eigenen Stil in wissenschaftlicher Seriosität zu verankern – nur wissenschaftliche Blogs dürfen auf hypotheses eröffnet werden. Darunter sind sowohl persönliche Blogs einzelner Wissenschaftler als auch Gruppenblogs, die an einem gemeinsamen Thema arbeitende Wissenschaftler vereinen. Projektbezogene Blogs begleiten etwa eine Konferenz oder ein Editionsvorhaben. Viele Blogs richten sich an die breite Öffentlichkeit, manche auch an ein spezifisches Fachpublikum. Der französische Begriff für letztere, „carnets de recherche“, macht deutlich was die Kernidee des wissenschaftlichen Bloggens ist: Das eigene wissenschaftliche Arbeiten und Denken, das bisher meist als Gekritzel in privaten Notizbüchern landete, öffentlich machen.

<em>Carnet de recherche moderne et à l'ancien:</em> Vom Block zum Blog.

Carnet de recherche moderne et à l’ancien: Vom Block zum Blog.

Frankreich erschien in der Präsentation vielfach als Vorreiter und Deutschland in Hinblick auf das wissenschaftliche bloggen tatsächlich immer wieder als das in diesen Tagen viel gekalauerte Neuland. Das gilt nicht nur für die aktiv Bloggenden in den Wissenschaften, sondern auch für die großen Institutionen, die für die Dokumentation, Archivierung, Verbreitung und damit nicht zuletzt auch Anerkennung wissenschaftlicher Arbeiten verantwortlich zeichnen. Zur Praxis der Bibliotèque Nationale de France an Blogs eigene ISSN-Ziffern zu vergeben und sie damit in ihren Katalog aufzunhmen, musste die Deutsche Nationalbibliothek erst durch eine „Pflichtablieferungsverordnung“ getragen werden. Und auch die VG-Wort hat Blog-Publikationen in ihr Vergütungssystem aufgenommen.

Der Workshop führte angehende und
erfahrene BloggerInnen zusammen.

Die Diskussion während des Workshops machte deutlich: Das Bloggen fordert die Welt-, Selbst- und Arbeitsbilder der Geisteswissenschaften in vielen Punkten radikal heraus. Sich für drei Jahre in sein Kämmerchen einzuschließen, dort Aktenberge und Datenmengen anzuhäufen und dann mit einem fertigen dicken (und in der Regel nur für ein winzigen Publikum lesbaren) Werk zurück ans Licht der Öffentlichkeit zu kommen, ist noch immer der verteidigte Status quo. Beim Bloggen macht man Skizzen, Vermutungen, Ideen, liefert Prozesshaftes und Unfertiges –kann das Wissenschaft im hehren alten Sinne sein?

Die Fragen, die die Teilnehmenden ansprachen, zielten somit auch vor allem auf die Absicherung als wissenschaftlicher Nachwuchs: Mache ich mich nicht angreifbar, wenn ich öffentlich mache, das ich etwas nicht weiß? Wie schütze ich mich davor, dass andere meine noch nicht zwischen zwei Buchdeckeln festgeschriebenen Ideen abkupfern? Verpulvere ich nicht mein Material für wichtige Aufsätze und Bücher, wenn ich es vorher schon gebloggt habe?

Das Bloggen sei eine Form der wissenschaftlichen Publikationen neben anderen, die auch weiter ihre Berechtigung behalten würden, argumentierte Mareike König. Welches im konkreten Fall die angemessene Form ist, müsse jeder für sich entscheiden. Angesichts der Ausdifferenzierung der Publikationsformen, würden die Chancen, die das Bloggen dabei bietet aber immer deutlicher: Die kleinere Form, die zeitliche Beschleunigung im Vergleich zu den zähen peer-review-Publikationen, die Öffnung des Leserkreises und die potenziellen Anregungen durch die direkte Kommunikation mit dem Publikum, zählten zu den großen Vorteilen. Vor allem aber bildet das bloggen über die eigene Forschung – so eine wesentliche Erkenntnis des Workshops –  eine ständige Trainingseinheit in wissenschaftlichem Arbeiten: Es übt das Strukturieren und Schreiben von Texten, schult das Loslassen eigener Texte im Publikationsprozess, unterstützt das Netzwerken mit anderen und trainiert darin, sich selbst und die eigene Forschung einer interessierten Öffentlichkeit bekannt zu machen.

PopHistory-Bloggerinnen Glaucia Peres da Silva und Sarah Zalfen (v.l.n.r).

PopHistory-Bloggerinnen Glaucia Peres da Silva und Sarah Zalfen (v.l.n.r).

Sascha Foerster gab schließlich Einblicke in die Praxis des Bloggens. Er öffnete die technische Werkzeugkiste des digitalen Historikers: Social media, Facebook, google+, twitter und co. Foerster stellte den technischen Aufbau von hypotheses.org vor und ebnete den Teilnehmenden damit den Weg zum ersten eigenen Blog. Vom Anlegen eines eigene Profils, über das Erstellen des ersten Artikels bis zum Einfügen von Bildern sowie der Recherche und Angabe der korrekten Urheberrechte, konnten die Blogneulinge das Erlernte Schritt für Schritt in einem eigenen (natürlich vor öffentlichen Blicken geschützten) Testblog erproben und umsetzten. Front end und back end, widget, dashboard und tagging waren für die Teilnehmer am Ende des Tages keine Fremdworte mehr.

Der Vortrag von Mareike König lässt sich auf Slideshare abrufen.

(Text und Fotos: CC BY-3.0 DE.)

Quelle: http://pophistory.hypotheses.org/865

Weiterlesen

Workshop “Wissenschaftliches Bloggen”, Potsdam, 25. Juni 2013

 Workshop Wissenschaftliches Bloggen

Potsdam, Dienstag 25. Juni 2013 (10-16 Uhr)

Im Zuge der wachsenden Bedeutung von Online-Medien nutzen Wissenschaftler zunehmend Techniken des Bloggings. Blogs sind geeignete Werkzeuge nicht nur für die direkte und interaktive Publikation sowie Kommunikation und Präsentation von Forschungsergebnissen., sie bieten auch Möglichkeiten des Web 2.0, etwa des Crowdsourcing. Als öffentlich geführte wissenschaftliche Notizbücher eignen sich Blogs zudem zur selbstkritischen Reflektion des eigenen Forschungsprozesses. Nachwuchswissenschaftler/innen bietet Bloggen die Möglichkeit, bereits in einem frühen Stadium auf ihr Projekt aufmerksam zu machen, mit erfahrenen Wissenschaftler/innen in Austausch zu treten und sich zu vernetzen. Der Workshop führt in das Blogging ein und richtet sich an Einsteiger und Blogger mit ersten Erfahrungen, die ihr technisches Wissen vertiefen möchten. Der Workshop umfasst zwei Teile:

10-11.30 Uhr: In einem öffentlichen Vortrag werden konzeptionelle und wissenschaftliche Aspekte des Bloggens vorgestellt und einige best practice Beispiele aus dem Bereich der Geistes- und Sozialwissenschaften exemplarisch präsentiert. Thematisiert werden Fragen wie: Was macht einen guten wissenschaftlichen Blogbeitrag aus? Wie funktioniert die Interaktion mit den Leser/innen? Welche Sprache, welcher Stil ist wissenschaftlichen Blogs angemessen? Welche Regeln gelten für das Blogging?

11:45-16.00 Uhr: In einem Praxis-Workshop kann in einem Schulungsblog auf der Blogplattform de.hypotheses.org das Bloggen mit praktischen Übungen erlernt werden. Wir üben das Anlegen eines Artikels in WordPress, das Einbinden von multimedialen Elementen, das Verschlagworten und das Zuordnen von Kategorien. Während des Workshops werden außerdem Tipps für die Anfangsphase eines wissenschaftlichen Blogs gegeben sowie rechtliche Belange des Bloggens erörtert.

Referent(inn)en:
Dr. Mareike König (Deutsches Historisches Institut Paris),
Sascha Foerster (de.hypotheses)

Die Plätze für den Praxisteil sind limitiert und erfordern die Einrichtung persönlicher Zugänge zur Blogging-Plattform. Daher ist die persönliche Anmeldung erforderlich.
Anmeldungen bis 18. Juni an: Bodo Mrozek (
mrozek AT zzf-pdm.de)

Ort: Zentrum für Zeithistorische Forschung (ZZF) Potsdam, Am Neuen Markt 9d, Großer Seminarraum (Zugang über den Hof hinter dem Haus der Brandenburgischen Geschichte)

Eine gemeinsame Veranstaltung von:
-Zentrum für Zeithistorische Forschung (ZZF), Abteilung V „Geschichte der Medien- und Informationsgesellschaft“
- MPRG „Felt Communities? Emotions in European Music Performance, Max-Planck-Institut für Bildungsforschung Berlin
- Arbeitskreis Popgeschichte Berlin

Quelle: http://de.hypotheses.org/71956

Weiterlesen

Über die Kartierbarkeit der Geschichte: Anne Kelly Knowles und Historical GIS.

Tony Horwitz: Looking at the Battle of Gettysburg Through Robert E. Lee’s Eyes. In: Smithsonian magazine. Dec. 2012. URL: http://www.smithsonianmag.com/history-archaeology/Looking-at-the-Battle-of-Gettysburg-Through-Robert-E-Lees-Eyes-180014191.html?c=y&story=fullstory

Kernfrage: Welche Rolle können GIS (=Geographic Information Systems)-Verfahren für die Analyse historischer Fragestellungen spielen?

In der Dezember-Ausgabe des Smithsonian Magazine berichtet Tony Horwitz über die Arbeit von Anne Kelly Knowles. Die Geographin erhielt dieses Jahr den Smithsonian Ingenuity Award im Bereich Historical Scholarship und zwar offensichtlich vor allem deshalb, weil sie eine Vorreiterfunktion im Bereich des Einsatzes Historical Geographic Information Systems (HGIS) übernahm. Dabei benutzt man für die Kartographie entwickelte Technologien buchstäblich zum Mapping historischer Ereignisse bzw. Strukturen. Bekannte Beispielanwendungen finde sich im Great Britain Historical Geographical Information System (GBHGIS) oder auch bei HGIS Germany.

Die Digitalisierung historischer Landkarten und das verortende Auftragen von Bezugspunkten (=georeferencing) ermöglicht es, bestimmte Sachverhalte in gewisser im Raum in ihrem Verlauf abzubilden. Die Abbildung der Entwicklung von Grenzverläufen ist da nur ein sehr nahe liegendes Beispiel. Spannend wird es, wenn diese spatiale Dimension mit möglichst konkreten historischen Fakten in Beziehung gesetzt wird. Und Anne Kelly Knowles wird konkret:

“In this instance, she wants to know what commanders could see of the battlefield on the second day at Gettysburg. A red dot denotes General Lee’s vantage point from the top of the Lutheran Seminary. His field of vision shows as clear ground, with blind spots shaded in deep indigo. Knowles has even factored in the extra inches of sightline afforded by Lee’s boots. “We can’t account for the haze and smoke of battle in GIS, though in theory you could with gaming software,” she says.” (Hervorhebung und Einbettung des Links: BK)

Welche Fragestellung man über die Kombination diverser Parameter tatsächlich sinnvoll bearbeitet, hängt selbstverständlich von dem jeweiligen Forschungsgegenstand und -ansatz ab. Deutlich wird jedoch das Potenzial beispielsweise für eine empirische Gegenprüfung überlieferter Quellen. Die Wissenschaftlerin spricht selbst von einer korrektiven Funktion des Mappings. So ermöglicht der Einsatz derartiger Technologien eine neue Perspektive auf bekannte Themen und in gleicher Weise das Aufwerfen von neuen Fragestellungen sowie, drittens, generell neue Möglichkeiten zur Formulierung von Forschungsfragen.

Das Verfahren selbst ist auch eine Art Kombination. Im Webkontext würde man vielleicht von Mash-Up sprechen. Tatsächlich waren Mapping-Anwendung wie das Crime Mapping des Los Angeles Police Departments bahnbrechend bei der Popularisierung derartiger Verknüpfungen. Dass sich die Kombination von (a) raumstrukturierender Visualisierung (Stadtpläne, Landkarten) mit (b) Ereignisdaten (hier: Straftaten) sowie zu mit diesen assoziierten qualitativen Ergänzungsdaten (hier: demographische Angaben) und schließlich (c) einer Zeitachse anbietet, um bestimmte Entwicklungen, Häufungen, Regularitäten und Anomalien zu visualisieren, dürfte spätestens seit Google Maps weithin anerkannt sein. Eine entsprechende Datenbasis vorausgesetzt, lässt sich eigentlich alles, was Geographie, Entwicklung in der Zeit und eine qualitative Konkretisierung verbindet, GIS-basiert abbilden – von der Wetterkarte und Vegetationszyklen bis hin zum Schlagloch.

GIS war vor allem aus der Regionalplanung und kommerziellen Kontexten bekannt. Anne Kelly Knowles realisierte relativ früh (die von ihr herausgegebene Sonderausgabe von Social Science History mit dem Thema Historical GIS: The Spatial Turn in Social Science History erschien im Jahr 2000), dass man diese Technologie ebenfalls sehr gut in geschichtswissenschaftlichen Zusammenhängen einsetzen kann:

“I knew there was a GIS method, used to site ski runs and real estate views, and wondered what would happen if I applied that to Gettysburg.”

Eine wichtige Nebenwirkung dieser Art von Empirisierung mittels expliziter Kartographierung könnte – nicht ganz unpassend zur Kartographie – das Erkennen von Grenzen sein. Nämlich von solchen der Erkenntnisreichweite scheinbar stabiler Einschätzungen sowie der Wege, auf denen diese entstehen:

“We can learn to become more modest about our judgments, about what we know or think we know and how we judge current circumstances.”

Als weiterer Effekt droht im Gegenzug die von Skeptikern häufig angemahnte Überbetonung der Muster gegenüber den Inhalten. Visualisierungen sind in der Regel visuell eindrucksvoll, bleiben bisweilen aber zur Frage, was man konkret aus ihnen ablesen kann, erstaunlich opak.

Anne Kelly Knowles ist mit diesem Problem offensichtlich gut vertraut, zumal sie derzeit das HGIS-Prinzip in einem Projekt zur Holocaust-Forschung („a profoundly geographical event” – A.K. Knowles) einsetzt. Sie weiß also um die Schwierigkeit, „of using quantitative techniques to study human suffering.” Entsprechend argumentiert sie mit der gebotenen Vorsicht:

Knowles is careful to avoid over-hyping GIS, which she regards as an exploratory methodology. She also recognizes the risk that it can produce “mere eye candy,” providing great visuals without deepening our understanding of the past.

Und sie erkennt noch eine weitere Herausforderung: Die der Übersetzung von Messungen und gemappten Strukturen in eine erklärende und verständliche sprachliche Abbildungsform:

Another problem is the difficulty of translating complex maps and tables into meaningful words and stories.

Informationsvisualisierung hat gegenüber der Beschreibung den klaren Vorteil einer Informationsverdichtung. Informationswissenschaftlich gilt der Grundsatz, dass ein Bild sehr viel Information (mehr jedenfalls als tausend Worte) jedoch eher wenig Wissen (nach einem informationswissenschaftlichen Wissensbegriff) speichern kann. Dieses Prinzip wird freilich bei der Hinzunahme einer zeitlichen Dimensionen relativiert. Dennoch bleibt es jedenfalls derzeit notwendig, parallel zur graphischen Abbildung im Mustern eine schlussfolgernde Ableitung des Dargestellten in Textform vorzunehmen. Die visualisierte Informationsmenge muss demzufolge auf Aussagen heruntergefiltert bzw. ausgedeutet werden.

Was man folglich aus dem Artikel und der dort wiedergegebenen Position Anne Kelly Knowles’ mitnehmen kann, ist, dass das Mapping historischer Entwicklungen und Ereignisse mittels GIS einerseits vor allem dafür geeignet ist, bekannte Fragestellungen neu zu betrachten und entsprechend möglicherweise empirisch zu validieren. Und andererseits, im exploratorischen Sinn, Zusammenhänge neu erkennbar zu machen. Für beide Anwendungsfälle gilt jedoch (wie eigentlich immer):

“The technology is just a tool, and what really matters is how you use it”

Wobei zur gelingenden Anwendung insbesondere die Befähigung zur historisch sensiblen und sinnvollen Schlussfolgerung und Interpretation zählen dürfte.

P.S. Eine Kurzbescheibung ihrer Arbeit gibt Anne Kelly Knowles in diesem kurzen Clip.

Quelle: http://dhd-blog.org/?p=1165

Weiterlesen

Anmerkungen zu John Heuser, Long Le-Khac (2011): Learning to Read Data: Bringing out the Humanistic in the Digital Humanities.

Im LIBREAS-Weblog pflegen wir seit einigen Jahren die Tradition annotierender Referate zu verschiedenen Publikationen, die sich von traditionellen Rezensionen dahingehend unterscheiden, dass sie einerseits eine perspektivische Lektüre betonen und andererseits gern auch eher essayistisch ausgerichtet sind. Bisweilen finden sich in diesem Bereich auch Texte, die Themen aus dem Bereich der Digital Humanities bzw. Digitalen Geisteswissenschaften berühren (hier das entsprechende Tag im LIBREAS-Weblog).

Nun spricht natürlich nichts dagegen, einschlägige Texte dieser Art auch hier zu bloggen, zumal die inhaltliche Perspektive auf die Digital Humanities bei LIBREAS maßgeblich von der Wechselwirkung mit dem Bibliothekswesen geprägt ist. Daher möchte ich mit der nachfolgenden Betrachtung eine möglichst regelmäßige Beteiligung auch an diesem Weblog beginnen. – Ben Kaden 

Anmerkungen zu: John Heuser, Long Le-Khac (2011): Learning to Read Data: Bringing out the Humanistic in the Digital Humanities. In: Victorian Studies Vol. 54, No. 1 (Autumn 2011), S. 79-86 / http://www.jstor.org/stable/10.2979/victorianstudies.54.1.79

Kernfrage: Wie kann das Verfahren der Wortfrequenzanalyse für die Prüfung von Hypothesen zum viktorianischen Roman sinnvoll eingesetzt werden?

Wer sich im Bereich der Digital Humanities bewegt, sieht sich im Gespräch mit eher traditionell orientierten Geisteswissenschaftlern erfahrungsgemäß schnell unter Legitimationsdruck. Wo man nicht mit genereller Ablehnung konfrontiert ist, wird – durchaus berechtigt – die Forderung aufgestellt, man solle doch erst einmal aufzeigen, welches Erkenntnisplus die Anwendung beispielsweise quantitativer Verfahren für die Literaturwissenschaft tatsächlich bringt.

Eine Publikation, die man bei der nächsten Gelegenheit anführen kann und die nach meiner Wahrnehmung in diesem Weblog noch nicht referiert wurde, erschien vor gut einem Jahr in der Zeitschrift Victorian Studies. Ryan Heuser und Long Le-Khac, vielleicht etwas befangen als Mitarbeiter an Franco Morettis Stanford Literary Lab, leisten in ihrem Aufsatz „Learning to Read Data: Bringing out the Humanistic in the Digital Humanities“ ausgewogen und souverän Überzeugungsarbeit für den Einsatz quantitativer Verfahren in der Literaturwissenschaft. Ihr Ansatz: Quantitative Verfahren der Literaturanalyse (mitunter nicht ganz glücklich als „distant reading“ bezeichnet) sind keinesfalls die Ablösung qualitativer Methoden. Sie sind jedoch sehr hilfreich, wenn es darum geht, bestimmte damit gewonnene Erkenntnisse aposteriorisch zu verifizieren.

Zum Einstieg benennen die Autoren zunächst die bekannte Mischung aus Euphorie und Vorbehalten, die Literaturwissenschaftler gemeinhin befällt, wenn sie dem Möglichkeitsspektrum quantitativer Textanalysen nicht in sprachwissenschaftlichen Umgebungen, sondern ihrer eigenen Domäne begegnen. Besonders treibt sie die Frage um, wie sich das traditionell geisteswissenschaftliche Forschung auszeichnende Differenzierungsvermögen und Gespür für die Zwischentöne sowie die zwangsläufige Komplexität ihrer Fragestellungen in solchen Zusammenhängen abbilden lassen. Die Antwort ist nahezu trivial: Indem man diese Aspekte eben möglichst berücksichtigt und mit den Messverfahren integriert. Beide Aspekte sprechen jeweils einen anderen Bereich der Erkenntnisfindung an. Der Schlüssel liegt folglich darin, sie ihren Stärken gemäß anzuwenden. Der Vorteil der messenden Durchdringung eines Korpus liegt in der vollständigen Erfassung. Die Stärke der interpretierten Durchdringung von Texten liegt in der Möglichkeit, einen in sie eingebetteten Sinn zu verstehen und zu beschreiben. Die Kombination empirischer Parameter mit traditionellen Interpretationsverfahren erfüllt den Zweck einer wechselseitigen Kontrolle, wobei der Schwerpunkt auf der Prüfung der Treffsicherheit einer Hypothese liegt.

Wie sich das konkretisieren lässt, illustrieren Heuser und Le-Khac am Beispiel des viktiorianischen Romans. Für einen Bestand von 2779 britischen Titeln mit der Erscheinungszeit zwischen 1800-1900 analysieren sie die Entwicklung der Verwendung von Ausdrücken aus zwei semantischen Feldern in der Zeit. Sie unterscheiden Ausdrücke mit wertorientierter Bedeutung von solchen mit konkret beschreibender und spezifizierender Semantik. Für das Korpus lässt sich in der Zeitachse eine Verschiebung der Häufigkeit des Auftretens vom ersten Typus zum zweiten feststellen. Der entscheidende Schritt der Analyse liegt nun in der Interpretation dieser Messreihe. Die gelingt nur über die Verortung in einem übergeordneten Kontext. Dieser aber wiederum wird nur aus einem entsprechenden, traditionell geisteswissenschaftlichen Vorwissen eingrenzbar.

Der Interpretation geht folglich die Kombination verschiedener Parametern voraus. Je mehr Datenebenen kombiniert werden, so die sich erstaunlicherweise überrascht zeigenden Autoren, desto enger wird der Spielraum, der für die Interpretation bleibt und desto präziser kann diese ausfallen. Ob sie tatsächlich zutrifft ist freilich auch von einem soliden Forschungsdesign abhängig. Aber dies gilt ohnehin in jeder Wissenschaft. Empirisch wird im beschriebenen Beispielverfahren sichtbar, dass bestimmte Ausdrücke zu einem bestimmten Zeitpunkt in einer bestimmten Häufigkeit verwendet wurden. Über das Abtragen auf der Zeitachse lässt sich eine Variabilität darstellen, die man bei Bedarf wieder unter diversen Gesichtspunkten exakt ausmessen kann. Die Messung stellt eindeutige Verschiebungen im Wortgebrauch fest. Addiert man dazu die allgemeine kulturhistorische Dimensionalität mit Aspekten wie Landflucht, Verstädterung, Industrialisierung und der damit verbundenen Erweiterung individueller Handlungsoptionen und -zwänge, lässt sich die These, dass der viktorianische Roman die sich im 18. Jahrhundert vollziehenden sozialen Veränderungen im Vereinigten Königreich auch auf der Ebene des Vokabulars spiegelt, sehr einsichtig erhärten.

Die Erkenntnis selbst ist vielleicht nicht sonderlich verblüffend, sondern entspricht vielmehr dem Eindruck jedes Lesers, der sich diachron durch diese Literatur gearbeitet hat. Das eigentlich Neue ist jedoch, dass man diesen Eindruck nun mithilfe von Wortfrequenzanalysen eindeutig untermauern kann. Die mehrdimensionale Datenanalyse prüft empirisch eine Hypothese, die durchaus auch streitbarer sein kann, als die von den Autoren beispielhaft durchgespielte.

Verfahren der Digital Humanities lösen, so auch die Argumentation der Autoren, die traditionellen Praxen der Geisteswissenschaft nicht etwa ab. Vielmehr setzen sie diese voraus. Die Anwendung solcher Verfahren erfordert ein breites grundständiges Wissen auf dem Anwendungsgebiet. Eingebettet in ein korrektes Forschungsdesign ermöglichen sie jedoch eine empirische und übergreifende Prüfung von Hypothesen, wie sie ohne diese digitalen Mess- und Visualisierungswerkzeuge kaum möglich ist.

(Berlin, 15.11.2011)

Quelle: http://dhd-blog.org/?p=1061

Weiterlesen