Eine gute Begründung für historische Bildung an der Schule.
Quelle: http://geschichts-blog.blogspot.com/2012/11/fundstuck.html
Geschichtswissenschaftliche Blogs auf einen Blick
Im LIBREAS-Weblog pflegen wir seit einigen Jahren die Tradition annotierender Referate zu verschiedenen Publikationen, die sich von traditionellen Rezensionen dahingehend unterscheiden, dass sie einerseits eine perspektivische Lektüre betonen und andererseits gern auch eher essayistisch ausgerichtet sind. Bisweilen finden sich in diesem Bereich auch Texte, die Themen aus dem Bereich der Digital Humanities bzw. Digitalen Geisteswissenschaften berühren (hier das entsprechende Tag im LIBREAS-Weblog).
Nun spricht natürlich nichts dagegen, einschlägige Texte dieser Art auch hier zu bloggen, zumal die inhaltliche Perspektive auf die Digital Humanities bei LIBREAS maßgeblich von der Wechselwirkung mit dem Bibliothekswesen geprägt ist. Daher möchte ich mit der nachfolgenden Betrachtung eine möglichst regelmäßige Beteiligung auch an diesem Weblog beginnen. – Ben Kaden
Anmerkungen zu: John Heuser, Long Le-Khac (2011): Learning to Read Data: Bringing out the Humanistic in the Digital Humanities. In: Victorian Studies Vol. 54, No. 1 (Autumn 2011), S. 79-86 / http://www.jstor.org/stable/10.2979/victorianstudies.54.1.79
Kernfrage: Wie kann das Verfahren der Wortfrequenzanalyse für die Prüfung von Hypothesen zum viktorianischen Roman sinnvoll eingesetzt werden?
Wer sich im Bereich der Digital Humanities bewegt, sieht sich im Gespräch mit eher traditionell orientierten Geisteswissenschaftlern erfahrungsgemäß schnell unter Legitimationsdruck. Wo man nicht mit genereller Ablehnung konfrontiert ist, wird – durchaus berechtigt – die Forderung aufgestellt, man solle doch erst einmal aufzeigen, welches Erkenntnisplus die Anwendung beispielsweise quantitativer Verfahren für die Literaturwissenschaft tatsächlich bringt.
Eine Publikation, die man bei der nächsten Gelegenheit anführen kann und die nach meiner Wahrnehmung in diesem Weblog noch nicht referiert wurde, erschien vor gut einem Jahr in der Zeitschrift Victorian Studies. Ryan Heuser und Long Le-Khac, vielleicht etwas befangen als Mitarbeiter an Franco Morettis Stanford Literary Lab, leisten in ihrem Aufsatz „Learning to Read Data: Bringing out the Humanistic in the Digital Humanities“ ausgewogen und souverän Überzeugungsarbeit für den Einsatz quantitativer Verfahren in der Literaturwissenschaft. Ihr Ansatz: Quantitative Verfahren der Literaturanalyse (mitunter nicht ganz glücklich als „distant reading“ bezeichnet) sind keinesfalls die Ablösung qualitativer Methoden. Sie sind jedoch sehr hilfreich, wenn es darum geht, bestimmte damit gewonnene Erkenntnisse aposteriorisch zu verifizieren.
Zum Einstieg benennen die Autoren zunächst die bekannte Mischung aus Euphorie und Vorbehalten, die Literaturwissenschaftler gemeinhin befällt, wenn sie dem Möglichkeitsspektrum quantitativer Textanalysen nicht in sprachwissenschaftlichen Umgebungen, sondern ihrer eigenen Domäne begegnen. Besonders treibt sie die Frage um, wie sich das traditionell geisteswissenschaftliche Forschung auszeichnende Differenzierungsvermögen und Gespür für die Zwischentöne sowie die zwangsläufige Komplexität ihrer Fragestellungen in solchen Zusammenhängen abbilden lassen. Die Antwort ist nahezu trivial: Indem man diese Aspekte eben möglichst berücksichtigt und mit den Messverfahren integriert. Beide Aspekte sprechen jeweils einen anderen Bereich der Erkenntnisfindung an. Der Schlüssel liegt folglich darin, sie ihren Stärken gemäß anzuwenden. Der Vorteil der messenden Durchdringung eines Korpus liegt in der vollständigen Erfassung. Die Stärke der interpretierten Durchdringung von Texten liegt in der Möglichkeit, einen in sie eingebetteten Sinn zu verstehen und zu beschreiben. Die Kombination empirischer Parameter mit traditionellen Interpretationsverfahren erfüllt den Zweck einer wechselseitigen Kontrolle, wobei der Schwerpunkt auf der Prüfung der Treffsicherheit einer Hypothese liegt.
Wie sich das konkretisieren lässt, illustrieren Heuser und Le-Khac am Beispiel des viktiorianischen Romans. Für einen Bestand von 2779 britischen Titeln mit der Erscheinungszeit zwischen 1800-1900 analysieren sie die Entwicklung der Verwendung von Ausdrücken aus zwei semantischen Feldern in der Zeit. Sie unterscheiden Ausdrücke mit wertorientierter Bedeutung von solchen mit konkret beschreibender und spezifizierender Semantik. Für das Korpus lässt sich in der Zeitachse eine Verschiebung der Häufigkeit des Auftretens vom ersten Typus zum zweiten feststellen. Der entscheidende Schritt der Analyse liegt nun in der Interpretation dieser Messreihe. Die gelingt nur über die Verortung in einem übergeordneten Kontext. Dieser aber wiederum wird nur aus einem entsprechenden, traditionell geisteswissenschaftlichen Vorwissen eingrenzbar.
Der Interpretation geht folglich die Kombination verschiedener Parametern voraus. Je mehr Datenebenen kombiniert werden, so die sich erstaunlicherweise überrascht zeigenden Autoren, desto enger wird der Spielraum, der für die Interpretation bleibt und desto präziser kann diese ausfallen. Ob sie tatsächlich zutrifft ist freilich auch von einem soliden Forschungsdesign abhängig. Aber dies gilt ohnehin in jeder Wissenschaft. Empirisch wird im beschriebenen Beispielverfahren sichtbar, dass bestimmte Ausdrücke zu einem bestimmten Zeitpunkt in einer bestimmten Häufigkeit verwendet wurden. Über das Abtragen auf der Zeitachse lässt sich eine Variabilität darstellen, die man bei Bedarf wieder unter diversen Gesichtspunkten exakt ausmessen kann. Die Messung stellt eindeutige Verschiebungen im Wortgebrauch fest. Addiert man dazu die allgemeine kulturhistorische Dimensionalität mit Aspekten wie Landflucht, Verstädterung, Industrialisierung und der damit verbundenen Erweiterung individueller Handlungsoptionen und -zwänge, lässt sich die These, dass der viktorianische Roman die sich im 18. Jahrhundert vollziehenden sozialen Veränderungen im Vereinigten Königreich auch auf der Ebene des Vokabulars spiegelt, sehr einsichtig erhärten.
Die Erkenntnis selbst ist vielleicht nicht sonderlich verblüffend, sondern entspricht vielmehr dem Eindruck jedes Lesers, der sich diachron durch diese Literatur gearbeitet hat. Das eigentlich Neue ist jedoch, dass man diesen Eindruck nun mithilfe von Wortfrequenzanalysen eindeutig untermauern kann. Die mehrdimensionale Datenanalyse prüft empirisch eine Hypothese, die durchaus auch streitbarer sein kann, als die von den Autoren beispielhaft durchgespielte.
Verfahren der Digital Humanities lösen, so auch die Argumentation der Autoren, die traditionellen Praxen der Geisteswissenschaft nicht etwa ab. Vielmehr setzen sie diese voraus. Die Anwendung solcher Verfahren erfordert ein breites grundständiges Wissen auf dem Anwendungsgebiet. Eingebettet in ein korrektes Forschungsdesign ermöglichen sie jedoch eine empirische und übergreifende Prüfung von Hypothesen, wie sie ohne diese digitalen Mess- und Visualisierungswerkzeuge kaum möglich ist.
(Berlin, 15.11.2011)
Quelle: http://dhd-blog.org/?p=1061
Vor etwas mehr als einem Jahr, am 26.10.2011, habe ich – damals noch auf der Plattform Posterous - meinen ersten wissenschaftlichen Blogpost geschrieben. Wie ich genau darauf gekommen bin, mit dem Bloggen anzufangen, weiß ich bis heute nicht genau. Vielleicht lag es vor allem daran, dass ich kurz vorher meine Dissertation abgegeben hatte und irgendeine Form von Kompensation brauchte, meine Schreiblücke aufzufüllen. Ein weiterer Grund war sicherlich, dass ich Werbung machen wollte für Tesla, also die Software, die wir im Zug zweier paralleler Dissertationen an unserem Lehrstuhl entwickelt hatten. Zwar hatten wir das System schon auf diversen Konferenzen vorgestellt, Artikel verfasst und eine verhältnismäßig gut dokumentierte Webseite [just heute migrieren wir auf einen neuen Server, sorry, Link schalte ich morgen wieder frei] angelegt, irgendwie hatte ich aber das Gefühl, dass ich mehr Leute von unserem Konzept, empirisch-experimentelle Wissenschaft über Textdaten zu betreiben, erreichen könnte, würde ich nur neue Kommunikationskanäle nutzen (fast genau ein Jahr vorher bin ich zum Twitterer geworden, aber die Geschichte erzähle ich demnächst woanders).
Tatsächlich bloggte ich anfangs wohl vor allem für mich und vielleicht für ein paar Student|inn|en, die daran interessiert waren, was ihr Dozent so treibt, wenn er sie nicht gerade mit Unterricht belästigt (mit, ich habe mit geschrieben). Allerdings ist es mir aber nach und nach gelungen (da hat sicher auch mein Twitter-Profil viel beigetragen), mehr Interessenten auf die Seite zu locken und teilweise wurde gar kommentiert, u.a. auch von Mareike König, die ja bekanntermaßen das Sprachrohr dieser Plattform hier ist. Als de.hypotheses dann im Frühjahr diesen Jahres an den Start ging, bekam ich das (Twitter) mit und fand das Konzept einer geisteswissenschaftlichen Blogplattform so stimmig, dass ich mich fast umgehend darum bewarb, dorthin wechseln zu dürfen.
Ich habe diesen Entschluss bisher noch zu keinem Zeitpunkt bereut – die Plattform ist phantastisch betreut, bei Problemen erhält man umgehend Rückmeldung (Twitter) und Hilfe und man muss nicht mehr ganz allein die Werbetrommel für seinen Blog rühren (Twitter), tatsächlich bekommt man auch eine Menge Laufkundschaft dadurch, dass die eigenen Artikel auf der Protalseite verlinkt sind. Nicht zu unterschätzen ist auch, dass man weiß, dass das, was man so im Blog verbricht, zumindest von der hypotheses-Redaktion gelesen wird. Bei Gefallen bekommt man einen prominenten Platz auf der Portalseite, was zumindest mich zusätzlich anspornt (mit meinem ersten Artikel hier bin ich sogar Headliner mit unterlegtem Bild geworden; ich schiebe es mal darauf, dass es da noch nicht viele Blogs gab…). Ein weiterer Vorteil wäre die Vernetzung mit anderen Bloggern aus der Linguistik/Computerlinguistik-Szene, wenn es die hier denn geben würde. Noch bin ich vor allem von Historikern umgeben, aber vielleicht ändert sich das ja noch (Und ja, das ist ein Aufruf!).
Die Vergrößerung der Reichweite meines Blogs über die letzten Monate kann ich mir über das Analysetool von WordPress selbst anschauen, allerdings ist immer schwer zu ermitteln, ob sich gerade wirkliche Besucher auf meine Seite verirrt haben, oder ob sich lediglich ein paar Bots austoben. Wichtiger sind da Retweets meiner Werbetweets von anderen Twitter-Nutzern, Likes bei Facebook, +1en bei Google+, vor allem aber Pingbacks aus anderen Blogs, Empfehlungen auf anderen Plattformen (Webwatch auf spektrum.de) und – nicht zu vergessen – Leser-Kommentare, die mir zeigen, dass sich tatsächlich echte Menschen mit den von mir geäußerten Gedanken befassen. Wirklich geadelt fühlte ich mich, als ein Beitrag für gut genug befunden wurde, um bei den Scilogs zu erscheinen.
Inzwischen nutze ich Links auf einzelne Blogposts oft dazu, potentiell an unserer Software Tesla Interessenten einen ersten Eindruck zu geben, was genau die Vorteile sind, wenn man sich darauf einlässt, unser virtuelles Labor zu nutzen. Oder um meine Theorie zur Entstehung des Textes im Voynich-Manuskript knapp zu erläutern. Oft – wie gerade jetzt – verfalle ich auch ins Meta-Bloggen, also in die bloggende Betrachtung des Bloggens selbst. Ich verspreche aber, dass ich mich in nächster Zeit wieder um Sachthemen aus meinem angestammten Wissenschaftsbereich kümmern werde. Bloggen macht Spaß, darf aber nicht zum Selbstzweck werden…
Von 22. bis 23. November 2012 veranstaltet das Zentrum für Informationsmodellierung in den Geisteswissenschaften an der Universität Graz die 3. Tagung in der Reihe “Digitale Bibliothek”:
„Kultureinrichtungen im digitalen Zeitalter“
In den Vorträgen am Freitag, 23.11.2012 werden folgende Themen angesprochen:
Bereits am Donnerstag, 22.11.2012, werden Workshops für Museen, Bibliotheken und Archive angeboten:
In den Workshops und Vorträgen referieren Fachpersonen von Institutionen aus der Schweiz, Deutschland, Serbien und Österreich.
Detaillierte Programminformationen mit Abstracts und die Online-Registrierung finden Sie auf: http://conference.ait.co.at/digbib2012
Wir freuen uns auf Ihr Kommen!
Quelle: http://dhd-blog.org/?p=1051