Wenn in den Medien über DH berichtet wird, startet meine Rezeption immer mit gemischten Gefühlen: Freude, dass wargenommen wird, woran man arbeitet und was einen selbst interessiert; Sorge, ob ein sinnvoller Bericht dabei herauskommt und ob der Journalist oder die Journalistin auch verstanden hat, wovon er oder sie schreibt. Beim Lesen des Artikels “Mittel auf der Suche nach einem Zweck” von Thomas Thiel, FAZ, 11.2.2013, überwiegt die Freude über eine gelungene Annäherung an ein nicht ganz einfaches Thema: der zunehmende Einsatz digitaler Verfahren in den Geschichtswissenschaften und die daraus resultierenden Auswirkungen auf die Methodik und die Praxis der Geschichtsforschung bzw. Geschichtsschreibung. Am Rande rührt das natürlich auch an einer der Grundfragen, die uns wohl alle hier umtreiben: Helfen digitale Werkzeuge bei der besseren Beantwortung alter Fragen? Führen sie zu einer Veränderung der Fragestellungen? Legen sie ganz neue Fragen nahe?
Am Beispiel der Tendenz zu quantifizierenden, jedenfalls aber formalisierten Untersuchungen, die sich hier vor allem auf Textmining und Textanalyse beziehen und für den Bereich der historischen Forschung wird dies zumindest angedeutet. Dabei ist klar, dass im Mainstream der Forschung und in der journalistischen Berichterstattung zunächst nur die einfachsten Verfahren ankommen: hier das Vorkommen oder gemeinsame Vorkommen (Co-Occurence) von Wörtern in Textkorpora. Dass dabei eine gewisse Neuheit behauptet werden muss, ist der Logik des Journalismus geschuldet. Den durchschnittlichen FAZ-Leser wird schließlich nicht so sehr interessieren, dass genau diese Fragen auch schon Pater Busa vor 60 Jahren beim Aufbau seines Index Thomisticus angetrieben haben, dass sich seit Jahrzehnten die Digital Humanities und Spezialbereiche wie die Computerlinguistik oder die in den 80er und 90er Jahren des vergangenen Jahrhunderts schon einmal in Blüte gestanden habende quantifizierende Geschichtsforschung mit diesen Verfahren beschäftig(t)en und dabei theoretisch, methodisch und in der Werkzeugentwicklung sehr viel weiter als bis zum einfachen Auszählen von Co-Occurences gekommen sind.
Eine anderes – leider nicht nur journalistisches – Wahrnehmungsmuster, das in einem Blog über Digital Humanities wohl thematisiert werden kann, ist die Unschärfe bzw. Ignoranz gegenüber dem Fachbereich, der diese Wandlungen auf der Entwicklungsseite vorantreibt: den Digital Humanities. Diese kommen in dem Artikel nämlich überhaupt nicht vor. Statt dessen scheint es (einmal mehr) so, als ob Methoden und Werkzeuge entweder einfach “da” sind und in den Geisteswissenschaften nur aufgegriffen werden, oder dass sie – wie es am vorgestellten Projekt “Historical Semantic Corpus Management (HSCM)” beschrieben – in Zusammenarbeit mit (wörtlich: “assistiert von”) einem “Informatiker” entwickelt würden. Dabei wird unterschlagen, dass es eben nicht die allgemeine Informatik ist, die die informatische Wende in den Geisteswissenschaften ermöglicht, sondern mit den Digital Humanities eine eigene Disziplin, die von manchen zwar als “Fachinformatik” klassifiziert wird, deren Wesen damit aber nur unzureichend zu fassen ist. Dabei reicht ein Blick auf die Webseite des Historical Semantic Corpus Management (HSCM), um zu sehen, dass das Projekt sich sogar selbst als “Digital Humanities Project” bezeichnet. Dort ist dann zwar die Rede von einer Zusammenarbeit zwischen “humanities and informatics”. Die “informatics”-Seite wird dann aber vertreten von Alexander Mehler und der hat eben keinen Abschluss in “Informatik”, sondern “graduated in computational linguistics [... and] got his PhD in computational linguistics” (so seine Website) – und das ist ja auch gut so, wenn man eben Verfahren zum Text-Mining in historischen Korpora braucht.
Quelle: http://dhd-blog.org/?p=1398