Ein Gastbeitrag von Klaus Graf
Wer sich nicht mit dem Video (etwa bei 2:00:00) oder der Twitter-Ausbeute meines Kurzreferats auf der Sektion der AG Digitale Geschichtswissenschaft auf dem Göttinger Historikertag am 24. September 2014 begnügen möchte, kann es hier nachlesen. Die Vortragsform wurde beibehalten.
Qualität wird überschätzt. Nee, ne – das meint der jetzt nicht ernst oder? Ich sag es gern nochmal: Qualität wird überschätzt. (Und leider auch die Redezeit …)
Es ist höchste Zeit für einen Befreiungsschlag gegen die verbreitete Exzellenz-Huberei, gegen die Innovations-Meierei, das Faseln von Leuchttürmen und vergleichbare Zumutungen in Sachen wissenschaftlicher Spitzenleistungen.
Wenn wir den abgestandenen Qualitäts-Wein der traditionellen Qualitätssicherung in die neuen digitalen Schläuche füllen, wird das meiner Überzeugung nach der Wissenschaft nicht gut bekommen.
Wir neigen dazu, Qualität mit Relevanz zu verwechseln, also aktuelle Trends, das, was führende Fachzeitschriften oder das Feuilleton oder die Lektoren von C. H. Beck oder die Veranstalter des Historikertags sexy finden, mit guter Wissenschaft. Man kann aber nun wirklich nicht behaupten, dass nach Guttenbergs “Summa cum laude” oder dem als Rader-Gate bekannten Wikipedia-Plagiat in Beck-Büchern die wissenschaftliche Qualitätssicherung sich unangefochten wie eh und je in schimmernder Wehr zu präsentieren vermag.
Wissenschaftliche Qualität in den Geisteswissenschaften wird überschätzt, weil sie anders als die Life Sciences nicht die Conditio humana betrifft. Produktqualität ist etwas ganz anderes; ich erinnere nur an den letzten Tatort aus Münster zum Thema Medikamentenfälschung. Wissenschaftliches Gammelfleisch bringt niemanden um.
Wissenschaft war immer schon ein wüstes Gemenge aus genialen Einfällen, haarsträubenden Theorien und ganz viel Mittelmaß, ganz viel unspektakulärem Mühen in der Ebene oder auch “Andacht zum Unbedeutenden” (diese hat man ja bekanntlich zwei der berühmtesten Wissenschaftlern, die in Göttingen wirkten, attestiert: den Brüdern Grimm). Man kann es auch mit dem Philosophen Paul Feyerabend sagen: Anything goes. Schon ein flüchtiger Blick auf die vielen Irrtümer der Wissenschaftsgeschichte sollte genügen, um uns in Sachen quasi-olympischer Forschungs-Bestleistungen Demut und Gelassenheit zu lehren.
Zudem wird die naiv-biedere Vorstellung von solider und überprüfbarer Geschichtswissenschaft dank exzessiven postmodernen Theoriegebrauchs von unzähligen Graduiertenkollegs, die auf dergleichen Wortgeklingel spezialisiert sind, mehr und mehr ad absurdum geführt.
Wenn wir Wissenschaft als dynamischen Prozess verstehen, müssen wir dem Scheitern und dem Fragment mehr Raum einräumen als bisher. Das Missglückte und das Unvollendete, das im Blick auf den damit verbundenen Erfahrungszuwachs immer auch einen Sieg bedeutet, entzieht sich jedem Exorzismus, da wir nun einmal nicht unfehlbar sind (vom Papst einmal abgesehen). Der Tod, Demenz oder auch Altersweisheit setzen jedem individuellen wissenschaftlichen Streben Grenzen. Der eigene Forschungsprozess wird von vielen Unwägbarkeiten bestimmt; was in Nachrufen als abgerundetes Lebenswerk erscheint, ist oft genug nur eine Konstruktion ex post.
Ein Blick auf die verschiedenen hergebrachten Werkzeuge, mit denen wir Qualität auszuwürfeln pflegen, macht rasch klar, wie wenig von “Objektivität” die Rede sein kann. Nehmen wir die akademische Laufbahn: Nicht unbedingt die talentiertesten Köpfe werden Professoren. Oder Tagungseinladungen, denen allzu häufig unweigerlich der nicht weiter qualitätsgesicherte Sammelband folgt, mitunter eine üble Zumutung. Nicht Qualität setzt sich durch, sondern der Vernetzungsgrad des Autors. Selbst bei einem offenen Call for Papers kann von transparenter Auswahl noch nicht gesprochen werden. (Auf “schlechte Bücher” gehe ich diesmal nicht ein und verweise auf meinen Aufsatz von 2013 zum Thema.)
Bei Zeitschriften beginnt sich erst allmählich das Peer Review zu etablieren, meist in der Form der doppelt blinden Begutachtung anonymisierter Einreichungen durch anonym bleibende Gutachter. Nicht alle führenden deutschen geschichtswissenschaftlichen Zeitschriften praktizieren es bereits. Historische Zeitschrift und Zeitschrift für Historische Forschung tun es, bei der Zeitschrift für Geschichtswissenschaft erfolgt eine externe Begutachtung nur in Zweifelsfällen; beim Archiv für Kulturgeschichte gibt es keine Anhaltspunkte für Peer Review auf der Website. Für mich hat dieses von Forschungsförderungsorganisationen überaus gern gesehene Peer Review etwas von einem Fetisch. Hat etwa die traditionelle Qualitätssicherung der Geschichtswissenschaft, die auf die Wertentscheidung eines Herausgebers, eventuell verbunden mit redaktioneller Betreuung, setzte, in der Vergangenheit ganz und gar versagt? Wohl kaum!
Gegen das genuin naturwissenschaftliche Peer Review gibt es viele Einwände: Die Anonymität ist nicht selten unwirksam, wenn man den Verfasser leicht errät. Gutachter neigen dazu, unkonventionelle Ansätze abzuwerten. Ein Bonmot sagt: Peer Review entscheidet nur, wo etwas publiziert wird, nicht ob etwas publiziert wird. Kurz: Geisteswissenschaftliche Forschung wird nicht wesentlich besser, wenn man das Peer Review als Monstranz vor sich her trägt.
Höchst erfolgreich ist das weltweit größte Open-Access-Journal PLoS One mit seinem deutlich entschärften Peer Review: Während Fachzeitschriften wie Nature oder Science Artikel nach ihrer Attraktivität bewerten (also ob sie hinreichend sexy sind), akzeptiert PLoS One alle methodisch soliden Beiträge. Mehrere kommerzielle Klone beweisen, dass es damit im STM-Bereich einen Nerv getroffen hat. Andere Open-Access-Zeitschriften dokumentieren den Verlauf des Reviews: Man kann die Korrespondenz zwischen Herausgebern und den Autoren detailliert nachlesen, was nicht nur erfreulich transparent, sondern vor allem höchst instruktiv ist.
Erst das Internet schuf die Voraussetzungen für recht vielfältige Bewertungs-Mechanismen, die man auch in den Wissenschaften ausprobieren könnte: Empfehlungs-Systeme wie bei Amazon, Leser-Rezensionen (ebenfalls Amazon), Bewertungsportale für Hotels oder Lehrer oder Uni-Professoren, Abrufstatistiken, Zitations-Indices. “Open Review” ermöglicht es, Artikel nach ihrer Veröffentlichung zu begutachten. Solche sehr wichtigen Experimente nehmen mehr und mehr an Fahrt auf, auch wenn es sich noch um absolute Nischen-Anwendungen handelt.
Es ist inzwischen wohl hinreichend deutlich geworden, dass ich ein vehementer Verteidiger der Devise “Publish first, filter later” bin, die in Deutschland vor allem der Kunsthistoriker Hubertus Kohle vertritt. Qualitätssicherung kann auch Vorzensur und Bevormundung bedeuten.
Noch sind die Digital Humanities die Verlierer, wenn es um Macht und Einfluss geht. Es spricht aber einiges dafür, dass das bisher dominierende Motto “Das Fachpublikum, was schluckt es? Nur Gedrucktes!” an Durchsetzungskraft verliert. Es wäre indessen ein Fehler, im Bereich Open Access oder Wissenschaftsblogs auf dubiose traditionelle Werkzeuge wie das Peer Review zu setzen, um so die Akzeptanz der digitalen Produktion zu erhöhen. Stattdessen sind digitale Filter-Technologien angesagt. Beispiele: Die Redaktion von hypotheses.org wählt für die Startseite besonders gelungene Beiträge aus, es gab (umstrittene) Award-Verleihungen. Auf Twitter-Empfehlungen hat Mareike König bereits hingewiesen.
Blogs brauchen kein Peer Review und keine qualitätssichernde Redaktion, die sich die ganze Grämlichkeit des verknöcherten Wissenschaftsbetriebs zum Vorbild nimmt. Wer Quellenkritik beherrscht (jene Skepsis, von der der Bundespräsident sprach), für den ist es auch möglich, gute und schlechte Blogartikel zu unterscheiden.
Blogs sollen bunt und lebendig sein, gern auch laut und frech und polemisch. Sie dürfen Fragmente, Unfertiges publizieren und – horribile dictu – von Jetzt auf Gleich einfach so abbrechen. Blogs sollen Kritik in Form von Kommentaren ertragen können, auch wenn diese hart oder scharf formuliert ist. Scheitern ist menschlich: Das gilt für Kritisierte wie für Kritiker. Kritik und Meinungsfreiheit werden unzuträglich eingeschränkt, wenn man bei etwas zu vorlauten oder im Ton problematischen Wortmeldungen gleich Zeter und Mordio schreit.
Am eunuchenhaften Rezensionswesen kann man sehen, wie wenig wissenschaftlichen Ertrag die typische wohlwollende Wischi-Waschi-Besprechung erbringt. Über den Inhalt unterrichten inzwischen im Internet Klappentexte und Inhaltsverzeichnisse. Verrisse (wenn sie denn angebracht sind) sind allemal lehrreicher.
Über gescheiterte Blogeinträge (und natürlich auch Vorträge) dürfen wir uns gern ärgern. Wir dürfen sie auch öffentlich kritisieren. Selbst wenn wir das Scheitern nicht verhindern können, müssen wir es ja nicht bewusst anstreben. Aber wir sollten uns darüber im klaren sein, dass auch gescheiterte Blogeinträge kostbare Inkunabeln für künftige Wissenschaftshistoriker sind, die das Thema, wie die Historikerinnen und Historiker das Bloggen lernten, sicher einmal sehr spannend und sexy finden werden.