12. Das Netz und die Autohistorisierung

baumringe1Es ist nun schon gut einen Monat her, dass ich an dieser Stelle etwas zum Besten gegeben habe. In Ordnung, außer mir wird das wohl niemand bemerkt haben. Was soll ich mich auch groß entschuldigen, ich hatte einfach Dringenderes und Wichtigeres zu tun. Will man aber den im Netz kursierenden Blogratgebern glauben, so ist es natürlich fahrlässig, die eigene (überschaubare) Gefolgschaft allzu lange auf Neues warten zu lassen – als ob dem Rest der Welt tatsächlich langweilig werden würde, wenn ich zu schreiben aufhörte. Das läuft dann möglicherweise unter dem Stichwort der digitalen Kundenbindung.

Wirklich schlimm finde ich hingegen, was ich hier gerade mache, nämlich über das eigene Bloggen zu bloggen. Eine problematische, aber offensichtlich unaufhaltsame Entwicklung, die jedes Medium immer wieder zu befallen scheint, unabhängig davon, wie neu und revolutionär es sich geriert: Es kommt immer schon in sich selber vor. Das riesige mediale Angebot verführt wahrscheinlich dazu, den einfachsten Weg der Weltbehandlung einzuschlagen und sich vornehmlich mit sich selbst zu beschäftigen. Medienonanie. Dann wird in Büchern nur noch über andere Bücher geschrieben, dann werden Fernsehsendungen gemacht, die nur aus Zusammenschnitten von Fernsehsendungen bestehen und dann ist ein wesentlicher Inhalt des Internets das Internet. Fatale Auswirkungen hat eine solche Entwicklung, wenn man sich dabei selbst auf den Leim geht und tatsächlich glaubt, die Welt sei mit dieser Selbstbezüglichkeit identisch: „Ick jehe raus und kieke. Und wer steht draußen? Icke!“

Autohistorisierung

Mein völlig subjektiver und durch keine empirische Erhebung gestützter Eindruck ist, dass die Autoreferentialität im Internet, also die Tatsache, dass im Netz Themen behandelt werden, die das Netz behandeln, besonders ausgeprägt ist. Die Welt ist das Internet ist die Welt. Ein wichtiger Bestandteil dieser Nabelschau ist die Autohistorisierung. Das ist nun nicht ausschließlich netzspezifisch, aber hier besonders profiliert und gut zu beobachten. Dieses Produzieren der eigenen Geschichte als beständig mitlaufender Vorgang kann an einem trivialen Umstand festgemacht werden: Alles, was im Netz oder generell auf Computerbasis geschieht, wird sofort und immer mit einem Datum versehen. Man muss sich nicht mehr darum kümmern, gesondert zu notieren, wann man was hoch- oder heruntergeladen, bestellt, angeklickt, verschickt oder bekommen hat. Das erledigt bereits die Maschine. Auch dass alle Beiträge dieses Blogs bei Veröffentlichung automatisch mit einem Datum versehen werden, das sich sekundengenau nachverfolgen lässt, ist nicht meiner Aufmerksamkeit, sondern dem Programm zu verdanken. (Und da komme ich prompt schon wieder in mir selber vor.)

Das ist zunächst einmal eine ungemein praktische Sache. Man muss sich nicht beständig selbst fragen, wann man was gemacht hat. Das Netz und die Maschine zeichnen das getreulich auf. Bedenken kann diese Totaldatierung aber nicht nur auslösen, weil man ahnt, wer alles diese Chronologie des eigenen (Netz-)Handelns mitlesen könnte. Sie ist auch bedenkenswert mit Blick auf unseren Umgang mit Vergangenheit und unsere Produktion von Geschichte.

Denn welchen Effekt Datierungen auf unser Leben und unseren Alltag haben, wird deutlich, wenn man sich für einen Moment vorstellt, wir müssten ohne sie auskommen. Dann würden wir schlicht und ergreifend unsere temporale Orientierung verlieren. Alles und alle werden mit einem Datum versehen. Jeder Tag wird datiert, jedes Produkt erhält ein Herstellungs- und/oder Verfallsdatum und jeder Mensch bekommt einen Geburtstag sowie andere kulturell signifikante Daten zugeordnet. Diese Form der Verzeitung aufzugeben, ist schlicht unvorstellbar, weil unsere Welt ohne sie kollabieren würde. Man muss sich nur die Panikattacken in Erinnerung rufen, die kurz vor dem Jahr 2000 ausbrachen, als die Möglichkeit diskutiert wurde, die Datierungssysteme von Computern könnten aufgrund ihrer ursprünglichen Programmierung die Umstellung auf eine 2 mit drei Nullen nicht bewältigen. Y2K ließ für ein paar Wochen die Vision aufscheinen, wie eine Welt ohne korrekte Datierung aussehen würde. Eine gänzlich geräuschlose Apokalypse. Es hat sich möglicherweise noch nicht herumgesprochen, aber Datierungssysteme von Staaten und Volkswirtschaften, wie Atomuhren oder ähnliches, könnten es seitdem auf die Liste lohnender Ziele für terroristische Anschläge geschafft haben.

Der Geburtstag des Geburtstags

Man könnte die Geschichte westlicher Kulturen auch als eine Geschichte der zunehmenden Datierung schreiben. Wenn in unserer eigenen Gegenwart keine Einkaufsquittung und keine Foto ohne automatisch hinzugefügtes Datum auskommt, dann muss man sich die Frage stellen, wann und wie uns diese Datierungswut heimgesucht hat. Obwohl: Heimsuchung ist kein guter Ausdruck, denn auch diese Zahlensuppe haben wir uns selbst eingebrockt. Anhand der Praxis, das eigene Leben zeitlich zu strukturieren, das eigene Alter und auch den eigenen Geburtstag zu kennen, kann man dieser Kulturtechnik auf die Schliche kommen. Lässt sich damit die Datierung datieren? Wohl kaum, denn einen Ursprung gibt es nicht. Man kann aber feststellen, dass es über Jahrhunderte hinweg gänzlich unbedeutend war, das Datum der eigenen Geburt oder das eigene Alter zu kennen. Das änderte sich allmählich seit dem Spätmittelalter, wenn auch zunächst in sozial höher gestellten und gebildeten Kreisen. Dort war es im 15. oder 16. Jahrhundert schon durchaus üblich, den Geburtstag mit Tag, Monat und Jahr angeben können. Allmählich diffundierte diese Praxis dann in weitere soziale Kreise, so dass man ab dem 18. Jahrhundert davon ausgehen konnte, dass ein Großteil der Menschen den eigenen Geburtstag kannte. [1]

Man muss für die Schritte zu einer zunehmenden Datierung des eigenen Lebens sowie der gesamten Welt sicherlich ganz pragmatische, rechtliche Aspekte heranziehen (zum Beispiel Kenntnis des genauen Lebensalters zur Erfüllung bestimmter rechtlicher Vorgaben). Aber dahinter steckt auch ein anderer Umgang mit Zeit und eine neue Aufmerksamkeit für Geschichte. Denn wenn ein Phänomen einer spezifischen Zeitreihung, womöglich schon einer bestimmten Epoche zugeordnet wird, wenn es also datiert werden kann, dann kann es auch out of date sein. Auf Datierungen zu verzichten, wäre dann ein Hinweis darauf, dass solche Formen der tagesgenauen Historisierung als nicht besonders bedeutsam angesehen werden. Warum soll man seinen eigenen Geburtstag kennen, wenn der eigentlich wichtige Lebensabschnitt im Jenseits stattfindet und ewig währt? Mit Datierungen zu arbeiten, bedeutet hingegen, an die Stelle der Ewigkeit die Zeitlichkeit zu setzen. Sind Dinge erst einmal mit einem Datum versehen, beginnt auch schon ihre historische Uhr zu ticken. Dann kann etwas brandneu, aktuell, veraltet, historisch oder altehrwürdig sein – und zwar einfach weil, gemessen am Datum, die Zeit vergeht. [2]

Die Zeit des Ereignisses

Zeit und Bedeutung werden damit entkoppelt – um sie im Anschluss auf neue Art wieder zusammenzuführen. In Kulturen mit nur rudimentären Datierungstechniken richtet sich die Zeit stärker nach den Ereignissen. Es ist  eher von Bedeutung, was passiert ist (der kirchliche Feiertag, die Krönungszeremonie, das Naturereignis), als genau angeben zu können, wann es passiert ist. Inzwischen hat sich dieses Verhältnis längst umgekehrt, denn nun werden die Ereignisse in die Logik des Kalenders eingepasst. Deswegen können für uns auch Daten zu Bedeutungsträgern werden, ohne dass man explizieren muss, welches Ereignis sich damit verbindet: der 9. November, das Jahr 1968 oder 9/11. [3]

Das Wort ‚Datum‘ suggeriert mit seinen lateinischen Wortwurzeln, es sei etwas Gegebenes. Und in der Tat sind diese sehr abstrakten Zahlenkombinationen, mit denen sich Tage, Monate und Jahre bezeichnen lassen, an sich bedeutungsleer. Ihnen lassen sich aber, gerade aufgrund ihrer ursprünglichen Inhaltsleere, sowohl auf der individuellen wie auf der kollektiven Ebene verschiedene Bedeutungen zuschreiben, so dass man beispielsweise das Datum des 30. Januar 1933 nicht mehr unbefangen verwenden kann. Aus dem (gegebenen) Datum wird ein (gemachtes) Faktum.

Möglicherweise verbindet sich mit der Dauerdatierung nicht nur, aber auch im Internet der Wunsch und Wille, die Geschichte bereits vorproduzieren, die irgendwann über uns geschrieben wird. Dass es sich dabei allerdings um eine Illusion handelt, ist nicht die einzige Lehre, welche die Beschäftigung mit der Geschichte für uns parat hält.

[1] Jean-Claude Schmitt: L’invention de l’anniversaire. Paris 2010

[2] Lothar Müller: „Hier kam ich am 30. September 1659 an Land.“ Nachrichten aus der Einsamkeit: Über Robinson Crusoe und den Jahrestag seiner Ankunft auf der Insel, der zugleich sein Geburtstag war. In: Süddeutsche Zeitung 30.09.2009, 14

[3] Thomas Macho: Der 9. November. Kalender als Chiffren der Macht. In: Merkur 54 (2000) 231-242


Einsortiert unter:Geschichtsmedien Tagged: Autohistorisierung, Autoreferentialität, Datierung, Geburtstag, Internet; Datum

Quelle: https://achimlandwehr.wordpress.com/2013/09/28/12-das-netz-und-die-autohistorisierung/

Weiterlesen

11. Gabriel und die Theorie- resistenz der Wirklichkeit

back-dir-deine-welt-ausstechformen-berlin_0Schon seit Wochen begeistert sich das Feuilleton für die Frage, warum es die Welt nicht gibt. Autor des gleichnamigen Buchs ist Markus Gabriel, bei dessen Vorstellung immer wieder drauf hingewiesen wird, wie jung, polyglott und international renommiert er ist. Und jetzt auch noch ein Buch, bei dem sich alle freuen, dass es keine Richard-David-Precht-Philosophiepampe ist, sondern ernsthaftes Nachdenken, das trotzdem nachvollziehbar bleibt und es sogar in die Spiegel-Bestseller-Liste schafft.

Wie sieht es da aus, wenn ein bereits mittelalter, nicht ganz so vielsprachiger und weniger ins Ausland eingeladener Mensch, der es wohl nie auf irgendeine Bestseller-Liste schaffen wird, an diesem Buch rumzumäkeln versucht? Nicht gut. Da kann man nur verlieren. Aber wie mir einer meiner Sportlehrer durchaus mal hätte sagen dürfen (es aber bedauerlicherweise niemals getan hat): Besser verlieren als gar nicht mitspielen. (Stattdessen gab es faschistoide Sportlehrersprüche wie: „Was nicht tötet, härtet ab.“ Nun ja …).

Ich baue einfach darauf, dass dieser Beitrag zum Ausklang der Sommerferien erscheint, wenn noch alles am Strand liegt und niemand Blogs liest. Nichts weiter als ein kurzes Knacken im Netzrauschen.

Der Zusammenhang aller Zusammenhänge

Da das hier keine Rezension wird, muss ich Gottseidank auch keinen systematischen Gang durch die Argumentation des Buchs unternehmen. Da gibt es viel Kluges und Erfreuliches, nicht zuletzt die Tatsache, dass es offensichtlich für eine gehörige Portion Menschen einen Anlass darstellt, sich mal wieder (oder überhaupt erstmals) auf erkenntnistheoretische Fragen einzulassen. Aber es gibt auch Ärgerliches, und das betrifft nicht zuletzt die grundlegenden Thesen dieses Buchs.

Ich lasse an dieser Stelle einmal den Umstand beiseite, dass Postmoderne und Konstruktivismus von Gabriel als ziemlich inhaltsleere Pappkameraden aufgebaut werden („Alles Illusion!“ – so soll der Konstruktivismus angeblich behaupten), um sie mit einem lässigen Fingerschnipsen von der Bühne zu befördern; oder dass es in der Argumentation auch einige interne Widersprüche gibt; oder dass es elend schlecht ist, den großen Richard Rorty als „elend schlechten Philosophen“ zu bezeichnen. Nein, gehen wir gleich aufs große Ganze, weil sich hier unter Umständen ja auch erweisen kann, welche Bedeutung diese Überlegungen für die Geschichte haben kann – und umgekehrt.

Die zentrale These steckt bereits im Titel: Die Welt als das alles Umfassende, als den Zusammenhang aller Zusammenhänge gibt es nicht. Was es stattdessen gibt, ist eine Vielzahl kleiner Welten, die nebeneinander existieren, sind so genannte „Sinnfelder“, in denen uns diese Welten erscheinen und mit denen wir umgehen. Insgesamt hört dieser Ansatz auf den Namen „Neuer Realismus“. Genau genommen wartet dieser „Neue Realismus“ weniger mit einer These, sondern vor allem mit einer Behauptung auf – dass es „die Welt“ nämlich nicht gibt (alles andere aber schon). Warum es „die Welt“ nicht geben soll, wird weder begründet noch argumentativ hergeleitet, sondern schlicht konstatiert. Punkt. Nur: Wenn es die Welt nicht gibt, wie kann Gabriel dann darüber reden, dass es sie nicht gibt?

Unverständliches Weltverbot

Bereits hier – und wir sind eigentlich erst am Anfang des Buchs – wird es meines Erachtens seltsam. Erstens verstehe ich nicht, warum es die Welt nicht geben darf. Es mag ja durchaus sein, dass ein solcher Zugang hilfreich sein könnte, aber dann hätte ich dafür bitte auch eine anständige Begründung. Sich den allumfassenden Zusammenhang aller Zusammenhänge vorzustellen, erfordert fraglos einiges Abstraktionsvermögen – das gilt aber ebenso für die von Gabriel angeführten Sinnfelder, sagen wir einmal: Wirtschaft oder Gesellschaft oder Politik. Die sind zwar nicht „die Welt“, sind deswegen aber keineswegs besser zu handhaben. Zweitens ist es seltsam, warum es in Gabriels Argumentationszusammenhang etwas nicht geben soll, wovon er selbst so viel Worte macht. Er redet die ganze Zeit von der Welt, die es nicht gibt – wie aber soll das möglich sein, wenn es sie nicht gibt? Alles soll es geben, selbst Einhörner auf der Rückseite des Mondes, nur die arme Welt darf es nicht mehr geben. Was aber, wenn das der Welt ziemlich egal wäre? Er bemüht sich so intensiv darum, etwas zu zertrümmern, worüber wir uns offensichtlich verständigen können (ansonsten könnten wir nicht darüber reden), dass man sich irgendwann zwangsläufig fragen muss, wozu der ganze Aufwand eigentlich gut sein soll. Da kommt eine schnittige Behauptung daher, die zunächst vielleicht viel Staub aufwirbeln mag, die schlussendlich aber wenig mehr als warme Luft ist – und mehr braucht man ja auch nicht zum Staubaufwirbeln.

Zeitmangel, Menschmangel

Auffallender Weise fehlen dieser Welt, die es nicht geben darf, zwei Dinge, die ich für nicht ganz unwichtig halte: Menschen und Zeit. Denn, wie Gabriel auch selbst öfter unterstreicht, die Tatsachen der Welt sind gegeben, sind Tatsachen an sich (S. 59),  da muss man nicht groß rumdiskutieren, ansonsten wären wir ja auch schon in der Nähe des Konstruktivismus, den er zu scheuen scheint wie der Teufel das Weihwasser. Auch ist die Welt (von der Gabriel selbst immer wieder spricht, obwohl es sie nicht geben darf, z.B. S. 62) in verschiedene Bereiche eingeteilt, in Gegenstandsbereiche oder Sinnfelder. Aber offensichtlich scheint niemand diese Kategorisierung vorgenommen zu haben, sie ist schlicht gegeben – auch wenn man sich damit in gefährliche Nähe eines biblischen Schöpfungsaktes begibt. Nur wird dadurch die Welt, die es nicht geben darf (und von der man dann auch gar nicht mehr weiß, wie man sie bezeichnen soll), seltsam steril. Da ist niemand, der irgendetwas tut, und da ist auch gar nichts, was sich verändern könnte. Das merkt man an den wenigen historischen Ausflügen, die Gabriel unternimmt. So behauptet er beispielsweise, dass es sich bei frühneuzeitlichen Hexendiskursen um „Geschwätz“ handele, weil es keine „Gegenstandsbereiche“, sondern nur „Redebereiche“ seien. Dementsprechend enthielten historische Texte über Hexen auch kein Wissen, weil es Hexen ja nicht gebe (S. 53). In der Logik einer Welt, die auf radikale Eindeutigkeit aus ist, mag das funktionieren. Man frage aber einmal die Menschen, die als Hexen verbrannt worden sind, von Hexen verzaubert wurden oder Hexen verurteilt haben, ob sie ebenso davon überzeugt waren, dass es sich nur um „Geschwätz“ handelte.

Gabriel steht, wie an vielen Stellen deutlich wird, in der Tradition der analytischen Philosophie, und vertritt in deren Gefolge offensichtlich die Vorstellung, dass es eine (und zwar nur eine) mögliche Weltdeutung geben müsse, die man mit den entsprechenden (wissenschaftlichen) Methoden ausfindig machen kann. Das bedeutet aber, dass in dieser Welt nicht nur keine Menschen mit all ihren Eigensinnigkeiten vorkommen, sondern dass diese Welt auch keine Geschichte haben darf (oder dass diese Geschichte zumindest bald an ein Ende kommen muss), um den Veränderungen der Weltdeutung (oh, Entschuldigung, schon wieder von „Welt“ gesprochen) eine Ende zu setzen. Hier scheint eine seltsame Verkehrung vonstatten zu gehen: Die Wissenschaft ist nicht mehr dazu da, um Wirklichkeit besser verstehen zu können, sondern die Wirklichkeit hat sich gefälligst nach den Vorgaben der Wissenschaft zu richten.

Theorieunfähigkeit

Ich habe demgegenüber den schweren Verdacht, dass die Welt (oder die Wirklichkeit oder die Realität oder wie man dieses Ding auch immer bezeichnen will, selbst wenn man es nicht mehr bezeichnen darf) nicht theoriefähig ist. Zumindest nicht mit unseren bescheidenen Mitteln. Die Welt (jawohl, genau die) ist zu komplex, um in ein paar abstrakte Sätze gepackt zu werden, die sich auf einer übersichtlichen Anzahl von Seiten zwischen zwei Buchdeckel klemmen lassen. Gut, dieses Argument ließe sich leicht gegen mich selbst wenden, weil es nur belegt, dass meine eigenen bescheidenen Kompetenzen einfach nicht ausreichen, um eine solche Theorie zu erkennen, geschweige denn selbst zu formulieren (was ich sofort eingestehe).

Aber ich hätte noch zwei kleine empirische Befunde, die nach meinem Dafürhalten die Theorieresistenz der Wirklichkeit unterstreichen können. Erstens ist es bisher noch keinem theoretischen Entwurf gelungen, eine hinreichend zufriedenstellende Fassung der Welt zu präsentieren, denn ansonsten müssten wir ja nicht immer wieder neue Anläufe dazu nehmen. Und dass diese Letztbeschreibung noch nicht gelungen ist, ist auch gut so, denn ansonsten wären Herr Gabriel und ich und eine Unmenge anderer Wissenschaftlerinnen und Wissenschaftler arbeitslos. Stattdessen lässt man uns weiter fahnden nach der Welt, die es gibt oder auch nicht.

Die einzige Art, die ich mir vorstellen kann, um Welt und Wirklichkeit in einem immer unzureichenden Sinn fassbar zu machen, ist die erzählende. Ein Grund, warum ich mit meiner Berufswahl als Historiker immer noch ganz zufrieden bin.

[Markus Gabriel: Warum es die Welt nicht gibt, Berlin 2013]


Einsortiert unter:Geschichte und Wirklichkeit, Geschichtstheorie Tagged: Markus Gabriel, Warum es die Welt nicht gibt, Welt, Wirklichkeit

Quelle: https://achimlandwehr.wordpress.com/2013/08/25/11-markus-gabriel-und-theorieresistenz-der-wirklichkeit/

Weiterlesen

10. Philipp II. und die Welt als Tisch

Tisch

Im Windschatten allgemeiner Aufmerksamkeit

Jeden Tag benutzen wir sie: Tische in unterschiedlichsten Formen, als Esstisch, als Schreibtisch, als Konferenztisch, als Kaffeetisch, als Nachttisch, als Wickeltisch, als Stammtisch und manchmal sogar als Katzentisch. Und das ist eine recht unvollständige Auflistung. Es bedarf nicht vieler Argumente, um die menschliche Abhängigkeit vom Tisch sowohl im Allgemeinen wie im Besonderen zu belegen. Wir verbringen jeden Tag so viele Stunden an diesem unscheinbaren Möbel, dass es zu Lasten unserer Gesundheit geht und sich ganze Dienstleistungszweige ausgebildet haben, die sich den Auswirkungen einer „vertischten“ Gesellschaft widmen.

Bei allen gesundheitlichen Spätfolgen, die das Leben am Tisch mit sich bringt, gilt es hinreichend zu würdigen, dass der Tisch für die Gattung Mensch eine ungemein nützliche Erfindung ist. Sein spezifischer Knochenbau mit diversen Scharniergelenken (Knie, Hüfte, Ellenbogen) prädestiniert den Menschen zu einer sitzenden Haltung. Und da der Mensch nun einmal dazu tendiert, die Welt so einzurichten, wie es seinen physischen Voraussetzungen entspricht, zieht er in dieser sitzenden Position gleich noch einen Tisch heran, um dort sein Essen abzustellen, Papier zu stapeln oder die Ellenbogen aufzustützen. Man kann ohne Übertreibung behaupten, dass die Erfindung des Tisches kaum weniger bedeutsam ist als die Erfindung des Feuers oder des Rades.

Dass der Tisch aber üblicherweise nicht in eine Reihe mit diesen grundlegenden Erfindungen der Kulturgeschichte gestellt wird, könnte ein Beleg für die klugen Schachzüge (Schach – ein Tischspiel!) dieses Möbels sein, seine weltfundierenden Funktionen geschickt zu verbergen, um im Schatten der öffentlichen Aufmerksamkeit umso effektiver zu agieren. Denn in seiner vermeintlichen Schlichtheit und stillen Zurückhaltung versteht es der Tisch, den Umstand zu verdecken, dass er weit mehr ist als ein Gebrauchsgegenstand. Im Tisch steckt nichts weniger als ein umfassendes Ordnungsmodell, ein Entwurf unserer Welt. Der Tisch repräsentiert nicht einfach nur eine bestimmte Sicht auf unsere Welt, sondern er macht uns diese Welt überhaupt erst verfügbar. Und man könnte sogar die etwas irritierende Frage stellen, ob wir uns wirklich des Tisches bedienen, um die Welt zu bewältigen, oder ob es nicht vielmehr der Tisch ist, der uns seine Version der Welt vorführt, sie uns geradezu „auftischt“.

Ein entmythisierter Atlas

Unter unseren Händen, Tellern, Papierstapeln und Computerbildschirmen ächzt also nicht einfach nur ein bewährtes Stück Materialität, das unserer Zivilisation schon viele Dienste erwiesen hat. Vielmehr stützen wir uns auf eine der zentralen Möglichkeiten, wie wir uns der Welt überhaupt noch versichern können. Der Tisch ist unser entmythisierter Atlas, der für zwar nicht mehr das Himmelsgewölbe auf seinen Schultern, aber all unsere Weltentwürfe auf seiner Platte trägt.

Wie aber konnte das geschehen? Wie kam die Welt auf den Tisch und wie wurde der Tisch zur Welt? Es hängt wohl nicht zuletzt mit dem wachsenden Radius menschlicher Aktivität zusammen. Der Expansionsdrang des Menschen, der auf mehr Macht, mehr Geld, mehr Wissen und überhaupt mehr von allem abzielt, neigt dazu, den unmittelbar zugänglichen Ausschnitt der Welt als nicht mehr ausreichend anzusehen. Dem Willen nach Mehr wird der eigene Vorgarten irgendwann zu eng. Dieses Mehr an Welt wird jedoch mit einem paradoxen Effekt erkauft – nämlich einem gleichzeitigen Weniger an Welt. Je weiter wir ausgreifen, um mehr von dieser Welt zu wissen, mehr von ihr zu besitzen und mehr von ihr zu beherrschen, desto weniger können wir diese Welt in unmittelbarer Weise erfahren. Wir müssen uns technischer Hilfsmittel bedienen, um mit ihr überhaupt noch umgehen zu können – und an genau dieser Stelle kommt der Tisch ins Spiel.

Man sollte sich davor hüten, hier eine historisch konsequente und von Anfang an zielgerichtete Geschichte zu erzählen, die unweigerlich auf mehr Tisch und weniger Welt hinausläuft. Aber man kann einige Stationen in der globalen Tischgeschichte herauspicken, anhand derer sich der Erfolg dieses Möbels nachvollziehen lässt. Auffallender Weise wurde der Tisch immer dann zum Inbegriff von Welt, wenn der Mensch sich von eben dieser Welt abwandte. In der Politik übernahm er seine tragende Rolle beispielsweise in dem Moment, als Herrscher keine Schlachten mehr schlugen, sondern nur noch von anderen schlagen ließen, um stattdessen Figürchen oder Fähnchen auf einem mit einer Karte bedeckten Tisch hin- und herzuschieben; oder als diese Herrschenden sich nicht mehr in die Welt hinein bewegen wollten, ihren Herrschaftsbereich nicht mehr selbst bereisten, wie es die mittelalterlichen Fürsten und Könige noch getan hatten, sondern sich in ihre allmählich gemütlicher werdenden Schlösser zurückzogen, um anschließend nur noch mittels Akten zu regieren, die man – ja, genau – auf den Tisch legen konnte: „My desk is my castle“.[1]

Schreibtischtäter

Unabhängig davon, ob es sich um die Welt der Politik oder der Wirtschaft oder eines anderen Lebensbereichs handelt, es sind immer Tische, auf denen sämtliche Informationen zusammenlaufen. Hier befindet sich der Nabel der (jeweils eigenen) Welt, hier kommt alles an und von hier geht alles weg. Auch unsere Bilderwelt ist angefüllt von Tischen als Inbegriffen der Macht. Es sind Konferenzräume oder Büros, in deren Mitte ganz selbstverständlich immer ein Tisch steht. Und will man Regierende bei der Tätigkeit des Regierens zeigen, dann lässt man sie an diesen Tischen sitzen. Die Fernsehnachrichtenbilder der Zusammenkünfte von Regierungsmannschaften sprechen eine deutliche Sprache, denn es ist der Kabinettstisch, von dem aus die Geschicke des Landes, wenn nicht der ganzen Welt entschieden werden. Je bedeutsamer der Tisch (und die Tischbenutzer), desto weitreichender die Auswirkungen, die von ihm ausgehen.[2]

Vor diesem Hintergrund macht der Ausdruck des „Schreibtischtäters“ auch überhaupt erst Sinn. Denn als Figur wie als Begriff bringt er genau dieses Tisch-Paradox zum Ausdruck, wonach der Tisch ein Mehr an Welt gewährleistet, indem er immer weniger Welt unmittelbar an den Tischbenutzer heranlässt. Man kann am Tisch Entscheidungen und Handlungen von ungeheurer Tragweite treffen, riesige Mengen Geldes bewegen, über das Leben von Millionen entscheiden, Länder zu ungeheurer Macht oder zum vernichtenden Untergang führen – ohne sich auch nur einmal von diesem Möbel entfernt zu haben. Aber man sollte nicht vorschnell davon ausgehen, dass der Schreibtisch diese Funktion erst im Zeitalter moderner Bürokratie und Telekommunikation erlangt hat.

Es gibt berühmte Beispiele von Herrschern, die ihren Tisch zum Zentrum der Welt machten und die Welt auf ihren Tisch konzentrierten. Einer der bekanntesten ist Philipp II. von Spanien (1527-1598), der in der zweiten Hälfte des 16. Jahrhunderts tatsächlich über ein Imperium herrschte, das sich auch für den reiselustigsten Regierenden in dieser Zeit nicht mehr unmittelbar erfahren ließ; und was den direkten Kontakt mit der Welt anging, war Philipp II. ohnehin nicht der Engagierteste. Lieber schloss er sich in seinem als Kloster angelegten Herrschaftssitz Escorial ein und erwartete, dass die Welt zu ihm kam, auf seinen Schreibtisch. Das gesamte koloniale Riesenreich Spaniens, von Amerika über die Besitzungen in Italien bis nach Asien, wurde vor allem über das Studium von Akten kontrolliert. Nicht nur das, auch in seinem unmittelbaren Lebensbereich am Hof korrespondierte Philipp am liebsten über Notizen und Zettel, die er an seinem Schreibtisch verfasste. Das Leben als Schreibtischmonarch kam seinem Charakter entgegen, denn er galt als verschlossen und kontaktscheu, eigentlich unnahbar. Die Existenz am Schreibtisch erlaubte ihm, immer mehr von der Welt auszuschließen, um gleichzeitig immer mehr mit diesem Möbel zu verschmelzen. Er verzichtete ab 1559 nicht nur auf Reisen außerhalb Spaniens, sondern verließ auch sein Zimmer im Escorial in späteren Jahren nur noch für den Gottesdienst. Man mag es daher kaum als Zufall ansehen, dass ihn auch die typischen Gebrechen eines Schreibtischmenschen ereilten: Er soll der erste Monarch gewesen sein, der eine Brille benutzte, und gegen Ende seines Lebens war er an den Rollstuhl gefesselt, verbrachte seine Zeit also in einer Körperhaltung, die – so zynisch das auch klingen mag – wie angegossen zum Schreibtisch passt.[3]

Der Tisch ist eine Scheibe

Seit Philipp II. ist die neuzeitliche Geschichte gepflastert mit Menschen (nicht selten männlichen Geschlechts), die die Macht des Schreibtischs zu nutzen wussten. In der allgemeinen Diskussion hat sich dabei die Auffassung etabliert, es gäbe eine fundamentale Trennung zwischen dem Schreibtischleben und dem wahren Leben „dort draußen“, in der harten, kalten Realität. Aber diese Vorstellung ist mit einem Fragezeichen zu versehen. Denn Welt und Tisch auf diese Weise in Opposition zueinander zu setzen, führt in die falsche Richtung. Vielmehr muss man festhalten, dass der Tisch eine Fortsetzung der Welt mit anderen Mitteln ist: Die Welt wird „tischbar“.

Und dass sich die Gegenwart des frühen 21. Jahrhunderts die Welt immer noch auftischt, muss nicht großartig bewiesen werden. Die jüngsten medialen und technischen Entwicklungen können und wollen sich nicht von der Tischförmigkeit des Weltzugriffs lösen. Die Benutzeroberfläche des Computers nennt sich „Desktop“, und der Tablet-Computer kommt als „Tischchen“ mit dem Versprechen daher, uns die Welt umfassend zur Verfügung zu stellen. Erheben wir uns also nicht arrogant über frühere Zeiten und andere Kulturen. Die Erde war noch nie eine Scheibe, aber die Welt ist immer noch ein Tisch. Wir sind da kaum weiter gekommen. Oder haben Sie schon einmal einen Tisch in Kugelform gesehen?

[1] Uta Brandes/Michael Erlhoff (Hg.): My Desk is my Castle. Exploring Personalization Cultures, Basel 2011.

[2] Jacqueline Hassink: The Table of Power. Amsterdam 2000; Jacqueline Hassink: The Table of Power 2. Ostfildern 2011.

[3] Arndt Brendecke: Imperium und Empirie. Funktionen des Wissens in der spanischen Kolonialherrschaft, Köln/Weimar/Wien 2009.


Einsortiert unter:Geschichte und Materialität, Geschichtskultur Tagged: Materialität, Möbel, Philipp II. von Spanien, Schreibtisch, Tisch, Welt, Wirklichkeit

Quelle: https://achimlandwehr.wordpress.com/2013/07/12/10-philipp-ii-und-die-welt-als-tisch/

Weiterlesen

09. Brockhaus und die Fragilität des Wissens

Brockhaus_Lexikon_17_Bande_WK_01Aufräumarbeiten in der Vergangenheit

Wieder einmal klappt er zu, der Sargdeckel des Veralteten. Ein historisches Kapitel wird beschlossen, ein lange Zeit vertrautes Element verabschiedet sich aus der Wirklichkeit, ein bislang selbstverständliches Phänomen verlässt das Hier und Jetzt – und lenkt damit unseren Blick auf eben diese Wirklichkeit, in der wir leben.  Den Brockhaus wird es in Zukunft nicht mehr geben. Nach mehr als 200 Jahren wird dieser einst als unverzichtbar geltende Hort des Wissens, der in keinem sich selbst als bildungsbürgerlich verstehenden Haushalt fehlen durfte, der Entropie der Geschichte zum Opfer fallen. Oder muss man genau genommen nicht davon sprechen, dass es ihn schon länger nicht mehr gibt? Denn die wirtschaftlichen Probleme und zurückgehenden Absatzzahlen, in denen die sinkende Bedeutung dieses Nachschlagewerks ihren unerbittlichen Ausdruck findet, sind ja nicht über Nacht aufgetaucht. Schon länger schwächelt der Brockhaus, weshalb die nun getroffene Ankündigung wie die Hinnahme einer schon länger bestehenden Tatsache anmutet. Die Entwicklungen der jüngeren Zeit – 2012 wurde bereits bekannt gegeben, dass die altehrwürdige „Enyclopaedia Britannica“ nur noch digital erscheint – sind wohl eher Aufräumarbeiten in den Halden einer abgeschlossenen Vergangenheit. Die Reaktionen auf das Brockhaus-Ende sind daher auch weniger durch ein kulturpessimistisches „Was soll jetzt werden?“ als vielmehr durch ein erleichtertes „Wurde aber auch Zeit“ geprägt.

Mit was für einer Veränderung haben wie es hier zu tun? Handelt es sich um eine Verschiebung lexikalischen Wissens vom Bücherregal auf den Bildschirm? Oder wird hier das gewinnorientierte Verlagsunternehmen durch die kollaborative Schwarmintelligenz abgelöst? Oder überholt die Hochgeschwindigkeit des Virtuellen die Trägheit des Gedruckten? Ohne Frage sind all das Faktoren, die sich am Beispiel des Endes klassischer Enzyklopädien beobachten lassen. Schließlich ist es nur zu offensichtlich, dass in der derzeitig vorherrschenden Lexikalisierung von Wissen eine Transformation stattgefunden hat (und weiterhin stattfindet), dass teure und verhältnismäßig schwerfällige Buchprodukte nicht mehr mit kostenlosen und flexiblen Internetangeboten konkurrieren können und dass die Ansprüche an Verfügbarkeit und Aktualisierbarkeit des Wissens einer unübersehbaren Beschleunigung unterliegen.

Beständige Anpassung

Aber ist das aktuelle Ereignis des Brockhaus-Endes tatsächlich ein Indiz für den Abschluss einer historischen Entwicklung? Wir haben es mit dem Ende eines Wirtschaftsunternehmens zu tun, aber nicht – in einem tragischen Sinn – mit dem Ende eines Kapitels der Kulturgeschichte oder – in einem emphatischen Sinn – mit einem Beleg für eine Revolution des Wissens. Wir sind vielmehr Zeugen einer erneuten Transformation der Wissensorganisation, von der einst auch Brockhaus profitierte. Denn das seit 1808 erscheinende Konversationslexikon war wahrlich nicht das erste seiner Art. Schon ein Jahrhundert zuvor hatte sich das nur als „Hübner“ bekannte „Reale Staats- Zeitungs- und Conversationslexicon“ etabliert. Es war um 1700 aus der Notwenigkeit heraus entstanden, die im noch relativ jungen Medium der Zeitung behandelte Welt der Gegenwart zu thematisieren. Wissen sollte sich also nicht mehr nur auf klassische und gewissermaßen ewig gültige Inhalte beziehen, sondern hatte nun auch das Hier und Jetzt zu behandeln. Denn die Welt, wie sie der Leserschaft in der periodisch erscheinenden Zeitung vor Augen trat, war durchzogen von Phänomenen, Personen, Ereignissen, Institutionen und Begriffen, die nicht ohne weiteres verständlich waren. Die Gattung des Zeitungs- und Konversationslexikons sollte hier Abhilfe schaffen.

Schon dieses neue Informationsmedium lebte von der Beschleunigung des Wissens, denn Voraussetzung seines Erfolgs war, dass es sich an die permanent verändernde Gegenwart anpasste und in beständig verbesserten Auflagen erschien. Andere Enzyklopädien, die seit dem 16. Jahrhundert (und auch noch parallel zu den neuen Konversationslexika im 18. Jahrhundert) erschienen, waren Einmalprodukte. Sie traten mit dem hypertrophen Anspruch auf, das Wissen der Welt in einer letztlich vollständigen und vor allem dauerhaft gültigen Form zu versammeln. Aber selbst bei diesen einmalig erscheinenden Enzyklopädien lassen sich Phänomene nicht übersehen, die einer Dynamisierung des Wissens dienen sollten. Denn hatten ältere Exemplare noch auf ein topisches und systematisches Wissensverständnis gesetzt, indem sie ihre Inhalte in Themenbereichen anordneten, sprengten spätere Veröffentlichungen diese Einheit auf. Sie gingen zu einer alphabetischen Organisation des Wissenskosmos über, wodurch keinerlei inhaltlicher Zusammenhang mehr sichtbar wurde. Die Einheit des Wissens wurde geradezu zerfetzt, indem man sie der zufälligen Zuordnung der Buchstabenfolge überließ. Dadurch konnten solche Lexika aber zugleich als schnellere Nachschlagewerke genutzt werden, die überhaupt nicht mehr die Intention hatten, zur Gänze gelesen zu werden.

Die Beständigkeit des Unbeständigen

Vor diesem Hintergrund ist das Ende des Brockhaus überhaupt kein Ende. Der Wandel des Mediums und die zunehmende Dynamisierung des Wissens sind nur konsequente Fortsetzungen von Prozessen, die schon seit Längerem zugange sind. Aufschlussreicher ist daher möglicherweise die Frage nach der Kultur, die Wissen für sich in einer bestimmten lexikalischen Form organisiert. Wenn das Wikipedia-Prinzip inzwischen das Brockhaus-Prinzip abgelöst hat, dann überwindet hier nicht nur das schnellere Internet das langsamere Buch. Dann wird vor allem eine Unbeständigkeit und Unsicherheit des Wissens etabliert, die wesentlich bedeutsamer zu sein scheint. Der gedruckte Brockhaus arbeitete mit einer Verbindung von Zeit und Wissen, die wenn schon nicht auf Ewigkeit, dann zumindest auf Dauerhaftigkeit setzte. Wissen war stabil – oder hatte zumindest stabil zu erscheinen. Demgegenüber funktioniert Wikipedia nicht nur auf der Basis des Prinzips, dass Wissen immer aktualisiert werden muss, sondern dass es sich von den Grundlagen bis in die kleinsten Verästelungen hinein beständig verändern können muss. Die Fragilität des Wissens tritt an die Stelle der Stabilität. Und wenn man sich der Beständigkeit des Wissens über die Welt unsicher geworden ist, dann macht seine Materialisierung in Papierform auch keinen Sinn mehr. Wenn das Ende des Brockhaus also etwas über unsere Wirklichkeit verrät, dann über den fragilen Status des Wissens.


Einsortiert unter:Geschichtskultur, Geschichtsmedien Tagged: Brockhaus, Enzyklopädie, Wikipedia, Wissen

Quelle: https://achimlandwehr.wordpress.com/2013/06/17/09-brockhaus-und-die-fragilitat-des-wissens/

Weiterlesen

08. Michon und die Faktizität des Fiktionalen

BilderrahmenGemalte Ambivalenz

Eine Begebenheit aus der Französischen Revolution: Die Herrschaft des Wohlfahrtsausschuss unter Robespierre hat seinen Höhepunkt erreicht, der Terreur wütet und die Guillotinen verrichten ihre Arbeit. Im Winter 1793 wird der Maler François-Elie Corentin beauftragt, ein Gemälde der elf Mitglieder des Wohlfahrtsausschusses anzufertigen. Selbstredend ist es das Ziel dieses Gruppenportraits, das schließlich die riesigen Ausmaße von vier mal drei Metern annehmen sollte, Geschichte zu machen, soll heißen: die Sicht der Nachwelt auf das Wirken des Wohlfahrtsausschusses zu bestimmen. Die Geschichte dieses Gemäldes wird in dem jüngst ins Deutsche übersetzten Buch von Pierre Michon mit dem schlichten Titel „Die Elf“ erzählt. Die andauernde Faszination von Corentins Gemälde resultiert aus der Ambivalenz möglicher Deutungen. Man kann darin sowohl einen Robespierre als Halbgott der Revolution als auch einen Robespierre als machthungrigen Tyrannen entdecken.

In seiner Schilderung stellt Pierre Michon den Maler Corentin, der im französischen Limousin aufwuchs und beim Historienmaler Jacques-Louis David ausgebildet wurde, in eine Reihe mit keinen Geringeren als Giotto, Leonardo, Rembrandt, Goya oder van Gogh. Auch der französische Historiker Jules Michelet hat in seiner immer noch bedeutsamen „Geschichte der Französischen Revolution“, die in sieben Bänden zwischen 1847 und 1853 erschien, diesem riesigen Gemälde ein eigenes Kapitel gewidmet. Sie sollten sich also bei ihrem nächsten Besuch des Pariser Louvre Michons Buch unter den Arm klemmen, seiner Wegbeschreibung folgen (er gibt genau an, wo das Bild – geschützt von dickem Panzerglas – hängt) und sich diese gemalte Form der Geschichtsproduktion näher ansehen.

Die Wirklichkeit des Erfundenen

Seien Sie aber nicht zu enttäuscht, wenn Sie nichts finden. Denn das Gemälde gibt es nicht. In seinem meisterlichen Stück Prosa, das eine Mischung aus Essay, Künstlerportrait und literarischer Augenwischerei ist, hat Michon eine Gestalt mit einer erfundenen Biographie und den Louvre mit einem nie gemalten Bild ausgestattet. Zugegeben, er will uns hier kein Schelmenstück vorführen, weshalb recht schnell klar wird, dass wir Leser einer Erfindung sind. Michon hat also nicht den Weg Wolfgang Hildesheimers eingeschlagen, der seinen „Marbot“ im Stil einer klassischen Biographie mit so viel Plausibilität belegte, dass man unweigerlich zum Lexikon greifen möchte, um sicherzugehen, dass Marbot tatsächlich nie lebte.

Aber selbst wenn wir durchschauen, dass es sich um Fiktion handelt, dass der Maler Corentin niemals existierte und das Gemälde „Die Elf“ auch nach intensiver Suche im Louvre nicht aufzufinden ist – sollte uns das tatsächlich die historischen Schultern zucken lassen und Gemälde samt Maler der völligen Bedeutungslosigkeit überantworten? Wenn Corentin und „Die Elf“ nie Wirklichkeit waren, haben sie dann auch mit unserer (historischen) Wirklichkeit nichts zu tun?

Man kann die Beantwortung dieser Frage vom jeweiligen kulturhistorischen Status fiktionaler Texte oder vom Wirklichkeitsverständnis abhängig machen, mit dem man zu hantieren bereit ist. Die naheliegende Unterscheidung nähme eine klare Trennung zwischen Faktizität und Fiktionalität vor. Die erfundenen Geschichten mögen als nette Unterhaltung dienen, mögen sogar erkenntnisfördernd sein und uns die Augen öffnen für die Zustände der Wirklichkeit – aber sie sind keine Wirklichkeit! Menschen, Objekten und Ereignissen, die allein in der Form von Druckerschwärze und Papier, Celluloid oder Pixeln existieren, darüber hinaus aber keine außermediale Existenz besitzen, streiten wir üblicherweise den Wirklichkeitsstatus ab. Problematisch an einer solchen Auffassung ist nur, dass wir zumindest die Bücher, Filme oder Bilder, die diese Fiktionen enthalten, als Teil unserer Wirklichkeit anerkennen müssen. Wenn sie aber schon einmal da sind, könnte es dann nicht sein, dass sie mitsamt ihren Geschichten auch Wirksamkeiten entfalten, also in unsere Wirklichkeit hineinwirken?

Absolute Wahrheit

Fiktionen zeichnen sich ja nicht zuletzt dadurch aus, dass sie innerhalb ihres eigenen Referenzrahmens in einer Art und Weise auf Wirklichkeit und Wahrheit pochen können, wie dies in der Welt außerhalb des fiktionalen Rahmens niemals möglich wäre. In der Welt der erfundenen Geschichten haben alternative Wirklichkeitsentwürfe nur insofern Platz, als sie durch die Schöpfer der Fiktion zugelassen werden. Die Wahrheit der Fiktion ist absolut. Ein solcher Grad an Wirklichkeitsverdichtung lässt sich nicht einmal in der totalitärsten aller Diktaturen erreichen.

Interessant wird es dann, wenn die unterschiedlichen Sphären der Wirklichkeit, die faktischen und die fiktionalen, miteinander in Kontakt treten und sich überschneiden. Denn die Fiktionen sind beständig dabei, unsere Wirklichkeit zu verändern und zu infizieren: Nicht nur kommt die nicht-fiktionale Welt in der fiktionalen vor, ebenso werden fiktionale Deutungsangebote in unsere außerfiktionalen Lebens- und Weltentwürfe importiert.

Dann ist es nicht mehr so einfach, zwischen Erfindung und Realität zu unterscheiden. Aber das ist wohl weniger ein Problem der mangelnden Trennschärfe, vielmehr ein Problem unseres unzureichenden und eingeschränkten Wirklichkeitsverständnisses. Es gehört zum Standardrepertoire von Romanen, dem Leser zu versichern, es handele sich um wahrheitsgemäße Darstellungen, die vom Autor nur in seiner Funktion als Herausgeber veröffentlicht würden. (Auch Michon bemüht die beständige Ansprache an den Leser als Realitätsevokation, so als befände man sich bei einer Museumsführung.) Die Fiktion imitiert und desavouiert die Wirklichkeit in ihrem Realitätsverständnis – gleichzeitig gelingt es der außerfiktionalen Realität aber nicht in der gleichen Weise, ihre fiktionalen Gehalte ernst zu nehmen.

Muss es aber nicht so erscheinen, als seien Figuren wie Don Quijote, Robinson Crusoe, Faust oder Dracula selbstverständliche Bestandteile unseres Lebens? Zumindest muss man sie als Elemente unserer historischen Wirklichkeit akzeptieren, weil sich einerseits in ihnen vergangene Realität verdichtet und weil sie andererseits auf diese Wirklichkeiten unübersehbaren Einfluss ausgeübt haben. Dabei handelt es sich bei diesen und vielen weitere Figuren um Beispiele, die ihre Fiktionalitätsmarkierung noch eindeutig mit sich herumtragen. Etwas mulmiger wird die Angelegenheit schon, wenn man erfährt, dass das US-Verteidigungsministerium kurz nach dem 11. September 2001 Renny Harlin engagierte, um Untergangsszenarien für mögliche weitere Anschläge zu entwerfen. Harlin war aber nicht Mitglied eines politikstrategischen think-tanks, sondern Drehbuchautor und Regisseur von „Die Hard 2“. [1]

Aber haben wir auch nur eine ungefähre Vorstellung davon, wie viele Erfindungen wir als selbstverständliche historische Wahrheit mit uns herumschleppen? Eine Märchengeschichte, die beispielsweise bis zum heutigen Tag in historischen Darstellungen und Schulbüchern wiederholt wird, handelt von der mittelalterlichen Überzeugung, bei der Erde handele es sich um eine Scheibe anstatt um eine Kugel. Dass diese „Geschichte“ eine Mittelalter-Fiktion des 19. Jahrhunderts ist, wurde schon längst erwiesen. [2] Scheint aber fast niemanden zu interessieren. Als Fiktion ist sie so mächtig, dass sie allenthalben nachgeplappert wird.

Die Frage danach, wer oder was denn nun Geschichte macht, lässt sich erwartungsgemäß auch nicht mit Blick auf die Fiktion letztgültig beantworten. Aber wie auch immer die Antwort ausfallen sollte, die fiktiven Geschichten und Figuren dürfen dabei nicht vergessen werden. Es wäre interessant zu erfahren, wie viele Menschen inzwischen im Louvre nachgefragt haben, wo denn nun das Gemälde der „Elf“ zu finden sei.

[1] David Shields: Reality Hunger. Ein Manifest, München 2011, 92

[2] Peter Aufgebauer: „Die Erde ist eine Scheibe“. Das mittelalterliche Weltbild in der Wahrnehmung der Neuzeit, in: Geschichte in Wissenschaft und Unterricht 57 (2006) 427-441

[Pierre Michon: Die Elf. Übersetzt von Eva Moldenhauer, Berlin 2013]


Einsortiert unter:Geschichtskultur, Geschichtsmedien Tagged: Fiktion, Französische Revolution, Pierre Michon, Realität, Wirklichkeit

Quelle: http://achimlandwehr.wordpress.com/2013/05/26/08-michon-und-die-faktizitat-des-fiktionalen/

Weiterlesen

07. Žižek und die Geschichte mit bestimmtem Artikel

In Großbuchstaben

„Die Geschichte“ ist einfach nicht totzukriegen. Und das muss der Historiker in mir doch sehr bedauern. Dabei meine ich tatsächlich „Die Geschichte“ mit bestimmtem Artikel und möglichst vielen Großbuchstaben, diesen monolithischen Block, der sich durch die Zeit schiebt, dieses unheimliche Ding aus einer suprahumanen Sphäre, dieses alles überragende Superraumschiff, das sich wie in einem Star-Wars-Film aus dem Hintergrund über die Köpfe der machtlosen Zuschauer in die Leinwand hineinschiebt – „Die Geschichte“ also, die mit uns all die schrecklichen Dinge tut, die uns im Lauf der Zeit eben so zustoßen.

Diese „Geschichte“ erhebt eigentlich tagtäglich und tausendfach ihr Haupt. Zumeist fällt es gar nicht auf, weil es so häufig geschieht. Zum Beispiel in einem Interview, das Slavoj Žižek der Süddeutschen Zeitung vor einiger Zeit gegeben hat. Dort plumpst sie immer wieder mit deutlich zu vernehmendem Gepolter zwischen die Sätze. Žižek meint zum Beispiel: „Wenn ich mir anschaue, wohin die Geschichte gerade steuert, bin ich einfach ein bisschen besorgt.“ Abgesehen davon, dass man fast immer Grund hat, auch ein bisschen mehr als nur ein bisschen besorgt zu sein, muss man sich schon fragen, wer oder was denn da am Steuerruder sitzt, um „Die Geschichte“ zu lenken. Oder wenn er behauptet, „die Geschichte ist nicht unbegreiflich. Unbegreiflich ist nur, welche Rolle wir selber darin spielen.“ Dann ist es diese so alltäglich verwendete, aber doch mehr als seltsame Raummetapher, dass „wir“ eine Rolle „in“ der Geschichte spielen, die eigentlich verwundern muss. Es ist immer noch das große geschichtsphilosophische Welttheater, das hier aufgeführt wird, in dem wir zwar die Schauspieler sind, in dem aber ein anderer den Text und die Regieanweisungen verfasst hat. Nur wer? Žižeks Antwort: „Auch wenn kein großer Anderer unser Leben kontrolliert – kein Gott, kein Schicksal und keine Kapitalisten –, dann heißt das noch lange nicht, dass wir es deshalb selbst kontrollieren.“ Schließlich haben wir noch „Die Geschichte“, die als Gottersatz herhalten kann und in die sich all das Unerklärliche, Undurchschaubare und Verstörende der eigenen Gegenwart abschieben lässt. Probleme können auf diese Weise temporalisiert werden. Man ist ihnen immer noch ausgeliefert, weiß aber, dass sie im „historischen Prozess“ einen Ort haben, der zwar nichts erklärt, einem aber der Verantwortung abnimmt. Man muss dann nur noch die Zeit abwarten, um verstehen zu können, was man zuvor (noch) nicht begriffen hat. (Es sei denn, man verfügt über einen großen Geschichtsdurchschauer – das wäre Žižeks stalinistische Variante –, dann hätte man dank einer solchen Ausnahmegestalt auch den historischen Prozess mit seinen Konsequenzen zumindest kurzzeitig im Griff.)

Natürlich lugt hier Hegel überall durch die argumentativen Kulissen. Er ist für Žižek der mehrfach zitierte Souffleur, der die geschichtsphilosophischen Stichworte vorgibt. All das kennt man schon, wenn man den einen oder anderen Text von Žižek gelesen hat, nicht nur das Hegelianische, sondern vor allem das Großspurige, Provozierende, mit groben Pinseln Kleisternde, auf Differenzierungen möglichst wenig Rücksicht Nehmende (auch wenn er es schafft, diese Nuancierungen doch immer wieder auf unnachahmliche Art durchscheinen zu lassen). Und gerade deswegen lese ich Žižeks Texte mit Vergnügen und Gewinn, weil sie irritierend und erfrischend sind. Ich bin mir aber nie ganz sicher, ob Žižek deswegen so viel gelesen und zitiert wird, weil er wirklich gute Ideen hat oder weil er als irritierender Provokateur gute philosophische Unterhaltung darstellt. Wird er irgendwann als clownesker Philosoph oder als philosophierender Clown in Erinnerung bleiben?

Eine geschichtsphilosophische Hängematte

Bei einer Sache bin ich mir allerdings sicher: Als innovativer Erneuer der Geschichtsphilosophie taugt er kaum. An diesem Žižek-Interview interessiert mich auch offen gestanden nicht die geschichtsphilosophische Komponente. Es ist vielmehr ein sprechendes Indiz für eine weit verbreitete Auffassung von „Der Geschichte“, die aus der einstigen Geschichtsphilosophie längst ihren Weg in den Alltag gefunden hat – oder war es umgekehrt? Gerade deswegen erscheint Žižeks Auffassung von Geschichte zunächst so selbstverständlich und völlig unproblematisch, weil sie so alltäglich ist. Natürlich hat das nicht erst Hegel erfunden, da war der liebe Gott dann doch ein bisschen schneller. Die heilsgeschichtliche Basis dieses aufgeblähten Geschichtsmonstrums ist nicht zu übersehen. Und ich bin mir fast sicher, dass auch Žižek nur der vorletzte Vertreter Hegelscher Geschichtsphilosophie sein wird. Denn immer wenn man denkt, es gäbe keine Hegelinaer mehr, kommt von irgendwo ein neuer her.

Das ist es, was mich ernsthaft zur Verzweiflung bringen kann, dass wir Heilsgeschichte und Hegels „Geschichte“ einfach nicht loswerden, dass wir es uns in dieser geschichtsphilosophischen Hängematte bequem gemacht haben, um uns aus der historischen Verantwortung stehlen zu können. Damit will ich noch nicht einmal die aufklärerische Perspektive angesprochen haben, dass der Mensch für sein historisches Handeln selbst verantwortlich sei. Denn unter einem solchen Blickwinkel kommt immer noch das Drama mit dem Titel „Die Geschichte“ zur Aufführung – nur der Regisseur hat gewechselt. Nein, es geht nicht nur darum, dass wir „Die Geschichte“ selbst machen, sondern dass wir aus diesem Gemachten wiederum eine Erzählung formen, der wir den Namen „Die Geschichte“ geben. Und diese Erzählung macht sich irgendwann selbstständig, tritt ihren Schöpfern entgegen, die ob dieses hochkomplexen Wunderwerks in basses Erstaunen verfallen und sich (wie Žižek) fragen: Wohin soll das alles noch führen? Aber vergessen wir nicht: Dieses Star-Wars-Superraumschiff, auf dem in riesigen Lettern „Die Geschichte“ steht und das sich mit dumpfem Grollen wie eine gigantomanische Gewitterwolke in die Leinwand unsers Lebens hineinzuschieben scheint, ist nicht nur das Ergebnis menschlicher (und nicht extraterrestrischer) Anstrengungen – es ist vor allem Bestandteil eines Films.

[Slavoj Žižek/Jan Füchtjohann: „Dies ist eine gute Zeit für Philosophen“, in: Süddeutsche Zeitung, 6. März 2013, S. 12


Einsortiert unter:Geschichtstheorie Tagged: Geschichtsphilosophie, Hegelianismus, Slavoj Žižek

Quelle: https://achimlandwehr.wordpress.com/2013/05/19/07-zizek-und-die-geschichte-mit-bestimmtem-artikel/

Weiterlesen

06. Benjamin und das Ereignis im Zeitalter seiner technischen Multiplizierbarkeit

Per Fingerdruck in die Ewigkeit

Neulich im Zoo, Abteilung für Fische, Reptilien, Amphibien und ähnliches: Menschen, die vor Aquarien und Terrarien stehen, ohne auf die Tiere selbst oder wenigstens auf die sie einsperrende Glasscheibe zu sehen, sondern beständig den Bildschirm ihres Smartphones anstarren und ein Foto nach dem anderen schießen, möglicherweise auch den einen oder anderen Kurzfilm drehen. Ich erwische mich bei einer viel zu naheliegenden kulturpessimistischen Reaktion: Warum, um Himmels willen, muss man bei einem Zoobesuch Zierfische, Stabschrecken oder Tiefseequallen fotografieren, anstatt sie einfach nur anzusehen? Was macht man zu Hause mit diesen Dutzenden von Bildern – außer löschen, um danach neue unsinnige Bilder zu knipsen?

Bevor mich die nicht mehr ganz frische Überzeugung vom Untergang des Abendlandes endgültig in ihre Krallen bekommt, fällt mir dankenswerterweise noch ein, dass ein anderer Beobachter sich hätte fragen können, warum man sich als halbwegs reflektierter Mensch in eine Institution namens „Zoologischer Garten“ begibt, um dort in naturidentischen Mikrobiotopen Tiere zu betrachten, die in diesem Gefängnis nun wirklich nichts verloren haben. Mein Verhalten gibt also nicht minder Anlass zu Stirnrunzeln und Kopfschütteln.

Um hier aber nicht in thematisch unüberschaubare Gefilde wie Mensch-Tier-Beziehungen zu geraten, bleiben wir zunächst bei den Alltags- und Alles-Fotografen. Die Existenz dieses Phänotypus ist nun alles andere als eine aufregende Beobachtung, schließlich haben entsprechende Bildgebungstechniken schon ein paar Jährchen auf dem Buckel. Womit wir es aber in der jüngeren Vergangenheit zu tun haben, ist das exponentielle Wachstum der fotografischen Bildproduktion durch die Unabhängigkeit vom Fotoapparat. Man muss schon seit einer kleinen Weile keine unhandliche Kamera mehr mit sich herumschleppen, man kann einfach den Apparat zücken, der früher vor allem ein Telefon war, um das gewünschte Foto zu machen. Die beständige Verfügbarkeit – lediglich gebremst durch die Akkulaufzeit – lädt ein zum Dauerknipsen. Die Frage, die mich dabei interessiert, kann man in gut Benjaminscher Manier stellen: Welche Rückwirkungen hat diese Vervielfältigung der Möglichkeiten bildlicher Dokumentation auf unser Verständnis von Geschichte und ihren Ereignissen (S. 12)?

Abgesehen von der Frage, wie sehr wir uns auf ein Leben vor und durch den Bildschirm einlassen wollen, muss ich wohl neidlos anerkennen, dass all die Fotografierer und Videografierer, all die Dokumentaristen ihres eigenen Alltags ein wesentlich tiefer gehendes Verständnis von Geschichte haben als ich. Sie arbeiten nämlich mit Hochdruck am Projekt der Auto-Historisierung, der durchgehenden und umfassenden Überlieferung ihres eigenen Lebens – das höchstwahrscheinlich nichts „Historisches“ (im Sinne von „Außergewöhnliches“) aufzuweisen haben wird, außer der Überlieferung selbst. Unzählig viele Menschen sind genau in diesem Moment dabei, an ihrer eigenen Unsterblichkeit zu basteln, indem sie ihr Dasein bildlich fixieren. Auch das hat schon Walter Benjamin in seiner eigenen Gegenwart beobachtet: Man kann sich mit einem Fingerdruck in die Ewigkeit katapultieren (S. 131). Die Kamera im Mobiltelefon potenziert diese Möglichkeiten nochmals um ein Vielfaches, weil sich der Weg zwischen Objektsichtung, Aufnahme und Veröffentlichung auf ein Minimum reduziert hat.

Sofern sich das Problem der dauerhaften Datensicherung halbwegs in den Griff bekommen lässt – schließlich sind elektronische Speichermedien für eine längerfristige Archivierung denkbar ungeeignet –, werden zukünftige Historiker/innen in einem unüberschaubaren Ozean umfassend dokumentierter Lebensläufe baden können. Hier entsteht eine eigene Parallelüberlieferung zur offiziösen und institutionell kontrollierten Geschichtsschreibung der Mächtigen. Die Geschichte des Alltags könnte in gänzlich neue Dimensionen vorstoßen, weil die Vielen eben nicht mehr nur stumme Objekte der Historiographierung derjenigen sind, die sich (auch überlieferungstechnisch) besser organisieren können, sondern die technischen Möglichkeiten ihnen eigene Stimmen und Perspektiven verschaffen. „Jeder heutige Mensch kann einen Anspruch vorbringen, gefilmt zu werden.“ (S. 32) Und sei es auch nur beim Bestaunen von Zierfischen.

Nachgemachte Ereignisse

Ebenso dürften künftige Historiker/innen bei der Sichtung dieses Materials aber feststellen, dass sich in den autobiographischen Bilderstrecken von der Wiege bis zur Bahre nicht nur der widerständige Eigensinn eingenistet hat, sondern dass hier zugleich machtgesättigte Diskurse für ihre eigene Reproduktion und Multiplikation sorgten. Und da kann ich den Kulturpessimisten in mir nicht ganz zum Schweigen bringen. Denn werden nicht massenhaft diejenigen Ereignisse als Ereignisse festgehalten, die zuvor schon als Ereignisse apostrophiert und inszeniert wurden? Was sieht man denn inzwischen bei Krönungsfeierlichkeiten, Staatshäupterbegegnungen, Sportwettkämpfen oder Prominentenauftritten außer einem Wald von hochgereckten Handys? Die Zuschauerschar wird nachdrücklich auf die „historische“ Ereignishaftigkeit eines Geschehens hingewiesen, um es dann brav für den privaten Rahmen zu reproduzieren und im Netz zu multiplizieren. Was als nächstes geschehen wird, ist immer schon längst geschehen, weil in hinreichendem Maß durch eine ausgefeilte Inszenierung geplant. Ereignisse werden gemacht – und nachgemacht. Der große historische Auftritt, minutiös im Vorhinein einstudiert, wird tausendfach aus jeweils individuellen, zugleich gänzlich stromlinienförmigen Blickwinkeln festgehalten. Ereignisse werden (und sind) damit in einem kaum noch steigerbaren Maß selbstreferentiell, weil in den Medien vorkommt, was in den Medien vorkommt.

Bei Ereignissen, denen die Menschen nur noch durch ihre Handy-Kameras beiwohnen, ohne das Geschehen selbst zu betrachten, ist diese Aufmerksamkeit für die Notwendigkeit der historischen Archivierung mit Händen zu greifen: Hier bestätigt sich die Bekanntheit des Bekannten, hier öffnet sich das Fenster zur öffentlichen Multiplizierbarkeit. Im Moment, in dem „es“ geschieht (was immer „es“ auch ist), sieht man „es“ schon durch die mediale und damit auch historische Bedeutsamkeit suggerierende Vermittlung des eigenen kleinen Taschenbildschirms: Mama, wir sind im Fernsehen!

Die Körnung der Ereignisse

Aber wie schon Benjamin wusste: „Die Ausrichtung der Realität auf die Massen und der Massen auf sie ist ein Vorgang von unbegrenzter Tragweite sowohl für das Denken wie für die Anschauung.“ (S. 17) Es sind mithin nicht nur die inszenierten Ereignisse, die auf ihre Multiplikatoren wirken, sondern es sind ebenso die Multiplikatoren, die nun Ereignisse erzeugen – und nicht selten völlig ungeahnte.

Die Vervielfältigung der Möglichkeiten bildlicher Dokumentation demokratisiert das historische Ereignis. Es lässt sich nicht mehr absehen und nicht mehr kontrollieren, wann ein Ereignis zu einem solchen wird. Und unerwünschte Ereignisse lassen sich inzwischen auch schwerer unterdrücken. Die Planbarkeit von Historischem entzieht sich zumindest teilweise dem Zugriff der Machthaber. Die allzeit bereiten Bildaufzeichnungsgeräte, die im Stile eines fotografierenden Revolverhelden in Sekundenschnelle gezückt werden können, sind auch überall dort, wo eigentlich nichts passieren sollte. Ereignisse lassen sich von unten machen. Das mag gänzlich Unspektakuläres betreffen, wenn private Videos via Youtube eine Aufmerksamkeit erhalten, die sie überhaupt erst zu Ereignissen machen. Das betrifft aber auch gravierendere Geschehnisse wie Demonstrationen, Proteste, Aufstände oder Kriege – man sehe sich nur die Dokumentation des arabischen Frühlings an –, wenn das Fehlen anderer Beobachter die Handy-Kamera zur dokumentarischen Macht werden lässt.

Mit Blick auf die Presse im ersten Drittel des 20. Jahrhunderts hat Benjamin davon gesprochen, dass immer mehr Lesende inzwischen zu Schreibenden werden (S. 32f.). Aufs Historische übertragen, kann man feststellen, dass immer mehr Ereignisrezipienten zu Ereignisproduzenten werden. Die fernsehbebilderten Abendnachrichten sind deutlich geprägt durch das Informationsmaterial von (nicht selten unfreiwilligen) Amateurkorrespondenten. Es vergeht kaum eine Sendung, in der nicht ein privates Foto oder ein verwackelter Videomitschnitt Verwendung finden. Naturkatastrophen, Unfälle oder Anschläge – mit anderen Worten, all die plötzlich eintretenden Dinge, die nicht schon als pünktlich terminierte Ereignisse angekündigt und vorbereitet worden waren, werden zum Tummelfeld der Knipser und Filmer. Diese Bilder in eher schlechter Auflösung und mit zu geringer Pixelzahl, diese verwackelten Videos, bei denen man zuweilen vor allem sieht, dass man nichts sieht, außer plötzlich explodierenden Farben, kombiniert mit einem wilden Stimmengewirr auf der Tonspur, können dem Geschehen wieder etwas Anarchisches zurückgeben. Auch wenn es sich zumeist um wenig erfreuliche Vorgänge handelt, um Tod und Zerstörung, so halten diese Bilder doch auch eine historische Lehre parat: Die Körnung der Bilder verweist auf die Körnung der Ereignisse. Sie zeigen uns die Unschärfe des Plötzlichen.

[Walter Benjamin: Das Kunstwerk im Zeitalter seiner technischen Reproduzierbarkeit. Kommentar v. Detlev Schöttker, 3. Aufl. Frankfurt a.M. 2012]


Einsortiert unter:Geschichtskultur, Geschichtsmedien Tagged: Alltagsgeschichte, Das Kunstwerk im Zeitalter seiner technischen Reproduzierbarkeit, Fernsehen, Film, Foto, historisches Ereignis, Walter Benjamin

Quelle: https://achimlandwehr.wordpress.com/2013/05/05/06-benjamin-und-das-ereignis-im-zeitalter-seiner-technischen-multiplizierbarkeit/

Weiterlesen

05. Whitechapel und das mörderische Geschichtsfernsehen

Heutzutage lernt man im Fernsehen über das wirkliche Leben. Keine Sorge, hier folgt kein vorhersagbares Einprügeln auf unterirdisches „Reality-TV“, das seinen lebensfremden Charakter bereits durch den englischsprachigen Titel anzeigt, mit dem aufwendige televisonäre Produktionstechniken versprochen werden, wie sie im Bildschirm-Universum Sinn machen mögen, aber nicht unbedingt für die Welt außerhalb davon. „Wirklichkeitsfernsehen“ hingegen wäre eine verstörende, allzu pädagogisch klingende Bezeichnung – Fernsehen, das den Bildungsauftrag tatsächlich noch ernst nähme. Nein, es geht um die allseits hochgelobten Fernsehserien meist amerikanischer Machart, die möglichst lebensnah und möglichst glaubwürdig an unterschiedliche gesellschaftliche Situationen heranzoomen, um diese in Kombination mit entsprechenden Schauspielerleistungen, Drehbüchern und auch sonstigem technisch-künstlerischem Aufwand über viele Stunden Sendezeit hinweg in all ihren Verästelungen zu sezieren. Mögen diese Serien nun „The Wire“, „Homeland“, „Mad Men“, „Sopranos“ oder sonstwie heißen, hier scheint man irgendwie klüger fürs Leben zu werden.

Mein Pech, denn ich habe es nicht so mit dem Fernsehen. Mag zwar snobistisch klingen, aber ich halte diese Nicht-Tätigkeit zu einem gehörigen Teil für Zeitverschwendung. Nicht weil da nur Schrott liefe, denn es gibt inzwischen ausreichend Auswahl, um sich auch ein interessantes Programm zusammenstellen zu können. Nein, ich mag einfach die Situation der strukturellen Passivität nicht, in die mich das Fernsehen zwingt. Nicht nur die individuelle Zeitorganisation hat sich nach dem Fernsehen auszurichten, sondern man muss auch in körperlich unterwürfiger Duldungsstarre verharren, um die Inhalte zu erwarten, die einem serviert werden. Die einzig vom Zuschauer erwartete Aktivität besteht in der Hantierung der Fernbedienung und dem möglichst geschickten Abpassen der Werbepausen, um körperlichen Bedürfnissen nachzukommen. Nicht mein Ding, vor allem wenn die guten Sendungen gar keine Werbepausen haben!

Natürlich sehe ich fern. Nach einer zwischenzeitlichen zehnjährigen Abstinenz bin ich schon seit Längerem wieder Mitbesitzer eines entsprechenden Übertragungsgeräts. Die Nachrichten versäume ich eher ungern, zuweilen wird auch Fußball konsumiert und manchmal darf es ein Film sein, den man eigentlich im Kino anschauen sollte. Das war es eigentlich. Wenn es da nicht ab und an die kleinen Schicksalsschläge des Lebens gäbe, die strukturelle Passivität zu einem wohligen Zustand werden lassen. Die gemeine mitteleuropäische Durchschnittserkältung beispielsweise, oder der winterliche grippale Infekt, die jeglichen Ansatz von Aktivität in einem kläglich Kreislaufkreiseln und einem undefinierbaren Hirnwabern enden lassen. Da bin ich dann doch einmal ganz dankbar für die Programmgestaltung der Fernsehanstalten und die Segnungen des Zappens.

Bei einer solchen, eigentlich eher unwillkommenen Gelegenheit durfte ich die Erfahrung machen, wie man aus Fernsehserien tatsächlich etwas lernen kann, sogar etwas über die Arten und Weisen des Geschichtemachens. „Whitechapel“ heißt die britische Krimi-Serie, deren Inhalte hier nicht im Einzelnen nachzuerzählen sind. Wichtig ist die personale Grundkonstellation, aus der die jeweiligen Fälle ihre Dramatik beziehen: Inspektor Joseph Chandler ist ein typisches Produkt der englischen upper-class, gebildet, sportlich, hoch gewachsen, gut aussehend, snobistisch, aber mit dem Herz am rechten Fleck – und ausgestattet mit ein paar neurotischen Anwandlungen; Ray Miles ist der raue, altgediente Polizeihaudegen mit eher proletarischem Hintergrund, hat daher zunächst seine Probleme mit Chandler, die aber zusehends von väterlicher Sympathie abgelöst werden; und Edward Buchan, der Nerd in der Runde, ein Hobby-Krimihistoriker, der zunächst eingeführt wird als Autor populärhistorischer Bücher und Stadtführer und der sein Geld mit Führungen für Touristen an die Orte des Verbrechens in Whitechapel verdient, im Lauf der Serie aber zum Archivar und zum historischen Berater der Mordkommission mutiert (und dabei von dem Raubein Ray Miles notorisch abgelehnt wird).

Zwischen Unmengen Kräutertee und Medikamenten von ungewisser Wirkkraft war es insbesondere diese Figur des Edward Buchan, die mit ihren Wandlungen mein Oberstübchen ein wenig zum Leben erwecken konnte. Denn seine Aufgaben und sein Verständnis von der Geschichte des Verbrechens verändern sich im Lauf der Serie erheblich, und zwar in einer Art und Weise, dass man daran fast eine Geschichte der Geschichtsschreibung in Kurzform festmachen könnte:

Phase 1: Historia Magistra Vitae. In der ersten Staffel geht im Londoner Stadtteil Whitechapel ein Copykiller um, der die Morde von Jack the Ripper detailgetreu nachahmt. Der neu berufene Inspektor Chandler gerät an den Ripper-Experten (ripperologist heißt der treffende Ausdruck im Englischen) Edward Buchan, der ihm aufgrund seiner historischen Kenntnisse genau vorhersagen kann, wann und unter welchen Umständen der jeweils nächste Mord geschehen wird. Seine aus der Vergangenheit gewonnenen Prognosen sind so genau, dass Buchan zeitweilig selbst unter Verdacht gerät. Geschichte wiederholt sich hier tatsächlich. Man kann aber auch aus ihr lernen, denn zumindest der letzte Ripper-Mord kann dank der historischen Expertise verhindert werden – die Geschichte ist die Lehrmeisterin des Lebens.

Phase 2: Historismus. Edward Buchan hat sich von seiner Tätigkeit als ripperologist losgesagt, weil ihm bewusst geworden ist, dass echte Morde nichts mit der Schauermärchenromantik des 19. Jahrhunderts zu tun haben. Wo Menschen tatsächlich sterben, kommt der nostalgische Voyeurismus an sein Ende. Buchan will sich mit seiner Expertise aber weiterhin nützlich machen und drängt sich der Polizei mit seinen Erkenntnissen auf. Inspektor Chandler sieht – trotz mancher Zweifel – den Erkenntnisgewinn, den ihm der rückwärtsgewandte Kriminalist verschafft. In einer weiteren kopierten Verbrecher-Karriere behaupten die Zwillingsbrüder Jimmy und Johnny Kray die Söhne von Ronnie Kray zu sein – der wiederum mit seinem Zwillingsbruder Reggie in den 1950er und 1960er Jahren Whitechapel unsicher gemacht hat. Wieder scheint sich Geschichte zu wiederholen, nun allerdings unter historistischen Vorzeichen: Die Polizei nutzt den Zugriff auf die historischen Quellen, soll heißen: auf die DNA der alten und der neuen Kray-Zwillinge, um den Schwindel auffliegen zu lassen. Denn bei der Wiederauflage der Verbrecherbrüder handelt es sich keineswegs um die Söhne von Ronnie Kray. Eine quellenkritische Geschichte hat die Wahrheit über Vergangenheit und Gegenwart ans Licht gebracht und damit dem mythisch angehauchten Spuk ein Ende bereitet.

Phase 3: Kritische Geschichte. Edward Buchan hat erreicht, was er wollte. Er ist als researcher bei der Mordkommission eingestellt, man könnte sagen: als polizeilich bestallter Kriminalitätshistoriker. Die Begründungen, die Inspektor Chandler für diese Personalentscheidung gibt, weisen der Geschichte nun eine kritische Rolle zu: Man soll nicht nur aus den 200 Jahren Verbrechensgeschichte lernen, die im hauseigenen Archiv lagern, sondern soll, vermittelt über dieses historische Material, auch eine andere Perspektive auf die jeweiligen Fälle gewinnen. Zusätzlich verändert sich die Rolle der Geschichte. Denn nun geht es nicht mehr um Copykiller, die die Vergangenheit imitieren. Die Situation wird komplexer. Buchan sitzt in seinem Archivkeller und soll die Berge an Akten über vergangene Verbrechen mit einem strukturierenden und systematisierenden Blick durchforsten. An die Stelle der Geschichte einzelner großer Kriminalfälle tritt nun die Strukturgeschichte mit ihrem typisierenden Verfahren. Zugleich muss der Polizeihistoriker jedoch erkennen, dass ihm mit dieser Zunahme an Komplexität auch die Fähigkeit der eindeutigen historisierenden Prognose verloren gegangen ist. Er kann nicht mehr vorhersagen, wann und wie ein Verbrechen geschehen wird, kann nur noch historisch gewonnene Muster erstellen. Weil diese jedoch nicht immer zutreffen, sterben Menschen. Buchan stellt die Sinnfrage und gerät in eine ernsthafte Krise.

Phase 4: Was nun? Mit einem verzweifelten Buchan, der aufgrund seiner Unzulänglichkeiten – die Geschichte ist nicht mehr Lehrmeisterin des Lebens! – inzwischen auch psychologische Hilfe in Anspruch nehmen muss, endet die dritte Staffel. Die Tragik wird noch dadurch gesteigert, dass Buchan auch den Tod seiner Psychologin nicht verhindern kann. Die Geschichte ist nicht nur kritisch geworden, sondern zugleich in eine handfeste Krise geraten. Wie in der kritischen Sozialgeschichte der 1970er Jahre wird auch hier die Frage gestellt: Wozu noch Geschichte?

Eine vierte Staffel der Serie ist offensichtlich geplant. Stellt sich die Frage, wie es weitergehen könnte mit unserem Polizeihistoriker und der Rolle der Geschichte bei der Bewältigung der Wirklichkeit (des Verbrechens). Nur konsequent wäre eine postmoderne Wende. Denkbar wäre eine Staffel, in der ein Archivaußen konsequent negiert wird, in der sich das Verbrechen nun im Archiv und seinen Akten abspielt, in der der Archivar möglicherweise selbst zum Mörder, zum Vollstrecker der historischen Überlieferung wird – und sich dabei im Archiv selbst auf die Schliche kommt. Der Polizeihistoriker würde dann möglicherweise verschwinden, aber das Archiv würde in all seiner zwielichtigen Bedrohlichkeit weiterbestehen.

Aber dann müsste auch noch eine fünfte Staffel folgen, in der das Verhältnis von Geschichte und Wirklichkeit, von Vergangenheit und Gegenwart neu und offen verhandelt würde. Dann ließen sich geschichtstheoretische Überlegungen in die Mordfälle einbauen, die das komplexe Wechselverhältnis zwischen einer Gegenwart und ihren verschiedenen Möglichkeiten der Bezugnahme zur Vergangenheit thematisieren. Dabei kann es auch nicht mehr genügen, ein dichotomisches Verhältnis zwischen Vergangenheit und Gegenwart zu unterstellen, sondern vergangene Gegenwart müsste als Teil unseres Hier und Jetzt offenbar werden, ohne zur Lehrmeisterin degradiert zu werden.

Zugegeben, ein wenig telegener Vorschlag. Ein Glück für dieses Medium, dass ich mir keine Fernsehmorde ausdenken muss. Ich kann nur hoffen, dass mich die nächste Erkältung zum richtigen Zeitpunkt niederstreckt – genau dann, wenn die vierte Staffel ausgestrahlt wird und ich mich gerne passiv berieseln und von geschichtstheoretisch affinen Serien belehren lasse.


Einsortiert unter:Geschichtsfernsehen, Geschichtskultur, Geschichtsmedien Tagged: Fernsehen, Historiographiegeschichte, Jack the Ripper, Kray-Twins, Whitechapel

Quelle: https://achimlandwehr.wordpress.com/2013/04/26/05-whitechapel-und-das-morderische-geschichtsfernsehen/

Weiterlesen

04. Die D-Mark und die Alternative im Gestern

Früher war nicht alles besser, früher war einfach vieles früher, wie der Alltagsethnograph Jochen Malmsheimer unnachahmlich und unmissverständlich festgestellt hat. Dabei ist es natürlich wohlfeil, rückwärtsgewandte Idealisierungen als naiv zu brandmarken. Es fällt leicht, mit süffisantem Lächeln auf diejenigen herabzublicken, die mit rosaroter Brille die Zustände vergangener Jahrzehnte oder gar Jahrhunderte verherrlichen und dabei den moralischen, kulturellen und sowieso allumfassenden Verfall ihrer eigenen Gegenwart betrauern. Nostalgie ist ein ernst zu nehmendes Phänomen, und zwar nicht nur weil seine „Entdeckung“ im 17. Jahrhundert im medizinischen Kontext erfolgte und eine schwerwiegende Gemütserkrankung kennzeichnete. Vielmehr können ihre Symptome uns auch heute einigen Aufschluss geben über den Geschichtsgebrauch und die Vergangenheitsverarbeitung von Kulturen. Nostalgien werden inzwischen zwar nicht mehr in Arztpraxen behandelt, sind aber Indikatoren für herrschende (oder auch nur mögliche) temporale Verfassungen, gerade wenn sie sich in eine Vergangenheit zurücksehnen, die es nie gab.

Eine Altherren-Alternative

In Deutschland macht derzeit eine neu gegründete Partei von sich reden, die in politischen Kommentaren schnell als Nostalgieverein, als rückwärtsgewandter Club älterer (und zumeist gut situierter) Herren beschrieben wird. Dabei trägt die „Alternative für Deutschland“ vor allem eine zentrale Forderung vor sich her, nämlich den Euro abschaffen und die D-Mark wieder einführen zu wollen.

Es lohnt sich wohl, eine kurze Chronologie der „Alternative für Deutschland“ wiederzugeben. Denn wer weiß, in einigen Jahren wird hoffentlich dieses Blog noch existieren, aber die Partei möglicherwiese nicht mehr derart im Fokus stehen wie dieser Tage, unter Umständen sogar im Orkus der Bedeutungslosigkeit verschwunden sein. Daher für alle Nachgeborenen: Die Gründung dieser Partei, die am 6. Februar 2013 erfolgte, war eine direkte Reaktion auf die Schuldenkrise, die den Raum der Euro-Währung seit 2009 in heftige Turbulenzen gebracht hatte. Hervorgegangen war die AfD aus den Reihen der CDU, getragen vor allem von euroskeptischen Menschen, die die gern als „alternativlos“ bezeichnete Europa- und Finanzpolitik der schwarz-gelben Regierung unter Kanzlerin Merkel nicht mehr akzeptieren wollten. Die „Alternative für Deutschland“ erfuhr unmittelbar große mediale Aufmerksamkeit und auch einen erheblichen Zulauf – darunter auffallend viele Männer mittleren Alters, die wohl eher wenig Anlass hatten, sich akute wirtschaftliche Sorgen zu machen; ach ja, und ein überproportional großer Anteil an Volkswirtschaftsprofessoren war ebenfalls dabei. Die Partei sprach eher dasjenige konservative Publikum an, das in einer weichgespülten CDU keine Heimat mehr fand. Indem sie dieses politische Spektrum rechts der Mitte bediente, rief die AfD aber zugleich die üblichen Verdächtigen von tiefschwarzer bis brauner Färbung auf den Plan.

Rückkehr zu Bewährtem

Am 14. April 2013 fand der Gründungsparteitag in Berlin statt, bei dem auch ein erstes Parteiprogramm beschlossen wurde. Nun gebe ich gerne zu, dass es mir an ökonomischer Expertise mangelt, um entweder die weitere Entwicklung der Euro-Währung oder die möglichen Konsequenzen einer Wiedereinführung der D-Mark einschätzen zu können. Vor allem werde ich den Verdacht nicht los, dass sich solche Fragen aufgrund der ungemein hohen Komplexität der Materie eher mit einer Glaskugel als mit wissenschaftlichem Sachverstand beantworten lassen. Im Besitz einer Glaskugel bin ich übrigens auch nicht. Daher lassen wir beim Blick in das Parteiprogramm die ansonsten immer wieder gern angeführten Kernforderungen der „Alternative für Deutschland“ beiseite, vergessen für einen Moment die von ihr gewünschte Auflösung des Euro-Raums und die Wiedereinführung nationaler Währungen, und kümmern uns stattdessen um die wirklich wichtigen Dinge, nämlich um das historische Programm, das es zwar nicht in die offizielle Parteidoktrin geschafft hat, das aber als beständig mitlaufender Subtext präsent ist.

Und da ist auffallend häufig von Dingen die Rede, die eher in die Zeit vor 1989 passen – falls sie historisch nicht noch weiter zurückreichen –, als die Welt einem noch hübsch geordnet vorkommen konnte. Da ist viel von „Deutschland“ die Rede (wenn auch immer wieder garniert mit den standardisierten Verweisen auf die nachbarschaftliche Kooperation mit dem Rest Europas), da wird regelmäßig die „Nation“ bemüht, da soll alles „kleiner“ und „stabiler“ werden (also nicht mehr so europäisch und so unübersichtlich), da ist die Familie die „Keimzelle der Gesellschaft“, da wird auch schon einmal explizit die „Rückkehr“ zu „Bewährtem“ gefordert, beispielsweise die „Rückkehr zu bewährten Diplom- und Staatsexamensstudiengängen“ und da soll (wenig überraschend) die „ungeordnete Zuwanderung in unsere Sozialsysteme“ unterbunden werden.

Flucht vor Verunsicherungen

Hier spricht die durchaus erwartbare konservative Furcht vor der Unübersichtlichkeit, vor der Fremdheit, vor Neuerungen und vor dem stets drohenden Verlust des Erreichten und Erarbeiteten. Jede Verschiebung im Horizont des eigenen Weltbildes löst Verunsicherungen aus, die durch ein Festhalten am Altgedienten kontrolliert werden sollen. Da das Morgen beim derzeitigen Lauf der Dinge eigentlich nur noch mehr Verunsicherungen bringen kann, wird das Heil in der Vergangenheit gesucht. Die „Alternative für Deutschland“ sucht also eine Alternative im Gestern.

Was bei all den Turbulenzen auf den Finanzmärkten und im Euro-Schulden-Raum, die das frühe 21. Jahrhundert zu bieten hat, allenthalben für erhebliches Unbehagen sorgt, sind nicht nur die wirtschaftlichen, sondern auch die temporalen Auswirkungen. Auf den Finanzmärkten wird nämlich nicht nur Geld gewonnen oder verloren, sondern wird ebenso Zeit als Möglichkeitraum geschaffen oder vernichtet.[1] Und unabhängig davon, ob es die Finanzwirtschaft oder die Finanzpolitik ist, das Gebaren nicht nur der letzten Jahre, sondern der letzten Jahrzehnte zeigt in eine deutliche Richtung: In unserer eigenen Gegenwart können wir nur noch konstatieren, wie die jüngere Vergangenheit die Zukunft aufs Spiel gesetzt und sich dabei verzockt hat. Die unglaublichen Finanzmengen, die heute aufgewendet werden, um eine Zukunft zu retten, von der noch niemand weiß, wie sie aussehen wird, führen zu einer massiven Einschränkung künftiger Handlungsmöglichkeiten – und zwar schon heute. Wir verbrauchen unsere Zukunft (und die Gegenwart der Zukünftigen) schon jetzt. Möglicherweise sollte man – einem Vorschlag von Barbara Adam folgend – Aktionen und Produkte der Gegenwart nicht nur mit einem ökologischen, sondern auch mit einem temporalen Fußabdruck versehen. Er könnte sichtbar machen, ob zukünftige Handlungsspielräume eröffnet oder vernichtet werden. Wie dieser Fußabdruck beim gegenwärtigen Finanzgebaren aussähe, versteht sich von selbst.

Nun bereichert die „Alternative für Deutschland“ dieses Spiel mit der Zeit im Zeichen der finanziellen Apokalypse um eine weitere, recht naheliegende, aber bisher noch nicht so prominent dargebotene Variante. Nun wird auch noch mit der Vergangenheit gezockt. Man fühlt sich unweigerlich an das Europa des 16. Jahrhunderts erinnert, als nach der Reformation der Kontinent in zahlreiche unterschiedliche Konfessionskirchen aufgespalten war. Auch damals stand das Ende der Welt vor der Tür, wenn auch in heilsgeschichtlicher Hinsicht. Und im Angesicht der Apokalypse wurden auch damals unterschiedliche zeitliche Varianten durchgespielt. Die Protestanten wollten mit ihren reformatorischen Bestrebungen zurück zu den Zuständen der christlichen Urkirche, andere hingegen ersehnten die naheliegende Zukunft einer tausendjährigen Herrschaft Christi auf Erden, bevor es zum Jüngsten Gericht kommen sollte. Auch gegenwärtig scheinen wir es eher mit ökonomischen Glaubensgemeinschaften als mit rationalen Programmen zu tun zu haben, die hier gegeneinander stehen.

Aber den Alternativsuchern im Gestern sei eine historische Grunderkenntnis mit auf den Weg gegeben, die sie bei ihren Bemühungen achtsam beherzigen sollten: Nicht nur die Zukunft, auch die Vergangenheit ist unvorhersagbar. Das Gestern kann zwar besser werden, muss aber nicht. Daher Vorsicht an historischen Bahnsteigkante.

[1] Elena Esposito, Die Zukunft der Futures. Die Zeit des Geldes in Finanzwelt und Gesellschaft, Heidelberg 2010


Einsortiert unter:Geschichtspolitik Tagged: Alternative für Deutschland, D-Mark, Euro, Nostalgie

Quelle: https://achimlandwehr.wordpress.com/2013/04/20/04-die-d-mark-und-die-alternative-im-gestern/

Weiterlesen

03. Niebel und die musealisierte Mütze

Selbstentwicklungshilfeminister

Es war einmal ein deutscher Entwicklungshilfeminister, der gar nicht Entwicklungshilfeminister werden wollte und bei dem sich auch niemand erklären konnte, warum ausgerechnet er diesen Job übernehmen sollte. Zudem hatte dieser Entwicklungshilfeminister einen Regierungsposten besetzt, den seine Partei und wahlprogrammgemäß auch er selbst kurz zuvor noch als unnötig und geldverschwenderisch abschaffen wollten. Nicht zuletzt musste man sich fragen, bei welcher „Entwicklung“ dieser Minister hätte helfen können, außer vielleicht bei seiner eigenen karrieretechnischen. Aber es scheint dann insbesondere der letzte Punkt gewesen zu sein, der ihn alle Bedenken über Bord werfen ließ, um im Dienst der Sache, nämlich seiner eigenen, im Jahr 2009 diesen Posten zu übernehmen. Besser irgendein Minister als gar kein Minister.

Seither kann man ab und an beobachten, wie Dirk Niebel möglichst medienwirksam in dieser politischen Arena zu reüssieren versucht, wie er bei großen internationalen Kongressen immer etwas deplatziert wirkt in diesen multikulturellen Zusammenhängen, wie in der Begegnung mit Menschen von anderen Kontinenten die Überraschung über deren FDP-Ferne immer noch groß zu sein scheint, wie ein gewisses Fremdeln mit dem eigenen Amt und den damit zusammenhängenden Aufgaben kaum zu übersehen ist – und wie ein Minister sich mit einer befremdlichen Mütze vor der Hitze Afrikas zu schützen sucht.

Die Mütze im Museum

Richtigerweise muss man inzwischen sagen: mit der er sich zu schützen versuchte. Denn die vor Kurzem noch aktuelle Verwendung von Niebels Mütze ist inzwischen zur Vergangenheit geworden. Eine Verwendungsweise hat der anderen Platz gemacht, das Kleidungsstück ist zum Ausstellungsstück mutiert. Niebels Mütze ist den Weg alles Symbolischen gegangen: Sie ist ins Museum gewandert. Am 7. März 2013 übergab der Bundesminister für wirtschaftliche Zusammenarbeit und Entwicklung, Dirk Niebel, dem Sammlungsdirektor des Hauses der Geschichte der Bundesrepublik Deutschland in Bonn, Dr. Dietmar Preißler, die Mütze, die er seit seiner Bundeswehrzeit bei den Fallschirmjägern besaß (die Fallschirmspringerei scheint in der FDP eine gewisse Tradition zu genießen) und die er bei seinen ministerialen Auslandsreisen immer getragen hat. Wir haben es also mit der historischen Großepoche zwischen Frühjahr 2010 (Niebels erste Auslandsreise) und Frühjahr 2013 (Musealisierung der Mütze) zu tun.

In dieser Zeit hat Niebel – diese Mütze tragend – welche historisch aufwühlenden Taten vollbracht oder ihnen wenigstens beigewohnt? Nun, er ist ins nicht-europäische Ausland gereist und hat Fernsehinterviews gegeben, was man eben so macht als Entwicklungshilfeminister. Dabei hat er immer getreu dem Michel-aus-Lönneberga-Motto gehandelt: „Nicht ohne meine Müsse.“ Da kann man nur sagen: Das wurde aber auch Zeit, dass dieses einmalige Stück der jüngeren Zeitgeschichte endlich dem Museum vermacht und dem drohenden Verlust für die Nachwelt entrissen wurde. Entsprechend ließ der Minister auf der Internetseite seines Ministeriums auch der Freude Ausdruck verleihen, „dass meine Mütze heute den Weg in die Geschichtsbücher findet.“ (Ohne allzu beckmesserisch sein zu wollen, aber zunächst ist die Mütze ins Geschichtsmuseum gewandert; ob sie es in die Geschichtsbücher schafft, ist eine andere Frage. Aber vielleicht freut sich der Minister auch, dass sie den Weg in (m)ein Geschichtsblog gefunden hat?)

Mütze und Macht

So erfreulich und geschichtsträchtig dieser Vorgang auch sein mag, einige Fragen drängen sich natürlich auf, bei denen es politisch und vor allem historisch interessant wird. Da wäre einmal die Frage nach der Initiative – wer hat denn dafür gesorgt, dass das gute Stück ins Museum kommt? Ich hege den Verdacht, dass es vielleicht nicht das Museum selbst war. Schließlich hat Niebel schon vor Längerem angekündigt, dass es seine umstrittene Kopfbedeckung noch einmal ins Museum schaffen würde. Aber dass es so schnell gehen würde …

Nächste Frage: Was könnte sich das Museum von dieser vorauseilenden Historisierung versprechen? Sammlungsdirektor Preißler sagte laut Pressemeldung, die Mütze stehe „in einer Reihe mit Kleidungsstücken von Politikern, die über deren Person und die Wahrnehmung in den Medien Auskunft geben“. Joschka Fischers Turnschuhe, Helmut Kohls Strickjacke, Helmut Schmidts Schirmmütze – alles museal nachvollziehbar und tatsächlich Teil des bundesrepublikanischen Bildgedächtnisses geworden. Aber befindet sich Niebels Mütze tatsächlich schon in dieser Liga? Sollte dem nicht so sein, dürfte man weniger die Mütze selbst als vielmehr ihren Träger dafür verantwortlich machen. Das Museum wäre zumindest vorbereitet, wenn dem Politiker doch noch ein kometenhafter Aufstieg vergönnt sein sollte (auch das soll in der FDP ja schon vorgekommen sein). Und einer geschenkten Mütze schaut man nicht auf die Schweißränder.

Dritte Frage: Welche historische Erkenntnis darf der künftige Museumsbesucher von dem Ausstellungsstück erwarten? Es ist richtig, der Zusammenhang von Kleidung und Macht kann gar nicht hoch genug veranschlagt werden. Die Botschaften, die eine Elisabeth II. im Krönungsornat, ein Mao Zedong in Arbeiter- oder Soldatenuniform und ein Joschka Fischer in Turnschuhen bei der Vereidigung übermitteln, sind wesentlich prägnanter als langatmige Reden. [1] Hier kann man tatsächlich auf einen Blick erfassen, wofür diese politischen Entscheidungsträger stehen oder wie sie gesehen werden wollen. (Das Bonner Museum kann sich also schon einmal an die Planung eines Anbaus machen, wenn demnächst Angela Merkel ihre gesamte Kollektion an Kostümen vorbeibringt.) Wenn das aber so ist, welche Botschaft wollte Niebel dann vermitteln, als er im Ausland ausgerechnet mit einer Mütze des deutschen Militärs auftauchte? Vielleicht: „Oh, Entschuldigung, ich hatte gerade keinen anderen Schutz gegen die Sonne zur Hand“? „Mein spärliches Ministergehalt genügt leider nicht für eine andere Kopfbedeckung“? „Entwicklungshilfe ist ein Kampfeinsatz“? Oder: „Wenn ich schon eine Randfigur im Kabinett bin und von der Materie wenig Ahnung habe, dann sollte ich dabei wenigstens optisch auffallen“?

Diese eher unangenehm berührende Form der Selbsthistorisierung kann den künftigen Museumsbesucher also am ehesten darüber belehren, wie zukünftige Vergangenheiten in der Gegenwart dazu missbraucht werden sollten, politische und historische Bedeutung zu produzieren, die bedauerlicherweise wenig Substanz hat. Geschichte wird gemacht, das ist schon richtig. Aber glücklicherweise ist daran nicht nur eine Person beteiligt. Über eine wirklich nachhaltige Historisierung und Musealisierung entscheiden immer noch die Nachgeborenen, nicht allein die Gegenwärtigen.

Schade allerdings, dass ausgerechnet diese weit reichende Erkenntnis den Besuchern des Hauses der Geschichte in Bonn bis auf weiteres verwehrt bleibt. Die Mütze verschwindet nämlich erst einmal in der Asservatenkammer (was die Pressemeldungen peinlichst verschwiegen haben). Dabei war es doch das Ziel dieser Aktion, Niebels politischer Karriere genau diesen Gang zu ersparen.

[1] Thomas Frank u.a.: Des Kaisers neue Kleider. Über das imaginäre politischer Herrschaft, Frankfurt a.M. 2002.


Einsortiert unter:Geschichtskultur, Geschichtspolitik Tagged: Dirk Niebel, Kleidung, Macht, Mütze, Museum

Quelle: https://achimlandwehr.wordpress.com/2013/04/13/03-niebel-und-die-musealisierte-mutze/

Weiterlesen