Kolonialismus im Deutschen Historischen Museum – ein kritischer Audioguide

[UPDATE] Bericht in der taz, Berlin-Teil am 4.3. 2013: Eine Gruppe junger Wissenschaftlerinnen wirft dem Deutschen Historischen Museum vor, die koloniale Vergangenheit auszublenden – und bietet dafür einen alternativen Audioguide an

Was wissen wir über die deutsche Kolonialvergangenheit? Was hat Kolonialismus mit deutscher Geschichte zu tun? Welche Auswirkungen hatte und hat er noch heute auf die deutsche Gesellschaft? Über die gewaltvolle Geschichte des deutschen Kolonialismus wird in der deutschen Gesellschaft kaum diskutiert. Auch im Deutschen Historischen Museum in Berlin bleibt sie bestenfalls eine Randnotiz. In einer Glasvitrine abseits der historischen Erzählung über das Kaiserreich sollen sich Betrachterinnen und Betrachter mittels eines Sammelsuriums kolonialer Artefakte ein Bild von der kolonialen Vergangenheit machen. Auf diese Weise wird die Kolonialgeschichte von allen anderen Entwicklungen abgetrennt, die in der Ausstellung dargestellt werden – als gäbe es zwischen Kolonialismus und Populärkultur, Reichstagsdebatten oder Wissenschaften keinen Zusammenhang.

Der von der Initiative „Kolonialismus im Kasten?“ unabhängig vom DHM konzipierte und produzierte Audioguide, der ab sofort im Internet zum Herunterladen zur Verfügung steht, setzt sich kritisch mit dieser Art von Darstellung „nationaler“ Geschichte auseinander. In 30 Hörstücken verknüpft er den deutschen Kolonialismus mit den in der Dauerausstellung präsentierten Themen und Objekten – von der Reichsgründung über Arbeitskämpfe bis hin zur Populärkultur und Geschlechterpolitik. Dabei erzählt er Geschichten von kolonialer Gewalt, Rassismus und wirtschaftlicher Ausbeutung, aber auch von Selbstbehauptung und erbittertem Widerstand.

In Kooperation mit der Werkstatt der Kulturen lädt die Initiative „Kolonialismus im Kasten?“ zur Präsentation des Audioguides und zum feierlichen Launch ihrer Website ein.

Mit Hörbeispielen und Bildern werden die fünf Historikerinnen der nationalen Kolonialvergessenheit und -verklärung eine audiovisuelle Kritik entgegensetzen. Im Anschluss kann bei Sekt und Musik weiter diskutiert werden. Mit Manuela Bauche, Dörte Lerp, Susann Lewerenz, Marie Muschalek und Kristin Weber von „Kolonialismus im Kasten?“ Sprecher und Sprecherinnen (Audioguide): Salome Dastmalchi, Patrick Khatami und Lara-Sophie Milagro

Samstag, 2. März 2013 um 18 Uhr im Foyer der Werkstatt der Kulturen, Wissmannstr. 32, 12049 Berlin-Neukölln. Eintritt fre.

Der Audioguide ist kostenlos von der Webseite www.kolonialismusimkasten.de herunterzuladen bzw. zu streamen und lässt sich auf MP3-Player und Smartphone abspielen.| kolonialismusimkasten@gmail.com


Einsortiert unter:Aktion, Erinnerung, Geschichtspolitik, Globalgeschichte, Kolonialismus, Vermittlung

Quelle: https://kritischegeschichte.wordpress.com/2013/02/20/kolonialismus-im-deutschen-historischen-museum-ein-kritischer-audioguide/

Weiterlesen

Fascinating Margins. Towards a Cultural History of Annotation


Stadtbibliothek Trier, Stadtbibliothek Trier Hs. 1093/1694 [früher 1464] (Prudentius) fol1v

In the past twenty-five years, hundreds of Medieval manuscripts have lain in front of me in many libraries of the world, and my fascination (and love) for them has not diminished, on the contrary. My primary research topic, vernacular, medieval glosses, brought me to study intensively the life of the margins, interlinea and flyleaves of manuscripts and books– one could say to investigate their other, secondary and partially hidden life. In fact, during my research time at the Bodleian Library in Oxford, I had a nickname, “The Lady with the Lamp”, because of my sitting hours for hours, bending over manuscripts with a torch and a magnifying glass – preferably next to a window with natural light. Up to now, this is the best method for deciphering difficult marginal inscriptions, especially when they are not written with ink, but scratched with a dry point stylus in the parchment pages. Of course, one needs a lot of patience (and passion) for this sort of exercise, and it does have something of a Zen practice, bringing calm and a sense of timeless infinity in you.

Marginalia in books became a genuine research topic for me, not only from the point of view of their importance for medieval philology – but as an essential cultural writing practice that we all know of and practice in our everyday life. In dealing with writing habits, apparently an almost natural compulsion or an urge to annotate can be noticed: C’est plus fort que soi, we just can’t help it. The French library scholar Daniel Ferrer characterizes this internal compulsion as a libido marginalium,[i] author Charles Simic points out „with which demonic obsession we cover the immaculate pages of our books with underlinings and scribblings“,[ii] and continues „Wheresoever I read, I of course need a pencil“.[iii]

A French speaking reader annotating Nietzsche (in French and German)

All in all, a larger book project emerged out of my interest in this topic, dealing with this special aspect of written culture through time, namely the writing and drawing of marginalia in texts and books. These annotations and other reading traces play a special role from the point of view of cultural and linguistic history, yet, up to now, they have not been analyzed in a greater context regarding their functional means as well as their textual and material tradition. On the one hand, these “paratexts” (Gérard Genette) belong to the rare witnesses of the historic and factual use and reception of books. Mark-ups in books help to answer the question by whom, when and why texts were read. Moreover, they uncover the process of knowledge acquisition and knowledge transmission throughout the ages. On the other hand, annotations are also closely linked to the materiality of the text, and a wide variety of layout strategies and inscription types can be identified. These will undergo further transformations following the medial change of letterpress printing and the digital world which will also result in the creation of new paratextual practices. My book project aims to study the cultural and historic dimension of annotating texts taking into account wide ranging interdisciplinary aspects. The typology of the wide variety of annotations which are in evidence since the Early Middle Ages will be analyzed. Furthermore, the annotations’ changes, transformations and tradition lines up to the modern digital age will be identified. The main focus of the research project lies on the diachronic analysis of the European tradition of annotations. However, the project will also draw a comparison between the European tradition and that of other written cultures, especially in Arabic and Asian areas.

A substantial corpus documenting annotation practices has already come together, and I hope to work on the project intensively in the next two years. Of course, I would be very grateful for further hints and thrilled about curious or unusual annotation practices my readers here have come across when reading or looking at manuscripts and books.

PS. After posting this blog I opened Twitter, and saw a cat walking through a manuscript (via @ttasovac, merci!)

Further reading:
Gérard Genette, Seuils, Paris 1987

Falko Klaes – Claudine Moulin, Wissensraum Glossen: Zur Erschließung der althochdeutschen Glossen zu Hrabanus Maurus, Archa Verbi 4 (2007) p. 68-89

Claudine Moulin, Zwischenzeichen. Die sprach- und kulturhistorische Bedeutung der Glossen, in: Rolf Bergmann und Stefanie Stricker (Hrsg.), Die althochdeutsche und altsächsische Glossographie. Ein Handbuch, Bd. 2, Berlin und  New York: Walter de Gruyter  2009, p. 1658-1676

Claudine Moulin, Am Rande der Blätter. Gebrauchsspuren, Glossen und Annotationen in Handschriften und Büchern aus kulturhistorischer Perspektive, in: Autorenbibliotheken, Bibliothèques d’auteurs, Biblioteche d’autore, Bibliotecas d’autur, Quarto. Zeitschrift des Schweizerischen Literaturarchivs 30/31 (2010) p. 19-26

See also the Project “Kulturgeschichtliche Erschließung der volkssprachigen Glossenüberlieferung des Mittelalters“, Historisch-Kulturwissenschaftliches Forschungszentrum (HKFZ), University of Trier
and the Portal “Althochdeutsche und Altsächsische Glossen“, University of Bamberg.

[i] Introduction. «Un imperceptible trait de gomme de tragacanthe …», in: Paolo D’Iorio – Daniel Ferrer (Ed.), Bibliothèques d’écrivains, Paris: CNRS Éditions 2001, p. 13.

[ii] «mit welcher Besessenheit wir die makellosen Seiten unserer Bücher mit Unterstreichungen und Kritzeleien bedecken», in: «Was ich mit meinen Büchern tue», Frankfurter Allgemeine Zeitung,  213 (15. Oktober 2008), p. 33.

[iii] „Wo auch immer ich lese, brauche ich natürlich einen Bleistift.“, in: «Was ich mit meinen Büchern tue», Frankfurter Allgemeine Zeitung,  213 (15. Oktober 2008), p. 33.

Quelle: http://annotatio.hypotheses.org/93

Weiterlesen

Der Einsatz von Torlinientechnologie bei der Fußball WM 2014 und die Frage, ob es funktioniert

Wie auch in unterschiedlichen deutschsprachigen Medien berichtet wird (z.B. sport.orf.at, sportschau.de) hat gestern die FIFA erklärt, dass bei der FIFA Fußball WM 2014 in Brasilien sowie beim Konföderationen-Pokal 2013 sog. Torlinientechnologie (GLT; Goal Line Technology) zum Einsatz kommen soll. Im April soll es eine Entscheidung geben, welche Technologie letztendlich verwendet wird. Bisher sind zwei Technologien lizenziert worden: Hawk-Eye und GoalRef. Während Hawk-Eye, welches bereits im Tennis und Cricket verwendet wird, über sechs bis acht Kameras und visuelle Triangulation den Standort des Balles abschätzt, ist GoalRef ein niederfrequentes magnetfeldbasierendes Funksystem, entwickelt vom Fraunhofer Institut für Integrierte Schaltungen.

Die FIFA bietet u.a. auf Youtube zwei Videos zur rudimentären Erklärung der Systeme an: Hawk-Eye, GoalRef

Torlinientechnologie Bildrechte: FIFA.com

Auf FIFA.com wurde bereits im Dezember 2012 Roman Furrer von der EMPA (Eidgenössische Materialprüfungs- und Forschungsanstalt) zitiert, dass sowohl Hawk-Eye als auch GoalRef die “abschließenden Installationstest bestanden” haben und gemäß diesen Tests funktionstüchtig sind. Genauere Angaben über die Tests und wie sich die Funktionstüchtigkeit ergibt werden hier aber nicht gemacht. In einem weiteren Video werden die Tests von der FIFA etwas genauer erläutert, auf der FIFA Qualitätsprogramm Webpage finden sich über die Vorgehensweise nähere Informationen. Dort heißt es:

Nur wenn das System funktioniert, d. h. genau anzeigt, ob ein Tor erzielt wurde oder nicht, erhält es die FIFA-Lizenz und darf bei offiziellen Spielen gemäss Spielregeln eingesetzt werden.

Doch was heißt in diesem Zusammenhang funktionieren bzw. genau anzeigen, ob ein Tor erzielt wurde oder nicht? Was heißt genau? Man müsste besser fragen: Wieviel Genauigkeit ist gesellschaftlich notwendig? (vgl. Gates 2011: 48)1 Ähnlich wie Kelly Gates es für Gesichtswiedererkennungstechnologien (face recognition) festgestellt hat, sollte bei der Diskussion um Torlinientechnologien die Frage nach der gesellschaftlichen Konstruktion von Genauigkeit im Zentrum stehen und wer die daran beteiligten relevanten Gruppen sind. Insofern kann die Diskussion um Torlinientechnologien auch eine wichtige Diskussion um das öffentliche Verständnis von Technologie werden. Harry Collins und Robert Evans argumentieren in ihrer Auseinandersetzung mit sports decision aids (SDAs), also Entscheidungshilfen im Sport, dass die Science and Technology Studies an dieser Diskussion teilnehmen sollten (Collins & Evans 2012)2, um insbesondere Unsicherheiten, Selektionsprozesse, Uneindeutigkeiten und Fehlertoleranzen in Technologieentwicklung und Entscheidungshilfen im Sport sichtbar zu machen. Das bedeutet nicht unbedingt, dass die Technologie an sich in Frage gestellt werden soll, sondern, dass klar gemacht werden soll, wie Entscheidungen durch Torlinientechnologie zustande kommen und welche Unsicherheiten damit verbunden sind.

Laut Collins & Evans gibt in etwa der Hawk-Eye Hersteller an, dass bei der Verwendung von Hawk-Eye eine Fehlerverteilung vorhanden ist. Beim Tennis etwa ist die durchschnittliche Genauigkeit 3,6 mm (Collins & Evans 2012: 911)3. Ein Durchschnitt ist allerdings nur ein Durchschnitt und so können kleinere und größere Abweichungen in der Realität vorkommen. Es besteht also in seltenen Fällen auch die Möglichkeit, dass der Fehler z.B. 10 mm beträgt (ebds.). Für die Frage nach der Funktionstüchtigkeit muss also festgehalten werden, dass Torlinientechnologien zwar durchaus in der Lage zu sein scheinen, grobe Fehler bei realtiv eindeutigen Toren zu erkennen. Bei sehr knappen Entscheidungen (wie z.B. im FIFA Hawk-Eye Video), und hier spielen sicher auch die Beschaffenheit der Torlinie und des Grases mit eine Rolle, kann auch die Entscheidung einer Torlinientechnologie schlichtweg fehlerhaft sein. D.h., wie Harry Collinss auch in einem Interview über den Streit von Hawk-Eye Entscheidungen im 2007 Wimbledon Finale Nadal vs. Federer anmerkt: Ein “health warning” in Zusammenhang mit Hawk-Eye ist unbedingt notwendig, da es nicht immer wiedergibt, was tatsächlich passiert ist. Hawk-Eye sollte eher wie eine Rechtsschreibprüfung auf dem Computer verwendet werden, die nicht immer richtig liegt, aber dennoch ein sinnvoller Ratgeber ist, so Collins.

Hierbei stellen wir (Daniel Meßner, Stephan Gruber und Christoph Musik) uns die Frage, wie teuer ein sinnvoller Ratgeber sein soll oder darf? Offensichtlich geht es der FIFA im Gegensatz zur UEFA nicht nur darum, dass richtige Entscheidungen getroffen werden, sondern auch, dass diese Entscheidungen mit Hilfe einer teuren “Hochtechnologie” getroffen werden. Darüber hinaus muss auch die Frage aufgeworfen werden, wer eigentlich von dieser Entscheidung am meisten profitiert? Insofern ist die Entscheidung, Torlinientechnologie einzusetzen, oder im Falle der UEFA diese nicht einzusetzen, sicherlich auch eine politische Entscheidung. Wir sind der Meinung, dass eine sehr kostengünstige, aber dennoch effektive Alternative ein einfacher Video-Review des Schiedsrichters sein könnte, welcher bei strittigen Torentscheidungen wie beim Feldhockey nur vom Schiedsrichter angefordert werden kann.

 

  1. Gates, Kelly (2011): Our Biometric Future: Facial Recognition Technology and the Culture of Surveillance. NYU Press.
  2. Collins, Harry & Evans, Robert (2012): Sport-decision aids and the ”CSI-effect”: Why cricket uses Hawk-Eye well and tennis uses it badly. Public Understanding of Science 2012, 21, 904-921.
  3. Collins, Harry & Evans, Robert (2012): Sport-decision aids and the ”CSI-effect”: Why cricket uses Hawk-Eye well and tennis uses it badly. Public Understanding of Science 2012, 21, 904-921.

Quelle: http://www.univie.ac.at/identifizierung/php/?p=5335

Weiterlesen

“Share and follow research” – Academia.edu

Neben den allgemeinen sozialen Netzwerken wie Facebook, Twitter und Google+, die inzwischen auch von Wissenschaftler/innen – teilweise intensiv – genutzt werden, um sich zu vernetzen, ein Profil anzulegen, Informationen auszutauschen, zusammenzuarbeiten und wissenschaftliche Erkenntnisse einer breiteren Öffentlichkeit zu vermitteln, gibt es spezielle soziale Netzwerke für Wissenschaftler/innen, die zunehmend auch im deutschsprachigen Raum genutzt werden: Ein Beispiel dafür ist Academia.edu. Im Dezember konnte Gründer Richard Price nun stolz twittern, dass sich bei Academia.edu 2 Millionen Mitglieder registriert haben; inzwischen sind es schon knapp 2250000. Academia.edu [...]

Quelle: http://ordensgeschichte.hypotheses.org/2663

Weiterlesen

Breaking: Termin des Gurkenfests in Znojmo

Vor kurzem suchte ein Fan der Gurke nach dem Gurkenfest in Znojmo und landete auf einem vor bald drei Jahren von mir erstelltem Posting mit Hinweis auf das 2010 stattfindende Gurkenfestival in Znojmo. Nun, die Znaimer Gurke ließ mich nicht los und ich machte mich auf die Suche, wann denn dieses Jahr das Slavnosti okurek stattfinden würde, denn solche Bilder möchte man sich nicht entgehen lassen, nicht wahr? Das letztjährige Festival samt Gastauftritt in Wien ist an mir vollkommen vorüber gegangen, aber nun kann ich exklusiv (glaube ich halt) für den deutschen Sprachraum verkünden: Das Gurkenfest in Znojmo findet dieses Jahr vom 2. bis 3. August 2013 statt (Quelle)!

Wer übrigens in der Frankfurter Gegend wohnt und nicht den weiten Weg bis nach Znojmo antreten möchte, sei beruhigt: Auch in Deutschland gibt es zumindest ein Gurkenfest, nämlich in Biblis (Termin), Gurkenköniginnen inklusive!

Quelle: http://adresscomptoir.twoday.net/stories/264165416/

Weiterlesen

Aufstieg und Niedergang der City Nord

Die City Nord zählt nicht zu den Touristenmagneten Hamburgs. Die Bewohner der Hansestadt kennen, aber meiden sie, Auswärtige haben vermutlich nie von ihr gehört. So leer die City Nord an manchen Tagen auch sein mag, jedem wird beim Rundgang bewusst, dass sie einst ein Großprojekt war, das tausende Menschen anlocken sollte. Viele der Gebäude werden nicht mehr genutzt, Millionen sind hier versickert.Man mag vermuten, dass die City Nord nach anfänglicher Euphorie schnell ähnlich betrachtet wurde wie die Elbphilharmonie, die inzwischen nicht mehr durch ihre Silhouette, sondern vor allem durch ihre Kosten im Gedächtnis haften bleibt. Welche Visionen standen hinter der riesigen Bürostadt und warum haben sie sich nicht erfüllt?

Am 24. August 1959 beschloss der Senat einen neuen Aufbauplan. Der vorangegangene Plan vom 20. Juli 1950 war bereits „übererfüllt“. Die dringenden Probleme der Nachkriegszeit waren bereits gelöst. Flüchtlinge waren bereits integriert, über 25.000 Wohnungen wurden erbaut um jedem ein neues Heim zu bieten. Hatte Hamburg 1946 erst 1.4 Millionen Einwohner, so waren es 1959 schon 1.8 Millionen. Langfristig wurde die Marke von 2.2 Millionen Hamburgern angepeilt, die allerdings bis heute nicht erreicht werden konnte.

„Aufbau statt Wiederaufbau!“

Die Probleme vor denen die Stadtväter standen, waren also vor allem „Luxusprobleme“. Neuer Wohnraum sollte zwar weiterhin erschlossen werden, doch dies war nicht mehr Priorität. Nachdem fast alle Bürger wieder ein Dach über dem Kopf hatten, wollte der Senat das Stadtbild verschönern. Grünflächen für die Naherholung sollten errichtet, die wuchernden Stadträndern durch kleinere regionale Zentren gezähmt werden, ein Ausbau des Personennahverkehrs die Innenstadt entlasten.

In den Zeiten des Wirtschaftswunders schien vieles denkbar. Das Credo der Stadtplaner lautete damals „Aufbau statt Wiederaufbau!“ Etwas komplett neues sollte entstehen. Hamburg sah sich kühn als wichtigste Stadt Westdeutschlands. Berlin als geteilte Stadt galt nicht als ernstzunehmender Konkurrent. Bausenator Paul Nevermann ließ dem Oberbaudirektor Werner Hebebrand weitestgehend freie Hand. (Uns Studenten sollte er vor allem als Architekt des Audimax bekannt sein.) Dieser hatte in den USA gelebt und sich von der dortigen Architektur inspirieren lassen. In den neuen Visionen nahm vor allem der Durchführungsplan D 100 einen immer größeren Raum ein. Neben der Altstadt sollte eine 2. City Hamburg nach außen hin attraktiver machen.

Mit dem Wohlstand der 50 Jahre überfluteten bald auch viele Autos die Innenstädte. Um den Verkehrsinfarkt abzuwenden, sollten viele Berufstätige in anderen Viertel Arbeit finden. Unter dem Namen „Geschäftsgebiet für Kontorhäuser“ wurden verschiedene Szenarien durchgespielt. Wenn man große Firmen in Hamburg ansiedelte, würde dies zwangsläufig die Innenstadt oder die Elb- und Alsterufer beeinträchtigen. Viele Konzerne drohten jedoch, die Stadt zu verlassen, wenn nicht bald ein neues Areal erschlossen würde. Hamburg konnte sich diese wirtschaftlichen Einbußen nicht leisten, denn im Kalten Krieg stand der Hafen für die Binnenschifffahrt nur noch eingeschränkt bereit, da die Elbe sich weit in die DDR hinein erstreckte.

Aus Fehlern lernen

Klar war, dass man Büroräume und Industriegebiete strikt trennen wollte. Gleichzeitig wollte man eine Zersiedelung dicht bebauter Stadt durch Hochhäuser wie z.B. in Frankfurt am Main verhindern. Hamburg hatte seine Erfahrungen mit dem Unilever-Gebäude gemacht. Das Hochhaus war in der Bevölkerung vor allem deshalb unbeliebt, weil für seine Errichtung mehrere alte Fachwerkhäuser niedergerissen werden mussten.

Die Errichtung einer neuen Bürostadt sollte also möglichst wenig in bereits vorhandene Bausubstanz eingreifen, von außen gut erreichbar sein und für die Verkehrsdichte im Inneren der Stadt gewissermaßen Ventil sein. So wurde auch darauf geachtet, dass die geplante 2. City nah am Flughafen Fuhlsbüttel entstehen sollte. Die Wahl fiel schließlich auf ein Gebiet nördlich des Stadtparks, das sich bereits im Besitz der Stadt befand. Ursprünglich war ein fließender Übergang geplant, doch versperren heute immer noch mehrere Bäume die Sicht vom Erholungsraum auf die Bürostadt. Das Gebiet war jedoch nicht ungenutzt. Hier befand sich eine Kleingärtenkolonie und mehrere Kriegsflüchtlinge lebten immer noch in Baracken. Da das Projekt City Nord jedoch absolute Priorität hatte, sah sich die Stadt Hamburg zu außergewöhnlich großzügigen Entschädigungszahlungen bereit. Viele der Anwohner fanden im nahegelegenen Steilshoop eine neue Bleibe.

Zuerst musste ein Straßennetz entstehen, um das herum dann die Großbauten errichtet werden sollten. Der Überseering definiert das Gelände am deutlichsten. Ungewöhnlich für die Lage in der Innenstadt ist, dass er 3-spurig angelegt wurde. Die übrigen Seitenstraßen wurden nach Sydney, Djakarta, New York, Halifax, Manila, Mexiko, Kapstadt, Dakar und Caracas benannt. Der Anspruch Hamburgs als „Tor zur Welt“ schimmert bei dieser Namensgebung deutlich durch. Die U-Bahn Station Sengelmannstraße wurde extra für die City Nord errichtet. Zu Beginn war geplant, die Station an die U4 anzuschließen, die aber nie gebaut wurde. Die inzwischen realisierte U4 folgt einem anderen Straßenverlauf und steuert vor allem die neu erschlossene Hafen-City an.

Platz für Autos und „Lufttaxis“

Für viele der zuerst errichteten Gebäude zeigt sich ein gemeinsames Schema. Um die City Nord autofreundlich zu gestalten, sollten die Fußwege künftig überirdisch liegen. Wege in ca. 4m Höhe verbinden die Gebäude, Brücken machen Fußgängerampeln überflüssig, so dass der Verkehr nie ins Stocken gerät. Ebenso liegt auch das „Erdgeschoss“ der Gebäude in 4m Höhe, was bedeutet, dass die Tiefgaragen nicht wirklich tief in den Boden reichen. Auch dadurch ließen sich die Baukosten für die Großprojekte begrenzen. Fußgängerbrücken erstrecken sich zwischen den Gebäuden, um ja nicht den Autoverkehr zu stören. Anfangs war sogar ein eigener Hubschrauberlandeplatz angedacht, damit „Lufttaxis“ in Richtung Fuhlsbüttel und Innenstadt starten konnten. Realisiert wurde dies nicht.

1964-1970 entstanden im Bereich Ost der City die ersten Gebäude entstehen. Das Bauunternehmen Claudius Peters AG ließ seine Konzernzentrale errichten, bereits 1965 wurde Richtfest gefeiert. Im gleichen Jahr wurde auch mit den Bauarbeiten für die Landesbank begonnen. Auch die Hamburgischen Elektrizitätswerke und Esso ließen sich 1966 am Überseering nieder. Das HEW-Gebäude gehört heute dem Vattenfall-Konzer. Die Colonia-Versicherung und Mobil Oil zogen ihre Zusagen zurück, stattdessen verlegte BP seine Büros auf das Gebiet.
Die Formvielfalt in der City Nord beeindruckte Presse und Hamburger. BP wollte mit der auf Sechsecken basierenden Gebäudestruktur die chemischen Konturen der Benzolringe nachbilden. Selbst das Pförtnerhäuschen ist ein Hexagon. Mehrere Architekturbüros standen in direkter Konkurrenz zueinander und jedes wollte den Zuschlag für die größten Projekte erhalten. In der Folgezeit stiegen die Grundstückspreise fast auf das doppelte an. Gute Voraussetzungen also, um mit dem Bauabschnitt West zu beginnen.

Dort hatte die Deutsche Post bereits 1965 ein Grundstück erworben, auf dem dann das wohl außergewöhnlichste Gebäude der City Nord entstand. 1970 begannen auch die Treuarbeit und Edeka zu bauen. Im gleichen Jahr lief noch ein Architekturwettbewerb der über die künftige Zentrale des Versicherungsdienstleisters Hamburg-Mannheimer entscheiden sollte. Bis auf kleine Ausnahmen wurden alle Grundstücke auch verkauft.

„Steril und tot“

Die Bauphase West war noch nicht ganz abgeschlossen, als 1975 dann der Norden des Areals bebaut werden sollte. Zu diesem Zeitpunkt war von der früheren Aufbruchstimmung aber nur noch wenig übrig. In der Bevölkerung sah man nur noch eine „Betonwüste“, das gesamte Areal wirke „steril und tot“, erst recht, wenn man es nach Feierabend oder am Wochenende besuchte. Dennoch gab es keine Planungen gezielt Wohnungen zu errichten, um die City Nord „lebendiger“ zu gestalten. Die Großkonzerne wünschten, dass ihre Gebäude als Einzelstücke herausragten.

Getragen war die Planung vor allem von der Idee des Großraumbüros. Anfangs versprach man sich dadurch ein leiseres Arbeitsklima, weil die Vielzahl der Geräusche zu einem Hintergrundrauschen verschwimmen würden. Die Angestellten lehnten dieses Konzept jedoch überwiegend ab, da sie sich ständig überwacht und eingepfercht wirkten. In der heutigen Zeit gilt das Großraumbüro als veraltet, da der Computer seinen Siegeszug angetreten hat.

Im Zentrum der City Nord entstand ein Gebäudekomplex, der schlicht nur als „Mitte“ bezeichnet wird. Die Planungen verzögerten sich jedoch immer wieder. Bereits 1960 sollte ein Entwurf feststehen, doch dieser wurde wieder verworfen, bald durch einen neuen ersetzt und abermals entworfen. Dass Oberbaudirektor Werner Hebebrand 1965 in den wohlverdienten Ruhestand verabschiedet wurde, trug ebenfalls nicht zu einer Entscheidungsfindung bei. Und so stand lange nicht fest, wie das riesige Grundstück genutzt werden sollte.

Kein Einzelhandel, kein Wasserbecken

Nach einem langwierigen bürokratischen Prozess gelangten die Stadtplaner zu dem Urteil, in einem großen Gebäude verschiedene Einrichtungen wie eine Ladenzeile, das Postamt, ein Parkhaus und auch mehrere Wohnungen zu errichten. Büros sollten ebenso entstehen, allerdings nur für Ärzte, Makler, Anwälte, Notare etc. Ein einzelner Besitzer war also in diesen Vorstellungen nicht vorgesehen und so hatte wie bei den anderen Großprojekten der City Nord keine Firma Interesse an einem repräsentativen Gebäude. Der eigentliche Entwurf der letztendlich veröffentlicht wurde, brachte also nur einen Betonklotz hervor. Direkt am Park wurde zuerst ein Wasserbecken angedacht, das aber schnell in Vergessenheit geriet.

Finanzierungsschwierigkeiten führten zu weiteren Verzögerungen, die erst gelöst werden konnten, als der Investor Helmut Greve zusagte, das Projekt zu tragen. Er verließ sich auf die mündliche Zusage einiger Banken, als Mieter in der „Mitte“ einzusteigen, an die sie sich jedoch bald nicht mehr gebunden fühlten. Nach dieser Wende wurde nun hauptsächlich der Wohnungsbau angepeilt. Bereits nachdem 1969 mit den Bauarbeiten begonnen wurde, fanden weitere Änderungen am Gesamtkonzept statt, die zum eher unfertigen Eindruck der „Mitte“ beitragen.

Der dauerhafte Betrieb der Ladenzeile im Inneren der „Mitte“ ist inzwischen gescheitert. Dies hat mehrere Gründe, so zB. dass die Planungen für die City Nord mit der Zeit immer halbherziger weiterführt wurden die Stadtväter lieber ein Einkaufszentrum in der Hamburger Straße errichteten, das Kunden anlockte. Auch ist die Ladenzeile von außen nicht zu erkennen, die eher tunnelartigen Eingänge dürften ihr Übriges tun, zufällige Laufkundschaft abzuschrecken. Zudem war es gar nicht nötig, Geschäfte für die Mitarbeiter der nahen Konzernzentrale zu errichten, denn dort hatten die Firmen meist selbst für alles gesorgt. Auch dass die Ladenzeile über dem Straßenniveau liegt und daher schlecht mit dem Auto beliefert werden kann, macht es den Inhabern unnötig schwierig. Außerdem wurde die geplante U-Bahnlinie nie errichtet, so dass weit weniger Leute als erwartet, durch die City Nord streiften. Dass das errichtete Hotel in großen Maße Touristen anziehen und eine Flaniermeile mit Bars und Cafes entstehen würde, erscheint aus heutiger Perspektive eher illusorisch.

Literaturtipp: Sylvia Soggia: City Nord. Europas Modellstadt der Moderne

Quelle: http://www.hh-geschichten.uni-hamburg.de/?p=663

Weiterlesen

Unter dem Schutz des Kaisers

Sicherheit stellte auch schon in der vormodernen Gesellschaft einen hohen Wert dar. Und doch war es eine ausgesprochen fragile Komponente im Ordnungsgefüge dieser Zeit. Gerade in Kriegszeiten war die Sicherheit mehr als sonst bedroht. Wie konnte man sich ihrer vergewissern? Salvaguardien, Schutzbriefe also, erschienen als das probate Mittel, um sich vor Einquartierungen, der Erhebung von Kriegssteuern und anderem Unbill zu schützen. Wenig überraschend also, daß Schutzbriefe in dieser Zeit ein Massenphänomen darstellten.

Doch an wen sollte man sich wenden, um eine solche Salvaguardia zu erhalten? Nach den herkömmlichen Ordnungsvorstellungen war die eigene Obrigkeit dafür zuständig, Schutz und Schirm für die eigenen Untertanen zu gewährleisten; diese Schutzleistung stellte nicht zuletzt eine wichtige Legitimierung für jeden Herrschaftsträger dar. Schnell zeigte sich jedoch in Kriegszeiten, daß die eigene Obrigkeit, egal ob es ein Stadtmagistrat oder ein Reichsstand war, schnell an ihre Grenzen stieß. Deshalb war es nicht unüblich, daß sich Schutzsuchende – und das konnten Einzelpersonen jedweden Standes oder auch Kommunen bis hin zu Reichsständen sein – direkt an eine Kriegspartei wandten. Zwar ging vom Militär ja eigentlich die Gefahr aus, gleichzeitig erblickte man gerade in ihr die Instanz, den nötigen Schutz zu gewährleisten. Je nach Situation war es sogar naheliegend, sich von beiden, miteinander verfeindeten  Armeen Schutzbriefe ausstellen zu lassen und so für jede Eventualität vorgesorgt zu haben.

Eine andere Möglichkeit war es, sich direkt an den Kaiserhof oder an den Reichshofrat zu wenden. Tobias Schenk, der schon seit einiger Zeit im Wiener Haus-, Hof- und Staatsarchiv wichtige archivarische Erschließungsarbeiten zum Reichshofrat betreibt, hat in zwei jüngst erschienenen Beiträgen aufschlußreiche Beispiele dafür angeführt: Reichsgeschichte als Landesgeschichte. Eine Einführung in die Akten des kaiserlichen Reichshofrats, in: Westfalen. Hefte für Geschichte, Kunst und Volkskunde 90 (2012), S. 107-161; Das Alte Reich in der Mark Brandenburg. Landesgeschichtliche Quellen aus den Akten des kaiserlichen Reichshofrats, in: Jahrbuch für brandenburgische Landesgeschichte 63 (2012), S. 19-71.

Wie die Titel zeigen, ist die Stoßrichtung beider Aufsätze eine ganze andere, doch geht er in beiden Fällen auch auf die Phase des Dreißigjährigen Kriegs ein und bietet für unser Thema der Salvaguardien einmal westfälische (S. 121 f.), ein anderes Mal brandenburgische Exempel (S. 41-46). Besonders letztere sind bemerkenswert, zeigen sie doch die Schwäche der Hohenzollernherrschaft in dieser Zeit. Nicht nur brandenburgische Untertanen suchten Schutz beim Kaiser, sondern die Kurfürstin Elisabeth Charlotte selbst, als strenge Calvinistin kaum einer prohabsburgischen Haltung verdächtig, erbat sich Anfang 1631 kaiserliche Schutzbriefe für ihre Güter.

Was brachten nun solche Schutzbriefe? Viele Episoden aus diesen Kriegsjahren belegen, daß Salvaguardien oftmals nur ein Stück Papier waren. Deswegen gab es nicht nur papierne Salvaguardien, sondern auch „lebendige“ (wie man sie zeitgenössisch nannte) – echte Soldaten also, die als Wachmannschaft einem Konvoi oder Reisenden beigegeben wurden. So etwas kostete natürlich noch mehr als ein Dokument, und auch diese Trupps garantierten nicht immer die ersehnte Sicherheit. Wichtig in dem Kontext ist aber die generelle Frage, welchen Effekt kaiserliche Schutzbriefe hatten: Hat man dem Reichsadler mehr Respekt entgegengebracht als dem Siegel irgendeines Kommandeurs? Dieser Frage geht Tobias Schenk nicht mehr nach, und im Zusammenhang seiner Aufsätze ist dies auch nicht seine Aufgabe gewesen. Doch genau hier lohnt es sich, die bereitgestellten Indizien weiterzuverfolgen und zu überprüfen, ob die kaiserlichen Schutzbriefe tatsächlich dazu beitragen konnten, die Präsenz des Reichs und des Kaisers in kriegsbedrohten Regionen aufrechtzuerhalten.

Quelle: http://dkblog.hypotheses.org/93

Weiterlesen

Über Sprache und Tierkommunikation

  Kürzlich erschien in einer populären Wissenschaftszeitschrift ein Artikel1 zur “Gabe der Sprache”, in dem auch thematisiert wurde, ob und in wie weit sich menschliche Sprache von so genannten “Tiersprachen” unterscheidet. In der Klärung dieser Frage blieb der Artikel allerdings sehr vage, was mich ein wenig ärgerte und letztlich dazu veranlasste, selbst etwas darüber zu schreiben. Gradueller oder fundamentaler Unterschied? Die Beschäftigung mit dem Thema blickt auf eine lange Tradition zurück: Schon Aristoteles und Epikur stellten Mutmaßungen über den Status der Verständigung von Tieren untereinander an. Für René Descartes, der in seinem Dualismus streng zwischen Geist und Materie trennte, ist die Sprache Ausdruck des Verstandes, also auf der geistigen Seite der Welt verortet, während Tiere als seelenlose Automaten keine solche haben können. Einen derart fundamentalen Unterschied zwischen menschlicher Sprache und Tierkommunikation nimmt im 20. Jahrhundert auch der Linguist Noam Chomsky an, der Sprache als spezifisch menschliches Organ ansieht, das zwar genetisch determiniert ist, in der Evolution aber lediglich den Menschen zufiel. "Gandhiji's Three Monkeys" von Kalyan Shah, CC-BY-SA Die Gegenposition wird von den Anhängern der Kontinuitiätstheorie vertreten, die von einem Stufenmodell tierischer Kommunikation ausgehen, in dem die menschliche Sprache die höchste bekannte Stufe einnimmt. Einer ihrer Vertreter ist Charles Darwin, der viele Parallelen in der nichtsprachlichen Kommunikation von Menschen und höheren Tierarten ausmacht und die Tatsache der Entwicklung einer komplizierten Lautsprache vor allem auf die Größe und Leistungsfähigkeit des menschlichen Gehirns zurückführt. Die Kontinuitätstheorie hat auch in unserem Jahrhundert noch Anhänger, welche sich vor allem auf Studien zur Kommunikation von Tieren berufen. Natürliches Verhalten oder gezieltes Training? Kommunikation mit Artgenossen ist für viele Tierarten überlebenswichtig, etwa wenn es um die Suche nach Nahrung oder um die Warnung vor Feinden geht. Die komplexesten bekannten Beispiele sind dabei sicherlich der Schwänzeltanz von Honigbienen und das Alarmrufsystem von Meerkatzen. Neben der Beobachtung dieser natürlichen Verhaltensweisen wird oft auch versucht, der Sprachfähigkeit von Tieren über speziell entwickelte Versuchsanordnungen auf die Spur zu kommen. Dazu wird entweder das Vorhandensein von für die menschliche Sprache als grundlegend angenommene Fähigkeiten überprüft (z.B. Kombinationsfähigkeit, Verarbeitung rekursiver Strukturen; darauf gehe ich unten noch genauer ein), oder es wird sogar versucht, mit Tieren über eigens geschaffene Sprachkonstrukte zu kommunizieren. Hinsichtlich solcher sprachbasierter Mensch-Tier-Kommunikation wurden die besten Ergebnissen mit Primaten erzielt. Da Affen nicht über einen Sprechapparat verfügen, der mit dem menschlichen vergleichbar ist, konnte dabei nicht auf verbale Kommunikation zurückgegriffen werden. Stattdessen wurden Gesten oder Symbolbilder entwickelt und den Primaten beigebracht. Diese begriffen mal mehr, mal weniger schnell, dass bestimmte Symbole bzw. Gesten für bestimmte Konzepte standen und sich daraus produktiv eigenständige Kombinationen bilden ließen. So antwortete die trainierte Schimpansendame Washoe etwa, als sie aufgefordert wurde, sich zu Radieschen zu äußern (für die sie keine eigene Geste gelernt hatte) mit einer Kombination der Gesten für “Weinen”, “wehtun” und “Frucht”. Sonderlich geschmeckt hatten sie ihr also nicht. Inhaltliche oder formale Unterschiede? Die Kluft zwischen Mensch- und Tiersprachen scheint also gar nicht so weit und tief zu sein, wie manche bis zur Durchführung der Primaten-Experimente annahmen. Zumindest der produktive Einsatz von Sprachsymbolen scheint auch Tieren gelingen zu können. Ohnehin rütteln neuere Forschungsergebnisse an so gut wie jedem kategoriellen Unterschied, der zwischen der menschlichen Sprache und den Kommunikationssystemen von Tieren postuliert wurde. Der Linguist Charles Hockett erarbeitete eine Aufstellung von 13 Merkmalen, die lautsprachliche Kommunikation auszeichnen. Hockett selbst ist Anhänger der Kontinuitätshypothese, geht also davon aus, dass kein kategorieller Unterschied zwischen der Kommunikation von Tieren und menschlicher Sprache existiert. So finden sich dann auch viele der von Hockett angeführten Merkmale bei verschiedenen Ausprägungen der Tierkommunikation, etwa der Transport von Bedeutung und – wie oben gesehen – die Produktivität.2 Was bleibt also noch an spezifischen Merkmalen für die menschliche Sprache übrig? Lassen sich vielleicht auf inhaltlicher Seite Unterschiede ausmachen, also bei dem, was Anlass der Verständigung ist? Oft heißt es, animale Kommunikation sei an den Moment gebunden, Tiere verständigten sich nicht über Zukünftiges oder Vergangenes. Sie seien auch nicht fähig zur Metasprache, also der Verständigung über die Sprache selbst. Ich halte diese inhaltlich motivierten Unterschiede für schwer überprüfbar, so lange wir z.B. Vogel- und Walgesänge nicht wirklich verstehen. Bleiben die Unterschiede, welche die Form / die Organisiertheit von Sprache betreffen. Nach Chomsky ist ein Wesensmerkmal menschlicher Sprachen, dass sie rekursive Strukturen enthalten. Diese sorgen dafür, dass man mit einem begrenzten Inventar sprachlicher Einheiten und Verknüpfungsregeln prinzipiell unendlich viele Sätze erzeugen kann. Solche rekursiven Strukturen lassen sich z.B. bei sogenannten Schachtelsätzen, also der Einbettung immer neuer Relativsätze, beobachten: Der Löwe, der den Kojoten, der das Pferd, das graste, fraß, jagte, [hat schöne Augen]. Ungeachtet dessen, dass Sätze dieser Art schnell inakzeptabel werden, sind ihre Bildungen prinzipiell möglich. Sie gehorchen dem Schema anbn, das heißt für jedes a (hier: Subjekt) muss genau ein b (hier: Verb) folgen. Und zwar nicht umgehend (das entspräche dem Muster (ab)n und wäre ohne rekursive Bildungsregeln zu erfassen), sondern erst, nachdem alle a aufgezählt wurden. Um einen solchen Satz zu prozessieren ist ein sogenannter Kellerspeicher notwendig, mit dem protokolliert werden kann, wie viele a denn nun auftraten. Gemäß der Chomsky-Hierarchie formaler Sprachen ist ein solches Kommunikationssystem mindestens auf der zweiten, der kontextfreien Stufe anzusiedeln, deren Beherrschung Chomsky eben nur den Menschen zutraut. Tatsächlich schienen Studien an Liszt-Äffchen zu bestätigen, dass diese rekursive Strukturen nicht erkennen konnten. Spätere Forschungen ergaben allerdings, dass Stare damit offensichtlich kein Problem hatten. Damit bleibt eigentlich nur noch ein Strukturmerkmal übrig, das der menschlichen Lautsprache vorbehalten ist: Das Prinzip der doppelten Artikulation Das Prinzip der doppelten Artikulation oder der zweifachen Gliederung, wie es vielleicht weniger irreführend bezeichnet werden könnte, geht auf den französischen Linguisten André Martinet zurück und wird für Zeichensysteme verwendet, die mehrere Gliederungsebenen aufweisen. So findet sich in allen natürlichen Sprachen eine Ebene, welche die grundlegenden sprachlichen Einheiten enthält (Phoneme oder in der Schriftsprache Grapheme), aus denen alle anderen Einheiten zusammengesetzt sind. Diese Einheiten tragen selbst keine Bedeutung, können aber sehr wohl Bedeutung unterscheiden. Aus der Kombination dieser Grundbausteine resultieren größere Einheiten (die kleinsten davon sind Morpheme, die wiederum zu Wörtern, Phrasen, Sätzen usw. kombiniert werden können), welche dann auch mit Bedeutungen verknüpft sind. Ein Beispiel: H und F tragen an sich keine Bedeutung, unterscheiden aber auf formaler (nicht inhaltlicher) Ebene Hund von Fund (ich erspare den Lesenden hier die lautsprachliche Transkription). Dadurch, dass es ein Inventar von Einheiten gibt, die nicht an eine Bedeutung gekoppelt sind, aber Bedeutungen unterscheiden und dazu auf vielfache Art kombiniert werden können, ist die menschliche Sprache so extrem produktiv. Zwar war auch die Schimpansin Washoe produktiv – allerdings nur auf einer Ebene: Sie kombinierte bereits bedeutungstragende Einheiten miteinander. Das gleiche gilt auch für die natürlichen tierischen Kommunikationssysteme Bienentanz und Meerkatzenruf: Ein Symbol trägt eine Bedeutung, kann aber mit anderen bedeutungstragenden Symbolen kombiniert werden. Ist das Prinzip der doppelten Artikulation also die differentia specifica, die menschliche Sprachen von allen anderen Kommunikationssystemen unterscheidet? Das dachte ich zumindest noch bis vor kurzem, fand dann aber diese Studie zu lesenden Pavianen. Offenbar sind die Paviane in der Lage, kleine, an sich nicht bedeutungstragende Einheiten – hier Buchstaben/Grapheme in für sie bedeutungstragende (nämlich Futter versprechende) Wörtern zu identifizieren. Auch wenn die Autoren das nicht thematisieren (ihnen geht es vor allem darum, statistisches Lernen und visuelle Objekterkennung als artübergreifende Fähigkeiten darzustellen), ist die Studie, wenn sie bestätigt wird, ein starker Hinweis darauf, dass nicht nur Menschen doppelt gegliederte Systeme verarbeiten können. Damit wäre auch das letzte der exklusiv der menschlichen Sprach-Kommunikation vorbehaltenen Merkmale gefallen. ———— 1 Im “Gehirn und Geist” Sonderheft “Streit ums Gehirn”, erschienen 01/2013, online leider nur für Abonnenten zugänglich. Dafür hat der Spektrum Verlag aber eine große Themenseite für den Komplex Sprache eingerichtet, wo viele der Artikel frei verfügbar sind. 2 Eine Aufstellung der Hockett’schen Merkmale nebst einer übersichtlichen Tabelle findet sich etwa im (von mir immer sehr enthusiastisch empfohlenen) Buch “Die Cambridge Enzyklopädie der Sprache | The Cambrige Encyclopedia of Language” von David Crystal, CC-BY-SA     

Quelle: http://texperimentales.hypotheses.org/744

Weiterlesen

Die Gefahr hinter dem Rücken der Priester

  Priester genießen im Spätmittelalter und in der Frühen Neuzeit eine herausragende religiöse und soziale Stellung. Sie sind (im Katholizismus und der spätmittelalterlichen Kirche) Vermittler zwischen Gott und den Menschen sowie, durch die Ausgabe der Sakramente, Vermittler des ewigen Heils. Sie bilden, im Protestantismus, Pastorendynastien und einen Autoritätspunkt der Dorfgemeinschaft. Ihr Handeln berührt das Heiligste. Und doch ist die Stellung der Priester prekär, besonders in turbulenten Zeiten wie der frühen Reformation. Pfarrer wurden bis weit ins 16. Jahrhundert hinein oft aus handwerklich-bäuerlichen Schichten rekrutiert und waren in ihrer Lebensweise vom Rest des Dorfes nur zu unterscheiden, wenn sie sakrale Praktiken durchführten. Das ist besonders bei der Eucharistiefeier der Fall, aber auch bei anderen sakramentalen und liturgischen Vorgängen. Während die Priester diese Praktiken ausüben, wenden sie dem gemeinen Volk oft den Rücken zu. Sie widmen sich ganz der religiösen Handlung sowie dem heiligen oder zu heiligenden Objekt. Im Moment des Abwendens gewinnen Priester ihre soziale und sakrale Statur. Die Praktik, der Handelnde und das Objekt müssen von allen Teilnehmer/innen des Kultes als besonders “heilig” anerkannt werden. Denn wenn Kleriker dem Volk den Rücken zuwenden, verlieren sie den Überblick und die Kontrollmöglichkeit über die “untergeordneten” Teilnehmer/innen. Sie sind darauf angewiesen, dass die Religionskultur sich in diesem Augenblick selbst trägt. Andernfalls wären Verwerfungen in der Religionskultur und dem gesellschaftlichen status quo die Folge. Und genau das passiert in der frühen Reformationszeit.   Reale Präsenz Christi? Messe des Hl. Gregor im Beisein der Georgsbruderschaft-Mitglieder. Pieter Jansz Pourbus, 1559. (Martens, Maximilian P. J. (Hg.): Bruges and the Renaissance. Memling to Pourbus, Ausstellungskatalog, Ludion 1998, 204.) Ausgerechnet im bayerischen Altötting lässt sich das anhand eines Falls aus dem Jahr 1523 gut beobachten. In dem berühmten und viel frequentierten Marienwallfahrtsort hört der Rentmeister von Burghausen während einer Untersuchungsreise von skandalösen Vorkommnissen. Darüber hat er am 20.8.1523 einen kurzen Bericht an Bayernherzog Wilhelm IV. verfasst.1 Während seines Aufenthalts wurde dem Rentmeister in Altötting ein Mann angezeigt. Zwei Taten dieses Mannes, der wie der/die Anzeiger nicht namentlich genannt wird, werden in dem Bericht nach München erwähnt. Erstens habe der Mann öffentlich gegen die Wundertätigkeit Marias gesprochen. Die Gebete und Hilfegesuche nützten nichts, habe er gesagt. Die Brisanz und die sozial-kulturelle Sprengraft hinter diesem Diskurs werden verständlich, wenn man sich die religiöse und auch ökonomische Rolle von Marienpraktiken und -mobilität in Altötting um 1500 vor Augen hält. Viel schwerer wiegt aber das Handeln des Manns während einer Seelenmesse in der Altöttinger Pfarrkirche. Im Bericht des Rentmeisters heißt es: “Vener hat ain brister in der pfarkirchen im selambt gesungen. Also er sich vor dem Alltar umbkert unnd fur all glaubig selen gepet, hat diser burger gegen seinen mit burger, einen so neben sein gestannden, gered: Sich an den Narn, was dreibt er fur kleifft [in etwa "dummes Zeug", M.M.]. Es ist pueberey [Betrügerei, M.M.], kumbt den sellen nit zu hilf. Mit den unnd dergestallt worden sich grob gehallten.”2 Der Mann verleiht seiner Kritik, sicher nicht zufällig, während einer Seelenmesse Ausdruck. Seelenmessen waren um 1500 ein inflationärer Bestandteil der Zeit- und Totenkultur, ein Aspekt der religion flamboyante (Jacques Chiffoleau). Durch das Lesen einer oft großen Anzahl von Messen sollte die Zeit der verstorbenen, sündigen Seelen im Fegefeuer verkürzt werden. Die Messpraktik bildete also auch eine Art zeitlich-vertikale Kommunikations- und Affektlinie zwischen Lebenden und Toten. Diese Totenkultur lehnen Evangelische seit den 1520er Jahren zunehmend ab. Reformatorische Theologen sehen den Weg zum Heil in Glaube und Gnade, der Mensch ist dabei machtlos. Sie und immer mehr ihrer Anhänger verwerfen das Fegefeuer. In diesem Umfeld entstehen distinktiv evangelische Totenkulturen mit anderen Wissensordnungen und Praktiken, die klare Unterschiede zwischen den späteren Konfessionen entwickeln sollten.3Die ablehnende Sinnzuschreibung zur alten, nun altgläubigen Seelenmesse und der Kultur, in der diese praktiziert wird und die diese repräsentiert, drückt der Anonymus in Altötting aus durch Spott (der Pfarrer als Narr und Betrüger) und eine evangelische Deutung (Messen nützen den Seelen nicht). Wichtig ist der exakte Augenblick, zu dem der Mann diese Aspekte evangelischer Religionskultur in Worte fasst. Es ist der Moment, in dem sich der Priester zum Altar hin umdreht, um für alle gläubigen Seelen (auch die der Anwesenden) zu bitten. Er steht mit dem Rücken zum Volk, wie üblich während der Messliturgie. Nun sollte der oben skizzierte, sozial-religiöse Sakralitäts-Automatismus Umdrehen-Praktik-Objekt greifen. Doch der funktionniert eben nur in einer weitestgehend homogenen Religionskultur. Darin müssten die Messbesucher/innen zumindest äußerlich den Praktiken, Objekten und der Rolle des handelnden Priesters die gleiche Deutung und die gleiche Wirkung zuschreiben. Das Kultursystem müsste so internalisiert sein, dass es sich selbst trägt. Da schert der Anonymus in Altötting aus. Er greift die Praktik, den Zelebranden und die hinter diesen stehende, theologisch-kulturelle Wissensordnung an. Dabei verspottet er zudem die Person des “närrischen” Priesters. Der sakrale Zusammenhang wankt oder gerät in Gefahr – leider kennen wir die Reaktionen der übrigen Messbesucher nicht. Der Mann repräsentiert in dem für die altgläubig-spätmittelalterliche Religionskultur entscheidenden Moment seine in dieser Situation distinktive religiöse Zugehörigkeit und Wissenskultur. “Christus vera lux” – Seelenmessen sind in der lutherischen Totenkultur überflüssig und repräsentieren vielmehr die “andere” Seite. Holzschnitt von Hans Holbein, 1526. (Wikimedia Commons) Dies geschieht in sozialer Interaktion. Der Mann ruft die Worte nicht einfach in die Kirche, sondern sagt sie gezielt seinem Nachbarn, dessen Reaktion leider auch nicht bekannt ist. Da die Worte beim Rentmeister angezeigt werden, ist es sehr wahrscheinlich, dass es in Altötting Einzelne oder Gruppen gibt, die gegen das religiöse Wissen, die situative Differenz und deren öffentliche Manifestierung sind. Merkmale und Momente entstehender, noch sehr an einzelne Situationen gebundener, distinktiver Zugehörigkeiten, werden offenbar und sicher auch verstärkt. Dass der Bruch aber nur in Berührung, Verbindung und direkter Auseinandersetzung mit dem “Anderen” möglich ist, wird ebenso deutlich. Es gibt kein erkennbares “Eigenes” ohne das oder die “Anderen”. Dieser Prozess der ständigen, distinktiven Konstruktion und Aktualisierung – ein langsamer, diskontinuierlicher Prozess – ist typisch für die westeuropäischen Religionskulturen des 16. Jahrhunderts. In den 1520er und 1530er Jahren finden sich erste Merkmale, die von immer mehr Zeitgenossen als bezogen auf distinktive religiöse und somit soziale Zugehörigkeiten gedeutet werden. Mehr als ungewisse Ansätze lassen sich jedoch noch nicht beobachten. Sinnvollerweise ist zu diesem Zeitpunkt also von einer zusätzlichen und in bestimmten, praktischen und kulturellen Momenten distinktiv verstärkten Heterogenität der Religionskulturen zu sprechen. Hölzerne Christusfigur auf dem Esel, repräsentiert den Einzug in Jerusalem. (Das Schweizerische Landesmuseum 1898-1948. Kunst, Handwerk und Geschichte. Zürich 1948, Abb. 32.) Angriffe auf den Preister, wenn er den Rücken bei einer liturigsichen Handlung dem Volk zudreht und darauf angewisen ist, dass sich die soziale und religiöse Kultur selbst trägt, sind zudem keine Seltenheit. Über Messstörungen wird häufig berichtet, viel öfter noch über Predigtstörungen. Gefahr hinter dem Rücken der Priester droht auch bei liturigischen Handlungen am Palmsonntag. Vielfach war es vor der Reformation Brauch, an diesem Tag mit einer großen Prozession einen hölzernen Esel, auf dem eine Christusfigur reitet, in die Kirche zu schieben. Das Volk, das die Prozession begleitete oder am Wegesrand stand, schlug zu bestimmten Augenblicken mit Palmbuschen auf den Esel ein. Die Buschen erhielten dadurch eine sakramentale Funktion, nicht zuletzt deretwegen dieses Rollenspiel von den Reformatoren kritisiert und zusehends aus der evangelischen Kultur verdrängt wurde. So kommt es bei einer Palmsonntagsprozession im schweizerischen Dorf Sommeri am Bodensee zu einem Zwischenfall. Die mehrheitlich evangelischen Bewohner/innen warten den Moment der Prozession ab, in dem der (altgläubige) Pfarrer sich vor dem Esel niederlegt und die Figurenkombination anbetet. Dann schlagen sie auf den Pfarrer ein, nicht nur mit ihren Palmbuschen.4 Der Moment ist aus evangelischer Perspektive perfekt gewählt. Der Pfarrer wendet sich von der Gemeinde ab und begeht die “abgöttische” Praktik mit dem “götzenhaften” Objekt. In diesem Moment werden die Risse in der religiösen Kultur und dem sozialen Gefüge sichtbar. Wenn also in den 1520er Jahren der Priester dem Volk bei liturgischen Handlungen den Rücken zudreht, droht Gefahr: Ihm und der Religionskultur, in der er seine alten und nun altgläubigen Praktiken vollzieht. Der momentane Kontrollverlust ist ein Test dafür, ob die Religionskultur und die soziale Trennung Klerus-Laien von den Letzteren internalisiert und akezptiert ist. Devianzen, andere Kulturen, Wissensordnungen und Praktiken können hinter dem Rücken der Priester besonders gezielt und effektvoll ausgedrückt werden. Unterschiede werden sichtbar und verstärkt. Der anonyme Mann aus Altötting übrigens versuchte sich beim Verhör durch den Rentmeister mehr schlecht als recht herauszureden. Das Lavieren nutzte ihm nichts. Er wurde bis zu einer Entscheidung des Bayernherzogs vom zuständigen Hauptmann eingekerkert.
  1.  Hauptstaatsarchiv München, Kurbayern Äußeres Archiv, 4246, fol. 5r-6v.
  2. Ibid, fol. 5r-5v.
  3.  Siehe die aktuellen Forschungen zum konfessionellen Konflikt um Begräbnisstätten im 16. und 17. Jahrhundert: Luria, Keith P.: Les frontières du sacré, in: Chrétiens et Sociétés 15 (2008); Karant-Nunn, Susan C.: The Reformation of Ritual. An Interpretation of Early Modern Germany (Christianity and Society in the Modern World), London/New York 1997, 133-182; Koslofsky, Craig: ‘Pest’ – ‘Gift’ – ‘Ketzerei’. Konkurrierende Konzepte von Gemeinschaft und die Verlegung der Friedhöfe (Leipzig 1536), in: Jussen, Bernhard/Ders. (Hg.): Kulturelle Reformation. Sinnformationen im Umbruch, 1400-1600 (Veröffentlichungen des Max-Planck-Instituts für Geschichte 145), Göttingen 1999, 193-208; Brademann, Jan/Freitag, Werner (Hg.): Leben bei den Toten. Kirchhöfe in den ländlichen Gesellschaften der Vormoderne (Symbolische Kommunikation und gesellschaftliche Wertesysteme 19), Münster 2007. Aktuell zu Sterbekulturen in der Frühen Neuzeit vgl. Thiessen, Hillard von: Das Sterbebett als normative Schwelle. Der Mensch in der Frühen Neuzeit zwischen irdischer Normenkonkurrenz und göttlichem Gericht, in: HZ 295 (2012), 625-659.
  4.  Burg, Christian von: “Das bildt vnsers Herren ab dem esel geschlagen”. Der Palmesel in den Riten der Zerstörung, in: Macht und Ohnmacht der Bilder. Reformatorischer Bildersturm im Kontext der europäischen Geschichte, hg. v. Peter Blickle (HZ Beihefte 33), München 2002, 117-141, hier 133.

Quelle: http://catholiccultures.hypotheses.org/518

Weiterlesen