Reproduzierbar Wissen schaffen

  Aktuell findet auf den Scilogs ein Bloggewitter statt, welches exakt das Thema aufgreift, das mich damals veranlasste, mit dem Bloggen anzufangen – die Frage nach der Bedeutung von Reproduzierbarkeit in der Wissenschaft. Ausgelöst wurde dieses Bloggewitter vom britischen Wissenschaftsautor Ed Yong, der in der aktuellen Ausgabe der Zeitschrift Spektrum der Wissenschaft in einem sehr lesenswerten Artikel1 darlegt, dass eine der zentralen Forderungen der Wissenschaft – eben die Reproduzierbarkeit wissenschaftlicher Ergebnisse – zumindest für das von ihm betrachtete Gebiet der Psychologie eher die Ausnahme denn die Regel darstellt. Das führte zu einer ganzen Reihe von Reaktionen, die verschiedene Sichtweisen aus sehr unterschiedlichen – bisher zumeist naturwissenschaftlichen Bereichen – darlegen. Die Bandbreite der Reaktionen macht deutlich, dass sich die einzelnen wissenschaftlichen Disziplinen (natürlich) nicht über einen Kamm scheren lassen und das Problem der (nicht-)Reproduzierbarkeit von Ergebnissen sehr unterschiedlich ausgeprägt ist. Gleichwohl lässt sich der Tenor wahrnehmen, dass das gegenwärtige wissenschaftliche System vor allem spektakuläre und dadurch manchmal auch spekulative Studien durch Veröffentlichung belohnt, während dröge Überprüfungen von Ergebnissen anderer kaum Beachtung in den angesehenen Zeitschriften finden. Veröffentlichungen in namhaften Journals sind aber weiterhin der wichtigste Treibstoff wissenschaftlicher Karrieren. Diese Konstellation verhindert momentan noch eine wissenschaftliche Kultur, in der die Überprüfung anderer Forscher Studien zum täglichen Geschäft gehört. Abgesehen von diesem allgemeinen Konflikt ergeben sich je nach Gegenstandsbereich spezifischere Probleme, was die Reproduzierbarkeit von Studien bzw. derer Ergebnisse angeht. In der Atom- und der Astrophysik steht es damit offenbar ganz gut, weil die untersuchten Stoffe bzw. beobachteten Weltraumphänomene entweder öffentlich zugänglich oder einfach beschaffbar sind. In der organischen Chemie ist die Reproduktion von Synthesen offensichtlich gang und gäbe, es hapert aber daran, die exakten Bedingungen für Synthesen auf eine nachvollziehbare Art weiterzugeben. Größere Schwierigkeiten machen da Forschungen auf dem Gebieten Psychologie und Medizin, ist doch die Wiederholung von Studien, in denen man viele menschliche Probanden benötigt, mit hohen Kosten verbunden. Die Strategien, dem Problem nicht-reproduzierbarer Studien zu begegen, weisen in zwei Richtungen: Auf der einen Seite werden Plattformen geschaffen, auf denen wiederholte Studien veröffentlicht werden können. Das engagierteste Projekt in dieser Richtung ist sicherlich die Reproducibility Initiative, die Autoren von Studien quasi ein rundum-Sorglos-Paket anbietet, indem sie die Wiederholung der Experimente durch unabhängige Wissenschaftler organisiert. Das kostet natürlich und wird im gegenwärtigen Umfeld sicherlich noch nicht allzu stark nachgefragt werden. Wenn sich aber die wissenschaftliche Kultur ändern sollte (was sie wohl v.a. durch Druck von außen – hier von den großen Förderinstitutionen – tun dürfte), denke ich, dass einem solchen Modell die Zukunft gehört. Die andere Stoßrichtung, das Problem in den Griff zu bekommen, ist die Änderung der Veröffentlichungskultur. In Artikeln sind die durchgeführten Experimente und die zugrundeliegenden Daten meist nicht vollständig beschrieben. Solche Artikel würde wohl auch niemand lesen wollen. Es lässt sich aber im besten Fall einrichten, dass man die verwendeten Daten und die eingesetzte Software als Supplemente zu den eigentlichen Artikeln veröffentlicht. Eine solche Kultur der Transparenz würde der Überprüfung, aber auch der Weiterentwicklung der vorgestellten Methoden immens dienen. Sehr interessant ist das Virtual Observatory aus dem Bereich der Astronomie, welches in gleich zwei Artikeln des Bloggewitters thematisiert wird. Letzteres entspricht auch ungefähr dem Ansatz, den wir im Bereich der Textprozessierung mit unserem Text Engineering Software Laboratory (kurz Tesla) verfolgen. Grob kann man sich dieses virtuelle Labor als Verpackungsmaschine für Experimente vorstellen, die auf textuellen Daten operieren. Mit Texten sind dabei nicht nur natürlichsprachliche gemeint, sondern prinzipiell alles, was sich in Sequenzen diskreter Einheiten darstellen lässt – das gilt mit Einschränkungen ja auch für Proteine und Nucleinsäureketten sowie Partituren von Musikstücken. Der Ansatz ist der, dass wir einen beliebig erweiterbaren Werkzeugkasten anbieten, der als Open Source öffentlich zugänglich ist. Die Werkzeuge sind miteinander kombinierbar, so dass man daraus Workflows zusammenstellen kann, deren Konfiguration mit einer Referenz auf die verwendeten Rohdaten in einer Art virtuellem Laborbuch gespeichert werden. Aus diesem Laborbuch lassen sich einzelne Experimente freigeben und auf Plattformen zum Austausch von Workflows (z.B. MyExperiment) sharen. Sind die Rohdaten verfügbar, so lassen sich die Experimente jederzeit wiederholen, die Konfiguration der einzelnen Werkzeuge, deren Sourcecode und die Art ihrer Zusammenstellung im Workflow sind dabei vollständig transparent.   Der Workflow-Editor von Tesla. Zu sehen ist die Kombination von Werkzeugen (Kästen) durch Verbindung der Ein-/Ausgabeschnittstellen. Wir haben uns darum bemüht, die Benutzung des Werkzeugkastens/der Experimentverpackungsmaschine möglichst eingängig zu modellieren, weil wir damit die Hoffnung verbinden, dass sich möglichst viele Nutzer auf das System einlassen, einzelne Werkzeuge evaluieren und eventuell sogar neue erstellen. Die Weitergabe kompletter Experimente kann nämlich nicht nur dazu genutzt werden, um anderer Forscher Studien zu wiederholen, sondern im Idealfall auch, direkt auf diesen aufzusetzen oder durch Modifikationen (durch Austausch oder Rekonfiguration der Werkzeuge oder die Anwendung auf eine andere Datenbasis) zu besseren Ergebnissen zu kommen. Auch wenn wir noch viel Arbeit vor uns haben, was die noch einfachere Benutzbarkeit und die verbesserte Ausstattung von Tesla angeht, sind die Rückmeldungen der ersten Anwender von Tesla außerhalb unseres Lehrstuhls sehr positiv, so dass wir glauben, dass derartige Systeme in Zukunft stärker genutzt werden und die Möglichkeiten des wissenschaftlichen Austauschs sowie der Überprüfbarkeit von Studienergebnissen erweitern.

Quelle: http://texperimentales.hypotheses.org/692

Weiterlesen

Statement: Thomas Stäcker – „Eine Bibliothek aus Texten weben“

Die neue alte Rolle der Bibliothek als Ort des Sammelns, Erschließens und Vermittelns von wissenschaftlicher Literatur im digitalen Zeitalter

»The Invention of Printing , though ingenious, compared with the invention of Letters, is no great matter«. Diese für manchen vielleicht überraschende Feststellung, die Hobbes in seinem Leviathan trifft, lässt die grundsätzliche Ebene der Schriftlichkeit gegenüber ihrem Träger, dem Buch, aufscheinen und relativiert zugleich die Bedeutung des letzteren in einer gleichsam phylogenetischen Perspektive. Bibliotheken wiederum, wie der große niederländische Gelehrte Justus Lipisus schreibt: »… sind eine alte Einrichtung und wurden, wenn ich mich nicht täusche, zusammen mit der Schrift erfunden.“


Herzog August Bibliothek Wolfenbüttel, Augusteerhalle
(Foto: Friedrichsen | CC BY-SA 3.0)

Der enge Zusammenhang von Wissen, Schreiben und Bibliothek, so die These, löst sich auch in Zeiten des Internet nicht. Mit Lipsius gesprochen, kann das Wissen nicht mit Gewinn genutzt werden, wenn es nicht irgendwo aufbewahrt und bereitgestellt wird. Auch das elektronische Buch macht da keine Ausnahme, und es ist eine leichtfertige, ja gefährliche Vorstellung, dass das Internet gleichsam von selbst für die Kultur- und Wissenstradition und – sicherung sorgte. Bibliotheken und Archive behalten daher auch in Zeiten ubiquitärer digitaler Verfügbarkeit die Verantwortung für die Archivierung des Geschriebenen. Bibliotheken müssen sich jedoch im digitalen Zeitalter darauf einstellen, dass sich grundlegende Kulturtechniken, wie das Schreiben und Lesen, ändern und damit auch die traditionellen Formen des Sammelns, Erschließens und Zugänglichmachens. Überkomme und eingespielte Verhältnisse der Wissensproduktion und Aufgabenverteilungen müssen überdacht werden. Z.B. ist es in Zeiten des beliebig vervielfältigbaren Textes mittelfristig nicht mehr sinnvoll, wissenschaftliche Texte über ein gegenüber neuen „Lesetechniken“ wie maschine reading oder Anforderungen des semantic web weitgehend hermetisches Verlagssystem zu publizieren. Voraussetzung für Änderungen ist hier, dass es gelingt, die wissenschaftlichen Qualitätssicherungs- und Distributionssysteme neu auszurichten und dass Universitäten und Autoren die Kontrolle über ihre wissenschaftlichen Publikationen wieder stärker selbst in die Hand nehmen.

Bibliotheken sind Orte, an denen das Geschriebene, sei es analog oder elektronisch, zuverlässig als ein öffentliches, allen gemeinsames Gut für die Nachwelt gesichert wird, wo, unbeeinträchtigt von kommerziellen Interessen der freie Zugang über eigene Suchsysteme gewährleistet ist und wo in qualitativer Auswahl erworben wird. Allerdings sind Bücher nicht länger nur mehr materielle Gegenstände, die in Magazinen aufbewahrt werden, sondern in elektronischer Form miteinander semantisch vernetzte, an jedem Ort der Welt verfügbare, eben maschinenlesbare Texte, denen immer weniger ein end-user, sondern, wie McCarty es formulierte, ein end-maker gegenübersteht. Dieserart gewobene Texte bilden perspektivisch eine neue, eine digitale Bibliothek, die der analogen zur Seite tritt.

Dr. Thomas Stäcker ist Leiter der Abteilung „Neuere Medien, Digitale Bibliotheken“ und seit 2009 Stellvertretender Direktor der Herzog August Bibliothek Wolfenbüttel. Sein Tätigkeitsschwerpunkt liegt dabei unter anderem in der Akquise und Betreuung von Digitalisierungs- und Erschließungsprojekten. Er studierte Philosophie, Latinistik und deutsche Literaturwissenschaft und promovierte 1994 am Fachbereich Kultur- und Geowissenschaften der Universität Osnabrück.

Quelle: http://gid.hypotheses.org/304

Weiterlesen

Die Zeit der Wahrheit

Als letzten Denkanstoß vor der RKB-Tagung bringt Michael Sonnabend hier sein Statement – und damit die Gelegenheit, sich schon einmal warmzudiskutieren, entweder im stillen Selbstgespräch oder in den Kommentaren.

von Michael Sonnabend

Irgendwann werden sie anklopfen. Und Fragen stellen. Freundlich zwar, aber hartnäckig. Sie werden nach dem Sinn fragen, aber auch nach dem Zweck. Die Anderen. Die, die bisher still waren. Diejenigen, die immer glauben, sie seien nicht wichtig genug, um Fragen stellen zu dürfen. Diejenigen, die sich gar nicht getraut haben, misstrauisch zu sein. Weil sie nicht dazugehören.

Das wird die Zeit der Wahrheit. In der alles ans Licht kommt. Wo sich niemand mehr verstecken kann, hinter den dicken Mauern der Alma Mater. Hinter den dicken Panzern der Sprache. Dann werden die Anderen wissen wollen, was wirklich verhandelt wird im Namen der Wissenschaft. Wohl jenen, die dann erklären können, worin der gesellschaftliche Wert dessen liegt, womit sie sich tagtäglich beschäftigen.

Viele in der Wissenschaft halten diese Vorstellung sicherlich für eine Zumutung. Warum Wissenschaft für die Gesellschaft wichtig sei, liege doch klar auf der Hand. Es sei doch gesellschaftlicher Konsens, dass Wissenschaft und Forschung die Gesellschaft voranbringe. Ich wage das zu bezweifeln, zumindest was den Konsens betrifft. Und das liegt an der Wissenschaft selbst. Weil sie immer noch nicht angemessen kommuniziert. Weil sie sich immer nur die Fragen stellt, die sich aus ihr selbst heraus ergeben. Aber sich selten die Fragen anhört, die die Anderen sich stellen mögen.

Das hat viel mit Sprache zu tun. Mit dem offen zur Schau getragenen Unwillen, sich klar und deutlich – vielleicht sogar elegant – auszudrücken. Statt dessen flüchtet man sich lieber ins Unterholz der Passivkonstruktionen, erschlägt den Geist harmloser Mitmenschen mit dem rücksichtslosen Gebrauch von Substantiven und nicht enden wollenden Sätzen. Die Sprache der Wissenschaft ist darauf angelegt, nur von jenen verstanden zu werden, die zu den Eingeweihten gehören. Die Anderen werden sprachlich in die Flucht geschlagen. Wie zur Einschüchterung bläht sich die Sprache der Wissenschaft unentwegt auf.

Sie ist eine Form der Vorwärtsverteidigung. Verbunden mit der Hoffnung, dass niemand nachfragt, wenn es nur hübsch klug klingt. Aber schon Dürrenmatt wusste: „Die Arbeit an der Sprache ist Arbeit am Gedanken.“ In meiner täglichen Arbeit bekomme ich oft genug den Eindruck, dass es mit den „Gedanken“ nicht allzu weit her ist. Nicht selten habe ich es mit Texten zu tun, in denen Allerweltsweisheiten und Selbstverständlichkeiten zum hochwissenschaftlichen Paper mit der entsprechenden Terminologie hochgejazzt werden.

Wir haben es also mit Distinktion und Nebelkerzen zu tun. Man will unter sich bleiben und die Anderen schickt man in den Dunst. Das ist lange gut gegangen, aber mit der wachsenden Vorherrschaft des Internets werden sich die Nebel bald lichten. Dann wird so manches sichtbar werden, was in vergangenen Jahrhunderten zwischen zwei Buchdeckeln dem Vergessen anheimgefallen wäre.

Ich bin mir nicht so sicher, ob wissenschaftliche Sprache – insbesondere die der Geisteswissenschaften – durch das Internet wirklich besser werden wird. Schließlich gibt es auch im Netz genug abgelegene Ecken, in die sich kaum jemand verirrt. Aber das Internet bietet Chancen für diejenigen, die sich nicht ausschließlich in Geheim-Gesellschaften wohlfühlen: Nämlich wahrgenommen zu werden, ins Gespräch zu kommen, einen Platz in der Gesellschaft einzunehmen, den niemand mehr so ohne Weiteres in Zweifel ziehen kann. Wer das will, muss lernen, klar und deutlich zu sprechen. Dessen Tür werden sie dann vielleicht auslassen, wenn sie kommen und anklopfen.

Disclaimer: Ich weiß, es gibt nicht „die Wissenschaft“ oder „die Wissenschaftler“. Hier wäre eine Differenzierung notwendig, die ein Blogposting sicher nicht leisten kann. Es ist also die Einbildungskraft des Lesers und der Leserin gefragt, das allzu große Gefäß der Begrifflichkeiten mit je eigenen Vorstellungen und Erfahrungen zu füllen.

Quelle: http://rkb.hypotheses.org/392

Weiterlesen

Wer war Joachim von Sandrart?

Wer war Joachim von Sandrart? Nein, er war kein berühmter Söldnerführer und auch kein Geheimer Rat, der sich auf diplomatischem Parkett in diesem Konflikt engagiert hat. Und doch hat er in der Geschichte des Dreißigjährigen Kriegs seinen festen Platz; allerdings taucht er erst ganz am Ende dieses Konflikts auf. Denn nach dem Abschluß der Verhandlungen in Münster und Osnabrück begann 1649 in Nürnberg der sogenannte Exekutionstag, auf dem für die vielen noch offenen Probleme Lösungen gesucht wurden, vor allem für das Problem der Abdankung der Truppen. Eine wichtige Etappe zur Beantwortung solcher Fragen stellte der Interimsrezeß zwischen den Schweden und dem Kaiser vom 21. September 1649 dar. Zur Feier dieses Abkommens wurde ein feierliches Bankett ausgerichtet, das zwei Wochen später stattfand. Als Nürnberger Friedensmahl vom 5. Oktober ging es in die Geschichte ein und symbolisierte den erfolgreichen Abschluß dieser Verhandlungen. Sandrart erhielt damals den Auftrag, das Nürnberger Friedensmahl in einem repräsentativen Gemälde abzubilden, das ähnlich wie Gerard ter Borchs Gemälde des Friedens zu Münster zwischen Spanien und den Generalstaaten vor allem die an den Verhandlungen Beteiligten zeigt. Das „Friedensmahl“, riesenhaft in seinen Ausmaßen (290 x 445 cm), stellt eine der Ikonen des Friedensschlusses dar, für dessen zeitgenössische Breitenwirkung vor allem einige Kupferstiche sorgten.

Die Darstellung des Friedensmahls von 1649 ist sicherlich das bekannteste Gemälde Sandrarts und zweifelsohne dasjenige, das auch unter Nur-Historikern am besten bekannt sein dürfte. Dabei lohnt es durchaus, den Blick zu weiten und die insgesamt beeindruckende Lebensleistung des Künstlers wahrzunehmen. Dies ist jüngst in zweifacher Hinsicht sehr erleichtert worden. Zum einen ist seit einiger Zeit die kommentierte Online-Edition der „Teutschen Akademie“ verfügbar, ein monumentales Werk in drei Bänden, in dem Sandrart das kunsthistorische Wissen seiner Zeit vorstellt. Dem zuerst in deutscher Sprache erschienenen Werk folgte bald eine lateinische Ausgabe; beide sind hier verfügbar und durch verschiedene Indices mustergültig erschlossen. Zum anderen präsentiert die Herzog August Bibliothek Wolfenbüttel eine Ausstellung, die Sandrarts Biographie nachzeichnet, aber vor allem auch Einblicke in seine kunsttheoretischen Auffassungen bietet. Die Ausstellung kann nur noch bis zum 24. Februar 2013 besucht werden; danach wird man auf den Katalog „Unter Minervas Schutz“ zurückgreifen müssen.

Natürlich braucht man sich nicht weiter um Sandrart zu kümmern, wenn man einfach nur verstehen will, welcher Stellenwert der itio in partes im Rahmen des Westfälischen Friedenswerkes zukam oder wie man die Truppenmassen nach Ende der Kriegshandlungen loswurde. Aber eine solche Engstirnigkeit wird sich heute kaum jemand leisten können. Und selbst wenn man keine große Neigung zu kunsthistorischen Themen verspüren sollte, dient es in jedem Fall der Erweiterung des eigenen Horizonts, wenn man sich die Tatsache vergegenwärtigt, daß das berühmte Gemälde über das Nürnberger Friedensmahl eben nicht von irgendeinem Maler angefertigt wurde. Vielmehr handelt es sich bei Sandrart um einen der erfolgreichsten Künstler seiner Zeit und zudem um eine intellektuelle Zelebrität, deren Einfluß man nur schwer überschätzen kann. Als wichtig erscheint mir auch, zu sehen, daß Sandrarts Wirken weit in die zweite Hälfte des 17. Jahrhunderts reichte. Er stellte also eine der Persönlichkeiten dar, die von den Erfahrungen des Kriegs geprägt waren, aber an der Gestaltung der Nachkriegszeit lebhaften Anteil hatten.

Das Nürnberger Friedensmahl ist, wie gesagt, unter Historikern gut bekannt. Erläuterungen und gute Reproduktionen des Gemäldes sowie der Kupferstiche finden sich etwa im Katalog „Von teutscher Not zu höfischer Pracht 1648-1701“, S. 26-32, sowie im Ausstellungskatalog „1648. Krieg und Frieden in Europa“, S. 419 f.

Quelle: http://dkblog.hypotheses.org/84

Weiterlesen

Linkdossier (2): Kathedralen des Wissens – Bibliotheken im Internetzeitalter

Interessante Ansätze, wie mit Bibliotheken in Zukunft umgegangen werden kann, bietet unsere zweite Ausgabe des Linksdossiers. Dieses Mal gibt es nicht immer ernst gemeinte Vorschläge, wie eine Bibliothek zu organisieren ist. Über weitere erheiternde Vorschläge für die Bibliotheken der Zukunft sind wir wie immer dankbar.

Wie man eine öffentliche Bibliothek organisiert
Ein über 20 Jahre alter Text, der noch heute funktioniert und zu einem Klassiker geworden ist. Umberto Eco darüber, wie eine öffentliche Bibliothek zu organisieren ist:

“1. Die Kataloge müssen so weit wie möglich aufgeteilt sein; es muß sehr viel Sorgfalt
darauf verwandt werden, den Katalog der Bücher von dem der Zeitschriften zu trennen
und den der Zeitschriften vom Schlagwort- oder Sachkatalog, desgleichen den Katalog
der neuerworbenen Bücher von dem der älteren Bestände. Nach Möglichkeit sollte die
Orthographie in den beiden Bücherkatalogen (Neuerwerbungen und alter Bestand)
verschieden sein: beispielsweise Begriffe wie “Code” in dem einen mit C, in dem anderen
mit K oder Namen wie Tschaikowski bei Neuerwerbungen mit einem C, bei den anderen
mal mit Ch, mal mit Tch.”

“Bibliothekslatein” oder Umberto Eco 2.0
Auf Eco aufbauend hat Dr. Oliver Obst in seinem Blog die Regeln ins Internetzeitalter verschoben:

“1.
Der Bibliothekar muß den Benutzer als dumm betrachten, informationsinkompetent, RSS-unwissend, ein Nichtstuer (andernfalls säße er an der Arbeit) und YouTube-Süchtiger.”

Auf ins Lesefreudenhaus
In der Zeit berichtet Pia Volk darüber, dass die Menschen nicht mehr in die Bibliotheken kommen, weil sie Bücher brauchen:

»Die Menschen kommen zu uns, um sich den Kopf wieder frei zu machen«, sagt Bürger. Was paradox klingt.

Bibflirt.de
Bibliotheken dienen nicht immer nur der Wissens-, sondern manchmal auch der Partnervermittlung. Auf Bibflirt.de können ganz Schüchterne anonym ihr Herz zum Beispiel so ausschütten:

“An den Zuckerjungen von der Ausleihe, der uns Mädchen in senem himmelblauen Hoodie verzaubert! Wir wollen, dass du weißt, dass dein verträumtes Lächeln der einzige Grund für uns ist, Tag für Tag die Bibliothek zu betreten! Danke <3″

Library turns to pole dancing to entice new readers
Auch eine Möglichkeit, potentielle Leser*innen anzusprechen: die Bibliothek einfach Zweck entfremden, das soll laut Guardian in Schottland passieren. Am 2. Februar, dem “Love Your Library Day”, wird die Bibliothek in eine Poledance-Klasse verwandelt. Daneben soll mit Büchern statt mit Schlägern Tischtennis gespielt werden. Die Motivation dahinter:

“Love Your Library Day is a marvellous opportunity for us all to celebrate the hugely important role libraries play in the heart of our local community.”

Quelle: http://gid.hypotheses.org/268

Weiterlesen

Die Duisburger entdecken die Archäologie (Mercatorhaus Duisburg II)

Die Ausgrabung des Wohnhauses Gerhard Mercators hat in Duisburg einen wahren Begeisterungssturm ausgelöst. Die Presse sprach von Sensationen. Die Stadtbürger entdecken eine Geschichte vor der Industrialisierung und Archäologie und Denkmalpflege sollten das nutzen.

Eine Bürgerinitiative rund um den stadtbekannten Filmproduzenten und Filmforum-Geschäftsführer Kai Gottlob wollen das Wohnhaus wieder aufbauen. Der Oberbürgermeister unterstützt ihn. Die ersten klugen und weniger klugen Vorschläge über Aufbau und Nutzung werden laut.

In Kunstgeschichte und Denkmalpflege ist Rekonstruktion aber eine aufgeladene Debatte. Die Argumente werden von den Befürwortern und Gegnern  wechselseitig als „Behauptungen“ diffamiert, die irgendwie ohne Grundlage seien und sowieso muss man diesem Wahn „intellektuell entgegentreten.“[1]

Die Texte bestehen aus mehreren Zeilen langen Schachtelsätzen, die 3 bis 4 Sinneinheiten beinhalten. Die Verben sind meist dem lateinischen und griechischen entlehnt, was die Intellektualität dieses „Intellektuellen Entgegentretens“ noch unterstreicht. Wer die Duisburger kennt, weiß, dass man ihnen so nicht zu kommen braucht. Mit Arroganz katapultiert man sich selbst aus der doch notwendigen gesellschaftlichen Debatte.

Die wissenschaftliche Begleitung ist aber unbedingt erforderlich. Die Entscheidung nach dem Ob? liegt in der Hand von Bürgerinitiativen und Politik. Die Frage nach dem Wie? kann in der Hand von Archäologen, Bauforschern und Kunsthistorikern liegen, was dringend zu wünschen ist. Wie sich die Dinge in Duisburg entwickeln, wird man sehen.

Die lange, aufgeladene Debatte innenhalb der Kunstgeschichte und akademischen Denkmalpflege findet so in der Archäologie nicht statt. Rekonstruktionen sind eine Selbstverständlichkeit: Sie werden gezeichnet, dreidimensional am Rechner erstellt oder aus Holz oder anderen Materialen meist im verkleinerten Maßstab gebaut. Auch 1:1 Rekonstruktionen sind nicht selten und gehören zum Erscheinungsbild von Archäologischen Parks und Museen. Stellvertretend seien hier genannt: Der Archäologische Park Xanten (nordwestlich von Duisburg) (Römer), die Slawenburg Radusch (bei Cottbus) (Slawen), der keltische Glauberg (Hessen) (Kelten) oder das archäologische Freilichtmuseum in Unteruhldingen (Bodensee) (Vorgeschichte). Es gibt aber noch viel viel mehr. In der Archäologie ist man sich über die „Gefahr“ einer solchen Rekonstruktion bewusst: Sie spiegeln nämlich immer nur den Forschungstand wieder. Allerdings ist das nicht die Hauptsache. Die Hauptsache ist die Erhaltung des Originals. Rekonstruktionen sind letztlich Visualisierungen von Forschung. Die Fundamente, Ausbruchsgruben, Brunnenschächte und Abfallgruben sind wissenschaftliche Quellen und müssen für die Nachwelt erhalten bleiben. Das Problem hierbei ist, dass diese Dinge nicht in ein Archiv gebracht werden können, sie müssen vor Ort erhalten bleiben. Der zweite Punkt ist, dass im Falle einer Vor-Ort-Rekonstruktion, wie im Falle des Mercatorhauses, die Fundamente, die erhaltenen Keller und die Überreste der Erdgeschossmauern als Originale deutlich vom rekonstruierten Aufgehenden zu unterschieden sind. Bei der Rekonstruktion ist es dann aus wissenschaftlichen Gesichtspunkten tatsächlich egal, welchen historischen Zustand man wählt. Es ist auch möglich, das Vorderhaus und Hinterhaus in zwei unterschiedlichen Zeitstufen zu rekonstruieren, man kann auch nur eine historische Fassade nachbilden mit einem Betonkasten dahinter oder sich gleich für eine Kubatur entscheiden. Diese Entscheidung liegt wiederum bei Bürgerinitiative und Politik. Bei der wissenschaftlichen Beratung der Rekonstruktion kann und darf aber nicht gespart werden, denn sonst ist die Gefahr einer Blamage hoch. Denn dem öffentlichen Blick durch die Medien dürfen sich die Verantwortlichen gewiss sein.

Architektonische Rekonstruktionen sind keine Seltenheit  in deutschen Stadtbildern. Im Gegenteil sind sie häufig sogar die Aushängeschilder, ein Teil des Stadtimages. Frankfurt wirbt mit dem Wiederaufbau seiner Altstadt, für Dresden ist die Frauenkirche im Dresdener Barock das Städtische Symbol bürgerschaftlichen Aufbruchs nach Bombenkrieg und sowjetischer Besatzung, das Potsdamer Schloss und das Berliner Schloss ein Rückgriff auf Preußens vergangenen Glanz.

Das Mercatorhaus war ein spätgotisches Wohnhaus, dessen Einzigartigkeit darin besteht, dass Mercator darin gewohnt hat. Es wieder aufzubauen ist legitim und wird ebenfalls das Stadtimage verändern. Denn Duisburg ist Mercator-Stadt, genau so, wie Frankfurt Goethe-Stadt ist, und das ist gut miteinander zu vergleichen.

Die Begeisterung der Duisburger resultiert nicht zuletzt daraus, dass ihnen vor Augen geführt wird, dass ihre Geschichte eben nicht mit der Industrialisierung beginnt. Auch Duisburg hat eine Rolle  in Mittelalter und  Rennaisance. Die aktuell erhöhte Sensibilität der Duisburger für ihre Geschichte können Archäologie und Denkmalpflege nutzen. Die Denkmalpflege hat nun mehr Argumente die verbliebenen Altbauten zu schützen. Die Archäologie kann sich jetzt verstärkt als die Wissenschaft etablieren, die Duisburg ihre Geschichte erlebbar macht und neue Ansätze zur Stadtplanung aufzeigt.


[1] A. v. Buttlar- G. Dolff-Bonekämper- M. S. Falser- A. Hubel- G. Mörsch- J. Habich (Hgg.), Denkmalpflege statt Attrappenkult. Gegen die Rekonstruktion von Baudenkmälern – eine Anthologie. (Basel Gütersloh Berlin 2010)

 

Quelle: http://minuseinsebene.hypotheses.org/336

Weiterlesen

Provisorische Zentralgewalt und Mikrofilm, oder: Digitalisierung unserer Arbeitsgrundlagen abgeschlossen


Die 60 Filmrollen (hier jeweils zweifach hintereinander gestapelt) entsprechen knapp 20 Laufmetern Akten – oder einer Festplatte. 

Während des ersten Projektjahres hat sich die Arbeit an der Edition der Akten der Provisorischen Zentralgewalt auf die zentrale Serie von Quellen, die Sitzungsprotokolle des Gesamt-Reichs-Ministeriums, konzentriert. Die insgesamt 185 Protokolle wurden in diesem Zeitraum vollständig transkribiert, ihre zahlreichen Beilagen in Regestenform bearbeitet. Dieser Arbeitsgang ist inzwischen abgeschlossen und es steht bereits die Kollationierung der Transkripte an. Im zweiten Jahr geht es nun an die Aufarbeitung der wesentlich umfangreicheren Sachakten aus den Registraturen der einzelnen Ministerien. Zum einen sind jene Aktenstücke nachzuweisen, auf die in den Protokollen ausdrücklich Bezug genommen wird; zum anderen werden auch weitere Stücke ausgesucht, die zu den Leitfragen unseres Projekts besonders interessante Informationen liefern können. Sie sollen als ergänzende Quellen in die Edition aufgenommen werden.

Arbeitsgrundlage sind für alle diese Tätigkeiten digitale Reproduktionen der Akten auf der Basis einer vom Bundesarchiv vor einigen Jahren durchgeführten Sicherheitsverfilmung der Bestände DB 52 bis DB 59. Dass diese Mikrofilme bereits vorhanden sind, hat uns ermöglicht, Reproduktionen in einem Ausmaß zu beziehen, das ansonsten mit den Mitteln eines verhältnismäßig bescheiden dotierten Projekts nicht zu bewerkstelligen gewesen wäre. Die kurze Lebensdauer der Provisorischen Zentralgewalt tut ein Übriges dazu, den Gesamtumfang beherrschbar zu halten; somit befindet sich unser Projekt in der vermutlich sehr seltenen Lage, fast den gesamten schriftlichen Niederschlag einer Regierung während der Dauer ihrer Existenz als Arbeitsmaterial unmittelbar zur Hand zu haben. (Nur „fast“ den gesamten, denn es gibt da auch etliche ganze Filmrollen, auf denen nur die beim Reichsministerium der Finanzen in gewaltigen Mengen gesammelten Abrechnungen und Einzelbelege für die Verpflegung, Unterbringung und Beförderungskosten der Reichstruppen reproduziert sind. Diese und noch einige weitere kleinere Serien, die für unser Forschungsinteresse nicht relevant erscheinen, blieben bei unserer Bestellung ausgespart, um ihre Bearbeitung künftigen Forschenden mit entsprechenden Fragestellungen vorzubehalten …)

Um von dem Ganzen eine Vorstellung zu vermitteln, ein paar Zahlen: Die genannten Bestände des Bundesarchivs, entsprechend den (rekonstruierten) Archiven des Gesamtministeriums und der insgesamt sieben Einzelministerien, haben laut den Verzeichnissen einen Gesamtumfang von etwa 26 Laufmetern, entsprechend 1033 Archiveinheiten (hier in der Hauptsache Aktenfaszikel von sehr unterschiedlicher Stärke). Diese Akten haben auf insgesamt 83 Rollen Mikrofilm Platz gefunden. Davon wurden insgesamt 60 Filme im Verlauf des vergangenen Jahres für unser Projekt dupliziert und im Dezember von einem privaten Anbieter für uns digitalisiert. Das Ergebnis sind ungefähr 107.000 Bilddateien, die bequem auf eine Festplatte passen respektive über einen Webspace allen Projektmitarbeitern zur Arbeit an verschiedenen Standorten verfügbar gemacht werden können. Da in der Regel zwei Seiten nebeneinander aufgenommen wurden, sind es also grob geschätzt etwa 200.000 Seiten Akten.

Selbstverständlich werden diese Materialmengen nicht vollständig ediert und auch sicherlich nicht jede Seite letztlich überhaupt von uns gelesen. Das alles in digitaler Form rasch greifbar zu haben, bedeutet allerdings eine enorme Erleichterung und Beschleunigung der Arbeit. Ein Beispiel: Das Protokoll der 82. Sitzung vom 22. Januar 1849 ist keines der besonders langen; es umfasst zehn Tagesordnungspunkte. Von den Aktenstücken, über die dabei verhandelt wurde, liegen fünf als Beilagen und Unterbeilagen in unmittelbarer Verbindung mit dem Protokoll vor. Verwiesen wird allerdings, nur zum Teil unter Nennung von Aktenzahlen, noch auf zwölf weitere Schriftstücke, die sich auf acht verschiedene Archiveinheiten in den Beständen von fünf Ministerien verteilen. Obwohl die Inventarisierung eine recht genaue ist, musste in einigen Fällen in mehreren Archiveinheiten mit verwandten Betreffen gesucht werden, um die fraglichen Stücke zu lokalisieren. Es kann getrost davon ausgegangen werden, dass diese Auffindung mehrere Tage gedauert hätte, wäre sie an Ort und Stelle im Bundesarchiv durch Bestellen, Ausheben und Durchsehen der Originalakten vorgenommen worden. Mit dem Fundus von 60 Filmrollen und einem Lesegerät ginge es deutlich schneller  aber die Zeitverluste für das Einlegen, Vor- und Rückspulen und Auswechseln der Rollen wären immer noch beträchtlich, und um mehr als ein Bild auf einmal anzusehen, müssten sie dann noch gescannt oder ausgedruckt werden. Mit dem Aktenbestand als Digitalisate auf der Festplatte hingegen war die Auffindung sämtlicher Stücke ohne Schwierigkeiten innerhalb eines Nachmittags zu bewältigen. Diese Überlegungen flößen erheblichen Respekt vor den Bearbeitern existierender Regierungsprotokoll-Editionen ein, die oft noch vor wenigen Jahren die geschilderten Aufgaben auf genau die Art und Weise erledigen mussten, von der wir jetzt froh sind, sie uns ersparen zu können.

Das bedeutet freilich nicht, dass mit dem Finden auch schon die editorische Bearbeitung erledigt wäre. Es gibt noch genug Dinge, die uns kein Computer abnimmt.

Und warum heißt der Beitrag nun nicht „Provisorische Zentralgewalt und Digitalisierung“? Auf dieser Plattform hat vor kurzem, angestoßen durch diesen Beitrag von Marc Mudrak, eine längere und teils recht kontroverse Diskussion über den Mikrofilm als Speichermedium stattgefunden und über die Forderung jenes Autors, dass „Mikrofilme endlich aus den Archiven verschwinden müssen“. Auch wenn dazu schon einiges nach beiden Seiten vorgebracht worden ist, können ein paar Sätze auf der Basis unserer jüngsten Erfahrungen vielleicht noch hilfreich sein. Die Erlebnisse, die Mudraks Äußerung veranlassten, sind wohl fast allen historisch Forschenden bekannt wer hat sich noch nicht darüber geärgert, eine Quelle nicht im Original, sondern auf Film benutzen und dabei die verschiedenen in jenem Beitrag aufgezählten Unannehmlichkeiten auf sich nehmen zu müssen? Und doch sei hier angemerkt, dass möglicherweise einige von diesen Ärgernissen dem Speichermedium Mikrofilm nicht ganz zu Recht angelastet wurden, weil sie mit ihm nicht unbedingt in ursächlichem Zusammenhang stehen.

Nicht zu leugnen ist, dass bei manchen Quellentypen schwerwiegende Informationsverluste schon durch die Schwarzweißaufnahme eintreten rubrizierte oder gar illuminierte Handschriften wären ein schlagendes Beispiel. Im Gegensatz dazu sind aber gerade die in besonders großen Quantitäten überlieferten Archivalien, das Massenschriftgut der neuzeitlichen Amtsstuben, in vielen Fällen auch in Schwarzweiß unproblematisch zu benutzen; so die Akten der Provisorischen Zentralgewalt.

Nur auf den ersten Blick einsichtig ist, dass gegen „den Mikrofilm“ gewettert wird, weil schlechte Erfahrungen mit verwischten, schlecht belichteten, zu kleinen, unvollständigen oder sonstwie mangelhaften Aufnahmen gemacht wurden. Das liegt in der Hauptsache nicht am Speichermedium, sondern entweder am Aufnahmegerät oder an der Sorgfalt der Person, die dieses bedient. Wer etwa schon in irgendeinem Umfang alte Druckwerke via Google Books benutzt respektive zu benutzen versucht hat, kann rasch bestätigen, dass unlesbare, verwischte oder an den Rändern beschnittene Aufnahmen, übersprungene Seiten, mangelhafte oder nicht stattfindende Qualitätskontrolle keineswegs eine ausschließliche Domäne des Analogen sind. Von den 185 Sitzungsprotokollen der Provisorischen Zentralgewalt fehlt im Übrigen eine einzige Aufnahme auf dem Mikrofilm, zwei weitere sind wegen Überbelichtung nur teilweise lesbar.

Ähnliches gilt für die Beschwerde über unsystematische oder willkürliche Auswahl der Stücke zur Verfilmung, ungenaue oder irrige Katalogisierung der Filme. Alles das gibt es natürlich, und natürlich ist es hinderlich, aber es hat mit Mikrofilm per se rein gar nichts zu tun. (Was oben über Google Books steht, ist hier sinngemäß anwendbar. Man vergleiche dann mit kompetent gemachter Digitalisierung alter Bücher z.B. durch die Staatsbibliotheken in München oder Göttingen.)

Beklagt wird weiters, Mikrofilm sei schwierig und teuer zu reproduzieren. Gemeint ist damit allerdings nur die händische Anfertigung von Papierabzügen durch den Benutzer am Lesegerät, für welche die Klage auch zutreffend ist. Demgegenüber ist darauf hinzuweisen, dass eine Digitalisierung größerer Mengen auf der Basis eines schon vorhandenen Mikrofilms maschinell weitaus schneller, billiger und weniger fehleranfällig ist als jene auf Basis der Originale siehe unsere oben geschilderten Erfahrungen. Eine brauchbare Qualität der Mikrofilmaufnahmen vorausgesetzt, kann deren Existenz ein großes Glück sein. Wir hätten, wie gesagt, jene 100.000 Bilder keineswegs bezahlen können, wenn sie erst neu zu machen gewesen wären.

Der größte unbestreitbare Nachteil des Mikrofilms ist die Mühseligkeit und Langsamkeit seiner Benutzung am Lesegerät. Unser Projekt hat genau aus diesem Grund die bezogenen Filmrollen gleich als erstes digitalisieren lassen. Wenn es in nicht allzu ferner Zukunft möglich wird, dass Mikrofilm zwar nicht aus den Archiven, wohl aber aus deren Lesesälen verschwindet, weil zur Benutzung digitale Versionen vorliegen, wäre das sicherlich zu begrüßen. Die Frage seiner Zweckmäßigkeit als langfristiges Speichermedium steht auf einem anderen Blatt. Sie wird erst dann entschieden sein, wenn sichergestellt ist, dass digitale Speicherung auf sehr lange Laufzeiten womit der Bereich von 50 bis 100 Jahren oder noch darüber gemeint ist analoge Medien an Sicherheit und Kostengünstigkeit erreicht. Bis dahin sind auch die beträchtlichen Mengen an Mikrofilmen, die in den Bibliotheken und Archiven im Laufe der vergangenen Jahrzehnte angelegt worden sind, eine Ressource, die nicht einfach abgeschrieben werden sollte.

 

Quelle: http://achtundvierzig.hypotheses.org/82

Weiterlesen

Der gute Anfang eines Blogposts

Manchmal passiert es: Da klingt die Überschrift eines Artikels auf der Startseite von de.hypotheses interessant, aber der Text danach fängt komisch an. Entweder ist es eine Bildunterschrift, die plötzlich an erster Stelle steht. Oder aber anstelle eines sinnstiftenden Satzes stehen erst einmal Daten zum Gastbeitrag. Wie lässt sich das verhindern?

Mitunter sieht das dann so aus wie bei einem sehr lesenswerten Beitrag vom nordichistoryblog, den wir hier in seiner Form auf der Startseite zeigen. Warum tauchen gerade diese Texte neben dem Bild auf? Die Beiträge aus den einzelnen Blogs werden per RSS-Feed auf die Startseite gebracht, wenn die Redaktion einen Artikel dafür ausgewählt hat. Das mit der Real Simple Syndication stimmt in diesem Fall: Was als erstes gefunden wird, kommt auch als erstes auf die Startseite. Wenn es eine Bildunterschrift ist, dann wird eben diese weiter gegeben. Gleiches gilt für Überschriften, die im eigenen Blogartikel gut aussehen, aber schon in der Übersicht aller eigenen Blogposts nicht mehr.

It's a blooper! Kleine technische Pannen können passieren....

Kleine technische Pannen können passieren…

 

Was kann man dagegen tun?

1. Keine Bilder als erstes in den Blogbeitrag einfügen. Ein Bild im zweiten Absatz reicht völlig, auch für die Vorschau im eigenen Blog und auf der Startseite.

2. Immer mit möglichst interessanten ausgeschriebenen Sätzen anfangen. Drei Sätze mit ca. 500 Zeichen sollten genügen. Leserfreundlicher ist das auch :-)

3. Notizen zu Gastbeiträgen am Ende des Artikels unterbringen.

4. Auf Überschriften und Zeilenumbrüche am Artikelanfang verzichten.

Und das war’s eigentlich auch schon. Happy Blogging!

Quelle: http://bloghaus.hypotheses.org/634

Weiterlesen

Crowdsourcing und Bilddatenbanken: Wie erreicht man beim Tagger eine tiefere Auseinandersetzung mit den Bildern?

Das Konzept einer Softwareanwendung hat immer auch Auswirkungen auf die kognitive Leistung des Nutzers. Deshalb sollte es bewusst gewählt und die Gestaltung der Benutzerschnittstelle, der GUI (Graphical User Interface) ebenfalls mit Bedacht und keinesfalls zufällig vorgenommen werden.

In dem Artikel „Wie Bilddatenbanken nach Schlagworten jagen“ wurden bereits Tagging-Plattformen vergleichend nebeneinander gestellt.

Insgesamt kann man über kunstgeschichtliche Tagging-Plattformen sagen, dass hauptsächlich Begriffe getaggt werden, die als sichtbare Objekte im Bild vorhanden sind [1]. Auch bei ARTigo wird das deutlich. Subjektive Tags, die eine Stimmung oder Meinung zum Bild widerspiegeln, werden hingegen kaum eingegeben (z.B. „wild“, „ruhig“, „statisch“, etc.). Das liegt daran, dass diese Begriffe eine höhere Verarbeitungstiefe verlangen. Der Tagger muss sich mit dem Bild stärker auseinandersetzen und es auf sich wirken lassen. Dazu müssen ihm Anreize gegeben werden.

Wer fragt, bekommt Antworten

Bei YourPaintings geschieht das mittels eines Sets aus 6 Fragen, durch die der Tagger geführt wird:

  • Can you name any people in this painting?
  • Does this painting relate to any event?
  • What things or ideas can you see in this painting?
  • What places are shown in the painting?
  • What type of painting is this? Abstract, Landscape, Portrait … See examples.
  • What subjects do you see in this painting?

Alle Fragen werden in Bezug auf reale, im Bild vorhandene Objekte gestellt (bis vielleicht auf die Frage nach der „Idee“). Ich habe hier versucht, ein paar Bilder zu taggen und kann darüber folgendes berichten: Es ist nicht immer möglich, alle Fragen zu beantworten. Beispielsweise machen einige bei abstrakten Bildern keinen Sinn. Obwohl ich das weiß, wuchs in mir ein Gefühl der Unzulänglichkeit und ließ mich schließlich nach nur 6 Bildern abbrechen. Die Fragen sind bezüglich der Tag-Ernte von den Machern sicherlich gut gemeint. Aber führen sie eher zu Motivation oder zur Frustration? Das wäre interessant zu analysieren. Führen sie zur tieferen Auseinandersetzung mit dem Bild und zu mehr subjektiven Tags? Ich bezweifle das stark.

Wie kann man eine tiefere Auseinandersetzung erreichen? Fragen scheinen mir an sich keine schlechte Idee, um auf weitere Aspekte im Bild aufmerksam zu machen. Das Problem liegt wohl eher darin, wie diese Fragen gestellt werden:

  • Werden sie zur Inspiration angezeigt oder
  • im Sinne von „Frage und Antwort“?

Wenn sie eine neue Wahrnehmungsebene des Bildes öffnen und nicht nach formaler Beantwortung drängen, dann dürfte der Spieler es nicht als Mangel empfinden, wenn er nicht auf sie eingehen kann. Anders ist das bei einem Frage- und Antwortspiel: Jede nichtbeantwortete Frage hinterlässt – fast wie in der Schule – ein Gefühl der Unwissenheit.

Können inspirative Fragen eine Lösung sein?

Inspirative Fragen sollen Assoziationen zur Stimmung im Bild auslösen und nicht nur Objekte, die im Bild dargestellt werden, abfragen. „Wie wirkt das Bild auf dich?“ oder „Was würdest du fühlen, wenn du selbst Teil der Szene wärst?“ könnten hier als Beispiel dienen.

Aber nicht nur die Fragen selbst tragen zur Tag-Qualität bei, auch die Art ihrer Präsentation. Denn sie sollten nicht stören oder ablenken, aber doch wahrgenommen werden können.

Wäre es eine Möglichkeit, sie auditiv anzubieten? Oder ist eine visuelle Darstellung vorteilhafter? Hier bestünde die Möglichkeit, sie getrennt von der Anwendung, bzw. über das Menü erreichbar zu machen. Oder sollten sie während des Taggens ständig am Monitor sichtbar sein? Das ist gar nicht so einfach zu überlegen, denn der Tagger soll von ihnen positiv berührt und nicht genervt werden. Darin dürfte ihr Erfolg liegen.

Beim Design einer Anwendung ist stets der Mensch im Blickpunkt zu behalten, denn er interagiert mit dem Programm nach seinen Fähigkeiten. Diese auszuschöpfen und nicht zu beeinträchtigen, ist eine anspruchsvolle Aufgabe.

 

[1] M.Weingartner, M.Arends, J.Froschauer, D.Goldfarb, D. Merkl. Analyse der Tags einer Kunst Folksonomy, in EVA 2011 Berlin: Elektronische Medien & Kunst, Kultur, Historie, die 18. Berliner Veranstaltung der Internationalen EVA-Serie Electronic Imaging & the Visual Arts, Konferenzband. – Berlin : Staatliche Museen zu Berlin, Gesellschaft z. Förderung angewandter Informatik, EVA Conferences International 2011.

Quelle: http://games.hypotheses.org/892

Weiterlesen

Kulturgeschichtliches zu den Himmelsrichtungen (I): der Norden

Die Himmelsrichtungen hatten in der Kulturgeschichte Chinas ihren festen Platz in den – in ihren einzelnen Zuschreibungen zum Teil höchst unterschiedlichen – kosmologischen Systemen.

Das chinesische Schriftzeichen für “Norden” (bei 北) zeigte ursprünglich ein

“[...] Bild zweier mit dem Rücken zueinander stehender Menschen [...] [und bedeutet] somit eigentlich den Rücken zuwenden, dasjenige, dem man den Rücken zuwendet, denn in China wird der Norden immer als das Hintere, das Hintenbefindliche [...] angesehen. Aus diesem Grunde sind Hauseingänge, der Thron des Kaisers usw. nach Süden orientiert.” [1]

Das Schriftzeichen 北, das also ursprünglich “das Hintere” beziehungsweise “das Dunkle” bedeutete, wurde schließlich in der Bedeutung “Norden” gebraucht. Zur Wiedergabe der ursprünglichen Bedeutung “Rücken” wurde dem Schriftzeichen die Komponente rou 肉(Fleisch) hinzugefügt [2]

Von den fünf Wandlungsphasen (fünf “Elementen”) wird dem Norden der Wandlungsphase “Wasser” zugeordnet, ebenso die weibliche Urkraft (yin 陰)  [3]


Shenwumen 神武門 – Foto: Georg Lehner

Das Nordtor des ehemaligen Kaiserpalastes wurde bei der Erbauung des Palastkomplexes im 15. Jahrhundert zunächst Xuanwumen 玄武門 (“Tor des Dunklen Kriegers”) benannt. Der “Dunkle Krieger” (Xuanwu 玄武), unter anderem auch “Wahrer Krieger” (Zhenwu 真武) genannt, galt im Daoismus als Schutzgott des Nordens. Aus Gründen der Tabuierung des persönlichen Namens (Xuanye) des Kangxi-Kaisers (r. 1662-1722) erfolgte schließlich die Umbenennung des Tors in Shenwumen 神武門 (“Tor des Göttlichen Kriegers”). [4]

Nicht nur um die aus kosmologischer Sicht negativen Einflüsse sondern auch die winterlichen Stürme vom Kaiserpalast abzuhalten und vor allem aus geomantischen Überlegungen heraus, wurde das Erdreich, das beim Aushub des rund um die kaiserliche Residenz angelegten Wassergrabens anfiel, im Norden des Palastes zu einer künstlichen Erhebung – dem Aussichtshügel (Jingshan 景山), der bisweilen auch Kohlehügel (Meishan 煤山) genannt wurde – aufgeschichtet. Die fünf Pavillons, die sich auf dem beziehungsweise in der Nähe des Gipfels befinden, wurden erst in der Mitte des 18. Jahrhunderts errichtet. [5]

Blick auf die “Verbotene Stadt”, vom Jingshan 景山 aus gesehen – Foto: Georg Lehner

 

[1] Bernhard Karlgren: Schrift und Sprache der Chinesen, übers. von Ulrich Klodt (Berlin: 2. Aufl. 2001 [1. Aufl., 1975]), 38. [nach oben]

[2] Qiu Xigui: Chinese Writing, trans. Gilbert L. Mattos, Jerry Norman (Early China Special Monograph Series no. 4, Berkeley: The Society for the Study of Early China and the Institute of East Asian Studies, University of California,Berkeley, 2000) 186. [nach oben]

[3] Wolfram Eberhard: Lexikon chinesischer Symbole. Die Bildsprache der Chinesen (München, 5. Aufl., 1996), 294 (“Vorn/Hinten”). [nach oben]

[4] Patricia Bjaaland Welch: Chinese Art. A Guide to Motifs and Visual Imagery (Tokyo 2008) 148 Anm. 4. [nach oben]

[5] Vgl. etwa Frank-Rainer Scheck (Hg.): Volksrepublik China. Kunstreisen durch das Reich der Mitte (Köln: 3. Aufl., 1988) 226 f. [nach oben]

Quelle: http://wenhua.hypotheses.org/149

Weiterlesen