Legende und Geschichte – die römische Königszeit, Teil 4

Von Stefan Sasse
Dies ist der dritte Teil der Artikelserie. Im ersten Teil besprachen wir die ersten beiden mythischen Könige Roms, Romulus und Numa. Im zweiten Teil besprachen wir die folgenden beiden Könige, Hostilius und Marcius. Im dritten Teil widmeten wir uns den zwei nächsten Königen, Tullius und Priscus. In diesem abschließenden Teil betrachten wir den letzten König von Rom, Tarquinius Superbus. 

Tarquinius Superbus
Die Geschichte des Aufstiegs von Tarquinius Superbus ist bereits der eines Bösewichts würdig. Er war der Sohn oder Enkel (es gibt widerstreitende Überlieferungen) des fünften Königs von Rom, Lucius Tarquinius Priscus, und mit einer Frau namens Tullia verheiratet, die in bester römischer Tradition, die nur zwei weibliche Extremfiguren kennt - entweder die tugendhafte, vorbildliche Ehefrau oder die intrigante, ambitionierte und böse Schwiegermutter -, ihren Ehemann zum Putsch gegen König Nummer sechs, Servius, anstachelte. Tarquinius, von Haus aus eitel und leicht von solchen Schandtaten zu überzeugen (daher auch sein Name "Superbus", was sich als arrogant oder eitel übersetzen lässt), machte sich auch gleich daran und marschierte mit einer Bande bewaffneter Unterstützer in den Senat, wo er sich breitbeinig auf den Königsthron setzte (ein Hauch von Machismo gibt der Geschichte hier die notwendige Würze) und die Senatoren aufforderte, ihm zu huldigen, weil Servius ohnehin ein schlechter König sei.
Die Begründung, die Tarquinius Superbus hierfür gibt, ist, abgesehen von den obligatorischen ad-hominem-Attacken (Servius ist ein Sklave, der von einer Frau auf den Thron gesetzt wurde) von geradezu lächerlicher Ironie: Servius habe die unteren Klassen Roms den oberen vorgezogen und deren Reichtum öffentlich sichtbar gemacht, so dass die unteren Klassen unzufrieden wurden. Wenn man bedenkt, dass gerade diese Probleme die Republik zu Fall bringen würden ist das schon eine interessante Vorwegnahnme. Tarquinius etablierte sich danach als Bösewicht, indem er den heraneilenden Servius (der die exakt gleichen Vorwürfe in Richtung Tarquinius schleudert) die Treppen des Senatsgebäudes hinunterwerfen und den Verletzten danach niederstechen lässt. Seine Frau, ebenfalls im Public-Relations-Sektor tätig, trieb danach ihren eigenen Streitwagen über die Leiche, so dass die komplett bespritzt mit dem Blut des Königs zuhause ankam. Tarquinius weigerte sich später, den toten König beerdigen zu lassen.

Tarquinius Thronergreifung, Comic aus den 1850er Jahren
Diese Geschichte der Thronergreifung alleine ist schon viel zu gut, um wahr zu sein. Sie enthält alle Elemente, die die Römer in ihren Geschichten liebten: intrigante Frauen, Gewalt und den Konflikt vom virtus gegen die niederen Instinkte. Tarquinius und seine Frau Tullia werden als geradezu karikaturhaft böse dargestellt, was die Bühne für eine passende Regierungszeit ebnet. Diese beginnt auch gleich mit einigen Schauprozessen gegen feindlich gesinnte Senatoren. Deren Plätze füllte er danach nicht wieder auf, was den Senat effektiv verkrüppelte und zu einem reinen Akklamationsorgan machte. Dieser Zug bewies erneut seine Tyrannei: wären die Senatoren schuldig gewesen, spräche schließlich nichts gegen Nachernennungen. 

Tarquinius wandte seine Aufmerksamkeit dann nach außen, nach Latium, das er vollständig unter römische Kontrolle bringen wollte. Mit einer Reihe von geschickten Bündnissen und Verrat fiel Stadt um Stadt unter seine Kontrolle und vereinte ihre Truppen mit Rom. Seine Taktiken waren alles andere als fein: er versteckte etwa bei einer Konferenz mit latinischen Anführern Waffen in deren Hütten, die danach gefunden wurden - und die Latiner wegen Verrats getötet. Die Überlebenden und Nachfolger verstanden den Hinweis und folgten ihm. Eine andere renitente Stadt fiel, als sein Sohn, einen Bruch mit dem Vater vortäuschend, die Kontrolle übernahm und die örtliche Nobilität hinrichtete. Die Erfolge des Tarquinius waren daher auch von einer Aura des Ruchlosen und Ehrlosen umgeben. Ein ordentlicher Römer gewann schließlich in der männlichen, offenen Feldschlacht. Tarquinius konnte jedoch auch auf  eine Reihe genuiner Erfolge zurückblicken. Einige Ausbauten Roms, so etwa der Bau des großen Jupiter-Tempels und der Bau der Cloaka Maxima gehen auf sein Konto.

Michaelangelos Darstellung der Sibyll
Tarquinius gehört außerdem zum Rahmenprogramm einer der merkwürdigeren Sagen der römischen Frühzeit, der Legende der sibyllenischen Bücher. Sibyll war eine Art Orakel, die Tarquinius neun Bücher mit Prophezeiungen zu einem gewaltigen Preis anbot. Tarquinius lehnte ab, woraufhin Sibyll drei der Bücher verbrannte  und die restlichen sechs zum gleichen Preis erneut anbot. Tarquinius war schon unsicher, lehnte aber erneut ab, woraufhin Sibyll drei weitere verbrannte. Die restlichen drei kaufte Tarquinius nun. Die Römer konsultierten diese Bücher, die von speziellen Aristokraten bewacht wurden, bis zum Brand des Jupitertempels 85 v. Chr., woraufhin sie eine neue Sammlung sibyllischer Prophezeiungen aus dem ganzen Mittelmeerraum zusammenkauften, die sie bis zum Aufstieg des Christentums vor wichtigen Entscheidungen konsultierten. Hätte Tarquinius nur alle neun Bücher gekauft! 

Der Fall des Tarquinius kam, wie auch sein Aufstieg, durch eine Frau. Bei der Belagerung einer reichen Stadt namens Rutuli, die Tarquinius nur der Beute wegen belagerte, langweilten sich die adeligen Jungspunde mit Offiziersrang so sehr, dass sie begannen, gegenseitig die Treue ihrer Ehefrauen zu prüfen. Die einzige Frau, die der Prüfung standhielt, war Collatia - erneut sehen wir die typisch römische Figur der tugendhaften Ehefrau -, was die Leidenschaft von Tarquinius' Sohn Sextus erregte, der sie erpresste und zum Sex zwang. Collatia aber machte die Affäre danach öffentlich und beging dann Selbstmord. Als Reaktion auf diese Ehrverletzung der Nobilität schwor Collatius zusammen mit seinen Freunden Lucius Junius Brutus und Publius Valerius, die Tarquinier aus Rom zu vertreiben. Die ruinöse Baupolitik des Königs, der die Kassen Roms geleert hatte und angesichts des Misserfolgs der Belagerung von Rutini auch keine Aussicht auf Besserung hatte, tat sein Übriges. 

Lucius Junius Brutus
Da Brutus zur Leibgarde Tarquinius' gehörte, besaß er das Recht, die Ständeversammlung (comitia) einzuberufen, was er tat - und als Bühne für eine vernichtende Anklagerede gegen den König nutzte. Tarquinius, seine Frau Tullia und sein Sohn (der kurz darauf ermordet wurde) flüchteten aus der Stadt, und Brutus und Collatius wurden zu den ersten beiden Konsuln Roms gewählt. Natürlich wäre dies keine römische Geschichte ohne einen ordentlichen Verrat, und so zwang Brutus kurz darauf Collatius zum Rücktritt, um einen genehmeren Kollegen zu bekommen. Tarquinius indessen verbündete sich mit Roms altem Feind Veji und marschierte auf Rom, wurde aber von Brutus' Armee zurückgeschlagen. In der blutigen Schlacht fand Brutus den Tod; er hatte zuvor jedoch auch eine innenpolitische Verschwörung entdeckt und die Loyalisten Tarquinius' ohne viel Federlesens exekutieren lassen, darunter auch zwei eigene Söhne. Ohne Verbündete in der Stadt, die nun fest in den Händen der Republikaner war, wandte sich Tarquinius an den König von Clusium, Porsena. Der marschierte mit einer großen Armee auf Rom, das eine blutige Verteidigungsschlacht schlug, die ebenfalls in die römische Legende einging: angeblich gelang es Porsena fast, eine Brücke über den Tiber unter Kontrolle zu bekommen, bevor die Römer sie zerstören konnten. Ein tapferer Aristokrat namens Horatius hielt die feindliche Armee im Alleingang lange genug auf, dass die Brücke hinter ihm zerstört werden konnte und schwamm danach in Sicherheit. 

Solche angeblichen Heldentaten hin oder her, Rom wurde danach von Porsenas Armee belagert. Es ist unklar, ob Porsena Rom eroberte und kurzzeitig besetzte oder ob die Römer die Belagerung überstanden; so oder so zog Porsena aber bald ab und überließ Tarquinius dessen letztem Versuch, Rom zurückzuerobern. Dieses Mal stellte sich der Armee Tarquinius (im Bündnis mit der latinischen Stadt Tusculum) der erste Diktator Roms entgegen, Albus Postumius Albus, der in der Schlacht ebenfalls den Tod fand. Die Römer siegten knapp, und Tarquinius verschwand endgültig im Exil. Rom war eine Republik. 

Tyrannenmord
Zu den Gründungskernen der Republik gehörte die ungeheure Feindseligkeit gegenüber allem, was nach Tyrannei und Königtum roch. Zahlreiche Politiker der Republik fanden den Tod (oder ein abruptes Karriereende), weil man ihnen Aspirationen nach dem Königstitel unterstellte. Das letzte Opfer dieser Königs-Paranoia war Julius Cäsar, der allerdings in der Angelegenheit kaum als unschuldig gelten darf. Die ungeheure Bosheit des Tarquinius (die vermutlich deutlich übertrieben ist) diente den Römern dabei immer als bequeme Rechtfertigung dieser Ablehnung des Königstitels. Jeder, der die Alleinherrschaft anstrebte, musste sich mit Tarquinius vergleichen lassen - ein PR Albtraum. Letztlich aber diente auch die Geschichte von Tarquinius vor allem als ein pädagogisches Werk: wie die Könige vor ihm war Tarquinius immer dazu gut, bestimmte Lektionen über das, was die Römer als ihr Selbstverständnis betrachteten - virtus - zu erläutern. 

Die Könige waren keine historischen Figuren, sondern mystische Verzerrungen realer, historischer Persönlichkeiten. Vermutlich gab es auch mehr als sieben von ihnen. Ihre Geschichte aber wurde erst zu einer Zeit aufgeschrieben, als die ältesten Einwohner der Stadt allenfalls Großeltern hatten, die bei Tarquinius' Vertreibung dabeigewesen waren. Es verwundert daher nicht, dass die Geschichten zwar hervorragend die Lektionen hergeben, die die Römer gerne weitergeben wollten, aber vermutlich wenig auf historische Genauigkeit geben. Für uns sind sie daher eher ein Fenster ins Innenleben der römischen Seele als in das ihrer Vorgeschichte. 

Bildnachweise: 
Tarquinius Münze - Guillaume Rouille (Public Domain)
Comic - John Leech (Public Domain)
Sibyll - Michelangelo (Public Domain)
Brutus Büste  - Jastrow (Public Domain)
Tyrannenmord - Karl von Piloty (Public Domain)

Quelle: http://geschichts-blog.blogspot.com/2014/11/legende-und-geschichte-die-romische.html

Weiterlesen

Digital Humanities Summit 03. bis 04. März 2015 in Berlin

Die Projektverbünde TextGrid und DARIAH-DE veranstalten einen DH-Summit 2015 vom 3. bis 4. März 2015 in Berlin (Harnack-Haus).

Das Event richtet sich in erster Linie an die DH-Projekte, Zentren und Nachwuchsgruppen aus den letzten beiden BMBF-Calls sowie weitere assoziierte Projektpartner von TextGrid und DARIAH-DE.

DH-Summit-Slide2_ als_Aufkleber

Für das Veranstaltungsprogramm konnten hochkarätige Vertreter aus den Digital Humanities gewonnen werden, so werden die Keynotesprecher Prof. M. Thaller, Universität zu Köln und Dr. K. Fendt, Massachusetts Institute of Technology bespielsweise eine Bestandsaufnahme bzw. Notwendigkeiten und Bedingungen der Digital Humanities präsentieren, geplant sind zudem zwei Panels zu den Perspektiven aus Sicht der Wissenschaft, Infrastruktureinrichtungen und Förderinstitutionen sowie Pro- und Contrapositionen zum Thema Zukunft mit Tradition in den Geisteswissenschaften.

Flankierend sind weitere Veranstaltungen vorgesehen, unter anderem eine TextGrid Grand Tour (6. TextGrid Nutzertreffen) am 5. März 2015.

Alle Informationen rund um das Veranstaltungsprogramm gibt es auf unserer Website www.dhsummit2015.de

Quelle: http://dhd-blog.org/?p=4331

Weiterlesen

Sport, Stadion, Stadt

Seit dem Zweitligaaufstieg der Lilien machen sich zweiwöchentlich über zehntausend Menschen auf dem Weg zum Böllenfalltor um zweiundzwanzig Menschen beim Bewegen eines Lederballes mit den Füßen zu beobachten. An solchen Spieltagen wird das Stadion ganz besonders sichtbar. Doch welchen Ort haben Stadien und Sportstätten in Städten in historischer Perspektive?

Dieser Frage ging der viele Jahre am Institut für Geschichte beschäftigte Historiker PD. Dr. Noyan Dinckal aus Paderborn in einem Vortrag im Rahmen des 29. Darmstädter Sport-Forums nach. Er betrachtete dabei die Entwicklung moderner Sportstätten zu Beginn  des 20. Jahrhunderts und konstatierte zum einen, wie diese mit zunehmender Popularisierung zunehmenden Einfluss auf den urbanen Raum nahmen. Straßenbahnanschlüsse, Erdumwälzungen, Parkplätze mussten gebaut oder bewältigt werden und wirkten so in starkem Maße auf die Kommune zurück.  Zum anderen wurden die Stadien durch das zunehmende Interesse der Bevölkerung zu „Orten architektonischer Massenkultur und urbaner Riten“, wie Dinckal betonte.

Die zunehmende Bedeutung des Zuschauersports brachte begleitende Diskussionen hervor, die auch dem heutigen Ohr bekannt vorkommen. Schon damals gab es Debatten über Gewalt auf den Rängen, über die Rolle von Kommerz im Stadion (auch damals gab es Logen), über die durch das Stadion herbeigeführte Trennung von Profi- und Breitensport und über das Stadion als Prestigeobjekt für die Kommunen.

Ein Blick in die Geschichte des Stadionbaus eröffnet so neue Einblicke auch in aktuelle Diskussionen um Stadionneubauten. Manche Argumentationslinien wirken in historischer Dimension anders, andere Argumente können mit historischen Erfahrungen angereichert werden. Dinckals Vortrag regt auf jeden Fall zum Nach-, Mit- und Andenken an –gerade auch wenn man sich am Wochenende mal wieder auf den Weg ins Stadion am Böllenfalltor macht und dessen Zukunft im Halbzeitgespräch thematisiert wird.

Weiterführende Links:

Bericht im Darmstädter Echo

Verlagsinformation zu Dinckals Buch über Sportlandschaften

 

 

Quelle: http://mgtud.hypotheses.org/150

Weiterlesen

International Journal of Digital Art History – Call for Manuscripts

gemeldet von Dr. Harald Klinke M.Sc., Institut für Kunstgeschichte, LMU München

No_zeroThe Digital Age has revolutionized economy, society and our private lives. For decades now, digitalization has also touched most branches of the humanities. With the rising importance of the so called Digital Humanities, Art History is about to change significantly. Since the slide library is irreversibly replaced by image databases, the fact that our media have turned digital opens up to new possibilities. Academic books and journals are increasingly accessed and published via internet. Data-driven approaches enable us to visualize large data-sets and big image data. Computer vision, gamification and citizen science spur new epistemic approaches.

Many such approaches are currently evolving in the international sphere of Art History. Those ideas and projects are in need of a platform of interchange and discourse. A discourse that is linked to Digital Humanities, but regards the special interests and needs of Art History as a historical image science at the interface to Information Science. Thus, the “International Journal of Digital Art History” (DAH) will give authors in this field the opportunity to reach a wider audience, spark a discussion on the future of our discipline and generate an international and interdisciplinary network of scholars and practitioners.

This is a call for manuscripts. The first issue of DAH is scheduled for early 2015. It will focus on the definition of “Digital Art History” in relation to “non-digital”, to information science and general DH. It will encompass the range of the field and its vector into the future. It will also highlight exceptional projects and feature book reviews.

Featured author will be Lev Manovich. He is Professor at The Graduate Center, CUNY, and a Director of the Software Studies Initiative that works on the analysis and visualization of big cultural data.

Manuscripts may be sent to the editors Harald Klinke and Liska Surkemper (editors@dah-journal.org) by Jan, 30 2015. For more information for authors, please visit “Information for Authors”.

ISSN-Print 2363-5398
ISSN-Internet 2363-5401

Quelle: http://dhd-blog.org/?p=4327

Weiterlesen

24. Alltagslebenstauglichkeit von Philosophen (1/2)

Ich wurde neulich mit einer interessanten Ansicht konfrontiert, die mich zum Nachdenken angeregt hat: Kurz nachdem ich mir meinen Montagsfrack angezogen habe und kurz bevor ich bemerkte, dass ich vergessen hatte, Schuhe dazu anzuziehen, geriet ich in eine Meinungsverschiedenheit über den Besitzanspruch eines Sackes Kartoffeln am Markt. Jemand riet mir dort im Handgemenge, ich solle die Situation doch nicht gänzlich aufgrund meiner moralischen Standards bewerten. Denn diese wären naturgemäß (so die Implikation) für jemanden der sich mit Philosophie beschäftige, sehr hoch, vielleicht sogar ideal und deshalb zu hoch, zu lebensfern (wie mein Scheitel an jenem unheivollen Tag).

Denkwürdig ist dieser Rat aber allemal: Erstens enthält er nämlich die Meinung, dass Philosophen gerade nicht die Realität im Auge haben, sondern ein von der Realität losgelöstes Konzept untersuchen. Dieses Konzept würde dann über die nicht-ideale Lebenswirklichkeit gestülpt und passe deshalb nur bedingt. Philosophie sei also weltfremd. - Aber wenn dies der Fall wäre, dann müsste man auf eine andere, nicht-philosophische Meinung rekurrieren, welche vermeintlich näher an der Realität dran wäre. Das hätte die paradoxe Konsequenz zur Folge, dass eine Person, die sich weniger mit der Theorie der Moral beschäftigte, eine bessere moralische Bewertung vornehmen könnte als eine Person, die sich viel damit beschäftigte (ja, Vergangenheit, nicht Konjunktiv). Derselbe Vorwurf scheint bei Juristen bezüglich Rechtsstreitigkeiten, Betriebswirtschaftswissenschaftlern bezüglich betriebswirtschaftlicher Fragen oder Biologen bezüglich anderer Biologen unplausibel, warum also anders bei der Philosophie? "Ja, genau, warum?". Wir sollten tatsächlich immer die Realität, die Wahrheit im Auge haben und kein dünnes Abbild der Wirklichkeit, das in seiner Gültigkeit reduziert ist.

Zweitens denke ich aber tatsächlich nicht, dass Philosophen selbst grundsätzlich moralisch besser dastehen als Juristen, Wirtschaftswissenschaftler und Biologen. „Warum?“ Naja, es gibt viele Gründe: Beispielsweise ist die Bewertung einer Situation im Nachhinein eine ganz andere Sache als die Anwendung der Theorie auf die eigene Handlungsmotivation (Stichwort: Fußball). „Warum?“ Ist doch klar: Solange der Unterschied zwischen einer moralischen und einer amoralischen Handlung im Bruchteil einer Sekunde getroffen wird, während der also keine Zeit zum Abwägen und Durchdenken ist, müsste Ihr moralisches Reflexsystem bereits so gut geschult sein, dass es im Notfall auch ohne langes Nachdenken funktionieren kann. Wie häufig moralische Reflexe zur Anwendung kommen (, ob es sie gibt, was der Unterschied zur plötzlichen Erkenntnis) und wie häufig Zeit zum Denken ist, kann ich Ihnen leider nicht genau sagen.

Selbst wenn aber Aristoteles aus Menschen keine hirnlosen Tugendmaschinen machen wollte, sagte er dennoch zurecht, dass der gute Mensch das Gute gerne tut. Er hat Lust am Guten. Wenn sich Ihnen also der Magen verdreht, wenn Sie eher jemanden vor dem Ertrinken retten sollen, als Ihren Scheitel bei Coiffeur nachziehen zu lassen, sind Sie nach Aristoteles noch nicht tugendhaft.

„Wenn sonach die Tugend zweifach ist, eine Verstandestugend und eine sittliche Tugend, so entsteht und wächst die erstere hauptsächlich durch Belehrung und bedarf deshalb der Erfahrung und der Zeit; die sittliche dagegen wird uns zuteil durch Gewöhnung [...].“ (Aristoteles, Nikomachische Ethik Buch II, Kapitel 1).

Jetzt wollen Sie sicher wissen, wie die Geschichte mit dem Kartoffelsack ausgegangen ist. Ich sage es Ihnen: Als ich mich kurz bückte, um meine Schnürsenkel zuzubinden, da es mir an den Füßen kalt zu sein schien, zog mein Gegner mir einen passenden Scheitel mit seiner Handkante, nahm den Kartoffelsack weg und bestellte schöne Grüße aus dem Naturzustand.

Quelle: http://philophiso.hypotheses.org/384

Weiterlesen

Piketty vs. Graeber

Zwei Bücher haben in letzter Zeit das Thema soziale Ungleichheit und Kapitalismus aufs Tapet gebracht und Feuilleton- und WirtschaftsjournalistInnen umgetrieben. David Graeber zielte mit seinem Buch über „Schulden. Die ersten 5000 Jahre“ auf die ganz großen Kontinuitäten der Menschheitsgeschichte und versuchte, der Welt „ewig Weh und Ach / So tausendfach / Aus einem Punkte“ zu erklären. Das ist intellektuell anregend, aus der gewohnheitsmäßig kleinlichen Sicht des Historikers aber methodisch und theoretisch angreifbar. Angreifbar machte sich auch Thomas Piketty mit seinem „Le Capital au XXIe […]

Quelle: http://moraleconomy.hypotheses.org/230

Weiterlesen

Können wir unsere Emotionen wählen – und warum sollten wir? Die rationale Wahl von Emotionen und die sozialen Entscheidungsregeln (Teil 1) – von Kathrin Behrens

Kernfrage dieses Artikels ist die grundsätzliche Wählbarkeit von Emotionen und der daraus folgenden Möglichkeit, Emotionen als eigenen Gegenstand von rationalen Entscheidungen zu betrachten. Dazu werden zwei zentrale Theorien der Emotionssoziologie miteinander verglichen: das Emotionskonzept nach Jon Elster und die Theorie … Continue reading

Quelle: http://soziologieblog.hypotheses.org/7316

Weiterlesen

Können wir unsere Emotionen wählen – und warum sollten wir? Die rationale Wahl von Emotionen und die sozialen Entscheidungsregeln (Teil 1) – von Kathrin Behrens

Kernfrage dieses Artikels ist die grundsätzliche Wählbarkeit von Emotionen und der daraus folgenden Möglichkeit, Emotionen als eigenen Gegenstand von rationalen Entscheidungen zu betrachten. Dazu werden zwei zentrale Theorien der Emotionssoziologie miteinander verglichen: das Emotionskonzept nach Jon Elster und die Theorie … Continue reading

Quelle: http://soziologieblog.hypotheses.org/7316

Weiterlesen

Suffering from the collective cult of cognition

Why is it that of all the mental diseases on record we are so preoccupied with those occurring at the beginning and at the end of life? The Attention Deficit Hyperactivity Disorder (ADHD) and dementia have both attracted the attention of the medical …

 


English

Why is it that of all the mental diseases on record we are so preoccupied with those occurring at the beginning and at the end of life? The Attention Deficit Hyperactivity Disorder (ADHD) and dementia have both attracted the attention of the medical profession and the wider public only comparatively late in history. Many a physician has even dared to claim that these disorders were not discovered but as it were invented in the past century.

 

Pathologisations

Even if there is no doubt from my point of view that the mental phenomena known as ADHD and dementia describe a disease, the frequency with which both are diagnosed and discussed is striking. This is not least a question of perspective. It might be said that ADHD and dementia are diagnoses that chiefly serve to identify their sufferers as afflicted with an individual divergence from a cognitive norm. ADHD occurs in young people unable to sit still so as to concentrate on performing a mental task. Older people suffer from dementia when they are neither able to remember things adequately enough nor orient themselves sufficiently well in their everyday lives. Put briefly, both kinds of sufferers experience a painful difference between the demands placed on their mental faculties and actual reality. But this perspective threatens to overly pathologise individual variations on growing up and aging. If my child does not show signs of partial performance inefficiency or a minor form of autism, it must be either highly gifted or otherwise something must be fundamentally wrong. In old age, I become depressed if I am no longer able to learn another language or participate in a new digital technology.

Cognitive bias

It is time to question such social demands. They result from a collective cognitive bias, which is nothing but a mental distortion of its own kind. Could it be that our pedagogical agendas and curricula have long been overloaded, leaving too little time and space for children to engage fruitfully in emotional and physical learning experiences? And doesn’t the same hold true for the elderly? The overrated fear of developing dementia stems from the notion that we cease to exist when our mind weakens, instead of emphasising that those suffering from this disorder are still (but differently) capable. This is not solely a question about medical prevention and therapy but also about how society deals with these phenomena. Psychological medicine has long become an accomplice of a movement that overly pathologises and medicalises cognitive weaknesses at life’s beginning and end. This goes along with the materialistic tendency of such medicine, a materialism that manifests itself not only in neurobiological terms but also in psychopharmacological and economic ones. ADHD and dementia research mainly endorse brain research, especially in terms of neurofeedback and cognitive training, while neglecting psychotherapeutic approaches well-grounded in the humanities. The driving force behind science and public perception are not least pharmacological options, which assume scary inflationary proportions in the case of ADHD and which are still outstanding, but eagerly awaited, in the case of dementia. Finally, the cult of cognition has something to do with our fear of losing control. The notion that we cannot control our thinking for the entire duration of our lives obviously humiliates us beyond measure. At the end of the day, this humiliation also manifests itself in our efforts to come to grips with this fundamental predicament, for instance, with the help of reproductive medicine and euthanasia.

Latitudes

The development just outlined ultimately seems to follow the impulse to extend adult life, and the full possession of mental faculties throughout its course, as far backwards and forwards as possible. Apart from the question whether this desire follows an economic agenda, it appears to be a dead end. Neuropsychologically, the cognitive development of adolescents rests on mastering physical and emotional developmental tasks. As regards old age, it is reasonable if our memory for novelty weakens in favour of a concentration on the past and reflecting on the here-and-now of the time left. That our thinking capacity is limited is a physiological rather than a pathological fact. By no means do I mean to romanticise ADHS and dementia, whose severe forms are extremely painful for patients and their relatives. From my point of view, however, a considerable amount of suffering from these disorders stems from society’s tendency to overrate the importance of cognition and to overly fear its impairment. Firstly, this leads to diagnosing these illnesses too early and too often. Secondly, we thereby mobilise too many resources to align ourselves and our relatives with a cognitive norm, rather than creating individual scopes of development that take into account the different needs and demands of the young and the elderly.

Humiliation and control

When parents fight against their children’s ADHD diagnosis, and when adult children fight against their parents’ diagnosis of dementia, basic human perspectives sometimes are obscured from view. If a child’s environment is too focused on aligning that child with a cognitive norm, it will not feel unconditionally loved and welcome. And if attention centres exclusively on cognitive deficits when dealing with a demented person, then relatives will miss the chance to engage with the sufferer’s resources and thereby to maintain a relationship with that person. In human terms, we find ourselves wanting at the beginning and at the end of life. So presumably only those who cherish and preserve their sensory experience of nature and culture throughout adult life can be good companions for the young and the old. Probably, this is also the best preparation for one’s own dementia.

____________________

Literature

  • Reimer Gronemeyer, “Das 4. Lebensalter. Demenz ist keine Krankheit,” Munich: Pattloch, 2013.
  • Sami Timimi, “Rethinking ADHD: From Brain to Culture: International Perspectives,” London: Palgrave, 2009.

External Links

  • Khan NA, Hillmann CH, “The relation of childhood physical activity and aerobic fitness to brain function and cognition: a review,” Pediatric Excercise Science 2014; 26: 138-46, online http://europepmc.org/abstract/med/24722921 (last accessed 20.10.14).
  • Blessing A, Forstmeier S, Eschen A., “Emotionen als Wirkfaktoren psychosozialer Interventionen bei Alzheimer-Demenz,” Zeitschrift für Psychiatrie, Psychologie und Psychotherapie 2014; 62: 191-9, online http://www.psycontent.com/content/p5615x8304l8pv10/ (last accessed 20.10.14).

____________________

Image credits
© Bert te Wildt 2014 (private shot).

Recommended citation
te Wildt, Bert: Suffering from the collective cult of cognition. In: Public History Weekly 2 (2014) 41, DOI: dx.doi.org/10.1515/phw-2014-2709.

Copyright (c) 2014 by De Gruyter Oldenbourg and the author, all rights reserved. This work may be copied and redistributed for non-commercial, educational purposes, if permission is granted by the author and usage right holders. For permission please contact: julia.schreiner (at) degruyter.com.

 

 

Deutsch

Wie kommt es, dass uns von allen psychischen Erkrankungen seit Jahren diejenigen am meisten beschäftigen, die den Lebensanfang und das Lebensende betreffen? Die Aufmerksamkeitsdefizit- und Hyperaktivitätsstörung (ADHS) und die Demenzerkrankungen haben miteinander gemeinsam, dass sie erst relativ spät ins Rampenlicht von Medizin und Öffentlichkeit gerückt sind. Manch ein Psychiater hat sich sogar zu der Behauptung verstiegen, dass sie nicht im vergangenen Jahrhundert entdeckt, sondern quasi erfunden wurden.

 

Pathologisierungen

Wenngleich es aus meiner Sicht keinen Zweifel daran gibt, dass die mentalen Phänomene, die wir als ADHS und Demenz umschreiben, von Krankheitswert sind, so lässt doch die Häufigkeit, mit der sie diagnostiziert und diskutiert werden, aufhorchen. Dies ist nicht zuletzt eine Frage der Perspektive. Man könnte meinen, dass die Diagnosen ADHS und Demenz vor allem auch dazu dienen, dem Leiden an einer individuellen Differenz zu einer kognitiven Norm Ausdruck zu verleihen. ADHS betrifft zuallererst junge Menschen, die nicht ausreichend stillsitzen, um konzentriert etwas gedanklich verfolgen zu können. Unter Demenz leiden ältere Menschen, wenn sie sich nicht mehr gut genug erinnern und orientieren können, um sich im Leben zurechtzufinden. Es geht bei beiden um eine schmerzhafte Differenz zwischen Anspruch und Wirklichkeit im Hinblick auf Denkleistungen. Damit drohen individuelle Varianten des Heranwachsens und Alterns übermäßig pathologisiert zu werden. Wenn mein Kind nicht zumindest eine Teilleistungsschwäche oder eine Form von Autismus hat, muss es hochbegabt sein, andernfalls kann bei ihm oder ihr etwas grundsätzlich nicht stimmen. Und im hohen Alter stürzt es mich in eine Depression, wenn ich nicht dazu in der Lage bin, noch eine weitere Sprache zu lernen oder an noch einer neuen digitalen Technologie teilzuhaben.

Kognitiver Bias

Es ist Zeit, diese gesellschaftlichen Ansprüche grundsätzlich in Frage zu stellen. Sie folgen einem kollektiven kognitiven Bias, einer gedanklichen Verzerrung der besonderen Art. Sind nicht die Lehrpläne für Schüler längst überfrachtet, und lassen sie nicht zu wenig Zeit-Räume für emotionale und körperliche Lernerfahrungen? Und gilt das mit umgekehrten Vorzeichen nicht ebenso für Menschen im Alter? Die überzogene Angst vor Demenz entspringt der Vorstellung, dass wir aufhören zu existieren, wenn unser Verstand nachlässt, anstatt zu betonen, wozu Menschen trotz Demenz in der Lage sind. Es geht hierbei nicht allein um medizinische Prävention und Therapie, sondern auch um den sozialen Umgang mit diesen Phänomenen. Die psychologische Medizin hat sich längst zum Erfüllungsgehilfen einer Bewegung gemacht, die kognitive Schwächen an Lebensanfang und –ende übermäßig pathologisiert und therapiert. Dem kommt zupass, dass sie sich einem Materialismus verschreibt, der sich nicht nur neurobiologisch, sondern auch psychopharmakologisch und ökonomisch zeigt. ADHS- und Demenzforschung folgen überwiegend der Hinforschung, besonders im Sinne von Neurofeedback und Kognitionstraining, und unter Vernachlässigung geisteswissenschaftlich fundierter psychotherapeutischer Ansätze. Motor von Forschung und öffentlicher Wahrnehmung sind nicht zuletzt pharmakologische Optionen, die im Hinblick auf ADHS besorgniserregend inflationär ergriffen werden und für die Demenz im Grunde noch ausstehen, aber sehnsüchtig erwartet werden. Letztlich geht es beim Kult um das Kognitive um die Angst vor Kontrollverlust. Die Erkenntnis, mit unserem Denken nicht die gesamte Lebensspanne kontrollieren zu können, kränkt uns Menschen offensichtlich maßlos. Am Ende drückt sich das auch darin aus, dass wir mit Reproduktionsmedizin und Sterbehilfe auch das noch krampfhaft in den Griff zu bekommen versuchen.

Spielräume

Die beschriebene Entwicklung folgt letztlich dem Impuls, das Erwachsenenleben im Vollbesitz kognitiver Fähigkeiten in der Lebensspanne soweit wie möglich nach vorne und hinten auszudehnen. Unabhängig von der Frage nach einer ökonomischen Logik, erscheint mir dies als ein Irrweg. Bei heranwachsenden Menschen baut die geistige Entwicklung neuropsychologisch darauf auf, dass körperliche und emotionale Entwicklungsaufgaben zuvor bewältigt worden sind. Und für das höhere Lebensalter macht es einen Sinn, wenn unser Gedächtnis für Neues nachlässt zugunsten einer Konzentration auf das Vergangene und einer Besinnung auf das Hier und Jetzt der verbliebenen Zeit. Dass das Denken seine Grenzen hat, ist physiologisch und nicht pathologisch. Damit will ich leidvolle Manifestationen von ADHS und Demenz nicht romantisieren. Aus meiner Sicht rührt allerdings ein nicht unerheblicher Teil des Leidens an diesen Phänomenen daher, dass wir das Kognitive überbewerten und seine Beeinträchtigung zu sehr fürchten. Dies führt erstens dazu, dass wir diese Erkrankungen zu früh und zu häufig diagnostizieren. Und zweitens, dass wir zu viele Ressourcen darauf verwenden, uns und unsere Angehörigen einer kognitiven Norm anzugleichen, anstatt individuelle Entwicklungsspielräume zu schaffen, die den unterschiedlichen Bedürfnissen der Jungen und Alten gerecht werden.

Kränkung und Kontrolle

Im Kampf der Erwachsenen gegen die ADHS-Diagnose ihrer Kinder und im Kampf der erwachsenen Kinder gegen die Demenz-Diagnose ihrer Eltern geraten bisweilen ganz einfache zwischenmenschliche Perspektiven aus dem Blick. Wenn das Umfeld eines Kindes zu viel damit beschäftigt ist, es einer kognitiven Norm anzugleichen, wird ihm nicht ausreichend vermittelt, bedingungslos geliebt und willkommen zu sein. Und wenn sich im Umgang mit Demenzkranken alles um kognitive Defizite dreht, verpassen die Angehörigen die Chance, sich mit den Ressourcen der Betroffenen zu verbünden und darüber auf sie zu beziehen. Menschlich hapert es bei der Begrüßung und Verabschiedung im Leben. Vermutlich kann nur wer sich als erwachsener Mensch sein sinnliches Erleben im Hinblick auf Natur und Kultur erhält, ein guter Begleiter für Junge und Alte sein. Wahrscheinlich ist das auch die beste Vorbereitung auf die eigene Demenz.

____________________

Literatur

  • Gronemeyer, Reimer: Das 4. Lebensalter. Demenz ist keine Krankheit. München 2013.
  • Timimi, Sami: Rethinking ADHD: From Brain to Culture: International Perspectives. London 2009.

Externe Links

  • Khan NA, Hillmann CH: The relation of childhood physical activity and aerobic fitness to brain function and cognition: a review. Pediatric Excercise Science 2014; 26: 138-46, online http://europepmc.org/abstract/med/24722921 (zuletzt am 20.10.14).
  • Blessing A, Forstmeier S, Eschen A.: Emotionen als Wirkfaktoren psychosozialer Interventionen bei Alzheimer-Demenz. Zeitschrift für Psychiatrie, Psychologie und Psychotherapie 2014; 62: 191-9, online http://www.psycontent.com/content/p5615x8304l8pv10/ (zuletzt am 20.10.14)

 

____________________

Abbildungsnachweis
© Bert te Wildt 2014 (private Aufnahme)

Empfohlene Zitierweise
te Wildt, Bert: Leiden am Kult des Kognitiven. In: Public History Weekly 2 (2014) 41, DOI dx.doi.org/10.1515/phw-2014-2709.

Copyright (c) 2014 by De Gruyter Oldenbourg and the author, all rights reserved. This work may be copied and redistributed for non-commercial, educational purposes, if permission is granted by the author and usage right holders. For permission please contact: julia.schreiner (at) degruyter.com.

 

The post Suffering from the collective cult of cognition appeared first on Public History Weekly.

Quelle: http://public-history-weekly.oldenbourg-verlag.de/2-2014-41/suffering-collective-cult-cognition/

Weiterlesen