Enquete-Kommission “Internet und digitale Gesellschaft” für Open Access

Die Enquete-Kommission “Internet und digitale Gesellschaft” spricht sich für eine umfassende Unterstützung des Open Access-Prinzips im Wissenschaftsbereich aus. Nach den Vorstellungen der Enquete-Kommission soll Open Access in der deutschen Forschungsförderungspolitik und in der deutschen Hochschullandschaft auch durch die gemeinsame Entwicklung einer nachhaltigen Open Access-Strategie vorangetrieben werden.
Die vollständige Pressemitteilung dazu steht hier: http://www.bundestag.de/presse/hib/2012_06/2012_314/03.html

Quelle: http://dhdhi.hypotheses.org/1044

Weiterlesen

Postmoderne Auflösung in Mosaikbausteine oder antiquierte Strukturforschung durch die Hintertür? Eine neue ‘Römische Kunst’ der Kaiserzeit

Zu bewundern ist die Kraft, einen Kreis zu schließen, ohne einfach zum Anfangspunkt zurückzukehren. Als Bernard Andreae, einer der bekanntesten und produktivsten deutschen Archäologen seiner Generation, 1973 eine umfassende Römische Kunst publizierte, war er Anfang Vierzig; der schwere Bildband wurde zum Hausbuch für Humanisten und Augenmenschen, durch die reiche Bilddokumentation aber auch zum Handbuch für Archäologiestudenten. 1999 erschien eine erweiterte Neubearbeitung...(read more)

Quelle: http://faz-community.faz.net/blogs/antike/archive/2012/06/29/postmoderne-aufloesung-in-mosaikbausteine-oder-antiquierte-strukturforschung-durch-die-hintertuer-eine-neue-roemische-kunst-der-kaiserzeit.aspx

Weiterlesen

Policey, Biopolitik und Liberalismus

Wolfgang Neurath: Policey, Biopolitik und Liberalismus. Vom Zugriff der Macht auf das Leben (Bios), in: Medienimpulse 2/2012

Wolfgang Neurath beleuchtet die Debatten zur Biopolitik aus historischer Perspektive und zeigt auf, wie das Foucaultsche Konzept der gouvernementalité von der Policey des 18. Jahrhunderts bis hin zum aktuellen (Neo)liberalismus seine Macht keineswegs verloren hat.

Online unter: http://www.medienimpulse.at/articles/view/432

Quelle: http://www.univie.ac.at/policey-ak/?p=575

Weiterlesen

Heldensage im Reisetagebuch

Vor ungefähr drei Jahren war ich mit meiner Promotion an einen Punkt gelangt, an dem ich die Entscheidung treffen musste, in welche Richtung sich meine Dissertation weiterentwickeln sollte. Wir hatten unser System Tesla schon zu einem guten Teil realisiert, die Darlegung zur Motivation der Entwicklung eines eigenen Komponentensystems – die Idee wirklich reproduzierbarer Experimente auf Textdaten beliebigen Formats – lag auch bereits in einer Rohform vor. Was fehlte, war ein Anwendungsfall, an dem ich die Funktionalität des Systems bestmöglich demonstrieren konnte. Und die Suche nach einem solchen geeigneten Untersuchungsobjekts hatte mich schon eine ganze Zeit beschäftigt. Eher zufällig stöberte ich dabei nochmal in einem Buch, dessen Lektüre bei mir schon etwas weiter zurücklag: Im wirklich empfehlenswerten Lexikon des Unwissens von Kathrin Passig und Aleks Scholz.1

Dabei fiel mir auf, dass das Voynich-Mauskript (VMS), dem im Lexikon ein Eintrag gewidmet ist, ein durchaus geeignetes Thema wäre, um die Anwendbarkeit von Tesla zu demonstrieren:

  • Das VMS enthält einen Text. Mit unbekannten Zeichen  geschrieben, unbekannten Inhalts und unbekannter Herkunft. Aber einen Text. Und wir haben Tesla entwickelt, um sämtliche Texte analysieren zu können. Auch wenn der VMS-Text auf seine Art einzigartig ist, er sollte sich mit Tesla analysieren lassen.
  • Die Analysen zu VMS sind genauso zahlreich wie auch widersprüchlich. So gut wie alle denkbaren Theorien zur Herkunft oder Inhalt des Textes lassen sich irgendwo finden. Die glaubhaften Analysen einmal in einem System zu bündeln, in dem sie für die ganze Welt reproduzierbar sind, sollte nicht schaden.
  • Das VMS reizt natürlich auch durch seine geheimnisvolle Aura. Damals schon 97 Jahre zerbarsten daran die Theorien durchaus (bisweilen überaus) intelligenter Wissenschaftler und Nicht-Wissenschaftler, ohne dass jemand tatsächlich eine allgemein anerkannte Lösung zum Problem hatte liefern können.

Der Anspruch, den Text tatsächlich entschlüsseln zu können, wäre natürlich allzu vermessen gewesen. Das war auch von Anfang an nicht der Plan. Stattdessen wollte ich die Analysen, welche zu den seltsamen Eigenschaften des Manuskripttextes, die ich hier schon einmal thematisiert habe, in einer Umgebung zusammenführen, welche eine einfache Überprüfung der Analyse-Ergebnisse ermöglicht.


Eine aufgeschlagene Seite des Voynich Manuskripts - seltsame Zeichnungen, seltsamer Text. Quelle: en.wikipedia.org

Tatsächlich bin ich aber weiter gekommen, als ich anfangs annahm und wie es dazu kam, will ich hier kurz erzählen: Beim Studium der Literatur zum VMS – die nicht in allen Fällen wissenschaftlichen Ansprüchen genügt und wo sie dies tut, meist in Veröffentlichungen zu anderen Themen versteckt wurde – nahm ich als Grundtenor wahr, dass kein Chiffrierverfahren bekannt wäre, aus dessen Anwendung ein Text resultiert, der dem VMS-Text ähnlich wäre. Ebenso deuteten bestimmte statistische Eigenschaften darauf hin, dass es sich nicht um eine Transkription einer natürlichen Sprache handeln könne. Wenn es aber weder eine Chiffre noch eine unbekannte Transkription sein kann, so liegt die Vermutung nahe, der Text bestehe einfach aus einer sinnlosen Aneinanderreihung von Phantasiewörtern. Damit korrespondiert – semiotisch ausgedrückt – mit der Ausdrucksseite seiner Zeichen keine Inhaltsseite. Und weil ein Text ohne Inhalt auf gewisse Art ein Schwindel ist, wird die Hypothese, dass es sich beim VMS-Text um einen solchen handelt, auch Hoax-Hypothese genannt.

Irgendwie ist der Gedanke, das VMS sei nur ein Schwindel und es gäbe gar nichts zu entziffern, nicht besonders befriedigend. Mehr Charme hat da die Vermutung von William Friedman (einem der größten Kryptoanalytiker des 20. Jahrhunderts), der es für wahrscheinlich hielt, dass der VMS-Text ein früher Entwurf einer synthetischen Sprache a priori sei – ihm also eine Kunstsprache zugrundliege, die sich – im Gegensatz z.B. zum Esperanto – nicht an natürlichen Sprachen orientiert. Weil solche Sprachen aber scheinbar erst in der zweiten Hälfte 17. Jahrhundert entworfen wurden, das VMS aber relativ sicher schon Ende des 16. Jahrhunderts in Prag kursierte, ist diese These problematisch.

Mehr Charme ist jetzt nicht unbedingt ein wissenschaftliches Kriterium. Ich beschloss aber dennoch, Verschlüsselungsverfahren und Ansätze zu Universalsprachen im ausgehenden Mittelalter und der frühen Neuzeit zu recherchieren. Im Zuge dieser Recherchen zu stieß ich auf die Monographie von Gerhard Strasser2 zum Thema, in der dieser die Verbindung zwischen kryptographischen Verfahren und universell gedachten Sprachentwürfen beleuchtet. Ursprünglich wollte Strasser dabei auf die Universalsprachentwürfe des 17. Jahrhunderts eingehen, allgemein als die ersten ihrer Art angesehen. Er kann aber zeigen, dass schon viel früher – durch den Abt Johannes Trithemius (den ich u.a. schon hier für eine andere seiner Arbeiten gewürdigt habe) – eine Chiffre entworfen wurde, deren Anwendung etwas ergab, das wie das Resultat einer Kunstsprache aussieht, das aber ein verschlüsselter Text ist.

Konkret bezieht sich Strasser dabei auf die Teile III und IV der trithemischen Polygraphia. Die darin beschriebenen Verfahren funktionieren prinzipiell wie die aus den ersten beiden Teilen  (die ich hier auch schon vorgestellt habe): Einzelne Buchstaben werden gemäß einer Ersetzungstabelle durch ganze Wörter ersetzt. Während aber die Ersetzungschiffren in den ersten beiden Teilen lateinische Wörter sind und die resultierenden Geheimtexte wie lateinische Gebete anmuten, sind sie in den darauffolgenden Büchern von Trithemius erdachte Phantasiewörter, der resultierende Text sieht demnach aus wie eine Phantasiesprache. Der sehr regelmäßige Aufbau der Phantasiewörter – an einen Wortstamm sind unterschiedliche Endungen angehangen – gemahnt Strasser an die Universalsprachentwürfe von Wilkins und Dalgano, die erst viel später, um 1660, entworfen wurden.

Je zwei Zeilen von Ersetzungschiffren aus der Polygraphia III und IV. In der Spalte ganz links finden sich die zu ersetzenden Buchstaben.

Die Tatsache, dass nun doch um 1500 schon eine Möglichkeit beschrieben wurde, wie ein Text erzeugt werden kann, der wie das Produkt einer Kunstsprache aussieht, fesselte mich natürlich und ich beschloss, die Trithemischen Werke im Original zu konsultieren. Die Recherche führte mich in ein Mikrofichekabüffchen und den Lesesaal der historischen Sammlungen der hiesigen Universitätsbibliothek genauso wie in die Erzbischöfliche Buchsammlung zu Köln (womöglich wäre ich noch im Stadtarchiv gelandet, das aber gerade der Erdboden verschluckte) – alles spannende Orte, zu denen man als Computerlinguist unter normalen Umständen gar nicht vorstößt.

Ich werde nie vergessen, wie ich im Holzverschlag zur Mikrofichebetrachtung über das Lesegerät gebeugt stand, fieberhaft und ungelenk die kleine Folie weiterschob über die Tabellen der trithemischen Polygraphia, bis ich endlich im dritten Teil angekommen, überprüfen konnte, ob das, was ich mir auf Grundlage von Strassers Schilderung vorstellte, tatsächlich auch im historischen Werk zu finden war. Und wirklich hatte Trithemius einzelne Spalten mit Stamm-Endungs-Kombinationen versehen, die wie Flexionsparadigmen aussahen (auch die “Wörter” des VMS weisen ähnliche Eigenschaften auf). Noch phantastischer war, dass die manuelle Strichliste, die ich nebenbei über die Wortlängenverteilung der Ersetzungstabellen führte, eine Binomialverteilung ergab (ebenso wie die VMS-”Wörter”, siehe auch hier). Dank Patrick Sahle hatte ich dann bald auch die Möglichkeit, die Polygraphia an meinem Schreibtisch zu studieren, der sich als die langweiligere, aber effektivere Arbeits-Location erwies.

Dort konnte ich mich dann weiteren Überlegungen zur Operationalisierung der von mir ja erst per Augenmaß festgestellten Ähnlichkeiten zwischen den beiden Texten widmen. Dabei hatte ich stets die Warnung von Kennedy und Churchill3 vor Augen, dass das VMS ein Spiegel sei, in dem jeder nur seine eigenen Vorurteile und Hypothesen bestätigt sieht. Insbesondere musste ich erst einmal Werkzeuge entwickeln, die mir erlaubten, den VMS-Text einzulesen und Polygraphia-III-Texte zu erzeugen, diese in Analyseeinheiten zu unterteilen und schließlich statistische Eigenschaften, die ich nicht einfach per manueller Zählung ermitteln konnte, auszuwerten. Ich befand mich erst am Anfang eines langen Prozesses, an dessen Ende die Fertigstellung und Veröffentlichung meiner Dissertation und die der duchgeführten Experimente stand.

Irgendwann später las ich das Bonmot von Ortoli und Witkowski: “Zwischen der Wissenschaft, wie sie die Öffenlichkeit erträumt oder die Medien feiern, und der Wissenschaft, wie sie die Forscher täglich praktizieren, besteht dieselbe Diskrepanz wie zwischen Heldensage und Reisetagebuch.” Da dachte ich, dass -  zumindest bei mir im Kopf – genau diese Diskrepanz für einen kurzen Moment aufgehoben war.

1 Katrin Passig, Aleks Scholz: “Lexikon des Unwissens. Worauf es bisher keine Antwort gibt.” Rowohlt Berlin; Auflage: 7 (2007)

2 Gehard Strasser: “Lingua Universalis: Kryptologie und Theorie der Universalsprachen im 16. und 17. Jahrhundert” (Wolfenbütteler Forschungen 38) Harrassowitz, Wiesbaden (1988)

3 Gerry Kennedy und Rob Churchill: “Der Voynich-Code: Das Buch, das niemand lesen kann” Rogner & Bernhard bei Zweitausendeins (2005)

4  Sven Ortoli und Nicolas Witkowski: “Die Badewanne des Archimedes: Berühmte Legenden aus der Wissenschaft” Piper Taschenbuch (2007)

Anm: Drei der vier aufgeführten Bücher sind das, was gemeinhin und bisweilen abschätzig als populärwissenschaftliche Veröffentlichungen bezeichnet wird. Eine ganze Reihe meiner Links führen außerdem zur Wikipedia. Ich halte den Einbezug beider Arten von Quellen für durchaus legitim in einem Blog, der versucht, die eigene wissenschaftliche Tätigkeit etwas populärer zu machen. Dass manche das anders sehen, weiß ich inzwischen auch. Da kann man aber auch gerne mit mir diskutieren. Nebenbei: Untersuchungen zum Voynich Manuskript tragen im Wissenschaftsbetrieb nicht gerade zur Kredibilität bei, was wohl auch ein Grund dafür ist, dass sich so wenige wirkliche Spezialisten mit dem Thema beschäftigen oder aber ihre Ergebnisse in Unterkapiteln anderer Veröffentlichungen (z.B. in einer Einführung in die Programmiersprache BASIC, kein Witz) verstecken. Bei mir ist das ja auch irgendwie der Fall gewesen. :)

Quelle: http://texperimentales.hypotheses.org/278

Weiterlesen

IDE Summer School “Digitale Editionen – Methoden und Technologien für Fortgeschrittene” 8. – 12. Oktober 2012

Die Kritische Digitale Edition ist ein zentrales Feld des Einsatzes moderner Computertechnologien in den Geisteswissenschaften. In den letzten Jahrzehnten hat sich dazu bereits eine umfassende Methodologie herausgebildet. Die technische Basis bilden Text-Auszeichnungssprachen und hier vor allem der de-facto-Standard der Text Encoding Initiative (TEI). Diese Technologien (XML und co) und Praktiken (TEI) werden ansatzweise auch schon in der universitären Lehre vermittelt. In spezieller Ausrichtung auf die Bedürfnisse der edierenden Geistenswissenschaften bemüht sich das Institut für Dokumentologie und Editorik e.V. (IDE) seit 2008 um die Verbreitung dieser Kenntnisse in regelmäßigen außercurricularen Veranstaltungen (Summer Schools). Für die erfolgreiche Umsetzung einer digitalen Edition sind jedoch nicht nur Kenntnisse zur sachgerechten Kodierung der Textbasis nötig. Deshalb richtet das IDE in unregelmäßigen Abständen auch Veranstaltungen für fortgeschrittene Teilnehmer aus.

Die Veranstaltung hat vier Schwerpunkte: Erstens beschäftigt sie sich mit der Erstellung digitaler Texte. Sie vertieft die Kenntnisse der TEI und aktuelle Diskussionen in und um die TEI. Zweitens vermittelt sie nötiges Wissen für das Suchen in und die Weiterverarbeitung von Dokumenten, die mit Hilfe der TEI strukturiert wurden, sowie die Fähigkeit, jene in unterschiedliche Ausgabeformate zu transformieren. Drittens stellt sie Werkzeuge vor, welche das Potential digitalen Edierens zeigen, wie z.B. Software zur automatischen Kollation. Viertens führt die Veranstaltung in die Benutzung von Software und Frameworks zur Publikation der Digitalen Edition im Internet ein.

Die Veranstaltung richtet sich also an Wissenschaftler, welche digitale Methoden in einem konkreten Editionsprojekt einsetzen und erste Kenntnisse in der Kodierung der Texte mit TEI besitzen (z.B. durch die Teilnahme an einem Anfängerkurs „Digitale Edition“ des IDE oder durch eigene praktische Arbeit), welche aber weiter gehende Kenntnisse erwerben wollen, um mit ihren Daten effizienter umgehen zu können, und sich in den Strategien zur Publikation Digitaler Editionen orientieren wollen.

In der Veranstaltung können die Teilnehmer unter Betreuung von Tutoren den theoretischen Lernstoff an den von ihnen mitgebrachten Projekten praktisch einüben.

Die Teilnehmerinnen und Teilnehmer sollen damit befähigt, komplexe Editionsvorhaben sicher im TEI-Standard zu kodieren, Stylesheets für eine einfache Webpräsentation zu schreiben, welche Text, Bilder und Register darstellt, sowie mit Fachleuten kompetent über die Umsetzung einer komplexeren Anwendung (mit Hilfe von existierenden oder noch zu entwickeln Frameworks) zu verhandeln.

Die Veranstaltung vom 8.-12.10.2012 wird in Zusammenarbeit mit dem Institut für Germanistik der TU Chemnitz ausgerichtet. Wir müssen die Teilnehmer leider um einen Kostenbeitrag von 100,- EUR bitten. Wenn Sie sich für den Kurs interessieren, melden Sie sich bitte bei <spring-school@i-d-e.de> mit Angaben zu Ihren Vorkenntnissen und zum inhaltlichen Kontext Ihres Interesses am Kurs an. Die Kapazität des Kurses ist auf 20 Personen beschränkt. Um eine frühzeitige Anmeldung wird deshalb gebeten.

Zum vorläufigen Programm

Quelle: http://dhd-blog.org/?p=684

Weiterlesen

ein zu freizügiger Kleidungsstil…

Am 18. November 1776 erschienen Klara Freiin von Summerau und Gottfried Freiherr von Summerau vor dem Wiener Konsistorialgericht. Die Ehefrau äußerte, dass derzeit eine zusammenwohnung nicht friedlich seyn dürfte und verlangte, für eine bestimmte Zeit ihrem Ehemann den Zutritt zur Wohnung zu verbieten und getrennt leben zu dürfen. Als Gründe für die “Toleranz” – wie der Zeitraum der Trennung bezeichnet wurde – gab Klara Freiin von Summerau folgendes an:

ihr gemahl habe sie jederzeit hart gehalten, verschiedene gefährliche trohungen gemacht, sein ganzes betragen wäre sehr unanständig, er halte sich in wäsch und kleidung unrein, wär vorhin öfters über nacht auf verdächtigen gründen geblieben, gehe zu haus vor den kindern und domestiquen im blossen hemd herum, gebe diesen üble beyspile, begehr in ipso actu conjugale ausschweifungen.


Quelle: http://ehenvorgericht.wordpress.com/2012/06/28/320/

Weiterlesen

Zwangsarbeit in der DDR

In der DDR leisteten politische Häftlinge und Bausoldaten unter gefährlichen und gesundheitsgefährdenden Produktionsbedingungen Zwangsarbeit. Obwohl DDR-Firmen offiziell nicht für den Westen produzieren durften, profitierten auch westliche Firmen davon. Was wussten die Firmen in Westdeutschland über die Herkunft ihrer Waren und welche Mitschuld tragen die Unternehmen an der Aufrechterhaltung des Systems?

Durch die jüngst veröffentlichten Informationen über den schwedischen Möbelkonzern IKEA im Frühjahr 2012 ist das Thema der DDR-Zwangsarbeit in den Medien wieder aktuell. Im kommenden MONTAGSRADIO, Ausgabe 10/2012, sprechen Jochen Thermann und Kaja Wesner mit dem Politologen Steffen Alisch, Mitarbeiter des Forschungsverbundes SED-Staat an der FU Berlin, über die Bedingungen der politischen Häftlinge, die ökonomische Dimension der Gefängnisproduktion in der DDR und den Umgang mit den ehemaligen Opfern. Am Montag erscheint hier das komplette Gespräch.

Quelle: http://www.montagsradio.de/2012/06/28/zwangsarbeit-in-der-ddr/

Weiterlesen

philtag #10 an der Uni Würzburg

Am 27. und 28. September 2012 findet am Lehrstuhl für Computerphilologie und Digital Humanities der Universität Würzburg der zehnte Workshop der Reihe philtag statt.
Wie in den Jahren zuvor, kommen dabei Wissenschaftler der Geistes- und Kulturwissenschaften zusammen, die neue digitale Methoden in ihren Forschungen einsetzen. Dabei werden in kleinerer Runde die Projekte und Methoden den verschiedenen Disziplinen vor- und zur Diskussion gestellt.
Der Workshop wird in Kooperation mit dem EU-Projekt DARIAH (Digital Research Infrastructure for the Arts and Humanities) durchgeführt und ist im beschränkten Umfang auch für Studierende offen.

Donnerstag, 27.9.

13:30 Kaffeepause

14:15 Wolfgang Hegel (Universität Würzburg), easyDB als Bilddatenbank der Philosophischen Fakultät I

15:00 Gerfrid Müller (Universität Würzburg), Hethitologie Portal

15:45 Dag Hasse (Universität Würzburg), Arabic and Latin Glossary

16:30 Kaffeepause

17:00 Sabine Bartsch (TU Darmstadt), Web-Plattform Linguisticsweb

17:45 Caroline Sporleder (Universität Saarland), Text Mining für historische Dokumente

18:30 Pause

19:30 Abendessen (Juliusspital, Würzburg) (Lage)

Freitag, 28.9.

09:00 Christof Schöch und Katrin Betz (Universität Würzburg), TextGrids Digitale Bibliothek: Erstellung und Nutzung einer TEI-basierten Textsammlung

09:45 Marc W. Küster (FH Worms), XML-Print: Demonstration eines ergonomischen Satzsystems für komplexe Textstrukturen

10:30 Kaffeepause

11:00 (Uni Würzburg), Corpus monodicum

11:45 Frank Steinicke (Universität Würzburg), Herausforderungen der Medieninformatik im Zeitalter der Cybergesellschaft 3.0

12:30 Mittagessen (Hubland-Mensa)

Programm und Infos unter:

http://www.germanistik.uni-wuerzburg.de/lehrstuehle/computerphilologie/aktuelles/events/philtag20100/

Anmeldung bis 15.9.2012 an:

armin.volkmann[at]uni-wuerzburg.de

Quelle: http://dhd-blog.org/?p=642

Weiterlesen

Die leidige Verweigerung der Gleichzeitigkeit

HSOZKULT weitet den Blick. Beim Sortieren der Botschaften, die einem täglich in den Email-Account flattern, sortiert man zwar schnell zwischen relevant oder nicht relevant für die eigene Forschung. Manchmal ergibt sich jedoch eine produktive Irritation aus den entfernteren Bereichen der Geschichtswissenschaft. Leider gibt es auch weniger produktive Irritationen, wie den Bericht zu einer Tagung des Erlanger Forschungsprojekts “Gotische Kriegergruppen im spätrömischen Reich” mit dem Titel “Mobile Kriegergruppen in Europa und Afrika. Transkulturelle Perspektiven”.

Belisar und die Goten (1830), aus: Wikimedia Commons.

Als Ziel der Tagung geben die Veranstalter an:

“Der Workshop bringt Phänomene zusammen, die sonst getrennt betrachtet werden: Kriegergruppen im spätantiken Mittelmeerraum sowie neuzeitliche Kriegsherren und ihre Gefolgschaften in Afrika. [...] Der Workshop untersucht sowohl die Gemeinsamkeiten mobiler Kriegergruppen im Europa der Spätantike und im (vor-)modernen Afrika als auch phänomenologisch ähnliche Entwicklungen in unterschiedlichen Kulturräumen und zu verschiedenen Zeiten. Die sich aus dem komparativ angelegten Programm ergebenden transkulturellen Perspektiven sollen der Schärfung des methodischen Zugriffs in den beteiligten Disziplinen dienen. Hinter der Auswahl der Einzelthemen steht der Versuch, eine Zusammenstellung anschaulicher Beispiele für die Bedeutung von Mobilität für den Erfolg im fortwährenden Daseinskampf der Kriegergruppen zu geben.”

Verwunderlich an diesem Programm ist vor allem die, wahrscheinlich unbewußte, Perpeturierung kolonialer Perspektiven und Narrative. Seit dem späten 19. Jahrhundert durchzieht die Erzählung vom zivilisatorischen Entwicklungsvorsprung Europas insbesondere gegenüber afrikanischen Bevölkerungen die kolonialen Diskurse. Dies produzierte zum einen die Idee der Geschichtslosigkeit Afrikas und zum anderen die Idee, afrikanische Gesellschaften mit den “Barbaren”, wie sie von den römisch-antiken Autoren beschrieben wurden, zu vergleichen. Der Ethnologe Johannes Fabian hat diese diskursive Praxis als “denial of coevalness” bezeichnet. Ergebnis der “Verweigerung der Gleichzeitigkeit” war die radikale Alterisierung und letztendlich die Legitimation kolonialer Unterwerfung afrikanischer Bevölkerungen.

Das diese Vergleiche nun erneut angestellt werden, lässt mich gelinde gesagt staunen. Wenn man schon diese radikale Enthistorisierung von “Gewaltgemeinschaften” vornimmt – warum (1) nimmt man nicht europäische Gewaltgemeinschaften der Neuzeit in den Vergleich mit hinein. Das 20. Jahrhundert böte genügend Beispiele – der Verweis auf Timothy Snyders “Bloodlands” dürfte hier wohl genügen. Warum (2) untersucht man nicht die Interaktion von Europäern und Afrikanern, die in zahlreichen Kolonialkriegen transkulturelle Gewaltgemeinschaften bildeten, etwa während des Maji-Maji-Krieges in “Deutsch-Ostafrika”? Warum nicht rezente euro-amerikanische Söldner-Armeen, wie etwa die “Sicherheitsdienstleister” von Blackwater? Warum nicht die Zusammenhänge von afrikanischen Gewaltgemeinschaften und globalen Wirtschaftsbeziehungen (Stichwort: Sklavenhandel im 19. Jahrhundert oder Rohstoffmärket für “blutige Diamanten”, Erdöl oder seltene Erden im 20. Jahrhundert)?

Die Organisatoren argumentieren in dem zitierten Statement insbesondere mit der Mobilität der untersuchten Kriegergruppen.  M. E. ist es jedoch fraglich, ob es genügt, ein Charakteristikum herauszugreifen, um diese Art des Vergleichs zu rechtfertigen. Wenigstens müssten die Traditionslinien klar und kritisch reflektiert werden, in denen diese Herangehensweise steht, bevor man sie reaktiviert. Der Tagungsbericht und die Tagungsankündigung geben leider keinen Hinweis darauf, dass dies geschehen ist. Aber vielleicht erschließt ja ein zukünftiger Sammelband das Feld auf andere Weise.

Zitierte Literatur:

Johannes Fabian, Time and the Other. How Anthropology makes its Object, New York 2002 [1983].


Einsortiert unter:Geschichte, Geschichtspolitik, Globalgeschichte, Kolonialismus, Meinung, Veranstaltung

Quelle: https://kritischegeschichte.wordpress.com/2012/06/28/die-leidige-verweigerung-der-gleichzeitigkeit/

Weiterlesen

Erinnerungskultur 2.0 · Das Projekt “digitalt fortalt” in Norwegen


Serverrack Flickr, CC-BY-NC-SA mayhem

Im Netz machen sich neue digitale Erinnerungskulturen bemerkbar. So entstehen auch in Nordeuropa in letzter Zeit zunehmend WWW-Seiten, die sich die Web 2.0-Idee zunutze machen, um historische Erinnerung um persönliche Perspektiven anzureichern. Die Nutzerin, der Nutzer soll dezidiert die eigenen subjektiven Erfahrungen, die persönlich gefärbten Narrative mit einbringen. Ein Beispiel ist das Projekt digitalt fortalt [digital erzählt] in Norwegen.

Der Ursprung dieses Projektes liegt in dem so genannten Kulturminneåret [Jahr des kulturellen Erbes], das 2009 in Norwegen stattfand. Die norwegische Regierung wollte der Arbeit zur Bewahrung des nationalen kulturellen Erbes höhere Aufmerksamkeit zukommen lassen und lancierte daher dieses Kulturerbejahr. Im Mittelpunkt sollten vor allem alltagskulturelle Aspekte stehen, um so ein breiteres Verständnis von Kultur zu etablieren, das sich nicht auf eine elitäre Interpretation im Sinne von Hochkultur kapriziert. Zudem sollte so eine breitere Basis für die Mitwirkung von lokalen Akteuren und der Bevölkerung geschaffen werden. Ein Ziel war es nämlich, Menschen, die sich nicht professionell mit diesen Themen Erbe beschäftigen, neue Wege zur Partizipation an der Pflege des kulturellen Erbes zu eröffnen. So sollten bewusst auch einfach gehaltene Dokumentationen möglich werden, Initiativen für lokalhistorische Wikis ergriffen und dabei auf die längerfristige Etablierung entsprechender Webpräsenzen gesetzt. Eines der Ergebnisse dieses Prozesses ist die Seite digitalt fortalt, die sich mit einem kurzen Video (kurioserweise auf Englisch!) vorstellt:

Sehr interessant sind hier das Wortspiel im Englischen mit history und das Spiel mit den Klischees über professionelle Historiker. In den Selbstpositionierungen tauchen Begriffe wie fortelle, fortelling [erzählen, Erzählung] usw. häufig auf und verweisen somit auf einen stärker narrativen Zugriff auf Geschichte und kulturelle Erinnerung. Das weckt Assoziationen an die lange Tradition mündlicher Überlieferung, an die Zeit, als es noch stärker um Geschichten ging und man noch nicht unbedingt von Geschichte sprach. Entsteht hier also eine neue Form mündlicher oder verschriftlicht-mündlicher Geschichtsüberlieferung? Es geht allerdings nicht darum, ausschließlich nicht-professionelle Akteure einzubinden, sondern um ein Treffen aller “auf Augenhöhe”. Jede/r kann mitmachen, um seine digitale Erzählung beizutragen und unter den aktiven Nutzern sind etablierte Institutionen, die seit jeher in der Kulturvermittlung präsent sind, eben auch besonders produktiv.

Die medialen Formen, in denen die digitalen Kulturerbe-Erzählungen hochgeladen werden können, sind vielfältig und nutzen die multimedialen Möglichkeiten des WWW voll aus. Manches Video ist eher eine kommentierte Dia-Show, es gibt aber auch professionell anmutende Filme, Fotos, Audio-Dateien, alles Mögliche. Der Begriff des kulturellen Erbes ist hier eben auch recht breit angelegt, und lässt materielle Traditionen ebenso zu wie immaterielle Erinnerungsorte, z.B. Traditionen, selbst Erlebtes, kulturelle Praktiken etc.

User-generated content haben wir hier also, wobei eben wie gesagt die User sehr unterschiedlichen Hintergrund haben können: Der Fundus der norwegischen Nationalbibliothek ist nun mal ein anderer als der des “normalen Bürgers”. Was digitalt fortalt in kommunikativer Hinsicht zu einem echten Web 2.0-Projekt macht, ist die Einbindung von Kommentaren und Beliebtheitsstatistiken. Als Gast oder auch als User kann man Kommentare und Bewertungen in Form von Sternen vergeben. Auf der Startseite kann man dann die diesem Bewertungssystem gemäß populärsten Beiträge aufrufen,  aber auch eine Liste der am häufigsten aufgerufenen Erzählungen und der zuletzt kommentierten. Eine interaktive Karte erlaubt auch die geographische Navigation zu den Einzelthemen. Den individuellen Beiträgen können weiterführende Links und auch Quellenmaterial zugeordnet werden, sie können kategorisiert und verschlagwortet werden.  Insgesamt sind bisher 2074 Erzählungen hochgeladen worden.

Womit haben wir es hier nun zu tun? Mir scheint, dass wir anhand dieses Beispiels eine Wiederbelebung subjektiver Erinnerungen, persönlicher historischer Narrative als legitimen Zugang zu historischen Themen verzeichnen können. Die bestehenden Schranken – die Inhalte produzierenden professionellen Historiker hier, das konsumierende Publikum dort – fallen oder werden zumindest durchlässiger. Aber besteht durch die Engführung auf teilweise sehr persönliche Erfahrungen nicht die Gefahr, dass historische Prozesse hier banalisiert und in Einzelsplitter atomisiert werden? Da lugt doch möglicherweise neuer Positivismus um die Ecke…können Historikerinnen und Historiker sich für diese “Froschperspektive” öffnen, nützt sie uns oder ist sie eher ein internetkulturelles Phänomen? Entstehen mit der digitalen Vermittlung des kulturellen Erbes nicht neue Chancen, mehr Menschen für Geschichte zu begeistern? Ist das nur eine “verdaubar” gemachte Version von Geschichte, die man für die “eigentliche Geschichtsforschung” getrost ignorieren kann?

Ich denke, man sollte diese Web 2.0-basierte Form von Erinnerungskultur ernstnehmen und z.B. die Möglichkeiten sehen, die sich für die Erforschung von historischer Erinnerung geben. Hier entsteht ein ganz neuer Fundus an Quellenmaterial, indem wir über die persönlichen Zugriffe zu historischen Inhalten möglicherweise auch die Rezeption historischer Ereignisse analysieren könnten. Zudem sollten Projekte wie dieses als Öffnung von Diskursen über Geschichte und kulturelle Erinnerung gedeutet werden. Das Web 2.0 hat ganz klar das Potenzial zur – etwas pathetisch gesagt – Demokratisierung von historischen Diskursen. Natürlich ist das etwas Anderes als eine geschichtswissenschaftlich fundierte Erforschung des jeweiligen Gegenstandes. Aber dass sich hier im Netz neue Geschichtskulturen etablieren – dafür ist dies nur ein Beispiel von vielen.

Von daher gilt es, mit den Worten der Projektbetreiber zu fragen: “Har du noe å fortelle – hast Du etwas zu erzählen?”

Quelle: http://nordichistoryblog.hypotheses.org/401

Weiterlesen