Die gegenwärtige Aktivität deutscher Archive im virtuellen Raum umfasst im Wesentlichen zwei Bereiche: 1) Den Unterhalt einer Homepage, die den Nutzer mit grundlegenden Informationen zum Archiv versorgt (Ansprechpartner, Öffnungszeiten, Nutzungsmöglichkeiten), 2) Die Korrespondenz mit den Nutzern über den Mailkontakt, vorrangig zur Beantwortung von Anfragen. Diese Internet-Auftritte sind bisweilen umfangreicher mit aktuellen Projekten und Publikationen, ausgewählten Fachinformationen, Quellenpräsentationen (bspw. „Archivalie des Monats“) o.ä. versehen, dienen (zu) häufig allerdings als bloße virtuelle Visitenkarte mit geringer Aussagekraft. Bei diesen Internetauftritten handelt es sich letztendlich um eine praktische, gleichwohl jedoch banale Übersetzung traditioneller analoger archivischer Arbeitsprozesse in den virtuellen Raum (Anfragenbeantwortung, Beständeübersichten, Informationsbroschüren). Der erhebliche Mehrwert, den das Internet den Archiven bietet, ist in Deutschland bislang allenfalls ansatzweise ausgelotet worden.
Gleichwohl versucht eine zunehmende Zahl von deutschen Archiven, die neuen Medien zu nutzen, um ihre Arbeit effektiver, kundenfreundlicher oder schlicht zeitgemäßer zu gestalten. Diese Versuche können eine verstärkte Präsentation von Archivgut und Beständeübersichten im Internet zum Ziel haben (hier engagiert sich auch die Deutsche Forschungsgemeinschaft mit ihren Fördermöglichkeiten stark), beziehen sich vermehrt aber auch auf die Nutzung von sozialen Medien (Web 2.0). In diesen Bereich gehört beispielsweise das Projekt des Landesarchivs Nordrhein-Westfalen, seine Aktivitäten im sozialen Netzwerk Facebook zu präsentieren und somit eine breitere Nutzerschicht zu erreichen und neue Formen der Nutzerkommunikation auszutesten. Hierfür wurden (und werden) allen interessierten Mitarbeiterinnen und Mitarbeitern die damit verbundenen Ideen und Ziele nähergebracht, um die Akzeptanz des Projekts zu steigern. Im Rahmen dieser internen Projektvorstellung entstand auch ein Überblick über die verschiedenen Elemente eines sogenannten Archivs 2.0, die sicherlich eine gewisse Allgemeingültigkeit beanspruchen können und deshalb auch hier einer breiteren Öffentlichkeit präsentiert werden sollen.
Den beiden Elementen „Homepage“ und „Mailkorrespondenz“ werden im Archiv 2.0 eine ganze Reihe von weiteren Bausteinen zur Seite gestellt, die eine deutlich umfangreichere Präsenz im virtuellen Raum ermöglichen. Die Metapher des Bausteins versinnbildlicht dabei, dass ein Archiv 2.0 unterschiedlich komplex aufgebaut werden kann und die einzelnen Bausteine modular einsetzbar sind. Ein Archiv 2.0 ist keine Konstruktion, die aus stets den gleichen Bausteinen bestehen muss, vielmehr können die unterschiedlichen Bausteine in unterschiedlichen Anordnungen miteinander kombiniert werden. Die Verwendung weniger Bausteine ergibt ein schlichtes Bauwerk, die Verwendung vieler Bausteine hingegen ein ansehnliches Gebäude mit ausdifferenzierten Bereichen. Ein Archiv 2.0 kann so etwas wie ein Wohnzimmer mit Fernsehsessel sein oder ein öffentliches Forum mit Galerien und Kinosälen, Gesprächsecken und Konferenzräumen, Arbeitszimmern und Lesesälen.
Die Bausteine dazu stammen aus einer von drei Schubladen: Manche Bausteine ermöglichen die Präsentation von Informationen, sei es zu Archivalien, zu Beständen, zur Nutzung o.ä.; sie sorgen also für die Bereitstellung von Inhalten (neudeutsch: Content). Die klassische Homepage gehört hierzu, liefert sie doch grundlegende Basisinformationen: Was macht das Archiv? Wie kann ich das Archiv nutzen? Welche Dokumente kann ich im Archiv finden? Gerade letztere Frage ist für den Nutzer von zentralem Interesse, weil virtuelle Beständeübersicht und Findbücher die entscheidenden Hinweise zur Nutzung des Archivs bieten. Daneben ist die Möglichkeit zur Bereitstellung von Digitalisaten ein weiterer wichtiger Baustein in der Inhalts-Schublade. Gerade größere Archive verbinden diesen Baustein mit der Homepage bzw. den Online-Findbüchern, doch auch die Nutzung von Sharing-Plattformen ist eine bequeme und einfache Möglichkeit, die insbesondere für kleinere Archive attraktiv sein kann. Kostenlose Anbieter mit millionenstarker Nutzerklientel gibt es für viele Bereiche, etwa für Bilder (Flickr etc.), Videos (Youtube etc.), Präsentationen oder Texte (Slideshare etc.). Manche Plattformen haben mittlerweile Bereiche, die bereits auf professionelle Kulturinstitutionen zugeschnitten sind (z.B. Flickr Commons). Basisinformationen und digitale/digitalisierte Inhalte haben somit ihren Baustein, für umfangreichere Hintergrundinformationen bietet sich ein Blog als empfehlenswerter Baustein an. In einem Blog können detailliertere Informationen zu spezifischen Themen behandelt werden: Wie funktioniert die gegenwärtige Überlieferungsbildung? Wie geht das Archiv mit aktuellen Herausforderungen (bspw. digitale Archivierung) um? Welche Bestände bieten Material für momentane historische Diskussionen/Jubiläen/Kontroversen? Blogbeiträge können Einsicht in aktuelle Arbeitsprozesse liefern und Arbeitsweisen und Projekte transparent machen. Als Teil der archivfachlichen Diskussion können sie zur Information der Fachwelt beitragen und idealerweise helfen, Herausforderungen und Probleme miteinander zu besprechen oder gar zu bewältigen. Helfen Blogs somit, bestimmte Themen intensiver darzustellen, so bietet schließlich der vierte Baustein der Inhalts-Schublade die Möglichkeit zur Präsentation von aktuellen Kurzinformationen, nämlich durch die Nutzung von Micro-Blogging-Funktionen. Solche bieten etwa Twitter, ebenso aber auch die sozialen Netzwerke wie Facebook oder Google+. Aktuelles, Interessantes, Nützliches oder Wissenswertes kann mit kurzem Text, Bild oder Link direkt an interessierte Nutzer übermittelt werden. Der zusätzliche Mehrwert im Sinne einer viralen Weiterverbreitung kommt hier noch hinzu, fällt aber in den Bereich der Kommunikation und gehört damit bereits zur nächsten Schublade.
Die Bausteine dieser zweiten Schublade erlauben allesamt den Aufbau von Kommunikationskanälen zur Verbreitung von Informationen. Klassisch läuft dieser Prozess über die Homepage eines Archivs, was aber einige strukturelle Schwächen mit sich bringt. Informationen, die auf die Homepage gestellt werden, haben keinen unmittelbaren Bezug zu einem Nutzer. Sie werden dort vorgehalten, bis sie eingesehen werden – oder auch nicht. Homepages basieren darauf, dass sie regelmäßig von Nutzern besucht werden, die sich auf ihnen über die angebotenen Informationen kundig machen. Die Bausteine der Kommunikations-Schublade drehen dieses Verhältnis um, in dem nicht mehr der Interessent nach Informationen suchen muss, sondern die Informationen direkt dem Interessenten zugeleitet werden. Ein simpler Baustein in diesem Prozess ist ein RSS-Feed: Die Homepage erhält eine Funktion, mit der alle Veränderungen, die an ihr vorgenommen werden (neue Inhalte, neue Meldungen), dem interessierten Nutzer zufließen. Ein Blick auf den Feed-Reader liefert die neuen Informationen, womit das Durchklicken zahlreicher Homepages auf der Suche nach Neuigkeiten entfällt. Ähnlich funktionieren soziale Netzwerke als Baustein des Archivs 2.0: Auch hier werden die vom Archiv stammenden Nachrichten direkt dem interessierten Nutzer zugeleitet; er bekommt diese Nachrichten auf seinem persönlichen Profil zu lesen, ohne dass er aktiv nach Neuigkeiten suchen muss. Sowohl Postings innerhalb des sozialen Netzwerks erreichen den Nutzer auf diese Weise als auch dort platzierte Homepage-Aktualisierungen, Blog-Beiträge u.ä. Ergänzt wird diese Funktion durch die Vernetzung innerhalb der sozialen Netzwerke, wodurch die eigenen archivischen Nachrichten von anderen Nutzern weiterverbreitet werden können oder das archivische Profil als Pinnwand für nutzergenerierte Informationen dienen kann. Ein dritter Baustein, um dem Nutzer archivische Inhalte zukommen zu lassen, ist schließlich der Kurznachrichtendienst Twitter. Auch hier können Informationen direkt dem interessierten Nutzer zugeleitet werden und auch hier ist die Weiterverbreitung dieser Informationen durch die Nutzer intendiert. Bewegen sich Postings und Tweets eher im Bereich knapper und öffentlicher Informationsvermittlung, so bleibt – auch das gilt es zu betonen – für die klassische Nutzeranfrage mit ihrem spezifischem individuellem Informationsinteresse nach wie vor die Mailkorrespondenz der sinnvollste Baustein (auch wenn eine Anfragenbeantwortung über andere Kommunikationskanäle durchaus denkbar wäre).
Drittens schließlich bietet die Schublade Interaktivität dem Archiv 2.0 eine ganze Reihe von Bausteinen, um mit den Nutzern in einen gegenseitigen Austauschprozess zu treten. Dabei geht es – in ansteigender Komplexität – um die Diskussion archivischer Themen, die Sammlung von archivrelevantem Wissen und die Einbeziehung von Nutzern in archivische Aufgaben. Mit den schon erwähnten Bausteinen Blogs, Twitter und soziale Netzwerke lässt sich bereits in eine Kommunikation mit den Nutzern eintreten: ganz niederschwellig über das Liken und Sharen von präsentierten Inhalten, darüber hinaus durch die Möglichkeit zum Kommentieren von Beiträgen und Postings. Egal ob Blogs, Facebook oder Twitter: eine Kommentarfunktion ist immer vorhanden und sollte genutzt werden, um auch mit den Nutzern zu sprechen. Ein Feedback von Nutzerseite ist mindestens zu erreichen, das über den konkreten Anlass hinaus auch der gegenseitigen Bindung von Archiv und Nutzern dient. Im besten Fall lassen sich gar archivische Themen diskutieren und erfolgversprechende Diskussionsergebnisse zur Verbesserung der archivischen Arbeit einsetzen. Die Arbeit des Archivs kann durch die Nutzer interessiert und kommentierend begleitet werden. Über diese bloße diskursive Beteiligung der Nutzer hinaus gehen alle weiteren Bausteine der Interaktivitäts-Schublade, zielen sie doch auf die aktive Einbindung der Nutzer in archivische Arbeitsprozesse, auf das sogenannte Crowdsourcing. Nutzer konsumieren nicht lediglich die Angebote des Archivs, sondern partizipieren an der Erstellung dieser Angebote, etwa durch die Erstellung von themenbezogenen Inventaren, die (unterstützende) Erschließung von Archivalien und Beständen, die Transkription und Verschlagwortung von Archivalien u.v.a.m. Der Fantasie sind hier kaum Grenzen gesetzt. Instrumente für diese Arbeit wären beispielsweise Wikis, die ein unkompliziertes kollaboratives Sammeln von Wissen erlauben. So könnte ein Archiv ein Benutzungs-Wiki einrichten, in dem zu bestimmten Archivalien, Beständen oder Themen relevante Informationen (wie Überlieferungsspezifika, Gegen-/Parallelüberlieferung, Transkriptionen) durch die Nutzer gesammelt werden können. Andere Instrumente eines Crowdsourcing sind im nicht-archivischen Bereich bereits online zu erkennen: So ermöglicht etwa Flickr das eigenständige Taggen/Verschlagworten (und Kommentieren) von Bildern oder Wikisource das kollaborative Transkribieren von Quellen. Bei beiden Anbietern ist zu erahnen, welches immense Potential für die archivische Arbeit in ihren Funktionalitäten steckt. Archive könnten an den Möglichkeiten dieser Plattformen partizipieren und textliches oder visuelles Archivgut bereitstellen. Insbesondere aber stellen diese Funktionalitäten nachahmenswerte Vorbilder dar, die Archive gegebenenfalls in eigenständigen Lösungen für ihre spezifischen Belange adaptieren könnten. Unter den präsentierten Bausteinen wären solche kollaborativen Funktionalitäten sicherlich das komplizierteste Element, sind aber durchaus von manchen Archiven – mit beeindruckenden Ergebnissen – bereits eingesetzt worden (vgl. das „Citizen Archivist Dashboard“ des us-amerikanischen National Archives oder das Projekt „Vele Handen“ des niederländischen Nationaal Archiefs). Es dürfte nicht zu hochgegriffen sein, zu sagen, dass diese praktischen Formen der Interaktivität die archivische Arbeit hinsichtlich öffentlicher Wahrnehmung, effizientem Ressourceneinsatz und der Vernetzung von Wissen maßgeblich verändern bzw. verbessern können.
Dieser Veränderungsprozess ist vorrangig ein mentaler: „It’s not about technology, it‘s about attitude“. Die Nutzung und Verknüpfung der genannten Bausteine eines Archivs 2.0 wird den bisherigen Umgang von Archiven und Nutzern verändern. Archive werden nach wie vor Bereitstellung und Überlieferungsbildung als originäre Kernaufgaben erfüllen, doch die Art und Weise dieser Aufgabenerfüllung wird sich wandeln. Auch wenn eine Komplettdigitalisierung wohl auf absehbare Zeit ein unerreichbarer Traum bleiben wird, so wird der virtuelle Raum doch sehr wohl ein wichtiger Bereich archivischer Arbeit sein. Dort können Archive interessierte Nutzergemeinschaften um sich herum aufbauen, die direkt mit Informationen und Inhalten versorgt werden können und sich über archivische Belange austauschen können. Aus diesen Nutzergemeinschaften können Ressourcen und Wissen generiert werden, um Archivalien und Bestände zu bearbeiten, zu erschließen, zu diskutieren und zu verknüpfen.
Abschließend bleibt die Frage: Wo aber anfangen? Den Grundstein für ein Archiv 2.0 muss jedes Archiv selbst bestimmen, falsch machen kann man wenig („Act now. Think later. Nobody will die“). Bei der Verknüpfung der Bausteine zeigt sich jedoch, dass ein Baustein tatsächlich alle drei Bereiche (Inhalt, Interaktivität, Kommunikation) abdecken kann: Facebook. Diese Tatsache dürfte (neben der Einrichtung und Unterhaltung ohne größeren Ressourcenaufwand) der Grund sein, dass Facebook gegenwärtig ein steigendes Interesse der deutschen Archive entgegengebracht wird. Gepostete Inhalte erreichen Interessenten unmittelbar, Feedback dieser Interessenten ist ebenso unmittelbar erkennbar (liken, sharen) und Kommunikation über die geposteten Inhalte ist problemlos möglich. Die Präsenz in dem sozialen Netzwerk ist somit ein guter Ausgangspunkt, um den Bau eines Archivs 2.0 zu beginnen. Damit ist jedoch nur das Fundament gelegt. Andere Bausteine sind nötig, um ein Archiv 2.0 noch mit Wänden, Dach und Inneneinrichtung zu versehen.
(Bastian Gillner)
Über Sprache und Tierkommunikation
Kürzlich erschien in einer populären Wissenschaftszeitschrift ein Artikel1 zur “Gabe der Sprache”, in dem auch thematisiert wurde, ob und in wie weit sich menschliche Sprache von so genannten “Tiersprachen” unterscheidet. In der Klärung dieser Frage blieb der Artikel allerdings sehr vage, was mich ein wenig ärgerte und letztlich dazu veranlasste, selbst etwas darüber zu schreiben.
Gradueller oder fundamentaler Unterschied?
Die Beschäftigung mit dem Thema blickt auf eine lange Tradition zurück: Schon Aristoteles und Epikur stellten Mutmaßungen über den Status der Verständigung von Tieren untereinander an. Für René Descartes, der in seinem Dualismus streng zwischen Geist und Materie trennte, ist die Sprache Ausdruck des Verstandes, also auf der geistigen Seite der Welt verortet, während Tiere als seelenlose Automaten keine solche haben können. Einen derart fundamentalen Unterschied zwischen menschlicher Sprache und Tierkommunikation nimmt im 20. Jahrhundert auch der Linguist Noam Chomsky an, der Sprache als spezifisch menschliches Organ ansieht, das zwar genetisch determiniert ist, in der Evolution aber lediglich den Menschen zufiel.
Die Gegenposition wird von den Anhängern der Kontinuitiätstheorie vertreten, die von einem Stufenmodell tierischer Kommunikation ausgehen, in dem die menschliche Sprache die höchste bekannte Stufe einnimmt. Einer ihrer Vertreter ist Charles Darwin, der viele Parallelen in der nichtsprachlichen Kommunikation von Menschen und höheren Tierarten ausmacht und die Tatsache der Entwicklung einer komplizierten Lautsprache vor allem auf die Größe und Leistungsfähigkeit des menschlichen Gehirns zurückführt. Die Kontinuitätstheorie hat auch in unserem Jahrhundert noch Anhänger, welche sich vor allem auf Studien zur Kommunikation von Tieren berufen.
Natürliches Verhalten oder gezieltes Training?
Kommunikation mit Artgenossen ist für viele Tierarten überlebenswichtig, etwa wenn es um die Suche nach Nahrung oder um die Warnung vor Feinden geht. Die komplexesten bekannten Beispiele sind dabei sicherlich der Schwänzeltanz von Honigbienen und das Alarmrufsystem von Meerkatzen.
Neben der Beobachtung dieser natürlichen Verhaltensweisen wird oft auch versucht, der Sprachfähigkeit von Tieren über speziell entwickelte Versuchsanordnungen auf die Spur zu kommen. Dazu wird entweder das Vorhandensein von für die menschliche Sprache als grundlegend angenommene Fähigkeiten überprüft (z.B. Kombinationsfähigkeit, Verarbeitung rekursiver Strukturen; darauf gehe ich unten noch genauer ein), oder es wird sogar versucht, mit Tieren über eigens geschaffene Sprachkonstrukte zu kommunizieren. Hinsichtlich solcher sprachbasierter Mensch-Tier-Kommunikation wurden die besten Ergebnissen mit Primaten erzielt. Da Affen nicht über einen Sprechapparat verfügen, der mit dem menschlichen vergleichbar ist, konnte dabei nicht auf verbale Kommunikation zurückgegriffen werden. Stattdessen wurden Gesten oder Symbolbilder entwickelt und den Primaten beigebracht. Diese begriffen mal mehr, mal weniger schnell, dass bestimmte Symbole bzw. Gesten für bestimmte Konzepte standen und sich daraus produktiv eigenständige Kombinationen bilden ließen. So antwortete die trainierte Schimpansendame Washoe etwa, als sie aufgefordert wurde, sich zu Radieschen zu äußern (für die sie keine eigene Geste gelernt hatte) mit einer Kombination der Gesten für “Weinen”, “wehtun” und “Frucht”. Sonderlich geschmeckt hatten sie ihr also nicht.
Inhaltliche oder formale Unterschiede?
Die Kluft zwischen Mensch- und Tiersprachen scheint also gar nicht so weit und tief zu sein, wie manche bis zur Durchführung der Primaten-Experimente annahmen. Zumindest der produktive Einsatz von Sprachsymbolen scheint auch Tieren gelingen zu können. Ohnehin rütteln neuere Forschungsergebnisse an so gut wie jedem kategoriellen Unterschied, der zwischen der menschlichen Sprache und den Kommunikationssystemen von Tieren postuliert wurde.
Der Linguist Charles Hockett erarbeitete eine Aufstellung von 13 Merkmalen, die lautsprachliche Kommunikation auszeichnen. Hockett selbst ist Anhänger der Kontinuitätshypothese, geht also davon aus, dass kein kategorieller Unterschied zwischen der Kommunikation von Tieren und menschlicher Sprache existiert. So finden sich dann auch viele der von Hockett angeführten Merkmale bei verschiedenen Ausprägungen der Tierkommunikation, etwa der Transport von Bedeutung und – wie oben gesehen – die Produktivität.2
Was bleibt also noch an spezifischen Merkmalen für die menschliche Sprache übrig? Lassen sich vielleicht auf inhaltlicher Seite Unterschiede ausmachen, also bei dem, was Anlass der Verständigung ist? Oft heißt es, animale Kommunikation sei an den Moment gebunden, Tiere verständigten sich nicht über Zukünftiges oder Vergangenes. Sie seien auch nicht fähig zur Metasprache, also der Verständigung über die Sprache selbst. Ich halte diese inhaltlich motivierten Unterschiede für schwer überprüfbar, so lange wir z.B. Vogel- und Walgesänge nicht wirklich verstehen.
Bleiben die Unterschiede, welche die Form / die Organisiertheit von Sprache betreffen. Nach Chomsky ist ein Wesensmerkmal menschlicher Sprachen, dass sie rekursive Strukturen enthalten. Diese sorgen dafür, dass man mit einem begrenzten Inventar sprachlicher Einheiten und Verknüpfungsregeln prinzipiell unendlich viele Sätze erzeugen kann. Solche rekursiven Strukturen lassen sich z.B. bei sogenannten Schachtelsätzen, also der Einbettung immer neuer Relativsätze, beobachten:
Der Löwe, der den Kojoten, der das Pferd, das graste, fraß, jagte, [hat schöne Augen].
Ungeachtet dessen, dass Sätze dieser Art schnell inakzeptabel werden, sind ihre Bildungen prinzipiell möglich. Sie gehorchen dem Schema anbn, das heißt für jedes a (hier: Subjekt) muss genau ein b (hier: Verb) folgen. Und zwar nicht umgehend (das entspräche dem Muster (ab)n und wäre ohne rekursive Bildungsregeln zu erfassen), sondern erst, nachdem alle a aufgezählt wurden. Um einen solchen Satz zu prozessieren ist ein sogenannter Kellerspeicher notwendig, mit dem protokolliert werden kann, wie viele a denn nun auftraten. Gemäß der Chomsky-Hierarchie formaler Sprachen ist ein solches Kommunikationssystem mindestens auf der zweiten, der kontextfreien Stufe anzusiedeln, deren Beherrschung Chomsky eben nur den Menschen zutraut. Tatsächlich schienen Studien an Liszt-Äffchen zu bestätigen, dass diese rekursive Strukturen nicht erkennen konnten. Spätere Forschungen ergaben allerdings, dass Stare damit offensichtlich kein Problem hatten. Damit bleibt eigentlich nur noch ein Strukturmerkmal übrig, das der menschlichen Lautsprache vorbehalten ist:
Das Prinzip der doppelten Artikulation
Das Prinzip der doppelten Artikulation oder der zweifachen Gliederung, wie es vielleicht weniger irreführend bezeichnet werden könnte, geht auf den französischen Linguisten André Martinet zurück und wird für Zeichensysteme verwendet, die mehrere Gliederungsebenen aufweisen. So findet sich in allen natürlichen Sprachen eine Ebene, welche die grundlegenden sprachlichen Einheiten enthält (Phoneme oder in der Schriftsprache Grapheme), aus denen alle anderen Einheiten zusammengesetzt sind. Diese Einheiten tragen selbst keine Bedeutung, können aber sehr wohl Bedeutung unterscheiden. Aus der Kombination dieser Grundbausteine resultieren größere Einheiten (die kleinsten davon sind Morpheme, die wiederum zu Wörtern, Phrasen, Sätzen usw. kombiniert werden können), welche dann auch mit Bedeutungen verknüpft sind.
Ein Beispiel: H und F tragen an sich keine Bedeutung, unterscheiden aber auf formaler (nicht inhaltlicher) Ebene Hund von Fund (ich erspare den Lesenden hier die lautsprachliche Transkription). Dadurch, dass es ein Inventar von Einheiten gibt, die nicht an eine Bedeutung gekoppelt sind, aber Bedeutungen unterscheiden und dazu auf vielfache Art kombiniert werden können, ist die menschliche Sprache so extrem produktiv. Zwar war auch die Schimpansin Washoe produktiv – allerdings nur auf einer Ebene: Sie kombinierte bereits bedeutungstragende Einheiten miteinander. Das gleiche gilt auch für die natürlichen tierischen Kommunikationssysteme Bienentanz und Meerkatzenruf: Ein Symbol trägt eine Bedeutung, kann aber mit anderen bedeutungstragenden Symbolen kombiniert werden.
Ist das Prinzip der doppelten Artikulation also die differentia specifica, die menschliche Sprachen von allen anderen Kommunikationssystemen unterscheidet? Das dachte ich zumindest noch bis vor kurzem, fand dann aber diese Studie zu lesenden Pavianen. Offenbar sind die Paviane in der Lage, kleine, an sich nicht bedeutungstragende Einheiten – hier Buchstaben/Grapheme in für sie bedeutungstragende (nämlich Futter versprechende) Wörtern zu identifizieren. Auch wenn die Autoren das nicht thematisieren (ihnen geht es vor allem darum, statistisches Lernen und visuelle Objekterkennung als artübergreifende Fähigkeiten darzustellen), ist die Studie, wenn sie bestätigt wird, ein starker Hinweis darauf, dass nicht nur Menschen doppelt gegliederte Systeme verarbeiten können. Damit wäre auch das letzte der exklusiv der menschlichen Sprach-Kommunikation vorbehaltenen Merkmale gefallen.
————
1 Im “Gehirn und Geist” Sonderheft “Streit ums Gehirn”, erschienen 01/2013, online leider nur für Abonnenten zugänglich. Dafür hat der Spektrum Verlag aber eine große Themenseite für den Komplex Sprache eingerichtet, wo viele der Artikel frei verfügbar sind.
2 Eine Aufstellung der Hockett’schen Merkmale nebst einer übersichtlichen Tabelle findet sich etwa im (von mir immer sehr enthusiastisch empfohlenen) Buch “Die Cambridge Enzyklopädie der Sprache | The Cambrige Encyclopedia of Language” von David Crystal, CC-BY-SA
Die Gefahr hinter dem Rücken der Priester
Priester genießen im Spätmittelalter und in der Frühen Neuzeit eine herausragende religiöse und soziale Stellung. Sie sind (im Katholizismus und der spätmittelalterlichen Kirche) Vermittler zwischen Gott und den Menschen sowie, durch die Ausgabe der Sakramente, Vermittler des ewigen Heils. Sie bilden, im Protestantismus, Pastorendynastien und einen Autoritätspunkt der Dorfgemeinschaft. Ihr Handeln berührt das Heiligste.
Und doch ist die Stellung der Priester prekär, besonders in turbulenten Zeiten wie der frühen Reformation. Pfarrer wurden bis weit ins 16. Jahrhundert hinein oft aus handwerklich-bäuerlichen Schichten rekrutiert und waren in ihrer Lebensweise vom Rest des Dorfes nur zu unterscheiden, wenn sie sakrale Praktiken durchführten. Das ist besonders bei der Eucharistiefeier der Fall, aber auch bei anderen sakramentalen und liturgischen Vorgängen. Während die Priester diese Praktiken ausüben, wenden sie dem gemeinen Volk oft den Rücken zu. Sie widmen sich ganz der religiösen Handlung sowie dem heiligen oder zu heiligenden Objekt. Im Moment des Abwendens gewinnen Priester ihre soziale und sakrale Statur. Die Praktik, der Handelnde und das Objekt müssen von allen Teilnehmer/innen des Kultes als besonders “heilig” anerkannt werden. Denn wenn Kleriker dem Volk den Rücken zuwenden, verlieren sie den Überblick und die Kontrollmöglichkeit über die “untergeordneten” Teilnehmer/innen. Sie sind darauf angewiesen, dass die Religionskultur sich in diesem Augenblick selbst trägt. Andernfalls wären Verwerfungen in der Religionskultur und dem gesellschaftlichen status quo die Folge. Und genau das passiert in der frühen Reformationszeit.
Reale Präsenz Christi? Messe des Hl. Gregor im Beisein der Georgsbruderschaft-Mitglieder. Pieter Jansz Pourbus, 1559. (Martens, Maximilian P. J. (Hg.): Bruges and the Renaissance. Memling to Pourbus, Ausstellungskatalog, Ludion 1998, 204.)
Ausgerechnet im bayerischen Altötting lässt sich das anhand eines Falls aus dem Jahr 1523 gut beobachten. In dem berühmten und viel frequentierten Marienwallfahrtsort hört der Rentmeister von Burghausen während einer Untersuchungsreise von skandalösen Vorkommnissen. Darüber hat er am 20.8.1523 einen kurzen Bericht an Bayernherzog Wilhelm IV. verfasst.1 Während seines Aufenthalts wurde dem Rentmeister in Altötting ein Mann angezeigt. Zwei Taten dieses Mannes, der wie der/die Anzeiger nicht namentlich genannt wird, werden in dem Bericht nach München erwähnt. Erstens habe der Mann öffentlich gegen die Wundertätigkeit Marias gesprochen. Die Gebete und Hilfegesuche nützten nichts, habe er gesagt. Die Brisanz und die sozial-kulturelle Sprengraft hinter diesem Diskurs werden verständlich, wenn man sich die religiöse und auch ökonomische Rolle von Marienpraktiken und -mobilität in Altötting um 1500 vor Augen hält.
Viel schwerer wiegt aber das Handeln des Manns während einer Seelenmesse in der Altöttinger Pfarrkirche. Im Bericht des Rentmeisters heißt es:
“Vener hat ain brister in der pfarkirchen im selambt gesungen. Also er sich vor dem Alltar umbkert unnd fur all glaubig selen gepet, hat diser burger gegen seinen mit burger, einen so neben sein gestannden, gered: Sich an den Narn, was dreibt er fur kleifft [in etwa "dummes Zeug", M.M.]. Es ist pueberey [Betrügerei, M.M.], kumbt den sellen nit zu hilf. Mit den unnd dergestallt worden sich grob gehallten.”2
Der Mann verleiht seiner Kritik, sicher nicht zufällig, während einer Seelenmesse Ausdruck. Seelenmessen waren um 1500 ein inflationärer Bestandteil der Zeit- und Totenkultur, ein Aspekt der religion flamboyante (Jacques Chiffoleau). Durch das Lesen einer oft großen Anzahl von Messen sollte die Zeit der verstorbenen, sündigen Seelen im Fegefeuer verkürzt werden. Die Messpraktik bildete also auch eine Art zeitlich-vertikale Kommunikations- und Affektlinie zwischen Lebenden und Toten. Diese Totenkultur lehnen Evangelische seit den 1520er Jahren zunehmend ab. Reformatorische Theologen sehen den Weg zum Heil in Glaube und Gnade, der Mensch ist dabei machtlos. Sie und immer mehr ihrer Anhänger verwerfen das Fegefeuer. In diesem Umfeld entstehen distinktiv evangelische Totenkulturen mit anderen Wissensordnungen und Praktiken, die klare Unterschiede zwischen den späteren Konfessionen entwickeln sollten.3Die ablehnende Sinnzuschreibung zur alten, nun altgläubigen Seelenmesse und der Kultur, in der diese praktiziert wird und die diese repräsentiert, drückt der Anonymus in Altötting aus durch Spott (der Pfarrer als Narr und Betrüger) und eine evangelische Deutung (Messen nützen den Seelen nicht).
Wichtig ist der exakte Augenblick, zu dem der Mann diese Aspekte evangelischer Religionskultur in Worte fasst. Es ist der Moment, in dem sich der Priester zum Altar hin umdreht, um für alle gläubigen Seelen (auch die der Anwesenden) zu bitten. Er steht mit dem Rücken zum Volk, wie üblich während der Messliturgie. Nun sollte der oben skizzierte, sozial-religiöse Sakralitäts-Automatismus Umdrehen-Praktik-Objekt greifen. Doch der funktionniert eben nur in einer weitestgehend homogenen Religionskultur. Darin müssten die Messbesucher/innen zumindest äußerlich den Praktiken, Objekten und der Rolle des handelnden Priesters die gleiche Deutung und die gleiche Wirkung zuschreiben. Das Kultursystem müsste so internalisiert sein, dass es sich selbst trägt. Da schert der Anonymus in Altötting aus. Er greift die Praktik, den Zelebranden und die hinter diesen stehende, theologisch-kulturelle Wissensordnung an. Dabei verspottet er zudem die Person des “närrischen” Priesters. Der sakrale Zusammenhang wankt oder gerät in Gefahr – leider kennen wir die Reaktionen der übrigen Messbesucher nicht. Der Mann repräsentiert in dem für die altgläubig-spätmittelalterliche Religionskultur entscheidenden Moment seine in dieser Situation distinktive religiöse Zugehörigkeit und Wissenskultur.
“Christus vera lux” – Seelenmessen sind in der lutherischen Totenkultur überflüssig und repräsentieren vielmehr die “andere” Seite. Holzschnitt von Hans Holbein, 1526. (Wikimedia Commons)
Dies geschieht in sozialer Interaktion. Der Mann ruft die Worte nicht einfach in die Kirche, sondern sagt sie gezielt seinem Nachbarn, dessen Reaktion leider auch nicht bekannt ist. Da die Worte beim Rentmeister angezeigt werden, ist es sehr wahrscheinlich, dass es in Altötting Einzelne oder Gruppen gibt, die gegen das religiöse Wissen, die situative Differenz und deren öffentliche Manifestierung sind. Merkmale und Momente entstehender, noch sehr an einzelne Situationen gebundener, distinktiver Zugehörigkeiten, werden offenbar und sicher auch verstärkt. Dass der Bruch aber nur in Berührung, Verbindung und direkter Auseinandersetzung mit dem “Anderen” möglich ist, wird ebenso deutlich. Es gibt kein erkennbares “Eigenes” ohne das oder die “Anderen”. Dieser Prozess der ständigen, distinktiven Konstruktion und Aktualisierung – ein langsamer, diskontinuierlicher Prozess – ist typisch für die westeuropäischen Religionskulturen des 16. Jahrhunderts. In den 1520er und 1530er Jahren finden sich erste Merkmale, die von immer mehr Zeitgenossen als bezogen auf distinktive religiöse und somit soziale Zugehörigkeiten gedeutet werden. Mehr als ungewisse Ansätze lassen sich jedoch noch nicht beobachten. Sinnvollerweise ist zu diesem Zeitpunkt also von einer zusätzlichen und in bestimmten, praktischen und kulturellen Momenten distinktiv verstärkten Heterogenität der Religionskulturen zu sprechen.
Hölzerne Christusfigur auf dem Esel, repräsentiert den Einzug in Jerusalem. (Das Schweizerische Landesmuseum 1898-1948. Kunst, Handwerk und Geschichte. Zürich 1948, Abb. 32.)
Angriffe auf den Preister, wenn er den Rücken bei einer liturigsichen Handlung dem Volk zudreht und darauf angewisen ist, dass sich die soziale und religiöse Kultur selbst trägt, sind zudem keine Seltenheit. Über Messstörungen wird häufig berichtet, viel öfter noch über Predigtstörungen. Gefahr hinter dem Rücken der Priester droht auch bei liturigischen Handlungen am Palmsonntag. Vielfach war es vor der Reformation Brauch, an diesem Tag mit einer großen Prozession einen hölzernen Esel, auf dem eine Christusfigur reitet, in die Kirche zu schieben. Das Volk, das die Prozession begleitete oder am Wegesrand stand, schlug zu bestimmten Augenblicken mit Palmbuschen auf den Esel ein. Die Buschen erhielten dadurch eine sakramentale Funktion, nicht zuletzt deretwegen dieses Rollenspiel von den Reformatoren kritisiert und zusehends aus der evangelischen Kultur verdrängt wurde. So kommt es bei einer Palmsonntagsprozession im schweizerischen Dorf Sommeri am Bodensee zu einem Zwischenfall. Die mehrheitlich evangelischen Bewohner/innen warten den Moment der Prozession ab, in dem der (altgläubige) Pfarrer sich vor dem Esel niederlegt und die Figurenkombination anbetet. Dann schlagen sie auf den Pfarrer ein, nicht nur mit ihren Palmbuschen.4 Der Moment ist aus evangelischer Perspektive perfekt gewählt. Der Pfarrer wendet sich von der Gemeinde ab und begeht die “abgöttische” Praktik mit dem “götzenhaften” Objekt. In diesem Moment werden die Risse in der religiösen Kultur und dem sozialen Gefüge sichtbar.
Wenn also in den 1520er Jahren der Priester dem Volk bei liturgischen Handlungen den Rücken zudreht, droht Gefahr: Ihm und der Religionskultur, in der er seine alten und nun altgläubigen Praktiken vollzieht. Der momentane Kontrollverlust ist ein Test dafür, ob die Religionskultur und die soziale Trennung Klerus-Laien von den Letzteren internalisiert und akezptiert ist. Devianzen, andere Kulturen, Wissensordnungen und Praktiken können hinter dem Rücken der Priester besonders gezielt und effektvoll ausgedrückt werden. Unterschiede werden sichtbar und verstärkt. Der anonyme Mann aus Altötting übrigens versuchte sich beim Verhör durch den Rentmeister mehr schlecht als recht herauszureden. Das Lavieren nutzte ihm nichts. Er wurde bis zu einer Entscheidung des Bayernherzogs vom zuständigen Hauptmann eingekerkert.
- Hauptstaatsarchiv München, Kurbayern Äußeres Archiv, 4246, fol. 5r-6v.
- Ibid, fol. 5r-5v.
- Siehe die aktuellen Forschungen zum konfessionellen Konflikt um Begräbnisstätten im 16. und 17. Jahrhundert: Luria, Keith P.: Les frontières du sacré, in: Chrétiens et Sociétés 15 (2008); Karant-Nunn, Susan C.: The Reformation of Ritual. An Interpretation of Early Modern Germany (Christianity and Society in the Modern World), London/New York 1997, 133-182; Koslofsky, Craig: ‘Pest’ – ‘Gift’ – ‘Ketzerei’. Konkurrierende Konzepte von Gemeinschaft und die Verlegung der Friedhöfe (Leipzig 1536), in: Jussen, Bernhard/Ders. (Hg.): Kulturelle Reformation. Sinnformationen im Umbruch, 1400-1600 (Veröffentlichungen des Max-Planck-Instituts für Geschichte 145), Göttingen 1999, 193-208; Brademann, Jan/Freitag, Werner (Hg.): Leben bei den Toten. Kirchhöfe in den ländlichen Gesellschaften der Vormoderne (Symbolische Kommunikation und gesellschaftliche Wertesysteme 19), Münster 2007. Aktuell zu Sterbekulturen in der Frühen Neuzeit vgl. Thiessen, Hillard von: Das Sterbebett als normative Schwelle. Der Mensch in der Frühen Neuzeit zwischen irdischer Normenkonkurrenz und göttlichem Gericht, in: HZ 295 (2012), 625-659.
- Burg, Christian von: “Das bildt vnsers Herren ab dem esel geschlagen”. Der Palmesel in den Riten der Zerstörung, in: Macht und Ohnmacht der Bilder. Reformatorischer Bildersturm im Kontext der europäischen Geschichte, hg. v. Peter Blickle (HZ Beihefte 33), München 2002, 117-141, hier 133.
Vermitteln Blogs das Gefühl rastloser Masturbation? Eine Antwort auf Valentin Groebner
“Muss ich das lesen? Ja, das hier schon. Wissenschaftliches Publizieren im Netz und in der Überproduktionskrise”, lautet der Titel des netzkritischen Artikels von Valentin Groebner in der FAZ vom 6. Februar 2013, Seite N 5 (nicht kostenfrei online, den Hinweis verdanke ich Anton Tantner). Weder das allzu kurze Exposé im RKB-Blog noch der jetzige FAZ-Beitrag enthalten die recht üblen Sprüche der Vortragsfassung auf der Tagung Rezensieren – Kommentieren – Bloggen. Das Zitat “Blogs vermitteln das Gefühl rastloser Masturbation” ist auf Twitter dokumentiert. Was Groebner alles gesagt hat, wird man hoffentlich bald nachhören können, wenn die Tagungsvideos bei L.I.S.A online sind.
Groebner, Autor eines Büchleins zur Wissenschaftssprache, spart nicht an flotten Formulierungen (“Das Netz ist eine mythische Fabel, die so oft wiederholt worden ist, dass sie ihre eigene Wirklichkeit geschaffen hat.”, “Dieser weiche warme Hippie-Kitsch wird in den Netzutopien umso unübersehbarer, je enthusiastischer sie sind.”, “Das Netz ist 2013 also ein altes Medium. Es ist die Zukunft von gestern.”). Aber eine schlüssige stringente Argumentation suche ich vergebens.
Groebner kritisiert den selbstzufriedenen Wissenschaftsbetrieb: “Man muss etwas Neues herausfinden; aber gleichzeitig muss man zeigen, dass die Disziplin diese neue Information – die eigene Idee, den eigenen Fund – notwendig braucht, um weitermachen zu können wie bisher. [...] Man darf aber – und jetzt kommt die gute Nachricht – dabei möglichst kurz, möglichst unverschämt und möglichst witzig sein.” Klingt wie eine Beschreibung von Archivalia, das soeben 10 Jahre alt wurde …
Er macht auf die wissenschaftliche Überproduktion aufmerksam. Knapp sei “nicht Speicherplatz, sondern Lesezeit”. Nach einer wenig überzeugenden Gegenüberstellung von Buchwissen und Netzwissen erwähnt Groebner die Blogs: “Wer sich durch Selbstdarstellungen von Wissenschaftlern auf dem Web klickt, merkt rasch, dass die meisten Blogs und persönlichen Websites sich nach Aufmerksamkeit von außen sehnen.” Das galt freilich immer schon. Jeder der schreibt, will Aufmerksamkeit und ich behaupte, dass Open-Access-Publikationen ungleich mehr Leser haben als jede gedruckte Fachveröffentlichung. Während niemand weiß, wie oft ein Aufsatz in der HZ tatsächlich gelesen wird, kann man bei Schriften auf Dokumentenservern durch Downloadzahlen der PDFs durchaus zu verlässlichen Schätzungen kommen.
Groebner erwähnt Peter Habers Vorhersage, die Kommunikationsstrukturen auf Papier würden in den nächsten Jahren alle verschwinden, und äußert Skepsis. Angesichts der geisteswissenschaftlichen Netzresistenz ist mir “in den nächsten Jahren” in der Tat etwas zu kurz bemessen. Aber man sieht doch jetzt schon an den Naturwissenschaften, wohin die Reise unumkehrbar geht. Das Journal mit den meisten publizierten Beiträgen im Jahr ist das Open-Access-Journal PLoS One. Es hat einen ausgezeichneten Impact-Faktor und huldigt einem sehr erfolgreichen Peer-Review-Konzept, das nicht auf die Attraktivität von Themen setzt, sondern wissenschaftliche Verlässlichkeit genügen lässt. Die sehr stark auf die Zeitschriftenveröffentlichung fokussierte Wissenschaftskultur der Naturwissenschaften ist jetzt schon weitgehend von Online-Publikationen geprägt.
“In dem Bereich, in dem ich selbst arbeite, der Geschichte des Mittelalters und der Renaissance”, schreibt Groebner, “weiß ich von keiner wissenschaftlichen Idee und von keinem aufregenden Fund, der zuerst auf dem Netz dagewesen wäre und sich wegen seines Erfolgs und wegen positiver feedback-loops dann von dort dann in anderen Medien – wissenschaftliche Zeitschriften und Bücher – durchgesetzt hätte”. Wenn man “aufregend” hinreichend elitär definiert, dann wird man das nicht bestreiten können. Wenn man die Auffindung der ersten hochmittelalterlichen Handschrift der Vita Heriberti des Rupert von Deutz genügen lässt, so kann man etwa darauf verweisen, dass der in Archivalia publizierte Fund im “Deutschen Archiv” 2010 referiert wurde.
Der in Luzern wirkende Historiker Groebner ist durch seine im Feuilleton regelmäßig als brillant gewerteten, überwiegend schmalen Bücher bekannt geworden. Aber: “Es sind ja doch nicht alles Meistererzähler”. Man kann die Publikationsflut beklagen, aber wie kann man sie eindämmen, wenn man nicht zugleich die Axt an die hergebrachten Reputationsmechanismen legt, die (gedruckten) Publikationen zuviel Wert beimessen? Wissenschaft ist nicht nur Hochgebirge, wo Groebner und ein paar andere Feuilleton-Lieblinge Zitier-Seilschaften bilden, es ist auch Mittelgebire oder sogar mühevolle Ebene. Das an den Hochschulen so populäre Exzellenz-Gefasel verkennt, dass es in der Wissenschaft nicht nur auf Hochleistungssport, sondern auch auf Breitensport ankommt.
Groebner singt ein Hohelied auf die gedruckten Bücher: “Weil sie eben keine Korrektur-, update- und refresh-Funktion haben, sind sie – wenn sie gut gemacht sind – Ergebnis pur.” Er ignoriert die vielfältigen Bemühungen um die Langzeitarchivierung digitaler Daten, wenn er behauptet: “Das Netz ist kein haltbarer Informationsspeicher, und es hat keine effizienten Filtermechanismen entwickelt”. Gerade Bücher oder Zeitschriftenaufsätze werfen hinsichtlich des Formats (PDF/A gilt als zukunftsfähig) die geringsten Probleme auf. Die Geisteswissenschaften kennen, Groebner sollte das besser wissen, keine dauerhaft in Stein gemeißelten Ergebnisse, der historische Stoff wird immer wieder uminterpretiert, neu gelesen und ausgelegt. Von daher ist sowohl die Konzentration auf den “Autor” (ein Relikt der Genie-Ästhetik des 18. Jahrhunderts) als auf das “gute Buch” (als unübertroffene Kondensierung wertvollen Wissens) lebensfremd.
HochschullehrerInnen, die sich tagtäglich aufreiben, um eine gute Lehre bieten zu können, die von Gremiensitzungen beansprucht werden und auch ab und an ein Privatleben möchten, würden liebend gern ein gutes Buch schreiben. Oft langt es nur für den Aufsatz im Sammelband, dessen Deadline man phantasievoll herauszuzögern gelernt hat. Was wir brauchen ist eine flüssigere Wissenschaft jenseits der gängigen Schubladen der Druckwelt. Es geht nicht nur um meinen Kult des Fragments, sondern um mutige Experimente hinsichtlich der Präsentationsformen von Wissenschaft. Nicht alles kann kurz, unverschämt und witzig sein wie Groebners Bücher.
Natürlich pendele auch ich in zwei Welten, was kein Wunder ist, da ich mit über 200 gedruckten Publikationen seit 1975 in der durch den Buchdruck bestimmten vordigitalen Kommunikationskultur der Geschichtswissenschaft (und Heimatkunde) sozialisiert wurde. Schreibe ich einen Aufsatz für den Druck, bemerke ich, dass er gegenüber den meisten meiner Blogpostings konzentrierter argumentiert und auch im Formalen weniger schlampig ist. Zugleich ärgere ich mich, dass ich im Druck nicht einfach mit einem Link sofort die Überprüfung meiner Aussagen ermöglichen kann (Quellen und ältere Sekundärliteratur sind oft schon im Netz). Bei meinen Themen und für die Wissenschaftssprache Deutsch gibt es aber kein qualitätsgesichertes E-Journal, dem ich meinen Beitrag alternativ anbieten könnte.
Eine bestimmte Veredelungs- und Reifestufe ist auch unabhängig vom Fetisch “Druck auf Papier”, der Gelehrte der Generation Groebners (er ist 4 Jahre jünger als ich) nach wie vor gefangenhält, realisierbar. Für viele kleine Beiträge bedarf es aber aus meiner Sicht gar keiner solchen Veredelungsstufe. Die meisten der über 140 Forschungsmiszellen in Archivalia können durchaus in ihrer etwas rohen Präsentationsform bestehen bleiben. Entscheidend ist, dass sie die Wissenschaft auf Neufunde aufmerksam machen (und zwar mit Belegen) und dass ich, sobald ich etwas Neues finde oder etwas, was ich übersehen habe, sie sofort aktualisieren kann – eine Möglichkeit, die bei gedruckten Publikationen eher nicht funktioniert. Auch wenn man in der gleichen Zeitschrift einen Nachtrag veröffentlicht, ist die Wahrscheinlichkeit nicht ganz gering, dass dieser übersehen wird. Nur das Netz kann solche nützlichen Verknüpfungen schaffen.
Anders als Theisohns Polemik gegen Open-Access ist Groebners Aufsatz kein Geschwurbel. Er lässt aber deutlich erkennen, dass sein Autor von seinem Thema, wenn es ums Netz (und vor allem ums Social Web) geht, zu wenig Ahnung hat. Die Rückzugsgefechte der Buch-Fetischisten sollten uns nicht vom Bloggen abhalten.
Reproduzierbar Wissen schaffen
Aktuell findet auf den Scilogs ein Bloggewitter statt, welches exakt das Thema aufgreift, das mich damals veranlasste, mit dem Bloggen anzufangen – die Frage nach der Bedeutung von Reproduzierbarkeit in der Wissenschaft. Ausgelöst wurde dieses Bloggewitter vom britischen Wissenschaftsautor Ed Yong, der in der aktuellen Ausgabe der Zeitschrift Spektrum der Wissenschaft in einem sehr lesenswerten Artikel1 darlegt, dass eine der zentralen Forderungen der Wissenschaft – eben die Reproduzierbarkeit wissenschaftlicher Ergebnisse – zumindest für das von ihm betrachtete Gebiet der Psychologie eher die Ausnahme denn die Regel darstellt. Das führte zu einer ganzen Reihe von Reaktionen, die verschiedene Sichtweisen aus sehr unterschiedlichen – bisher zumeist naturwissenschaftlichen Bereichen – darlegen.
Die Bandbreite der Reaktionen macht deutlich, dass sich die einzelnen wissenschaftlichen Disziplinen (natürlich) nicht über einen Kamm scheren lassen und das Problem der (nicht-)Reproduzierbarkeit von Ergebnissen sehr unterschiedlich ausgeprägt ist. Gleichwohl lässt sich der Tenor wahrnehmen, dass das gegenwärtige wissenschaftliche System vor allem spektakuläre und dadurch manchmal auch spekulative Studien durch Veröffentlichung belohnt, während dröge Überprüfungen von Ergebnissen anderer kaum Beachtung in den angesehenen Zeitschriften finden. Veröffentlichungen in namhaften Journals sind aber weiterhin der wichtigste Treibstoff wissenschaftlicher Karrieren. Diese Konstellation verhindert momentan noch eine wissenschaftliche Kultur, in der die Überprüfung anderer Forscher Studien zum täglichen Geschäft gehört.
Abgesehen von diesem allgemeinen Konflikt ergeben sich je nach Gegenstandsbereich spezifischere Probleme, was die Reproduzierbarkeit von Studien bzw. derer Ergebnisse angeht. In der Atom- und der Astrophysik steht es damit offenbar ganz gut, weil die untersuchten Stoffe bzw. beobachteten Weltraumphänomene entweder öffentlich zugänglich oder einfach beschaffbar sind. In der organischen Chemie ist die Reproduktion von Synthesen offensichtlich gang und gäbe, es hapert aber daran, die exakten Bedingungen für Synthesen auf eine nachvollziehbare Art weiterzugeben. Größere Schwierigkeiten machen da Forschungen auf dem Gebieten Psychologie und Medizin, ist doch die Wiederholung von Studien, in denen man viele menschliche Probanden benötigt, mit hohen Kosten verbunden.
Die Strategien, dem Problem nicht-reproduzierbarer Studien zu begegen, weisen in zwei Richtungen: Auf der einen Seite werden Plattformen geschaffen, auf denen wiederholte Studien veröffentlicht werden können. Das engagierteste Projekt in dieser Richtung ist sicherlich die Reproducibility Initiative, die Autoren von Studien quasi ein rundum-Sorglos-Paket anbietet, indem sie die Wiederholung der Experimente durch unabhängige Wissenschaftler organisiert. Das kostet natürlich und wird im gegenwärtigen Umfeld sicherlich noch nicht allzu stark nachgefragt werden. Wenn sich aber die wissenschaftliche Kultur ändern sollte (was sie wohl v.a. durch Druck von außen – hier von den großen Förderinstitutionen – tun dürfte), denke ich, dass einem solchen Modell die Zukunft gehört.
Die andere Stoßrichtung, das Problem in den Griff zu bekommen, ist die Änderung der Veröffentlichungskultur. In Artikeln sind die durchgeführten Experimente und die zugrundeliegenden Daten meist nicht vollständig beschrieben. Solche Artikel würde wohl auch niemand lesen wollen. Es lässt sich aber im besten Fall einrichten, dass man die verwendeten Daten und die eingesetzte Software als Supplemente zu den eigentlichen Artikeln veröffentlicht. Eine solche Kultur der Transparenz würde der Überprüfung, aber auch der Weiterentwicklung der vorgestellten Methoden immens dienen. Sehr interessant ist das Virtual Observatory aus dem Bereich der Astronomie, welches in gleich zwei Artikeln des Bloggewitters thematisiert wird.
Letzteres entspricht auch ungefähr dem Ansatz, den wir im Bereich der Textprozessierung mit unserem Text Engineering Software Laboratory (kurz Tesla) verfolgen. Grob kann man sich dieses virtuelle Labor als Verpackungsmaschine für Experimente vorstellen, die auf textuellen Daten operieren. Mit Texten sind dabei nicht nur natürlichsprachliche gemeint, sondern prinzipiell alles, was sich in Sequenzen diskreter Einheiten darstellen lässt – das gilt mit Einschränkungen ja auch für Proteine und Nucleinsäureketten sowie Partituren von Musikstücken. Der Ansatz ist der, dass wir einen beliebig erweiterbaren Werkzeugkasten anbieten, der als Open Source öffentlich zugänglich ist. Die Werkzeuge sind miteinander kombinierbar, so dass man daraus Workflows zusammenstellen kann, deren Konfiguration mit einer Referenz auf die verwendeten Rohdaten in einer Art virtuellem Laborbuch gespeichert werden. Aus diesem Laborbuch lassen sich einzelne Experimente freigeben und auf Plattformen zum Austausch von Workflows (z.B. MyExperiment) sharen. Sind die Rohdaten verfügbar, so lassen sich die Experimente jederzeit wiederholen, die Konfiguration der einzelnen Werkzeuge, deren Sourcecode und die Art ihrer Zusammenstellung im Workflow sind dabei vollständig transparent.
Der Workflow-Editor von Tesla. Zu sehen ist die Kombination von Werkzeugen (Kästen) durch Verbindung der Ein-/Ausgabeschnittstellen.
Wir haben uns darum bemüht, die Benutzung des Werkzeugkastens/der Experimentverpackungsmaschine möglichst eingängig zu modellieren, weil wir damit die Hoffnung verbinden, dass sich möglichst viele Nutzer auf das System einlassen, einzelne Werkzeuge evaluieren und eventuell sogar neue erstellen. Die Weitergabe kompletter Experimente kann nämlich nicht nur dazu genutzt werden, um anderer Forscher Studien zu wiederholen, sondern im Idealfall auch, direkt auf diesen aufzusetzen oder durch Modifikationen (durch Austausch oder Rekonfiguration der Werkzeuge oder die Anwendung auf eine andere Datenbasis) zu besseren Ergebnissen zu kommen. Auch wenn wir noch viel Arbeit vor uns haben, was die noch einfachere Benutzbarkeit und die verbesserte Ausstattung von Tesla angeht, sind die Rückmeldungen der ersten Anwender von Tesla außerhalb unseres Lehrstuhls sehr positiv, so dass wir glauben, dass derartige Systeme in Zukunft stärker genutzt werden und die Möglichkeiten des wissenschaftlichen Austauschs sowie der Überprüfbarkeit von Studienergebnissen erweitern.
Nation, Militär und Gesellschaft im postrevolutionären Frankreich
“S.A.R. le Comte d’Artois, Colonel Général des Gardes Nationales du Royaume, causant familiérement avec les Gardes Nationaux de Garde près la statue d’Henry IV”(Quelle: Archives nationales)
Dissertationsprojekt: Nation, Militär und Gesellschaft im postrevolutionären Frankreich: zur politischen und gesellschaftlichen Bedeutung der französischen Nationalgarde, 1814–1852
Die sogenannte Restauration in Frankreich wird vielfach vor dem Hintergrund eines stark vereinfachten Gegensatzes von Wiederherstellung der politischen Verhältnisse des Ancien régime und sich krisenhaft durchsetzender Innovation begriffen. Mit der Rückkehr der Monarchie nach Frankreich zu Beginn des 19. Jahrhunderts zeigte sich jedoch, dass Revolution und Kaiserreich nicht übergangen werden konnten, sondern dass beide Tatsachen geschaffen hatten, die in das politische Programm der “postrevolutionären Monarchien” (Bertrand Goujon) integriert werden mussten. Das Jahr 1814 eröffnete mithin eine postrevolutionäre Epoche, in der die Erinnerung an die jüngste Geschichte allgegenwärtig war. Die Vorstellung eines radikalen politischen Bruchs verstellt allzu oft den Blick auf Kontinuitäten, die sich einerseits anhand zentraler Institutionen manifestierten, welche aus dem staatlichen Gefüge nicht mehr wegzudenken waren. So war der neue König Ludwig XVIII. bei seiner Machtübernahme 1814 bereit, die während der Revolution entstandene französische Nationalgarde als zentrale militärische Ordnungsmacht anzuerkennen und seinen Bruder, den Comte d’Artois, als Generaloberst dieser Garde einzusetzen. Andererseits übte die jüngste Vergangenheit Frankreichs eine ungeheure Anziehungskraft aus, an der sich die Geister quer durch alle sozialen Gruppierungen schieden. So verband Ludwig XVIII. mit der Revolution die in der Hinrichtung Ludwigs XVI. kulminierende anti-aristokratische Gewalt, der in der kollektiven Erinnerung jedoch zahlreiche Topoi von der Entstehung einer neuen staatlichen Ordnung gegenüberstanden. Dass die revolutionäre Nation nicht zuletzt eine Kriegsgeburt war, zeigte sich daran, dass diese Erinnerung sich besonders am Beispiel militärischer Siege kristallisierte. Valmy und Jemappes standen für den Widerstand der jungen Nation gegen die alten europäischen Mächte; Austerlitz, Jena und Auerstedt markierten den Triumph der aufstrebenden Grande Nation. Das Untersuchungsobjekt meiner Dissertation ist die französische Nationalgarde, die aus den Bürgermilizen hervorging, die sich mit Ausbruch der Revolution 1789 spontan gebildet hatten. Die Nationalgarde wurde mit der Verfassung der ersten konstitutionellen Monarchie von 1791 institutionalisiert und bestand bis 1872 nahezu ununterbrochen fort. Sie stellte eine paramilitärische Einheit dar, deren Mitglieder nicht kaserniert waren und die in aller Regel einen unentgeltlichen Freiwilligendienst leisteten. Es ist bemerkenswert, welchen Raum die Nationalgarde in der öffentlichen Wahrnehmung Frankreichs einnahm. Sie erschien als zentraler Akteur während der großen Umbruchsphasen zwischen 1814 und 1852 und stand permanent im Zentrum der politischen Debatten sowohl während der Bourbonen- und der Julimonarchie als auch der Zweiten Republik. Die Würdigung der Nationalgarde als monarchietreuer Ordnungskraft, die nach der Niederlage der napoleonischen Armee die Hauptstadt vor der sicheren Zerstörung durch die alliierten Truppen bewahrt habe, fand in der zeitgenössischen Presse ein breites Echo. Diese von Ludwig XVIII. propagierte Lesart der französischen Bürgermiliz blieb bis zum Untergang der Bourbonenmonarchie 1830 ein beliebter Topos, der besonders unter der Regentschaft Karls X. der liberalen Opposition als Kritik an der ultrakonservativen Regierung diente. Ein weiterer Allgemeinplatz war der Einsatz der Nationalgarde von Paris während der Julirevolution 1830 zugunsten der neuen konstitutionellen Monarchie Louis-Philippes. Die Nationalgarde verkörperte die bürgerliche Basis, von der aus die Revolution gegen die Herrschaft der Bourbonen und zugunsten der neuen Monarchie geführt worden war. Das Rekurrieren auf die Bürgermiliz diente hier gleichsam der Legitimierung der Revolution und der daraus hervorgegangen Herrschaftsform und sollte darüber hinaus die Trois Glorieuses zum Schlusspunkt jeglicher revolutionärer Erhebung werden lassen. Über den rein institutionengeschichtlichen Rahmen hinausgehend verstehe ich mein Forschungsprojekt zugleich als Teil einer größeren historischen Thematik, der innerhalb der letzten Jahre immer mehr Beachtung sowohl in Frankreich als auch in Deutschland zuteil geworden ist und die die Bedeutung des Krieges für die Entstehung des modernen Nationalstaates umfasst. Am Beispiel der Nationalgarde beschäftige ich mich mit der Frage, welchen Raum Konflikte in der kollektiven Wahrnehmung eingenommen haben. In einem historischen Zeitraum, der von 1814 bis 1852 reicht, untersuche ich, wie in der Rückschau die kriegerischen Auseinandersetzungen der jüngsten Vergangenheit die Vorstellungen von der französischen Nation geprägt haben. Dahinter steht die Frage nach den Erfahrungsprozessen in der französischen Gesellschaft in der ersten Hälfte des 19. Jahrhunderts. Das Erkenntnisinteresse beruht auf der Untersuchung, wie Revolution und Kaiserreich einen Erfahrungsraum bildeten, der gegenüber dem Versuch, nach der militärischen Niederlage von 1814 stabile politische Ordnungsmuster in Frankreich zu etablieren und dabei eine mehr oder weniger reaktionär ausgerichtete monarchische Politik sowie ab 1848 ein demokratisches Regime umzusetzen, in ein Spannungsverhältnis trat. Dieser Erfahrungsraum bestand maßgeblich aus Kriegs- und Gewalterlebnissen, die während der Revolutionskriege und der napoleonischen Feldzüge gemacht wurden. Im Zuge dieser Konflikte, die im Namen der Nation und zu ihrem Schutz ausgetragen wurden, konkretisierte sich die Idee der Nation in besonderem Maße: zum ersten Mal in der Geschichte wurden umfangreiche Rekrutenkontingente eingezogen, Massenheere aufgestellt, die nicht mehr aus Berufssoldaten, sondern aus Staatsbürgern in Uniform bestanden. Die Soldaten entwickelten nicht nur ein Bewusstsein für ihre Pflichten, sondern auch für ihre Rechte. Das heißt, dass die Verpflichtung zum Dienst am Vaterland politischen Partizipationsansprüchen Vorschub leistete.[1] In diesem Zusammenhang stellte die Nationalgarde eine Institution dar, die wie keine andere die Idee der Nation als die Idee der Volkssouveränität verkörperte. Die Nationalgarde erschien als Verwirklichung der Nation in Waffen, deren Angehörige autonom das Recht zur Verteidigung ihrer Interessen und das Gewaltmonopol unabhängig vom Staat wahrgenommen hatten. In der Verteidigung der Nation gegen die inneren und äußeren Feinde wurden die Gardisten zu Trägern jener Gewalterlebnisse. Das Projekt geht der Frage nach, wie sich diese Erfahrungen vor dem Hintergrund des institutionellen Eigensinns der Nationalgarde auf den Meinungsbildungsprozess ihrer Mitglieder im Moment der Rückkehr der Monarchie ausgewirkt haben. Der dem Projekt zugrundeliegende wissenssoziologische Erfahrungsbegriff beruht auf einem konstruktivistischen Grundverständnis von Wirklichkeit. Demnach stellt diese ein soziales Konstrukt dar, das sowohl eine akteursspezifische, als auch eine überindividuelle, soziale Dimension hat.[2] Die Erfahrungen, aus denen sich Wirklichkeit zusammensetzt, mögen individuellen Ursprungs sein in dem Sinne, dass Individuen die Träger von Erfahrungen sind. Zu beachten ist aber einerseits, dass Erfahrungen nicht zwangsläufig selbst gemacht wurden, sondern überindividuelle Bedeutung erlangen konnten und etwa durch Erzählungen oder eine offizielle Erinnerungspolitik kollektiv geteilt wurden. Andererseits wird für die Interpretation von Erlebnissen häufig auf ein Reservoir an vorgeformten Interpretamenten rekurriert. Vor diesem Hintergrund scheint die soziale Determinierung von Erfahrungen zu einem großen Teil auf dem kollektiven Charakter des Deutungswissens zu beruhen, das der sinnhaften Einordnung von Erlebnissen dient und das über einen intersubjektiven Austausch generiert wird. Betrachtet das Individuum Erfahrung als persönlichen, individuellen Akt, so liegen der Deutung dieser Erfahrungen vergesellschaftete Kategorien zugrunde, die über Kommunikation vermittelt werden.[3] Dieser kommunikative Aspekt soll sich auch in der Auswahl der Quellen widerspiegeln, indem insbesondere publizistische und künstlerische Quellen ausgewertet werden. Dazu zählen Zeitungs- und Zeitschriftenartikel, Pamphlete, gedruckte und verlegte Broschüren, Flugblätter sowie Bilder und Karikaturen, aber auch sogenannte pièces de circonstances (populäre Gedichte und Lieder, kürzere Theaterstücke wie Komödien oder Dramen). Mit diesem Quellenkorpus, der um normative Dokumente zur Organisation der Nationalgarde ergänzt wird, möchte ich die oben angesprochenen zeitgenössischen Erfahrungsprozesse untersuchen, aus denen – so meine These – politische sowie gesellschaftliche Ansichten und Zukunftserwartungen resultierten. [1] Vgl. Jörn Leonhard: Bellizismus und Nation. Kriegsdeutung und Nationsbestimmung in Europa und den Vereinigten Staaten 1750-1914, München 2008, S. 6. [2] Vgl. Julia Murken: Bayerische Soldaten im Russlandfeldzug 1812. Ihre Kriegserfahrungen und deren Umdeutungen im 19. und 20. Jahrhundert, München 2006, S. 3f. [3] Vgl. Nikolaus Buschmann/ Horst Carl: Zugänge zur Erfahrungsgeschichte des Krieges. Forschung, Theorie, Fragestellung, in: Dies. (Hgg.): Die Erfahrung des Krieges. Erfahrungsgeschichtliche Perspektiven von der Französischen Revolution bis zum Zweiten Weltkrieg, Paderborn u.a. 2001, S. 11-26, hier S. 18f.Die ost- und nordosteuropäischen Archive zwischen Digitalisierung, Web 2.0 und sozialen Medien
Die Transformationsprozesse Ende der 1980er Jahre in Osteuropa führten nicht nur zu einer Öffnung der Grenzen, sondern begünstigten den allmählichen Zugang zu den Archiven in den ost- und nordosteuropäischen Staaten. Gleichsam wurde die Welt mit einem neuen Phänomen bereichert: dem World Wide Web. Heute bieten Web 2.0 und die sozialen Medien den Kultureinrichtungen ein neues Spektrum der Öffentlichkeitsarbeit und ermöglichen es ihnen, mit dem Nutzer zu kommunizieren. Darüber hinaus nutzen viele Kultureinrichtungen die Möglichkeit, ihre Bestände digital zu präsentieren und stoßen immer mehr Projekte an. Die ersten großen Projekte basierten vor allem auf der Digitalisierung, z. B. von Personenstandsunterlagen und Kirchenbüchern, die somit auch die Möglichkeit bieten, diese Kulturgüter zu bewahren und zu schützen. Weiter folgende Internetprojekte basierten darauf, diese digitalisierten Bestände dem Nutzer online zur Verfügung zu stellen. Darüber hinaus bietet diese neue Form der Öffentlichkeitsarbeit mit Hilfe von Web 2.0 und den sozialen Medien, in unserem Fall den Archiven, den Institutionen die Chance, sich mit all ihrem Repertoire national sowie international zu präsentieren. Im folgenden Beitrag soll ein Einblick in die digitale Arbeit der ost- und nordosteuropäischen Archive gegeben werden.
Insbesondere schufen die baltischen Staaten Portale zur Präsentation ihrer Digitalisate. Das Estnische Historische Archiv (EHA / Ajalooarhiiv) bewahrt umfassende Unterlagen der ehemaligen staatlichen Verwaltungsorgane des estnischen Gebiets sowie die Akten der Gerichts- und Polizeibehörden, der Ritterschaften und der Selbstverwaltungen der Städte und Gemeinden auf. Außerdem befinden sich in der Verwahrung die Unterlagen von Kirchen und Schulinstitutionen, Gutsbestände und Nachlässe, Archivalien verschiedener Vereine und Unternehmen. Auch befinden sich dort wertvolle Urkunden, Siegel, Originalbriefe der Herrscher, Pergamente, Kupferstiche und Fotos sowie Estlands größte Sammlung der historischen Karten. Das EHA enthält insgesamt 20 000 Regalmeter Archivgut bzw. rund 2 Millionen Archiveinheiten. Interessant in diesem Zusammenhang sind die Projekte SAAGA http://www.ra.ee/dgs/explorer.php und AIS http://ais.ra.ee/. Das Projekt SAAGA besteht seit 2004 und ist eine Kollektion von digitalisierten Archivbeständen des Estnischen Nationalarchivs und des Stadtarchivs Tallinns. Das Projekt umfasst gegenwärtig mehr als 9 Millionen Bilder. Das Projekt AIS ist eine elektronische Datenbank des Estnischen Nationalarchivs und des Stadtarchivs Tallinn, welche die Möglichkeit bietet, in den Beständen online zu suchen, um so eine etwaige Benutzung im hiesigen Lesesaal vorzubereiten. Weitere Projekte sind FIS (Filmiarhiivi Infosüsteem) http://www.filmi.arhiiv.ee/fis/, FOTIS (Fotode Infosüsteem) http://www.ra.ee/fotis/, Rahvusarhiivi kaaride infosüsteem http://www.ra.ee/kaardid/. Auch die Nutzung von Social Media ist beim Ajalooarhiv allgegenwärtig. Besonders durch die Nutzung von Facebook gibt das Archiv Einblick in seine Arbeit und seine Bestände, welche es regelmäßig präsentiert https://www.facebook.com/ajalooarhiiv.
Auch die lettischen Nationalarchive (Latvijas Nacionālais arhīvs) http://www.arhivi.lv/index.php?&2 bieten ein umfangreiches Angebot digitalisierter Bestände im Web. Ein für jeden Familienforscher wichtiges Projekt ist das digitale Archiv „Rakuraksti“ http://www.lvva-raduraksti.lv/en.html, in welchem man umfangreiche Bestände von Kirchenbüchern und Personenstandsunterlagen sowie Listen über Seelenrevisionen und Volkszählungen vorfindet. Das Projekt „Baltic connections“ http://www.balticconnections.net/index.cfm?article=Archival+guide bietet wiederum eine Datenbank zur Geschichte der Ostseeprovinzen in der Zeit von 1450 bis 1800. Kooperationspartner hierbei sind neben dem Estnischen Nationalarchiv, auch die Nationalarchive aus Dänemark, Finnland, Lettland, Litauen, Niederlande, Schweden sowie das Staatsarchiv in Danzig und das Staatsarchiv in Niedersachsen. Des Weiteren bietet das lettische Staatsarchiv einen großen Fundus an Beständen sowie virtuellen Präsentationen, wie z. B. die Ausstellungen „The First Mass Deportation of Latvian Citizens, June 14, 1941“ http://www.itl.rtu.lv/LVA/dep1941/index.php?id= oder „The Aftermath of Prague Spring and Charter 77 in Latvia / the Baltics“ http://www.itl.rtu.lv/LVA/Praga68/index.php. Auch erscheint vierteljährlich die Zeitschrift „Latvijas Arhīvi”, welche das lettische Nationalarchiv publiziert http://www.arhivi.lv/index.php?&293, um insbesondere wissenschaftliche Artikel über die Probleme der Archivwissenschaft zu veröffentlichen. Das Historische Staatsarchiv Lettlands http://www.arhivi.lv/index.php?&16 verwaltet zudem in seinen Beständen eine umfangreiche Urkundensammlung zur Geschichte Lettlands von 1220 bis zum Jahre 1945. Hierbei verfügt das Archiv insgesamt über 6311 Bestände mit 6 349 095 Archiveinheiten.
Die litauischen Staatsarchive (Lietuvos Vyriausiojo Archyvaro Tarnyba) in Vilnius präsentieren sich über ihre Homepage http://www.archyvai.lt/lt/lvat.html. Das Litauische Historische Staatsarchiv http://www.archyvai.lt/en/archives/historicalarchives.html verfügt in seinen Beständen über umfassende Personenstandsunterlagen, wie z. B. Volkszählungen, Hausbücher oder Hypothekenbücher sowie Kirchenregister bis 1940 und Personenstandsregister bis 2008, aber auch über Dokumente verschiedener Adelsfamilien von Vilnius und Kowno. Bisher sind wenige Bestände der litauischen Archive online einsehbar. Dennoch entwickeln sich auch in Litauen zahlreiche Digitalisierungsprojekte, die nun dem Nutzer zur Verfügung gestellt werden, wie z. B. eine Übersicht der Bestände der katholischen Kirchenbüchern, welche bereits einsehbar sind unter http://www.epaveldas.lt/vbspi/changeResultsPage.do?pageNo=1. Das Litauische Zentrale Staatsarchiv zählt zu seinen Beständen u. a. staatliche Dokumente, Aufzeichnungen von Unternehmen, Religionsgemeinschaften, öffentliche Organisationen, nicht-staatlichen Institutionen und Einzelpersonen aus dem Jahr 1918 bis 1990. Des Weiteren verfügen sie über eine umfangreiche Fotosammlung seit 1850, eine Videosammlung seit 1919 und Tonaufnahmen seit 1950 sowie zahlreiche Videobänder seit 1988 bis zum heutigen Tage. Insgesamt umfassen die Unterlagen rund 31000 lfd. Meter. Ebenso arbeitet dieses Staatsarchiv an dem Projekt MIDAS“ mit, welches „Filmarchives online – Finding Moving Images in European Collection“ http://www.filmarchives-online.eu/welcome-to-2018filmarchives-online2019/view?set_language=en beinhaltet und von 18 Partnern, unter der Leitung des Deutschen Filminstituts – DIF, unterstützt wird. Die beteiligten Institutionen verfassen ihre Beiträge selbstständig, bestimmen ausgewählte Bestände ihrer Archivdatenbanken, die dem Nutzer zur Verfügung gestellt werden soll. Das Ziel dieser Kooperation soll die Schaffung einer zentralen Datenbank sein, mit deren Hilfe es möglich wird, nach Filmen in europäischen Archiven zu recherchieren.
Die Zusammenarbeit der polnischen Staatsarchive ist sehr umfassend auf dem Gebiet der Digitalisierung. Über verschiedene Datenbanken findet der Nutzer Zugang zu den Beständen der jeweiligen Archiv, die bereits sehr umfangreich online einsehbar sind. Unter dem Projekt SEZAM http://baza.archiwa.gov.pl/sezam/sezam.php?l=en findet der Nutzer Informationen über die nationalen Archivbestände von den Staatsarchiven (ohne die Bestände von Lublin und Posen) sowie seiner Institutionen, wie z. B. die Polnische Akademie der Wissenschaften in Warschau und seine Niederlassung in Posen, das Archiv der Wissenschaften der polnischen Akademie der Wissenschaften und der polnischen Akademie der Künste und Wissenschaften in Krakau, das Archiv der Mikołaj-Kopernik-Universität in Thorn, die Kardinal-Stefan-Wyszynski-Universität in Warschau, die Bibliothek der Universität in Warschau u.a. Das Projekt PRADZIAD http://baza.archiwa.gov.pl/sezam/pradziad.php?l=en, welches im 2011 abgeschlossen wurde, enthält Daten über Pfarr- und Personenstandsregistern in allen staatlichen Archiven sowie aus den Beständen der Pommerschen Bibliothek in Stettin (Książnica Pomorska im. Stanisława Staszica), die Erzdiözesanarchive in Lodsch, Posen, Stettin, Plock und Leslau, von den Niederlassungen der Diözesanarchive in Drohiczyn, Plock und Leslau sowie von den in Warschau erhalten gebliebenen jüdischen und römisch-katholischen Pfarrregistern. PRADZIAD enthält zudem weder Listen von Namen noch Angaben zu bestimmten Personen. Eine weitere Datenbank in Zusammenarbeit der Staatsarchive in Lublin, Posen, Warschau sowie der Niederlassung des Staatsarchivs Posen in Gnesen findet man unter www.szukajwarchiwach.pl, auf der der Nutzer auf gescannte Inhalte sämtlicher Archivbestände zugreifen kann. Darüber hinaus nutzen die Staatsarchive verschiedene Möglichkeiten der Präsentation ihrer Institutionen im Internet. Während das Staatsarchiv Warschau die „klassische“ Homepage unter http://www.warszawa.ap.gov.pl/ bevorzugt, nutzen andere Staatsarchive, wie z. B. das Staatsarchiv Lublin und Posen, darüber hinaus die Möglichkeiten des Social Media unter https://www.facebook.com/APwLublinie bzw. https://www.facebook.com/APPoznan. Auch hier macht Facebook einen Teil ihrer Öffentlichkeitsarbeit aus, um immer wieder Informationen und interessante Funde für den Nutzer bereit zu stellen.
Zusammenfassend lässt sich feststellen, dass die nord- und osteuropäischen Staaten an umfassenden Digitalisierungsprojekten arbeiten. Die Nutzung von Web 2.0 sowie sozialen Netzwerken, als eine neue Form der Öffentlichkeitsarbeit und Interaktivität mit den Nutzern betrachtend, wird bisher von den Archiven nur zögernd aufgenommen. Hierbei dominiert eher die „klassische“ Variante der Homepage. Wie eingangs bereits angesprochen, arbeiteten die ost- und nordosteuropäischen Archive vorrangig an verschiedenen Digitalisierungsprojekten, die insbesondere die „Onlinestellung“ umfassender Personenstandsunterlagen und Kirchenbücher beinhalteten.
Autor: Doreen Kelimes M.A. (Stadtarchiv Speyer)
Virtuelle Rekonstruktion historischer Klosterbibliotheken mit Digitalisaten
Im Juni 2011 veröffentlichte ich in Archivalia einen kurzen Beitrag “Virtuelle Rekonstruktion historischer Handschriftenbibliotheken”. Im Mittelpunkt standen Kloster- und Stiftsbibliotheken. Es sollte auf Anhieb einleuchten, dass bei verstreuten Beständen eine virtuelle Rekonstruktion mit Digitalisaten jedem noch so schön gedruckten Buch vorzuziehen ist. Es wäre dringend wünschenswert, dass in einem Wiki Handschriftendigitalisate auch nach Provenienzen erschlossen würden. Unbrauchbar ist der nur einen winzigen Bruchteil aller Digitalisate erfassende Catalogue of Digitized Medieval Manuscripts, auch wenn man in ihm nach Provenance suchen kann. Es wäre schon hilfreich, [...]
Aufruf zur Mitarbeit: Das Frühneuzeit-Blog der RWTH Aachen ist ein Gemeinschaftsblog, in dem alle an der Frühen Neuzeit Interessierten mitschreiben können
Schon das AGFNZ-Blog war ein Gemeinschaftsblog:
“Es ist als Gemeinschaftsweblog konzipiert und für AutorInnen offen, die dieses Format im thematischen Rahmen der Frühen Neuzeit nutzen wollen.” (Erster Eintrag vom 23. September 2010)
Es führt das AGFNZ-Weblog weiter, dessen Beiträge importiert wurden (siehe “Abschied vom AGFNZ-Blog” vom 12. September 2011).
Getragen seit Ende 2011 vom Lehr- und Forschungsgebiet Frühe Neuzeit an der Rheinisch-Westfälischen Technischen Hochschule Aachen, Professur Christine Roll, ist es offen für alle Beiträge, die zu dem Profil passen, das im ersten Eintrag vom 23. September 2010 skizziert wurde: “Digitales wird einen besonders hohen Stellenwert in diesem Blog haben. Wir wollen keine Buchbesprechungen und kommerzielle Werbung, weisen aber gern auf (seriöse) kostenlose Online-Publikationen hin. Wir wollen nicht das Rad neu erfinden: Was H-SOZ-U-KULT besser leistet, etwa das Ankündigen von Veranstaltungen und die Mitteilung der Tagungsberichte, wollen wir nicht kopieren. Was dort fehlt, beispielsweise Hinweise zu neuen Ausstellungen oder zu einem Frühneuzeit-Video auf Youtube, ist schon eher für uns relevant.”
Anders als das von der Regensburger Frühneuzeit-Historikerin Maria Rottler im Herbst 2012 gegründete Gemeinschaftsblog Ordensgeschichte, über dessen beispiellosen Erfolg wir uns sehr freuen, registrieren wir keine AutorInnen “auf Vorrat”. Wer einen Beitrag für uns hat, sendet diesen bitte an fnzblog at histinst.rwth-aachen.de und erhält dann eine Zusage (und einen Account für weitere Beiträge) oder eine Absage mit Begründung/Bitte um Überarbeitung.
Wir freuen uns auf Beiträge!
Der veſte Buchſtab. Digitale Editionen, ihre Erstellung und Darbietung
Am 29. und 30. November 2012 fand in der Geschäftsstelle der Max Weber Stiftung das Arbeitstreffen „digital humanities. Wissenschaftliche Datenbanken und Editionsprojekte“ statt. Zwar gibt es gibt noch keinen Königsweg, der in diesem weiten Bereich zu allen Zielen führt. Umso wichtiger sind Übergangsmöglichkeiten von einem Weg zum anderen.
Die Überlieferung von Worten ist das wertvollste Kulturgut überhaupt. Bauten und Bilder, Geschmeide, Melodien und Maschinen können uns nützen, uns freuen, uns staunen und schaudern lassen ‒ aber sie reden nie so zu uns wie Worte, von Mensch zu Mensch. Kein Wunder, dass wir gerade auch dieser Überlieferung digitale Dauer zu geben bestrebt sind, kein Wunder aber auch, dass bei der Ausführung des Vorhabens Schwierigkeiten begegnen. Lösungen solcher Schwierigkeiten war das Arbeitstreffen gewidmet, freilich mit Schwerpunktsetzung: Es ging um schriftliche Überlieferung und das Eingeben, Abspeichern, Aufbereiten und Anzeigen von zugehörigen Metadaten (im weiteren Sinn verstanden, worunter auch schon das Transkript zu einer Abbildung fällt). Und es war wirklich fesselnd zu sehen, wie vielfältige und ausgefeilte Lösungsansätze vorgestellt, gelegentlich auch ‒ freundlich und erfreulich lebhaft ‒ gegenübergestellt wurden und wie sie einander ergänzen oder befruchten konnten.
Aus einer Hölderlinhandschrift mit der im Titel angeführten Stelle. Die Transkription (d oder D oder …?) ist ein primär philologisches, nur sekundär technisches Problem. Dazu unten etwas. (Quelle: Württembergische Landesbibliothek Stuttgart: Hs. Homburg.G,2-7: Blatt 6v: Zeile 6. http://digital.wlb-stuttgart.de/purl/bsz346526833. Lizenz CC BY-NC-ND.)
FuD, vertreten von Marina Lemaire und Gisela Minn vom Trierer Kompetenzzentrum, zeigte sich als System mit einem erprobten Kern und einer Vielzahl von entwickelten oder in Entwicklung befindlichen Schnittstellen, um so gut wie alle Editionsschritte zu unterstützen ‒ von der kollaborativen Erfassung in einer MySQL-Datenbank der Uni Trier bis zur Veröffentlichung im Netz oder Druck ‒, aber auch den Wechsel hin zu anderen Systemen anbieten zu können. So gab Sebastian Felten vom DHI London einen interessanten Einblick ins Projekt „Pauper Letters and Petitions for Poor Relief in Germany and Great Britain, 1770 – 1914“ und wie dort sowohl FuD als auch das ‒ noch zu erwähnende ‒ DENQ zusammen genutzt werden, das eine zur Eingabe, das andere zur Anzeige im Netz.
BASYS-Invenio, vorgestellt von Thekla Kleinschmidt und Branimir Kolev vom Bundesarchiv, wurde und wird auf der Grundlage von Islandora entwickelt, um Archivalien in einem riesigen Gesamtbestand von einigen hundert Terabytes rasch finden und anzeigen zu können. Eingebaut ist eine sehr lesefreundliche Anzeige in Gestalt des Internet-Archive-Viewers, zudem mit einer maschinellen Texterkennung über Tesseract, was eine Suche im Text der jeweils angezeigten Abbildung ermöglicht. Bei den meisten Bundesarchivalien, gedruckt im 20. bis 21. Jahrhundert, zeitigt eine maschinelle Texterkennung gute Ergebnisse.
Peter Stadler stellte die Carl-Maria-von-Weber-Gesamtausgabe vor, die in bewunderungswürdig konsequenter und harmonischer Verbindung von philologischen Kardinaltugenden und modernen XML-Techniken erarbeitet wird: Mit Gründlichkeit und Genauigkeit und der echt philologischen Liebe zum Wort wird aus der sichtbaren Überlieferung, dem Bild, ein lesbarer, und zwar maschinenlesbarer Text, der bis zur Anzahl der Striche bei Unterstreichungen alles von der Überlieferung aufhebt, was irgendwie sinnunterscheidend sein könnte.
Ruth und Borries von dem Bussche vom Düsseldorfer Unternehmen Fafalter skizzierten dagegen eine Lösung auf der Grundlage von HTML5, das mit RDF-Annotation angereichert wird ‒ eine Verbindung von Sinn- und Gestaltebene, die früher gemieden wurde, jetzt aber im Verlagswesen und überhaupt im geschäftlichen Umfeld mehr und mehr Anklang findet. Auch, um Netzseiten mit mehr maschinenlesbarem Inhalt im Sinne des „semantic web“ zu erstellen, ist HTML5 mit RDF-Anzeichnung die fortgeschrittenste Lösung.
Charlotte Schubert von der Universität Leipzig führte eAQUA vor und machte anhand von Beispielen aus ihrer eigenen Forschung deutlich, welchen außerordentlichen Nutzen ein Korpus von diesem Umfang und Lemmatisierungsgrad, zudem versehen mit den Anzeigemöglichkeiten der Kookkurrenzanalyse und der raumzeitlichen Belegverteilung haben kann.
Torsten Schrade von der Digitalen Akademie Mainz stellte einen editorischen Arbeitsablauf vor, der von Ausgangsdokumenten in verschiedenen (und nicht immer günstigen) Formaten hin zum Content-Management-System Typo3 führt. Eine besondere Herausforderung ist im Fall des Beispielprojektes „Medieval Ashkenaz“ die Mischung hebräischer und deutscher Teile, also links- und rechtsläufiger Schriftrichtung, was in besonders schweren Fällen mit einem Zusammenspiel aus weicher Auszeichnung (mit <span dir=”rtl”> … </span>) und harten Steuerzeichen (U+202B für ‘ab hier linksläufig’ und U+202A für ‘ab hier rechtsläufig’) gelöst wird. Die Steuerzeichen werden elegant über das CSS, nämlich über eine an die Anzeichnung dir gebundene content-Eigenschaft eingefügt.
DENQ, vorgestellt von Jörg Hörnschemeyer (dem Entwickler) und Jan-Peter Grünewälder vom DHI Rom, ist ebenda entwickelt worden, also gleichsam innerhalb der Max Weber Stiftung. Ein Kernbestandteil ist die XML-Datenbank eXist. Gezeigt wurden eine Suche über mehrere Korpora, auch als Ähnlichkeitssuche auf der Grundlage des Lewenstein-Algorithmus, ferner die Anzeige von Belegen in räumlicher Verteilung, unterlegt mit einer geographischen Karte, sowie die Möglichkeit, die Abbildung eines Textes in Ausschnitte zu zerlegen, die im SVG-Format gespeichert und den je entsprechenden Textausschnitten zugeordnet werden können, was noch in Entwicklung ist. Es konnte aber bereits eine gerade für diese Aufgabe äußerst nützliche maschinelle Vorsegmentierung gezeigt werden, die schon erstaunlich gut war. Zur Dateneingabe sonst: In DENQ wurde oder wird für jedes gewünschte Format eine Überführung in eXist entwickelt. Unter anderem möglich ist die Nutzung eines vertrauten Editors wie Word, in dem dann über Formatvorlagen recht bequem eine semantische Auszeichnung bis auf die Ebene des Zeichens hinab vorgenommen werden kann. Es ist bewundernswert, wie viel Funktionalität und Flexibilität auf schmaler Personalbasis entwickelt und ermöglicht worden ist.
TextGrid, vorgestellt von Oliver Schmid von der Technischen Universität Darmstadt, ist vielleicht das komplexeste der vertretenen Systeme und bietet einen zumal gemessen am Projektalter großen Umfang an Funktionen sowie Teilprogrammen, die modular entwickelt und vom Nutzer modular eingebunden werden können. Die Eingabeumgebung, TextGridLab, funktioniert als reines Java-Programm ohne Installation (wenn das Java-Runtime-Environment auf dem Rechner installiert ist, was ja meist zutrifft) und auch offline. Das TextGridRep wiederum dient sowohl der gemeinsamen Arbeit an derselben Datenbank, als auch der Langzeitarchivierung und der Veröffentlichung im Netz mit Suchmöglichkeiten.
Zwei vielleicht miteinander zusammenhängende Eindrücke vom Arbeitstreffen:
Erstens. Es gibt noch keinen Königsweg, der zu allen Zielen führt; umso wichtiger sind Übergangsmöglichkeiten von einem Weg zum anderen.
Zweitens. Gerade als Austauschformat ist XML noch immer und bis auf weiteres „die reine Lehre“, wie Gregor Horstkemper von der Bayerischen Staatsbibliothek in seiner Moderation scherzte. Andererseits wurden hin und wieder die Unzulänglichkeiten von XML in den Randbereichen seiner Verwendung deutlich: Wann immer man Geltungsbereiche auszeichnen will, die unterbrochen sind oder einander überlappen, also nicht in die hierarchische Verschachtelung von XML-Dokumenten passen, muss man zu Behelfen greifen, von denen keiner der Standard ist ‒ die TEI-Richtlinien stellen mehrere gleichberechtigt nebeneinander. Und schlimmer: Um die Behelfslösung einzulesen, etwa bei Abfragen, muss man einen eigenen Parser schreiben (adé Standardkonformität) oder auf Reguläre Ausdrücke zurückgreifen (was sonst als blankes Versagen bei der XML-Verarbeitung gilt) oder XPointer verwenden, was noch kaum umgesetzt und überdies mit einem Patent belastet ist, das bei Sun lag, jetzt also bei Oracle liegen müsste (vgl. http://www.w3.org/TR/xptr-framework/, http://www.w3.org/2002/06/xptr_IPR_summary.html). Oracle hat bekanntlich schon wegen eines anderen von Sun geerbten Patentes einen Rechtsstreit begonnen.
Dennoch: Stadler, Leiter der TEI-Interessengruppe „Correspondence“, hat XML mit pädagogischem Impetus hochgehalten: Geisteswissenschaftler sollen mit XML umgehen können, weil der Umgang mit Texten, Textstruktur und Textsemantik zum Kernbereich der Geisteswissenschaft gehört, weil die dabei anfallenden Entscheidungen auch nur der Fachwissenschaftler, kein hilfreich herbeieilender Techniker treffen kann und weil der Umgang mit XML auch gar nicht so schwierig ist wie die wirklich harten Probleme ‒ die sind bei einer Edition stets philologischer Natur. Wenn man von der XML-Frage verallgemeinernd absieht, wird der Impetus ein aufklärerischer: Es geht dann um den Ausgang des Geisteswissenschaftlers aus einer selbstverschuldeten Unmündigkeit, was Datenverarbeitung angeht. Besteht diese Unmündigkeit? Und ist sie selbstverschuldet ‒ aus denselben Ursachen, die Kants berühmter Aufsatz nennt? Hier liegt ein Problem, das unangenehmer ist als etwa das vergleichsweise harmlose Ansinnen, die Geisteswissenschaften im Social Web zu verankern.
Dr. Stefan Müller ist Referent für Datenbanken in der Geschäftsstelle der Max Weber Stiftung in Bonn, Redaktion Perspectivia.
Quelle: http://mws.hypotheses.org/1571