Den Taggingprozesses verstehen: Wie und warum taggen Nutzer persönliche Daten?

In der Tagging-Studie Qin Gaos [1] geht es um das Taggen von persönlicher Information. Im Zentrum dieser HCI-Studie steht der Mensch und die Auswirkungen des Tagging-Vorgangs auf dessen Leistung, Arbeitsbelastung, Gedächtnis und Konsistenz der Wortwahl.

Bezüglich des kognitiven Prozesses beim Taggen von Bildern habe ich bisher keine Studien gefunden. Deshalb schaue ich mir diese hier genauer an,

  • um den kognitiven Prozess und Vorgang des Taggens allgemein zu verstehen,
  • um festzustellen, welche kognitiven Leistungen Taggen erfordert und
  • ob es ggf. Punkte gibt, die zumindest teilweise Rückschlüsse auf das Taggen von Bildern in Bilddatenbanken zulassen.

Die mir interessant erscheinenden Aussagen habe ich grün ausgezeignet und gehe darauf im letzten Abschnitt ein.

Gao erstellte zuerst eine Pilot-Studie (S. 829-834), in der 6 Teilnehmer über ihre Erfahrungen introspektiv und in Interviews darüber berichteten, warum und wie sie Tags für Webseiten selektieren. Diese Pilot-Studie gibt einen detaillierten Einblick in den Vorgang des Taggens:

Warum taggen Nutzer persönliche Daten; was ist ihre Motivation?

Alle Teilnehmer berichteten, dass sie zu ihrem persönlichen Nutzen taggen würden. Vier Teilnehmer sagten aus, dass sie anders taggen würden, wenn sie berücksichtigen, dass sie die Tags mit anderen teilen. In diesem Fall würden sie allgemeinere Begriffe wählen und ad hoc –Definitionen vermeiden. Ein Teilnehmer, der regelmäßig taggt, erwähnte, dass er abschätzen würde, welche möglichen Schlagworte andere verwenden würden, wenn diese nach dem Inhalt suchen würden. Dieser Teilnehmer verwendete die meisten Tags von allen Teilnehmern und taggte jede Webseite mit vier bis sieben Schlagworten.

Bei den Teilnehmern erfüllte Taggen zwei Hauptfunktionen: das zukünftige Auffinden von Dateien sollte erleichtert und der Inhalt von Informationen annotiert werden. Die meisten Teilnehmer waren sich dieser beiden Funktionen bewusst: “Einige Tags sind für das Wiederfinden, andere zum Lesen (um eine Vorstellung davon zu bekommen, worum es geht). Zwei Teilnehmer gaben explizit an, dass sie Tags sowohl als Kategorie als auch als Schlagwort benutzten, wobei sie zugaben, dass diese Erkenntnis post hoc reflexiven Ursprungs ist und dass sie diese zwei Typen von Tags im täglichen Gebrauch nicht absichtlich unterschieden.

Taggen, um Information später wiederzufinden

Vier Teilnehmer befanden, dass die Verwendung von Tags, die Treffgenauigkeit des Auffindens von Informationen – im Vergleich zur Kategorisierung und allgemeiner Stichwortsuche – erhöhen kann. Es hängt davon ab, wie gut es dem Nutzer möglich ist, sich an die Tags die er/sie benutzt hat, wieder zu erinnern. Von den Teilnehmern wurden zwei Verfahren angewandt, um das spätere Wiederauffinden zu vereinfachten: die Erhöhung der Tag-Konsistenz und die Verringerung der Tag-Redundanz. Alle Teilnehmer stimmten überein, dass sie so weit wie möglich, bereits vorhandene Tags wiederverwenden würden, um die Konsistenz von Tags zu erhöhen. Dazu entwickelten sie eigene Regeln:

  • So wurde z.B. der Dateityp als Tag verwendet: “video“ für bewegte Bilddateien oder „media“ für Informationen in Schriftform.
  • Es wurden Tags wie „fun“ oder „interesting“ verwendet, wobei die Teilnehmer berichteten, dass ihnen klar sei, dass diese Tags für andere nicht verständlich sind und nur für sie selbst Bedeutung hätten.
  • Es wurden Tags erstellt, die verschiedene kategoriale Ebenen vermischten, wie „politics“ und „domestic politics“.

Regeln widersprachen sich und nur wenige Teilnehmer konnten sie konsistent anwenden. In allen introspektiven Berichten, in denen selbst erstellte Regeln erwähnt wurden, bemerkten die Teilnehmer, dass die Auswahl von Tags mit ihren persönlichen Regeln kollidierte.

Obwohl die Teilnehmer sich der Inkonsistenz ihrer Tags bewusst waren, waren sie nur widerstrebend dazu bereit, ihre Tags „aufzuräumen“. Nur eine Versuchsperson – ein Novize – änderte bei Konflikten seine Tags sofort. Alle fortgeschrittenen Nutzer betrachteten es als unmöglich, alle ihre Regeln konsistent anzuwenden und akzeptierten das als gegeben. Ein Teilnehmer berichtete, dass er größere Inkonsistenzen bereinigen würde, wenn er es für nötig befand; der Rest der Versuchspersonen erklärte, dass er oder sie nie oder sehr selten Änderungen an den verwendeten Tags vornehmen würde. Zwei der Teilnehmer würden es tun, gäbe es dafür geeignete Werkzeuge.

Taggen, um Inhalt zu annotieren

Taggen ist auch ein Weg, das Verständnis des Inhalts auszudrücken oder eine Zusammenfassung des Inhalts zu geben. Spezielle Tags wie „ChildMp3“ oder „ToyMp3“ beschreiben die Charakteristika des Inhalts einer Website und halfen einem Teilnehmer, schnell eine Vorstellung vom Inhalt einer Liste zu erhalten, ohne jeden Link anklicken zu müssen. Ein anderer Teilnehmer nannte solche Tags „Tags zum Lesen“. Zwei Teilnehmer fanden diese Art von Tags nützlich, um den Wert bzw. die Interessantheit des getaggten Inhalts zu verdeutlichen und eine persönliche Perspektive hinzuzufügen, wenn sie den Inhalt mit anderen teilen wollten. Die meisten Teilnehmer waren der Auffassung, dass sie solche Tags nicht für das Wiederfinden verwenden würden, weil sie sich nicht an die genauen Tags erinnern könnten.

Kriterien für die Auswahl von Tags:

  • Die Wahrscheinlichkeit, Tags zur späteren Organisation von Information wiederzuverwenden. „Wenn ich Tags vergebe, hoffe ich, dass ich sie später wiederverwenden kann. Wenn ich einen Tag, lange Zeit nachdem ich ihn nur einmal einem Inhalt hinzugefügt habe, sehe, denke ich, dass er unnütz ist und ich versuche ihn zu löschen oder ich kombiniere ihn mit Tags, die ich öfter verwendet habe. Aber ich habe nicht die Zeit, das [Aufräumen] regelmäßig zu machen.“
  • Die Wahrscheinlichkeit, eine Information später wiederzufinden. Alle Teilnehmer berichteten, dass sie bei der Auswahl von Tags daran dachten, wie die Information verwendet wird (temporäres Projekt, langfristiges Interesse, allgemeine Referenz). Bedenken bezüglich des Kontextes, in dem die Information gefunden wird, hatte direkten Einfluss auf die Tag-Auswahl. Ein Teilnehmer berichtete, dass er beim Taggen an die möglichen Begriffe dachte, die er bei der Suche nach der Information verwenden würde.
  • Zentralität und Beschreibbarkeit des Inhalts: Die meisten Teilnehmer fanden zentrale Tags, die den Inhalt gut beschreiben, so wichtig, dass sie diese verwendeten, auch wenn sie nicht in ihr organisatorisches Schema passten: „Ich habe „Athen“ vorher noch nicht verwendet, und ich denke, ich werde später auch keinen Inhalt hinzufügen. Aber es ist zu wichtig und beschreibt den Inhalt genau.“
  • Minimierung des Aufwands, Tags zu generieren oder sich daran zu erinnern:Einige Teilnehmer verwendeten verschiedene Verfahren, den kognitiven Aufwand zu minimieren, um Tags zu generieren oder sich an sie zu erinnern.
    • Zwei Teilnehmer kopierten und fügten Worte von der Website als Tags zur Tag-Liste hinzu,
    • drei Teilnehmer verwendeten Schlüsselwörter, die bereits vom Autor als Tag-Referenz vergeben wurden.
    • Einer der drei Teilnehmer berichtete, dass er, bevor er ein Tag vergibt, zunächst aktiv nach diesem Schlagwort suchen würde.
    • Teilnehmer minimierten den Aufwand, sich an Tags zu erinnern, indem sie vertraute Begriffe verwendeten. Lag die Thematik einer Webseite außerhalb ihres gewohnten Wortschatzes, verwendeten sie vertraute Ausdrücke, auch wenn dies zu einer unpräzisen Beschreibung führte. Vor unbekannten Begriffen hatten sie Bedenken: “Ich muss auf den ersten Blick erkennen können, was meine Tags bedeuten und was sie beinhalten.“
    • Konsistenz mit dem eigenen Tagging-Muster. Alle Teilnehmer waren bezüglich der Tagging-Konsistenz skeptisch und verwendeten verschiedene persönliche Heuristiken (z.B. Wiederverwendung von Tags, Ad hoc Tagging-Regeln, Einschränkung der Ebene der Spezifität), um ihre Tagging-Konsistenz zu verbessern.

Zwischen den Kriterien gab es häufig Konflikte. Z.B. wurden zentrale Worte nicht wiederverwendet. Während des Tagging-Prozesses wurden verschiedene Kriterien verwendet. Obwohl die Versuchspersonen in ihrem Tagging-Muster Konsistenz bewahren wollten, waren sie sich der Unvollständigkeit und Fehlerhaftigkeit ihres Tagging-Schemas bewusst: “Auch wenn ich einige Erfahrung beim Taggen habe, ist mein Tagging-Prozess doch häufig willkürlich. Manche Schlagwörter fallen mir spontan ein, nachdem ich den Inhalt gelesen habe, und ich verwende einige von ihnen als Tags. Ich kann mir nicht einmal selbst erklären, warum ich einmal ein Wort als Tag selektiere und ein anderes Mal nicht.“ Doch sie zögerten, ihre Regeln zu verfeinern. Zwei Teilnehmer berichteten, dass sie ein paar „große“ (engl. original “big”) Tags verwenden würden, um die Konsistenz zu verbessern, aber sie fanden heraus, dass dies zu einer langen Liste unter jedem „großen“ Tag führte, was die Effizienz der Informationssuche reduzierte.

Dieser Pilot-Studie kann man entnehmen, dass Taggen Mühe macht. Es erfordert einen nicht unerheblichen kognitiven Aufwand, besonders wenn es darum geht, auf Konsistenz und Redundanz der Tags zu achten. Trotzdem führt es zu Konflikten. Folgende Aussagen, zu denen ich einige Bemerkungen hinzugefügt habe, sind mir aufgefallen:

  • ... dass sie anders taggen würden, wenn sie berücksichtigen, dass sie die Tags mit anderen teilen
    Es macht einen Unterschied, ob Nutzer für den eigenen Gebrauch oder für die Öffentlichkeit taggen.
    • Welchen Unterschied gibt es im Tagging-Verhalten beim Nutzer, der Tags über eine Spieloberfläche eingibt und einer Anwendung ohne Gamification?
    • Wie wirkt sich eine als Spiel konzipierte Tagging-Anwendung (z.B. Brooklyn Museum und ARTigo) auf die Generierung von Tags beim Spieler aus?
    • Falls es dabei Unterschiede gibt: Wie kommen sie zustande?
  • Ein Teilnehmer, der regelmäßig taggtverwendete die meisten Tags von allen Teilnehmern
    Es gibt Übungseffekte. Wo liegt ihr Nutzen?
  • … bereits vorhandene Tags wiederverwenden würden…,
  • Konsistenz mit dem eigenen Tagging-Muster.
    Anwender haben ihr Tagging-Muster (Patterns), die ihnen eigene Art zu taggen, Dinge zu benennen, Worte dafür zu wählen. Wenn Anwender über Patterns verfügen, dann müssten auch andere Objekte, wie Künstler, Bilder, Stilepochen etc. ihr Pattern haben.
  • Gibt es Unterschiede im kognitiven Aufwand beim Taggen von Bildern? Falls ja: welche Tags erfordern viel, welche weniger Aufwand? Da ein Aufwand immer eine Hürde bedeutet: Was muss man tun, damit der Anwender diese Hürde überspringen kann?

[1] Qin Gao: An Empirical Study of Tagging for Personal Information Organization: Performance, Workload, Memory, and Consistency. In: International  Journal of Human-Computer Interaction, 27/7-9, 2011, S. 821-863

 

Quelle: http://games.hypotheses.org/810

Weiterlesen

James Bonds Kollegen: Der deutsch-deutsche Spionagefilm ist ein unbekanntes Kapitel der Popgeschichte

Daniel Craig als James Bond in “Skyfall”. (Foto: Sony Pictures 2012) Mit dem Erfolg des jüngsten James-Bond-Film “Skyfall” scheint die “Bonditis” wieder ausgebrochen, die vor 50 Jahren mit dem ersten Bond-Film begann. In den Sixties kämpften auf den Leinwänden auch deutsche Spionagehelden – gegen fiktive Superschurken, aber auch gegen höchst reale Zensoren auf beiden Seiten des Eisernen Vorhangs. Ein unbekanntes Kapitel deutscher Popgeschichte.   Seine Armbanduhr verbirgt ein Tonbandgerät, sein Koffer ein Schlauchboot und er verfügt über ein Mini-Tauchgerät. Seine Pistole trifft immer ihr Ziel, aber seine Gegner erledigt er lieber mit einem betäubenden Handkantenschlag, stets lächelnd und im tadellos sitzenden Anzug. Er raucht ausschließlich Zigarillos der Marke Monte Christo mit goldenem Mundstück. Frauen sind ebenso machtlos gegen seinen Charme wie Superschurken gegen seine Fäuste. Sein Spitzname: Mister Dynamit. Auf den ersten Blick sieht der Mann mit dem explosiven Faustschlag und der ungewöhnlichen Begabung des Bauchredners einem bekannten britischen Spionagefilm-Helden zum Verwechseln ähnlich. Wären da nicht die Details. Etwa die geheime Dienstnummer: Es ist nicht die 007 sondern die 18. Mister Dynamit ist auch nicht in London verbeamtet sondern in Pullach. Und sein Name ist nicht Bond, sondern Urban. Robert Urban. Der wichtigste Unterschied ist jedoch, dass James Bond ein Weltstar ist, Robert Urban jedoch weitgehend vergessen. Dabei war er einst nichts weniger als der deutsche 007. Mitte der Sechzigerjahre für eine Groschenromanreihe konzipiert, hätte der deutsche Held eine ähnlich erfolgreiche Karriere machen sollen wie sein ungleich bekannterer Kollege vom britischen Auslandsgeheimdienst MI6.   “Dr. No” (1962) James Bond feiert dieser Tage sein 50. Leinwandjubiläum. Noch immer ist er ein „Agent des Zeitgeistes“, wie ihn sein Chronist, der bekennende Fan Werner Greve in einer gerade erschienenen analytischen Hommage genannt hat (Werner Greve: James Bond 007. Agent des Zeitgeistes, Vandenhoeck & Ruprecht 2012). Noch immer schreiben lizensierte Nachfolger die Romanabenteuer fort und noch immer entsteht alle paar Jahre ein Kinofilm. Bonds deutsche Kollegen sind unterdessen weitgehend vergessen. Die „Mister Dynamit“-Hefte erscheinen schon seit Jahren nicht mehr und auch andere harte Männer wie „Kommissar X“ oder „Jerry Cotton“ sind in der Krise. Dabei haben deutsche fiktionale Agenten eine mindestens ebenso brisante Geschichte wie ihr weltbekanntes britisches Vorbild. In den sechziger Jahren kämpften sie auf beiden Seiten des Eisernen Vorhangs — ein weitgehend unbekanntes Kapitel deutsch-deutscher Popgeschichte. Es beginnt in der Zeit des Kalten Krieges, dessen Frontlinie mitten durch das besiegte Deutschland schneidet. Der Kalte Krieg ist eine symbolische Auseinandersetzung, die nicht nur mit dem taktischen Arsenal der Raketen, Panzersperren und dem Marschtritt der Paradestiefel ausgetragen wurde. In weiten Zügen war er ein Konflikt der Kultur, der die Grenzen zwischen „harten“ und „weichen“ Faktoren aufweichte: Als Bedrohung stationierte Raketen waren of nur Theaterkulissen während Filme und Romane als reale Waffen wirken konnten, deren ideologische Botschaften mitten im Feindesland zündeten. Niemand nahm dies so ernst wie die Zensoren. Die Abenteuer des James Bond waren in der DDR verboten. Im Westen hingegen wurden sie ähnlich populär wie zuvor die aus Großbritannien schwappende Beat-Welle, die so genannte Beatlemania. Die zwischen in den Jahren 1953 bis 1965 erscheinenden Romane des Ex-Spions und Erfolgsschriftstellers Ian Lancaster Fleming verbreiteten sich zunächst in Buchform, dann als täglicher Comicstrip in Zeitungen, schließlich als Filme, die hunderte Millionen Pfund einspielten. Der „Spy Craze“ umfasste bald viel mehr als nur Romane und Kinofilme. Die Modewelle erstreckte sich auf Armbanduhren, Autos, Herrendüfte und Wodkasorten, die in einem bislang einzigartigen product placement mit dem Namen James Bond verbunden waren. Tatsächlich aber war der von Fleming geschaffene Charakter weder der einzige, noch der erste fiktive Spionageheld mit Dienstwaffe und Codenummer. In Frankreich etwa veröffentlichte seit 1949 der Autor Jean Bruce die Abenteuer des Geheimagenten OSS 117,  erst kürzlich parodistisch neuverfilmt mit Jean Dujardin. Sammler zählen mehr als 200 Agentenfilme allein im Verlaufe der Sechzigerjahre. Die meisten von ihnen zeigten starke Ähnlichkeit mit der Fleming’schen Welt. So entkam 1965 Geheimagent 505 der „Todesfalle Beirut“ und auch die Amerikaner zog es in „Geheimauftrag CIA – Istanbul 777“ in die Türkei. Dazu kamen Fernsehserien wie „Get Smart“, „I Spy“, „The Saint“ oder „Amos Burke – Secret Agent“. Refugium des Herrenwitzes: Humor aus der prä-feministischen Ära In den USA spielt Dean Martin die Rolle des Geheimagenten Matt Helm und James Coburn den Agenten Derek Flint, der sich während seiner Anstrengungen zur Rettung der Welt stets mit leicht bekleideten jungen Frauen umgibt. Die meisten westlichen Spionagehelden tragen weniger zur Interpretation des Kalten Krieges als vielmehr zur populären Ausgestaltung des Playboys bei und tragen einen altbackenen Herrenwitz und ausgewachsene Macho-Allüren zur Schau. Die Deutschen tun zunächst schwer mit dem Anschluss an die angloamerikanisch geprägte „Spy Fiction“. Nach dem Zweiten Weltkrieg befand sich das Konzept des deutschen Nationalhelden ohnehin in der Krise. Die militaristischen Flieger-Asse, Frontkämpfer und Kolonialoffiziere hatten als Helden ausgedient. Ein erfolgreicher Versuch das neue Genre zu beerben war neben „Mister Dynamit“ die Verfilmung der „Kommissar X“-Groschenromane, deren rund 500 Titel im Rastatter Pabel-Verlag erschienen waren und es in den Sechzigern auf eine Gesamtauflage von 60 Millionen gebracht hatten. Allein im Jahr 1966 werden drei davon für die Leinwand verfilmt. Kommisar X – der bundesdeutsche James Bond ist ein Versicherungsagent. Tom Walker alias Kommissar X kämpft darin gegen geheime Killerorganisationen wie die „Gelben Katzen“, die ihre Opfer mit Karateschlägen töten, doch ist der Titelheld kein Geheimagent, sondern als Versicherungsdetektiv tätig: eine sehr deutsche Variante.  Produzent T.M. Werner zufolge unterschieden sich Bond und Walker „beruflich wie ein Sprengmeister von einem Jagdflieger.“ Zuerst noch im Einsatz gegen die weltbedrohende Laserwaffe eines Atomphysikers, zeigt sich Kommissar X auf seinen weiteren Missionen dem Zeitgeist gegenüber äußerst anpassungsfähig und kämpft in den psychedelischen Sixties gegen die Modedroge LSD. Mit der experimentierten nach eigenen Angaben auch seine Schöpfer – was man den Filmen gelegentlich anmerkt. Einen der aussichtsreichsten Versuche zum internationalisierten Genre aufzuschließen unternimmt eine europäische Co-Produktion, die den Deutschen Horst Buchholz in geheimer Mission nach Istanbul entsendet um dort einen Atom-Physiker aus den Händen einer verbrecherischen Organisation zu befreien. Der ehemalige Halbstarke bewegt sich stilsicher zwischen Spielcasinos, türkischen Bädern und Hafenschlägereien, doch trotz Star-Besetzung mit etablierten deutschen Bösewichten wie Klaus Kinski und Mario Adorf und malerischen Drehorten ist „Estambul 65“ („Unser Mann aus Istanbul“) keine Fortsetzung vergönnt. “Tpoas” (1969) Den westdeutschen Beiträgen zum „Spy Craze“ ist mit ihrem Vorbild gemeinsam, dass der Kalte Krieg in der Handlung nur mittelbar eine Rolle spielt. Während Filme von Alfred Hitchcock („The Torn Curtain“, “Topas”) oder John Frankenheimer (“Seven Days in May”) auf den Realismus setzten, der später zum Markenzeichen der spy novels eines John Le Carré werden wird, setzt die popkulturelle Ausgestaltung der „Bonditis“ auf grellbunten Konsum. Mehr noch als Kalte Krieger sind die Geheimagenten, die aus der Popkultur kamen, Snobs und Playboys, die dem Hedonismus weit stärker anhängen als einem platten Antikommunismus. Für den Ostblock macht sie das umso gefährlicher. Die Angriffe der westlichen Popkultur spürt niemand so deutlich wie die Kulturbehörden der DDR. Die Freie Deutschen Jugend leitet immer wieder Dokumente an die Staatssicherheit weiter, in denen Jugendliche anonym die Vorführung westlicher Agentenfilme fordern. Schließlich entschließt man sich zum cineastischen Gegenschlag. Im Jahr 1963, zwei Jahre nach Bau der Berliner Mauer, kreiert die ostdeutsche Filmproduktion DEFA ein neues Genre: den so genannten Kundschafter-Film. In dem sozialistischen Beitrag zum Spionagegenre tritt der Kundschafter als ideologisch gefestigter Agent des Sozialismus auf. Seine Mission: die  Demontage des dekadenten Westens. “Der Kundschafterfilm: eine Waffe gegen den Imperialismus” Als Mutter des Genres gilt der Film “For Eyes Only”, den der Regisseur János Veiczi 1963 für die DEFA dreht. Der Schauspieler Alfred Müller spielt darin den DDR-Spion Hansen, der als vermeintlicher Republikflüchtling den Bundesnachrichtendienst unterwandert und einen Plan zur Invasion der DDR verhindert. Wichtiger noch als diese grob gestrickte Rahmenhandlung ist die Darstellung der westlichen Popkultur. Musteragent Hansen ist der westliche Lebensstil zuwider: Er trinkt lieber Milch statt Alkohol, verabscheut obszöne Modetänze wie den Twist und ist ein treu sorgender Familienvater. Nebenbei bietet der Film eine für DDR-Produktionen ungewöhnliche Portion Action. Am Ende kommt es zu einer spektakulären Flucht über die deutsch-deutsche Grenze: von West nach Ost. DEFA-Presseinformation zu “Eyes Only” (1963) „For Eyes Only“ wird zum Erfolg. Das Programmheft führte das „außerordentliche Interesse“ bei den Zuschauern auch auf das gewählte Genre zurück: „Der Kundschafterfilm erfreut sich seit jeher besonderer Aufmerksamkeit, vor allem bei einem jugendlichen Publikum.“ Vom westlichen Vorbild man grenzt sich bewusst ab: der Film führe „seinen Helden nicht als einen Supermann vor, wie er bei ähnlichen Filmen aus der bürgerlichen Produktion hinreichend bekannt ist. Die Schwere der Kundschaftertätigkeit wird deutlich, weil er es mit hochqualifizierten Gegnern zu tun hat, die auch über entsprechende technische Möglichkeiten verfügen. So lösen sich die für ihn auftauchenden Probleme nicht mit einer charmanten Handbewegung, sondern nur durch hohen persönlichen Einsatz, durch entsprechend kluge Reaktionen.“ Dieser Realismus mache ihn zu einem Instrument sozialistischer Erziehung, der „auf hervorragende Weise geeignet ist, an seinem Beispiel über Fragen der patriotischen Erziehung zu sprechen, über die Abwehr imperialistischer Machenschaften gegen die DDR und die sozialistische Staatengemeinschaft“. Die Serie „Das unsichtbare Visier“ beerbt das Genre erfolgreich im DDR-Fernsehen. Die popkulturellen Waffen des Ostens werden auch im Westen gefürchtet. Eines der dunkelsten Kapitel der Kulturgeschichte des Kalten Krieges ist die Zensur. Nicht nur im Osten, auch im vermeintlich freien Westen werden die fiktionalen Unterhaltungswerke des politischen Gegners unterdrückt. Dafür ist der „Interministeriellen Ausschusses für Ost/West Filmfragen“ zuständig. Die Aufgabe dieser ominösen, im Verborgenen agierenden Kommission war nichts anderes als die Zensur kommunistischer Filme. In dem 1953 auf Initiative des Innenministeriums der Bundesrepublik gegründeten Gremium, das bis 1966 in Kraft war, saßen neben Vertretern der Ministerien auch Mitarbeiter des Bundesamtes für Verfassungsschutz: Reale Geheimdienstler verhandelten hier die fiktionalen Agenten. Es ist schwer vorstellbar, dass man die Leinwandabenteuer eines Mister Dynamit, eines Kommissar X oder eines sozialistischen Saubermannes einst so ernst nehmen konnte, dass sich Behörden mit ihrem Verbot befassten. Diese kulturellen Kämpfe aber nur als Nebenschauplätze der politischen Auseinandersetzung zu begreifen, hieße den Kalten Krieg zu verkennen. Ein Konflikt, der auf der Ebene von Symbolen geführt wurde und im Kern ideologisch war, musste Ideen und Kulturprodukte als reale Waffen betrachten. So antiquiert uns heute die Helden aus jenen Jahren vorkommen mögen: Sie haben zeithistorische Bedeutung. Schließlich waren es keine Minikameras, Abhörprotokolle, Überläufer oder Strategieinformationen aus dem Arsenal der geheimen Dienste, die den Kalten Krieg am Ende entschieden. Den realen Sozialismus besiegten vielmehr die hedonistischen Verheißungen des Kapitalismus: Wohlstand, Konsum und grenzenlose Freizügigkeit. Selten dürften diese Verlockungen besser geschüttelt und schöner gerührt worden sein, als in der Popkultur des 20. Jahrhunderts und die hatte mehr Agenten als nur einen James Bond. Dieser Essay ist eine gekürzte und überarbeitete Version eines Vortrages, den Bodo Mrozek auf der Konferenz „Cold War Culture. The Global Conflict and its Legacies in Germany since 1945“ der School of History des Freiburg Institute for Advanced Studies (FRIAS) und der University of Cambridge am 20. September 2012 hielt. Er wurde gedruckt in der Literaturbeilage der Wochenzeitung Die Zeit (Nr. 45, November 2012, S. 16-17) und erscheint hier erstmals online.

Quelle: http://pophistory.hypotheses.org/449

Weiterlesen

Ungezählt, unbekannt, unerforscht. Sechs Jahrzehnte Flugblattsammlung in der Hamburger Arbeitsstelle für Universitätsgeschichte

Anton F. Guhl und Alexandra Jaeger Studierende schreiben. Das haben sie schon immer getan – zumeist jedoch nur in Form von Hausarbeiten oder Klausuren für ihre Lehrenden. Seltener richten sich Studierende an eine Öffentlichkeit und häufig gelangt das, was Studierende … Weiterlesen

Quelle: http://netzwerk.hypotheses.org/1536

Weiterlesen

Scheitern als Chance – Testen durch Fehler

Momentan experimentiere ich mit Marcos Zampieri zu Eigenschaften von brasilianisch-portugiesischen Internettexten. Dabei geht es unter anderem darum, spezifisches Vokabular aus diesen zu extrahieren und anhand dieses Vokabulars die Texte wiederum nach ihrer Internetness zu klassifizieren. Die Studie erscheint demnächst als Paper, hier will ich deswegen nicht über die Ergebnisse schreiben, sondern nur eine (zumindest für uns) lehrreiche Begebenheit aus der Entwicklungsphase schildern.

Aus wissenschaftlichen Veröffentlichungen lässt sich nur in den seltensten Fällen herauslesen, welche Fehlschläge auf dem Weg zu den letztlich öffentlich gemachten Versuchsaufbauten und Ergebnissen die Autoren hinnehmen mussten. Um zu zeigen, dass solche Fehlschläge durchaus fruchtbar sein können, muss ich zunächst etwas weiter ausholen und bei den drei Gütekriterien empirischer Studien beginnen, die ja, wie allgemein bekannt, die folgenden sind:

  • Validität – Misst das gewählte Verfahren tatsächlich das, was es messen soll?
  • Reliabilität – Funktioniert die Messung zuverlässig, sind die Ergebnisse im Wiederholungsfall stabil?
  • Objektivität – Wurden die Ergebnisse unabhängig vom Prüfer erzielt?

Auch wenn man – wie wir – ein Labor gebaut hat, in dem alles, was man experimentell anstellt, protokolliert wird, so dass die Ergebnisse im Normalfall (d.h., wenn man die Ausgangsdaten und die Werkzeuge in den entsprechenden Versionen nicht verlegt) jederzeit reproduziert werden können, sind diese drei Kriterien natürlich nicht automatisch erfüllt.

Wir (Computer)Linguisten wollen z.B. Aussagen über Sprache treffen und analysieren dafür Sprachdaten. Diese Aussagen sind natürlich immer abhängig von der Auswahl der Sprachdaten, die wir getroffen haben. Natürliche Sprachen sind ja leider kein abgeschlossenes System (im Gegensatz z.B. zum Text aus dem Voynich Manuskript, jedenfalls solange dessen fehlende Seiten nicht irgendwo auftauchen). Die Auswahl betrifft vor allem die beiden letzten oben genannten Gütekriterien, die Reliabilität (bleiben die Aussagen gleich, wenn ich eine andere Auswahl treffe) und Objektivität (bleiben die Aussagen gleich, auch wenn jemand anders die Auswahl trifft).

Die Validität betrifft mehr die Werkzeuge, die im Analyseprozess verwendet werden – zunächst einmal müssen sie korrekt funktionieren (wer selbst einmal Algorithmen implementiert hat, weiß wahrscheinlich sehr gut, welche Fehler dabei auftreten können). Darüber hinaus muss aber auch irgendwie festgestellt werden, ob sich die Messungen der gewählten Werkzeuge wirklich dazu eignen, darauf die zu treffenden Aussagen zu gründen.

Im  kombinierten Programmier/Experimentier-Prozess, in dem man sich befindet, wenn man neue Werkzeuge erstellt, die dann auch umgehend für empirische Studien eingesetzt werden, muss man sich überlegen, wie man die Validität denn am besten testen kann. Und um jetzt endlich zum Punkt dieses Artikels zu kommen: Ich möchte hier einen solchen Test beschreiben, der in der Form gar nicht geplant war und nur durch einen Fehler zustande kam.

Um, wie wir das vorhatten, die Internetness von Texten bzw. Dokumenten zu ermitteln, kann man sie z.B. mit einem Referenzkorpus vergleichen und schauen, inwieweit sich Spezifika in Abgrenzung zu diesem ermitteln lassen. Es gibt unterschiedliche Methoden, die Keywordness von einzelnen Termen (Wörtern) zu berechnen, im Bereich des Information Retrieval (also im Umfeld von Suchmaschinen) wird häufig der Quotient aus Termfrequenz und inverser Dokumentfrequenz (TF/IDF) hinzugezogen. Für den Vergleich von Korpora eignet sich unserer Meinung nach die Berechnung der Log-Likelihood-Ratio (LLR) für einzelne Termes besser. Um es ganz simpel zu erklären: Das Vorzeichen der LLR gibt für jeden Term an, ob er stärker mit dem Untersuchungskorpus oder mit dem Referenzkorpus assoziiert ist. Noch einfacher: In welchem Korpus er häufiger vorkommt. Allerdings zählen dabei nicht die absoluten Häufigkeitsunterschiede (welche die frequentesten Wörter, also {und, der, die, das} usw. aufweisen würden), die LLR relativiert diese stattdessen (wie sie das tut, passt gerade nicht hier rein). Summiert man nun die LLR-Werte der Token jedes Korpus-Dokumentes und teilt diese Summe durch die Länge des entsprechenden Dokuments, so erhält man vergleichbare Internetness-Werte für jedes Dokument.


Ein Experiment, das den im Text beschriebenen Workflow über einzelne Komponenten realisiert. Von oben nach unten: Korpora, Tokenizer, Frequenz-Zähler, LLR-Berechner, Ranker für Dokumente (die hier in Paragraphen repräsentiert sind) nach den LLR-Werten ihres Vokabulars.

Auf den ersten Blick war fatal, dass uns der Fehler unterlief, unsere Korpora mit Texten unterschiedlicher Encodings zu bestücken. Das ist für Tesla normalerweise kein Problem, wenn nicht gerade alle zusammen in einem Archiv hochgeladen werden, was wir aber getan haben. Das Resultat war, dass alle Wörter mit Umlauten im Internet-Korpus korrekt dargestellt wurden, diese aber im Referenz-Korpus nie auftauchten, weil dessen Encoding zerschossen war. Resultat war, dass não (portugiesisch für nein, falsch encodiert não), offenbar in unserem Korpus das frequenteste Wort mit Sonderzeichen, den höchsten LLR-Wert erhielt. Texte, die lediglich aus não bestanden, bekamen deshalb den höchsten Wert für ihre Internetness.

Das Ergebnis entsprach natürlich keinesfalls dem, das wir erhalten wollten, dennoch hatte die Tatsache, dass wir einen so blöden Fehler gemacht hatten, auch einen gewichtigen Vorteil: Dadurch, dass wir ein so falsches, aber absolut nachvollziehbares Ergebnis erhielten, konnten wir Rückschlüsse bezüglich der Validität des Verfahrens bzw. die Richtigkeit der Algorithmen-Implementationen innerhalb der Komponenten ziehen: Wir hatten genau das gemessen, was aufgrund unseres Fehlers gemessen werden musste. Den Fehler konnten wir einfach korrigieren, die Ergebnisse veränderten sich dementsprechend – auch wenn sie weiterhin bemerkenswerte, durch die Korporaauswahl bedingte, Artefakte enthalten (da muss ich allerdings auf die wissenschaftliche Veröffentlichung vertrösten). Wir waren in einem ersten Versuch gescheitert, aber gerade dieses Scheitern hatte uns einen relativ starken Hinweis auf die Validität unseres Verfahrens gegeben. Und ich finde, das ist schon einen Blogpost wert, zumal solche produktiven Fehlschläge nur sehr selten Platz in wissenschaftlichen Veröffentlichungen finden.

 

 

Quelle: http://texperimentales.hypotheses.org/620

Weiterlesen

Aufgewacht, aufgebrochen, aber noch nicht angekommen (Bastian Gillner)

Aufgewacht, aufgebrochen, aber noch nicht angekommen. Das deutsche Archivwesen und das Web 2.0

Vortrag von Bastian Gillner (Düsseldorf), Speyer 23.11. 2012

 

Vorbemerkung:
Folgender Vortrag wurde am 23. November 2012 auf der Tagung „Offene Archive? Archive 2.0 im deutschen Sprachraum (und im europäischen Kontext)“ gehalten. Für die Publikation im zugehörigen Tagungs-Blog wurde er leicht überarbeitet und mit Anmerkungen versehen.

Offene Archive? Speyer 2012

Aufgewacht, aufgebrochen, aber noch nicht angekommen on Prezi

Meine sehr geehrten Damen und Herren,

 

die Lage ist ernst: Überall bemühen sich Personen, Firmen und Organisationen fieberhaft darum, sich in der digitalen Welt zu präsentieren. Wer nicht mitmacht, der wird automatisch für hoffnungslos rückständig erachtet, selbst wenn man wenig oder gar nichts mitzuteilen hat. Inhalte sind von sekundärer Bedeutung, was zählt ist nur die Art des Auftritts. Möglichst bunte Bilder, am besten animiert und mit knalligem Ton unterlegt, so soll der digitale Auftritt sein. Dabei ist das, was hinter der tollen Oberfläche wartet, häufig enttäuschend, oft verwirrend und allzu selten qualitätsvoll. Ob Neuigkeit oder Informationsschrott, das ist nur schwer auseinander zu halten, häufig gar dasselbe. Selbst Archive beteiligen sich schon an dieser aggressiven Darstellungsweise, weil sie davon ausgehen, ihre Interessenten zufrieden stellen, gar neue Kundenkreise anwerben zu können. In den englischsprachigen Ländern hat diese Entwicklung bereits früher eingesetzt und ist weiter fortgeschritten. Aber auch bei uns ist sie nun zu beobachten.[1]

 

Meine Damen und Herren, diese dramatische Lagebeschreibung stammt nicht von mir. Sie ist noch nicht einmal aktuell. Vorgetragen wurde sie im Jahre 2001 auf dem 72. Deutschen Archivtag in Cottbus und die große Bedrohung der guten alten Archivwelt, das war das Internet, das Web 1.0. Alles in allem eine mindestens skeptisch zu beobachtende Technologie, die allenfalls in streng reglementiertem Maße für die Archive geeignet sei. Die Vortragenden gaben sich abschließend der Hoffnung hin, dass die Archive den künftigen Benutzern ernsthafte Angaben vermitteln und dem Spieltrieb auf dem Bildschirm, wie er allerorten zu beobachten sei, widerstehen werden.

 

Wiederholt sich Geschichte? Angesichts der Haltung des deutschen Archivwesens gegenüber der digitalen Welt bin ich geneigt zu sagen: Ja, sie wiederholt sich. Die archivische Ablehnung und Skepsis, die vor einer Dekade dem Web 1.0 entgegenschlug, gleicht sehr derjenigen, mit der sich das Web 2.0 heute konfrontiert sieht. Mit vermeintlicher Inhaltsleere und Oberflächlichkeit sowie mangelnder fachlich-wissenschaftlicher Relevanz werden gar die gleichen zentralen Argumente ins Feld geführt. Aber ich will nicht vorgreifen. Ich möchte mit einem kurzen Blick auf die derzeitige Situation des deutschen Archivs 2.0 beginnen, möchte dabei aber eine kurze Entschuldigung, gerade gegenüber unseren heutigen Gastgebern, vorausschicken: Wenn ich vom deutschen Archivwesen und seinen, sagen wir, ausbaufähigen Aktivitäten im Bereich der Social Media sprechen, dann bitte ich Sie, immer mitzudenken, dass es auch einige Archivarinnen und Archivare gibt, die momentan wirkliche Pionierarbeit leisten und mit Blogs, Facebook und Twitter ebenso virtuos umgehen wie mit Akten, Amtsbüchern und Urkunden. Die meisten dürften ja zudem heute hier versammelt sein – fühlen Sie sich also nicht von aller Kritik angesprochen!

 

Zu Beginn ein Beispiel zum gegenwärtig üblichen Informations- und Kommunikations­verhalten innerhalb der deutschen Archivwelt:

Am 27. Juni 2012 wurde vor dem Parlamentarischen Kontrollgremium der Geheimdienste bekannt, dass während der Ermittlungen gegen den rechtsterroristischen sogenannten Nationalsozialistischen Untergrund beim Verfassungsschutz mehrere Akten vernichtet worden waren. Umgehend wurde das Thema von allen größeren Medien aufgegriffen. In den folgenden Tagen äußerte sich auch der Verband deutscher Archivarinnen und Archivare (VdA) in mehreren Pressemitteilungen zu den Vorgängen und verurteilte  diese Vernichtung von Akten zu Recht mit scharfen Worten. Vereinzelt wurden diese Äußerungen von der Presse auch aufgenommen. Danach verstummten die Archivare, auch wenn mehrfach weitere Aktenvernichtungen bei den Ermittlungsbehörden bekannt wurden, und auch wenn die eigenmächtige Vernichtung von Akten durch Behörden zu den ärgerlichen, wenngleich keineswegs unüblichen Berufserfahrungen wohl jeden Archivars gehört. Eines unserer Kernthemen, der Umgang mit der schriftlichen Überlieferung, stand für einen kurzen Moment im Rampenlicht des bundesweiten öffentlichen Interesses. Und was fiel uns ein? Pressemitteilungen, inklusive der damit verbundenen Abtretung der Relevanzentscheidung an einen mehr oder weniger interessierten Redakteur. Als dann im Oktober der ehemalige Vizepräsident des Bundesverfassungsschutzes vor dem Untersuchungsausschuss aussagte und die Vernichtung von Akten wegen der gesetzlichen Aufbewahrungsfristen als einen völlig normalen und notwendigen Vorgang bezeichnete, war von den Archivaren nichts zu hören. Wie auch? Was hätten wir denn für Möglichkeiten gehabt? Einen Aufsatz in der regionalen Fachzeitschrift verfassen? Einen Arbeitskreis bilden? Einen Notfall-Archivtag einberufen? Sehen wir der Realität ins Auge: Kommunikationskanäle nach außen haben wir abseits der traditionellen Pressemitteilung praktisch nicht und eine Diskurshoheit können wir außerhalb der eigenenBerufsgruppenichtannähernd erlangen. Es schwadronierten also hochrangige Behördenvertreter offenkundig ohne Wissen um archivische Belange und wir mussten stumm bleiben und uns allenfalls im Kollegenkreis empören. Mussten wir? Eine leise Ahnung davon, dass es auch anders ging, konnte man allerdings bekommen. Abseits der traditionellen Diskussionskanäle der Fachwelt berichtete nämlich das Blog Archivalia[2] und auch in der Gruppe Archivfragen auf Facebook wurde das Thema diskutiert[3]. Viel zu wenig natürlich, um an den misslichen Entwicklungen etwas zu ändern, aber doch ein Blick auf Kommunikationsstrukturen, wie sie mit sozialen Medien denkbar sind.

 

Was nicht nur denk-, sondern tatsächlich machbar ist, zeigte sich hingegen zeitgleich in den USA: Im September verkündete der Gouverneur des Bundesstaates Georgia, dass ein rigider Sparkurs es nötig mache, die Georgia State Archives zum 1. November für die Öffentlichkeit zu schließen und von 10 Mitarbeitern 7 zu entlassen. Im unmittelbaren Anschluss an diese Ankündigung starteten die dortigen Archivare eine intensive Kampagne, in deren Mittelpunkt eine eigene Facebook-Seite als zentrale Plattform für alle entsprechenden Nachrichten, Proteste, Solidaritäts- und Unmutsbekundungen stand. Über diesen Weg gelang es nicht nur, in lediglich vier Wochen knapp 4.000 Unterstützer in dem sozialen Netzwerk zu generieren und diese Unterstützung in mehr als 17.000 Unterzeichner einer Online-Petition umzumünzen, sondern schließlich auch, die geplante Schließung vorerst abzuwenden (auch wenn der Kampf um die Arbeitsplätze momentan noch nicht beendet ist).[4]

 

Was den deutschen Archivaren in einer problematischen archivpolitischen Situation nicht gelang, das gelang ihren amerikanischen Kollegen in einer ungleich dramatischeren Situation: Die Schaffung eines öffentlichen Bewusstseins für die eigenen Anliegen, was hierbei tatsächlich zu einem Erfolg der archivischen Seite führte. Bis vor einer Woche hätte ich noch behauptet, dass ein solches archivischesSocial-Media-Campaigning unter Einbeziehung einer interessierten Netz-Öffentlichkeit in Deutschland nicht zustande käme. Doch die Causa Stralsund hat mich da eines Besseren belehrt und – passend zu dieser Tagung – hat wohl auch das deutsche Archivwesen seine erste erfolgreiche Kampagne, die maßgeblich in den sozialen Medien wurzelt.[5]

 

Sind das abwegige Beispiele? Sie sagen, eine solche Kommunikation sollte doch lieber den dafür zuständigen Behördenleitern oder Öffentlichkeitsreferenten vorbehalten sein? Gerade wenn es um archivpolitische Fragen geht? Nun gut. Problemlos lassen sich andere Beispiele finden, die von einem momentanen Nicht-Verstehen von sozialen Medien im deutschen Archivwesen zeugen. Vielleicht Crowdsourcing? Mitte 2012 hat die Archivschule das Online-Lexikon „Terminologie der Archivwissenschaft“ gestartet. Ein Wiki, immerhin, also ein wunderbar praktisches Medium, um kollaborativ Wissen zu sammeln. Doch leider dürfen in diesem Wiki allein die aktiven Referendare der Archivschule schreiben. Man scheint es also für sinnvoller zu erachten, das Wiki durch eine kontrollierbare Kleinstgruppe befüllen zu lassen als auf die Erfahrung und das Wissen einer breiten Fachöffentlichkeit zurückzugreifen. Entsprechend hat sich seit der ersten Befüllung vor rund fünf Monaten auch nichts mehr am Inhalt geändert.[6]Oder vielleicht doch lieber Sharing? Da bleiben auch nicht viele schöne Beispiele. Allein das Bundesarchiv hat sich bisher an ein entsprechendes Großprojekt gewagt und 90.000 Fotos für Wikimedia bereitgestellt. Wir werden von Herrn Sander ja noch den entsprechenden Vortrag hören. Doch auch hier keine allzu guten Nachrichten, denn – lassen Sie es mich etwas provokativ formulieren – die Fotos wurden schlichtweg zu sehr genutzt: Das Projekt liegt vorerst auf Eis.[7]

 

1. Der Status Quo

So sieht also momentan, am Ende des Jahres 2012, die virtuelle Präsenz der deutschen Archive aus: Die Kommunikation ist eine klassische traditionelle Behördenkommunikation, geboren im AncienRégime, verfeinert im Untertanenstaat, herübergerettet ins digitale Zeitalter. Informationen werden quasi-obrigkeitlich verkündet, die Homepage funktioniert kaum anders als das preußische Gesetz- und Verordnungsblatt. Die Interaktivität erschöpft sich in der Anfragenbearbeitung mittels Eingabe und Bescheid, einem – die erfahrenen Aktenkundler werden es wissen – Verhältnis der Über- respektive Unterordnung. Dass Archive Behörden sind, kann ihnen nicht vorgeworfen werden, wohl aber, dass sie sich allzu häufig als Abziehbilder schlechter Behördenklischees erweisen. Dabei sollte doch der (nun auch nicht mehr ganz neue) Prozess der Verwaltungsmodernisierung einen Umbruch, ein Umdenken bringen, beispielsweise – so formuliert es etwa der Rahmenplan E-Government des Landes Nordrhein-Westfalen – „die Anpassung kommunaler und staatlicher Geschäftsprozesse an neue Kommunikations­formen“[8]. Wie die gesamte Verwaltung sollten auch Archive Dienstleister sein, nahe am Bürger, bequem zu nutzen, offen für moderne Entwicklungen. Bürgernähe, Interaktivität, Transparenz – was läge hier näher als an die Möglichkeiten von sozialen Medien zu denken? Für die deutschen Archive offensichtlich anderes. Es sind nicht die Chancen und Potentiale der Entwicklung, die hier gesehen werden – einer Entwicklung, die ohnehin unumkehrbar sein dürfte! –, sondern die Bedrohung von bekannten Arbeitsprozessen, von traditionellen Hierarchien, von ohnehin knappen Ressourcen. Beachtlicherweise werden damit gleich zwei Entwicklungstendenzen ignoriert: der verwaltungsmodernistische Diskurs, in dem mittlerweile die Nutzung sozialer Medien als vielversprechender Baustein des E-Government hervorgehoben wird,[9] und der archivfachliche Diskurs jenseits der deutschen Grenzen, in dem soziale Medien zunehmende Normalität sind.[10]

 

Gerade der fehlende Blick über die Grenzen bzw. die mangelnde Adaption auswärtiger Projekte ist ärgerlich. Mancherorts lässt sich das Archiv 2.0 nämlich bereits in einem fortgeschrittenen Stadium beobachten: Mit dem Archives 2.0-Manifesto[11], den 23 Things forArchivists[12] oder dem Interactive Archivist[13] existieren bereits Grundsatzdokumente für das Archiv 2.0 aus dem us-amerikanischen Raum, dessen Umsetzung dort bereits in vielfältiger Form zu beobachten ist. Allen voran sind die National Archives mit einer beeindruckenden Präsenz im Web 2.0 zu nennen,[14] aber auch eine Vielzahl kleinerer Einrichtungen. Ähnlich sieht es im gesamten angelsächsischen Raum aus, aber durchaus auch in der näheren Nachbarschaft wie etwa den Niederlanden. Fachkommunikation und Nutzerbeteiligung findet andernorts durchaus bereits über soziale Medien statt.

 

Dagegen nehmen sich die wenigen deutschen Aktivitäten mager aus: Wir haben einige aktive Kommunalarchive, die (z.T. mit bescheidenen Mitteln) die Potentiale von sozialen Medien wie Facebook und Twitter sehr effektiv nutzen.[15] Wir haben eine rudimentäre Blogstruktur, allen voran Archivalia, sozusagen das große alte Schlachtschiff des deutschen Archiv 2.0, mit einer immensen Vielzahl von Hinweisen und Nachrichten nicht nur im Bereich Archiv, sondern auch aus dem ganzen Open Data-Bereich sowie einigen historischen Spezialgebieten.[16] Diesem hat sich in diesem Jahr das Blog siwiarchiv an die Seite gesellt, das wunderbar zeigt, wie Archive ihre regionalgeschichtliche Kompetenz in moderner Weise unter Beweis stellen können.[17] Ebenfalls dieses Jahr entstanden ist der Archivspiegel des Berlin-Brandenburgischen Wirtschaftsarchivs (BBWA) und somit das erste Blog eines Wirtschaftsarchivs.[18] Wir haben punktuelle Nutzungen sozialer Medien wie etwa das Blog zum Rheinischen Archivtag 2012 (oder auch zum kommenden Westfälischen Archivtag 2013).[19] Auch interne Anwendungen wie etwa ein Behördenberatungs-Wiki im Landesarchiv NRW sind sporadisch vorhanden.[20] Wir haben weiterhin einige archivische Examensarbeiten, die zeigen, dass das Thema zumindest beim archivischen Nachwuchs präsent ist.[21] Und schließlich haben wir noch eine ganze Reihe von Archivarinnen und Archivaren, die als Privatpersonen verschiedene soziale Medien nutzen und als solche natürlich auch gerne über archivische Themen sprechen; exemplarisch sei hier die gar nicht mehr so kleine Facebook-Gruppe Archivfragen (mit momentan rund 140 Mitgliedern) genannt. Intensiver möchte ich an dieser Stelle gar nicht auf die Einzelbeispiele eingehen, das können die Verantwortlichen im weiteren Verlauf des heutigen Tages besser als ich.

 

Auf das Gesamtbild gesehen ist das Genannte allerdings sehr wenig, weshalb das bittere Fazit zum Verhältnis von Archiv und Web 2.0 in Deutschland an dieser Stelle lauten muss: es ist kostenlos, es ist weitverbreitet, es hat immense Potentiale – von so was lassen wir lieber die Finger!

 

Natürlich ist es eine Frage, die sich nach all dem Gesagten aufdrängt: Warum fällt es den deutschen Archiven so schwer, das Web 2.0 als natürlichen Bestandteil der beruflichen Existenz zu begreifen, den Schritt zu vollziehen, den bereits zahllose Privatleute und Unternehmen und durchaus auch nicht wenige öffentliche Einrichtungen bereits vollzogen haben? Oder, wie Klaus Graf es bereits 2006 in einem Diktum formulierte, das weithin noch immer seine Gültigkeit hat: Warum sind deutsche Archivare virtuell so grauenhaft unkommunikativ?[22]

 

Dieser Frage will ich mich im Weiteren in fünf Punkten intensiver widmen:

 

2.1 Die Generationenfrage

Ein erster Punkt aus einem komplexen Ursachenbündel scheint auf der Hand zu liegen: Die Nutzung von Social Media ist maßgeblich vom Alter bestimmt. Ganz grundsätzlich gilt: je jünger die Altersgruppe, desto intensiver die Nutzung. Das schließt natürlich nicht die intensive Nutzung im Einzelfall aus, quantitativ bleiben die mittleren und älteren Jahrgänge aber in der Minderheit. Eine Vielzahl von Untersuchungen spricht hier die gleiche Sprache; exemplarisch sei die ARD-/ZDF-Onlinestudie 2012 genannt, nach der etwa die Nutzung von sozialen Netzwerken bis hin zu den Dreißigjährigen weit verbreitet ist, danach aber massiv einbricht.[23] Nun ist es aber nicht so, dass die Zwanzigjährigen die Entwicklung des deutschen Archivwesens bestimmen und auch nicht die Dreißigjährigen. Die maßgeblichen Entscheidungen trifft die Generation jenseits der Vierzig. Anders gesprochen: Diejenigen, die die strategischen Entscheidungen treffen – für einzelne Archive wie für das gesamte Archivwesen –, sind diejenigen, die die geringsten Berührungspunkte zum Thema Social Media haben. Diese Generation ist eher nicht auf Facebook aktiv, stellt seine Urlaubsfotos nicht auf Flickr ein, führt keine Lieblingslisten bei Amazon und schreibt lieber Aufsätze für die regionalen Geschichtsblätter als Texte für die Wikipedia. Die berufliche Vernetzung dieser Generation funktionierte noch ohne soziale Netzwerke, ihre Kommunikationsstrukturen hat sie etabliert ohne auf eigene Blogs oder regelmäßige Twitter-Updates angewiesen zu sein; digitaler Bezugspunkt ist das Web 1.0. Was dieser Generation fehlt, ist – wie es der Blogger Sascha Lobo einmal poetisch formulierte – die „digitale Heimat“, die daraus entsteht, im Netz Freude und Freunde gefunden zu haben, vor dem Bildschirm gelacht und geweint, diskutiert und gestritten zu haben, die „Netzwärme“ gespürt zu haben.[24] Üblicherweise resultiert aus diesen kollektivbiographischen Erfahrungen Unverständnis, Desinteresse oder gar Ablehnung gegenüber dem Web 2.0. Eine scharfe Trennung – der Digital Divide – zwischen denjenigen, die sich mit Funktion, Instrumenten und Habitus des Web 2.0 auskennen, und denjenigen, die es nicht tun, ist leider auch im deutschen Archivwesen leidige Realität.[25]

 

2.2 Der publizistische Diskurs

Aber auch wenn diese Trennlinie zuvorderst an Generationsgrenzen verläuft, so ist Alter natürlich weder ein allgemeingültiges noch ein alleiniges Kriterium für den Umgang mit sozialen Medien. Sicherlich gibt es genügend Menschen jenseits von Jugend und Adoleszenz, die bloggen, twittern o.ä. Im Falle des Nicht-Kennens und Nicht-Nutzens solcher Medien aber – und das ist mein zweiter Punkt – trägt der publizistische Diskurs in Deutschland nicht dazu bei, sozialen Medien mit Offenheit zu begegnen. Ungeachtet der tatsächlichen Nutzung etwa von sozialen Netzwerken, wie sie alle etablierten Medien pflegen, zeigt sich dort nämlich eine weitverbreitete Distanz gegenüber den sozialen Medien. Als wohl größte Plattform mit mittlerweile einer Milliarde (!) Mitgliedern ist es Facebook (als Synonym für Social Media insgesamt), das in besonderem Maße zur Zielscheibe der Kritik geworden ist. Im Sommer 2012 war es der Spiegel, der Folgendes titelte: „900 Millionen Menschen gefällt das. Warum eigentlich?“[26] Auch die Süddeutsche Zeitung entblödete sich tatsächlich nicht, ihre komplette Seite Drei für eine Geschichte freizuräumen, in der verschiedene Betroffene – und das ist jetzt leider kein Witz – darüber berichten durften, dass sie früher Zeit bei Facebook verschwendeten, heute aber beispielsweise Schafe auf dem Land züchten.[27] Heile Landwelt statt Computer-Einsamkeit! Deutscher Wald statt amerikanische Leitkultur! Da verwundert es auch nicht mehr, dass die Zustimmung groß war, als die Bundesverbraucherministerin 2010 publikumswirksam ihren Austritt aus dem Sozialen Netzwerk verkündete. Die Verabschiedung aus dem weltgrößten Kommunikationsraum wurde tatsächlich alsAkt der Befreiung bejubelt.Auch die regelmäßige Berichterstattung über sogenannte Facebook-Parties dreht sich primär um eine boulevardeske Panikmache, nicht aber um das dabei aufscheinende Mobilisierungspotential des sozialen Netzwerks. Was für Facebook gesagt wurde gilt cum grano salis auch für andere soziale Medien: Klagen über unsere fortschreitende Verblödung durch das Internet sind immer gut, um Zeitschriften oder Bücher verkaufen zu können.[28] Um das Gesagte wieder auf den engeren Nenner eines deutschen Archiv 2.0 zu bringen: Wer keine persönlichen Erfahrungen mit sozialen Medien mitbringt, wird durch den publizistischen Diskurs auch nicht ermutigt, ebensolche zu sammeln. Social Media erscheint dort lediglich als chaotische Kraft, die bestehende Arbeits- und Lebensstrukturen zersetzt, kaum aber als faszinierendes Element zukünftiger beruflicher oder zivilgesellschaftlicher Organisation.

 

2.3 Keine Experimente!

Ich komme zu meinem dritten Punkt: „Keine Experimente!“ habe ich ihn genannt. Den Slogan kennen Sie wahrscheinlich alle, er stammt vom wohl erfolgreichsten Wahlplakat der deutschen Geschichte (Konrad Adenauer, CDU, 1957) mit geradezu ikonographischem Charakter.[29] „Keine Experimente!“, dieser erfolgreiche Slogan gilt momentan auch für die archivische Internet-Präsenz. Den Schritt in die digitale Welt haben wohl alle Archive vollzogen und sind mit mal mehr, mal weniger interessanten Homepages online. Verstärkte Anstrengungen richten sich derzeit auf den Ausbau der Homepage-Strukturen, namentlich durch die Bereitstellung retrokonvertierter Findmittel und zunehmend auch die Einbindung von Digitalisaten in Online-Findmittel. Auch Archivportale auf deutscher und europäischer Ebene sind gegenwärtiger Diskussionsstand. Diese Aufgaben dürfen keinesfalls gering geschätzt werden, sie sind vielmehr zentrale Elemente für eine Zukunftsfähigkeit der Archive überhaupt. Sie bewegen sich allerdings in den Bahnen einer traditionellen Bereitstellung von Informationen;klassisches Web 1.0 sozusagen: ein aktiver Anbieter stellt Informationen bereit (sei es auf der Homepage, sei es auf einem regionalen, einem nationalen oder einem europäischen Portal), die passiven Rezipienten können diese Informationen konsumieren.

Das Web 2.0 wird von dieser Entwicklung praktisch nicht berührt. Eine Einbindung von Nutzerinteressen und Nutzerpotentialen findet kaum statt. Eine konstitutive und radikale Nutzerorientierung, wie sie Sharing-Plattformen wie etwa Flickr oder Youtube bieten, ist für deutsche Archive ein fremdes Konzept, selbst einfachste Comment- oder Tagging-Funktionen finden keine Anwendung. Entsprechende Leuchtturm- oder Pilotprojekte sind kaum zu erkennen. Eines der ersten archivnahen Crowdsourcing-Projekte in Deutschland stammt bezeichnenderweise auch gar nicht aus den Reihen der Archive: In der Rubrik „eines Tages“ auf Spiegel Online wird seit Mitte 2012 ein Fotoalbum eines unbekannten deutschen Soldaten aus dem Zweiten Weltkrieg kollaborativ erschlossen.[30]Unser Gastgeber, das Stadtarchiv Speyer gehört zu den wenigen Archiven, die mit einem ähnlichen Projekt auf Flickr aktiv sind.[31]

Kaum zu vergleichen sind diese Projekte aber etwa mit dem CitizenArchivist Dashboard aus den USA, das ein Transkribieren und Taggen zahlreicher Dokumente erlaubt.[32] Als wahrscheinlich beeindruckendster Erfolg kann darunter die Indexierung der US-Volkszählung von 1940 gelten, ein Projekt, bei dem sage und schreibe 125.000 Freiwillige in nur zwei Monaten 75.000.000 Namen indiziert haben.[33] Ebenfalls einen erfolgreichen Umgang mit seriellen Daten kann auch das niederländische VeleHanden-Projekt vorweisen. Hier geht es um die kollaborative Erschließung historischer Personenregister, von denen beispielsweise die mehr als 300.000 Scans niederländischer Konskriptionslisten von 1814 bis 1941 mittlerweile nahezu komplett indiziert worden sind.[34] Eine Rezeption dieser Projekte hat in Deutschland bisher kaum stattgefunden. Selbst kleinere Aktionen wie der AskArchivists-Day[35] [*] oder der Follow an Archive-Day[36], beide auf Twitter, der Day-of-Digital-Archives[37] oder auch die Open-Access-Week[38] werden praktisch nicht wahrgenommen. Diese mangelnde Experimentierbereitschaft hat sich auch noch nicht durch die sehr eindeutigen Positivurteile gewandelt, wie sie in letzter Zeit auch in deutschen Fachpublikationen zu lesen sind. Das gilt beispielsweise für die Praxisberichte über eine archivische Facebook- und Twitter-Nutzung im Archiv,[39] verstärkt aber für Besprechungen ausländischer, insbesondere angelsächsischer Social Media-Projekte.[40] Eine weitgehende Wahrnehmung positiver Effekte auf die archivische Arbeit, eine unbedingte Empfehlung zur Öffnung gegenüber den neuen Technologien gehört hier zum guten Ton, eine spürbare praktische Relevanz für die breite Masse der deutschen Archive hat das aber bisher nicht. Der Slogan „Keine Experimente“ hat leider auch noch nach 55 Jahren seine Gültigkeit.

 

2.4 Das Paul-Jonas-Phänomen

Mit dem gerade Gesagten hängt auch ein weiterer Punkt zusammen, den ich hier das Paul-Jonas-Phänomen nennen möchte. Paul Jonas ist eine der Hauptfiguren in den Otherland-Romanen des Amerikaners Tad Williams, einer Cyberpunk-Saga, was doch irgendwie zu unserem Thema passt. Paul Jonas wacht eines Tages in einer ihm fremden Welt auf und hat überhaupt keine Ahnung, wer er ist, wo er ist und wie er dorthin gekommen ist. Bald stellt sich heraus, dass er in einer virtuellen Realität festhängt und in der Folgezeit wird er durch eine verwirrende Vielzahl virtueller Welten stolpern, die ihm fremd sind und erst ganz am Ende verstehen, was das alles ist und wofür das alles da ist.

Die hübsche kleine Analogie zum deutschen Archivwesen liegt auf der Hand. Gut, immerhin wissen wir, wer wir sind, aber was all die Programme, Portale, Plattformen im Netz so machen, wofür sie da sind, welche es überhaupt so gibt, geschweige denn wie wir sie zu unserem Nutzen anwenden können – das wissen wir nur in begrenztem Maße. Manche müssen schon bei Hashtags oder RSS-Feeds als unbekanntem Terrain passen, kommen dann theoretische Konzepte wie Folksonomy oder Serendipity ins Spiel, dann steigt die Verwirrung exponentiell an.

Doch das müssen wir uns klar machen: Das Web 2.0 ist bunt, dynamisch, interaktiv, bisweilen hyperaktiv. Informationen entstehen und kursieren in vorher nicht gekannter Geschwindigkeit und Menge. Informationen können von jedermann bereitgestellt werden, traditionelle Informationsmonopole – wie sie auch Archive besitzen – verlieren an Bedeutung. Eine Absenz von den digitalen Informationsflüssen bedeutet einen herben Verlust an Relevanz. Diese Gefahr wird von den deutschen Archiven noch kaum wahrgenommen. Vielmehr stehen die Archive als Informationsdienstleister den neuen Informationsstrukturen distanziert gegenüber. Unverständnis prägt den Umgang: liken, sharen, taggen, adden, bookmarken, followen, tweeten, retweeten, crowdsourcen, crowdfunden u.v.a.m. – was ist das eigentlich alles, wozu braucht man das, wie nutzt man das?  Dabei bedarf es keines Informatikstudiums, um die grundlegenden Strukturen zu verstehen, ist eine simple Bedienbarkeit vielmehr Charakteristikum des Web 2.0. Nicht zuletzt seit der Begründung der geisteswissenschaftlichen Blog-Plattform hypotheses.org stehen bequem nutzbare Strukturen wie auch Anleitungen zur Blog- oderTwitter-Nutzung zur Verfügung.[41]Vielleicht paradoxerweise hat diese Unübersichtlichkeit aber auch dazu geführt, dass manche Archive tatsächlich schon mit vorsichtigen Schritten im Web 2.0 unterwegs sind ohne es wirklich realisiert zu haben: Einen Imagefilme nicht nur auf der Homepage, sondern auch auf Youtube zu präsentieren ist jedenfalls schon Social Media-Nutzung,[42] ebenso die Befüllung der Wikipedia mit archivischen oder historischen Inhalten.[43] Aber vielleicht sollte man bei diesem Punkt optimistisch sein: Nicht nur der genannte Paul Jonas, auch die Archive dürften mit zunehmender Präsenz in der fremden virtuellen Welt verstehen, wie das alles funktioniert und wie das alles zusammenhängt. Es wären nicht Millionen von Menschen und tausende von Institutionen im Web 2.0 aktiv, wenn es schwer wäre. Allein die Hürde zu überwinden, sich auf diese Neuerungen einzulassen, – also: verstehen zu wollen – dürfte die entscheidende Herausforderung sein.

 

2.5 Das Vogel-Strauß-Prinzip

Wir haben also gehört: fehlende Affinität, fehlende Konzepte, fehlende Vorreiter und daraus resultierendes Unwissen, hier scheinen die Probleme des deutschen Archiv 2.0 zu liegen. Leider ist nicht die Neugier auf das Neue die folgende Reaktion. Soziale Medien werden nicht als Antwort auf archivische Herausforderungen gesehen, allenfalls als neues Problem. Auch scheint es – anders etwa als bei der digitalen Langzeitarchivierung – keine Sachzwänge zu geben, sich mit diesem Neuen auseinandersetzen zu müssen. Stattdessen dominiert eine Nicht-Beachtung der Thematik, ungeachtet dessen, dass Blogs, Wikis, Facebook, Twitter zur alltäglichen Lebensrealität von Millionen Menschen gehören. Wie beim sprichwörtlichen Vogel Strauß wird der Kopf in den Sand gesteckt und scheinbar geglaubt, dass diese unbekannten Neuerungen wieder verschwinden. Im Dunkeln wächst aber keine Erkenntnis, im Dunkel wächst allenfalls die Angst. Angst davor, die ohnehin knappen Ressourcen auf weitere Aufgaben verteilen zu müssen. Angst davor, die Ressourcen fehl zu investieren, indem man auf einen vielleicht nur kurzlebigen Hype aufspringt. Angst vor den Nutzern, sei es vor ihrer steigenden Zahl oder vor kritischen oder destruktiven Kommentaren. Angst davor, Arbeitsweisen und Arbeitsstrukturen publik zu machen, gar rechtfertigen zu müssen. Angst vor einem allgemeinen Kontrollverlust: Kontrollverlust über Arbeitsweisen, über Informationen, über die fachliche Deutungs- und Diskurshoheit, vielleicht gar über die eigenen Bestände, wenn sie in digitalisierter Form vorliegen. Was der Kopf im Sand naturgemäß nicht ermöglicht, das ist die Erweiterung des Horizonts, der Blick auf die Möglichkeiten jenseits der bisherigen Arbeitsweisen. Dabei könnten am Horizont viele interessante Dinge sichtbar werden: Ein direkterer Kontakt zum Nutzer, d.h. eine verstärkte Orientierung an Nutzerinteressen einerseits, eine entlastende Einbindung von Nutzerpotentialen andererseits. Eine daraus resultierende neue Legitimität und Publizität. Eine gezielte Steuerung von Fachinformationen. Eine Intensivierung von Fachdiskursen. Summa summarum eine unbedingt notwendige Anbindung der erprobten Arbeitsweisen und fachlichen Standards des Archivwesens an moderne Entwicklungen und Erwartungen. Vieles mag unter dem Begriff des Archivs 2.0 denkbar erscheinen, auch wenn momentan wenig gedacht und noch weniger gemacht wird.

 

3. Ausblick

Ich komme zum Schluss und damit auf den Titel meines Vortrags zurück: „Archivare aufgewacht“, so rief Gerd Schneider im Jahre 2004 den deutschen Archivaren zu, in der Absicht, diese zur Wahrnehmung neuer Arbeitsrealitäten zu bewegen.[44] Aufgewacht sind wir in der modernen Arbeitswelt. Einen „Aufbruch der Archive zu den Nutzern“ beschwor Mario Glauert im Jahre 2009 mit Blick auf die Möglichkeiten der virtuellen Welt.[45] Dieser Aufbruch ist schwerer als bloßes Aufwachen, er ist mühselig, hat aber – wie langsam, wie vorsichtig, wie vereinzelt auch immer – begonnen. Die heutige Tagung mag dafür als bestes Beispiel gelten. Angekommen aber, in einer neuen virtuellen Heimat, beim dort vielfach schon wartenden Nutzer, in offenen und transparenten, gemeinschaftlichen und kollaborativen, informativen und interaktiven Arbeitsstrukturen, in unserem neuen Archiv 2.0, das sind wir noch lange nicht. Wir sollten weitergehen!

 

Vielen Dank!

 

 


[1] Vgl. Karl-Ernst Lupprian und Lothar Saupe, Internetauftritte als Form archivischer Öffentlichkeitsarbeit, in: Jens Murken (Red.), Archive und Herrschaft. Referate des 72. Deutschen Archivtags 2001 in Cottbus (Der Archivar, Beiband 7), Siegburg 2002, S. 382-388.

[2] Vgl. exemplarisch http://archiv.twoday.net/stories/97069512/#97071664.

[3] Vgl. https://www.facebook.com/groups/198523843522424/463864086988397/?notif_t=group_activity.

[4] Vgl. https://www.facebook.com/GeorgiansAgainstClosingStateArchives.

[5] Vgl. https://www.facebook.com/rettetarchivbibliothekstralsund.

[6] Vgl. http://www.archivschule.de/uploads/Forschung/ArchivwissenschaftlicheTerminologie/Terminologie.html

[7] Vgl. etwa http://commons.wikimedia.org/wiki/Commons:Bundesarchiv/de; auch Oliver Sander,„Der Bund mit Wiki“. Erfahrungen aus der Kooperation zwischen dem Bundesarchiv und Wikimedia, in: Archivar 63 (2010), S. 158-162 (http://www.archive.nrw.de/archivar/hefte/2010/ausgabe2/Archivar_2_10.pdf).

[8]http://www.mik.nrw.de/themen-aufgaben/moderne-verwaltung/e-government/aktuelles/rahmenempfehlung-e-government.html

[9] Exemplarisch seien hier zwei Veranstaltungen aus dem Jahre 2012 genannt: der 13. Kongress Neue Verwaltung des Deutschen Beamtenbundes (dbb) „Innovation ist Wandel“ (http://www.neueverwaltung.de/1118.html) und das 13. ÖV-Symposium „E-Government in Nordrhein-Westfalen“, mitveranstaltet vom Innenministerium Nordrhein-Westfalen (http://www.oev-symposium.de/oev13/index.php).

[10]An dieser Stelle sei lediglich auf das zentrale Werk zur Thematik verwiesen: Kate Theimer, Web 2.0 Tools andStrategiesfor Archives andLocalHistoryCollections, London 2010; vgl. daneben auch das entsprechende Blog von Kate Theimer unterhttp://www.archivesnext.com/. AlsjüngstesBeispielvomInternationalenArchivtag 2012 vgl. Francis Garaba,  Availing the liberation struggle heritage to the public. Some reflections on the use of Web 2.0 technologies in archives within ESARBICA (http://www.ica2012.com/files/data/Full%20papers%20upload/ica12Final00017.pdf).

[11] Vgl. http://www.archivesnext.com/?p=64

[12] Vgl. http://23thingsforarchivists.wordpress.com/

[13] Vgl. http://interactivearchivist.archivists.org/

[14]Vgl. http://www.archives.gov/social-media/

[15]Vgl. Joachim Kemper u.a., Archivische Spätzünder? Sechs Web 2.0-Praxisberichte, in: Archivar 65 (2012), S.  130-143 (http://www.archive.nrw.de/archivar/hefte/2012/ausgabe2/ARCHIVAR_02-12_internet.pdf). Auch der Verband deutscher Archivarinnen und Archivare (VdA) und das Landesarchiv Niedersachsen haben Facebook-Auftritte, die aber momentan nur sehr ineffektiv genutzt und allenfalls rudimentär mit Inhalten versorgt werden.

[16] Vgl. http://archiv.twoday.net/

[17] Vgl. http://www.siwiarchiv.de/

[18] Vgl. http://www.bb-wa.de/de/archivspiegel.html

[19] Vgl. http://lvrafz.hypotheses.org/

[20] Vgl. etwa Das Landesarchiv Nordrhein-Westfalen 2010, hrsg. vom Landesarchiv Nordrhein-Westfalen (= Veröffentlichungen des Landesarchivs Nordrhein-Westfalen 38), [Düsseldorf 2010], S. 12-15; auch Ralf-Maria Guntermann, Behördenberatung im Wandel. Ein Fachkonzept zur Zukunftsfähigkeit archivischer Beratungsdienstleistungen im Landesarchiv NRW, in: Archivar 64 (2011), S. 332-335, hier S. 334-335 (http://www.archive.nrw.de/archivar/hefte/2011/ausgabe3/ARCHIVAR_03-11_internet.pdf).

[21]Vgl. Susann Gutsch, Web 2.0 in Archiven. Hinweise für die Praxis (= Veröffentlichungen der Landesfachstelle für Archive und öffentliche Bibliotheken im Brandenburgischen Landeshauptarchiv 8), Potsdam 2010; Bastian Gillner,  Jenseits der Homepage. Zur archivischen Nutzung von Web 2.0-Anwendungen, Marburg 2011 (http://www.archivschule.de/uploads/Ausbildung/Transferarbeiten/Transferarbeit_BastianGillner.pdf); Sina Westphal  Personenstandsarchive im Web 2.0 am Beispiel des Landesarchivs Nordrhein-Westfalen, Marburg 2012 (http://www.archive.nrw.de/lav/abteilungen/fachbereich_grundsaetze/BilderKartenLogosDateien/Transferarbeiten/Westphal_Transferarbeit.pdf); auch Uwe Heizmann, Deutschsprachige Archive bei Facebook. Derzeitiger Stand und aktuelle Konzepte, Potsdam 2012 (http://www.multimediale-geschichte.de/bilder_co/heizmann_uwe_-_dtspr_archive_b_facebook.pdf).Vgl. daneben auch den Facebook-Auftritt der Stadt Nichtecht, gestaltet im Rahmen der Ausbildung von Fachangestellten für Medien- und Informationsdienste des Karl Schiller-Berufskollegs Dortmund zum 64. Westfälischen Archivtag 2012 unterhttps://www.facebook.com/pages/Archiv-der-Stadt-Nichtecht/188556204562208.

[22] Vgl. http://archiv.twoday.net/stories/2678326/

[23] Vgl. http://www.ard-zdf-onlinestudie.de/index.php?id=354

[24] Vgl. http://www.spiegel.de/netzwelt/web/s-p-o-n-die-mensch-maschine-meine-heimat-internet-a-792647.html

[25] Vgl. auch auchhttp://www.initiatived21.de/wp-content/uploads/2011/11/Digitale-Gesellschaft_2011.pdf

[26] Der Spiegel, Ausgabe 19, 2012.

[27] Vgl. auch Der Stern, Ausgabe 33, 2012 („iSolation. Immer online, aber sprachlos: Wie die digitale Welt unser Familienleben verändert“), und Die Zeit, Ausgabe 32, 2012 („Wie Facebook, Google & Co die Welt zensieren“).

[28] Verwiesen sei an dieser Stelle lediglich auf die intensive mediale Debatte um das Buch von Manfed Spitzer, Digitale Demenz. Wie wir uns und unsere Kinder um den Verstand bringen, München 2012.

[29] Vgl. http://de.wikipedia.org/wiki/Keine_Experimente.

[30] Vgl. http://einestages.spiegel.de/s/tb/25129/nazi-bilder-raetselhaftes-fotoalbum-aus-dem-kz-dachau.html.

[31] Vgl. http://www.flickr.com/photos/stadtarchiv_speyer/sets/

[32] Vgl. http://www.archives.gov/citizen-archivist/.

[33] Vgl. https://the1940census.com/.

[34] Vgl. http://velehanden.nl/.

[35] Vgl. http://askarchivists.wordpress.com/about/.

[36] Vgl. http://followanarchive.blogspot.de/.

[37] Vgl. http://dayofdigitalarchives.blogspot.de/.

[38] Vgl. http://openaccessweek.org/

[39]Vgl. Kemper u.a., Archivische Spätzünder? (wie Anm. 15); auch Michael Hess, Gefällt mir! Landesbibliothek Burgenland goes Facebook. Ein Stimmungsbericht, in: Mitteilungen der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare 65 (2012), S. 316-321 (inkl. Burgenländisches Landesarchiv) (https://fedora.phaidra.univie.ac.at/fedora/get/o:175746/bdef:Asset/view).

[40] Vgl. exemplarisch die Rezensionen von Wilfried Reininghaus zu Francis X. Blouin und William G. Rosenberg, Processing thePast. Contesting Authority in History and the Archives, New York 2011, in: Archivar 65 (2012), S. 192, von Marcel Müller zu Kate Theimer (Hg.), A different Kind of Web, Chicago 2011, in: Archivar 65 (2012), S. 315-316, von Bastian Gillnerzu Cheryl-Ann Peltier-Davies, The Cybrarian’s Web. An A-Z Guide to 101 free Web 2.0 Tools and other Ressources, London 2012, in: Archivar 65 (2012) (imDruck).

[41] Vgl.http://de.hypotheses.org/, speziell zurTwitter-Nutzunghttp://dhdhi.hypotheses.org/1072, zum Open Access allgemein auch http://allianz-initiative.de/fileadmin/user_upload/open-access-strategien.pdf.

[42] Vgl. exemplarisch zwei (sehr unterschiedliche) Imagefilme des Landesarchivs Nordrhein-Westfalen: http://www.youtube.com/watch?v=RfdxSrn7tOY&feature=related, http://www.youtube.com/watch?v=MFZdDJ8fq6Q; allgemein auch Robert Lange, Imagefilme für Archive. Neue Wege für die Öffentlichkeitsarbeit (Historische Bildungs- und Öffentlichkeitsarbeit, 1), Berlin 2010.

[43] Vgl. exemplarisch den Wikipedia-Artikel zum herausragenden Bestand der Staatspolizeileitstelle Düsseldorf im Landesarchiv Nordrhein-Westfalen Abteilung Rheinland: http://de.wikipedia.org/wiki/Gestapo-Personenakten_der_Leitstelle_D%C3%BCsseldorf.

[44] Gerd Schneider, „Archivare aufgewacht!“ Anmerkungen eines Externen zur gegenwärtigen Situation im deutschen Archivwesen, in: Archivar 57 (2004), S. 37-44 (http://www.archive.nrw.de/archivar/hefte/2004/Archivar_2004-1.pdf).

[45] Mario Glauert, Archiv 2.0. Vom Aufbruch der Archive zu ihren Nutzern, in:Heiner Schmitt (Hg.), Archive im digitalen Zeitalter. Überlieferung, Erschließung, Präsentation. 79. Deutscher Archivtag in Regensburg (= Tagungsdokumentation zum Deutschen Archivtag 14), [Fulda] 2010, S. 43-54; auch Ders., Archiv 2.0. Interaktion und Kooperation zwischen Archiven und ihren Nutzern in Zeiten des Web 2.0, in: Archivpflege in Westfalen-Lippe70 (2009, S. 29-34 (http://www.lwl.org/waa-download/archivpflege/heft70/heft_70_2009.pdf).

Quelle: http://archive20.hypotheses.org/454

Weiterlesen

Bericht von der Tagung des Käte Hamburger Kolleg »Recht als Kultur«: »Law as culture. Max Weber’s comparative cultural sociology of law«




Die »Rechtssoziologie« Max Webers gehört zu den zentralen Textpassagen seines fragmentarisch gebliebenen Monumentalwerks »Wirtschaft und Gesellschaft«, das als posthume Kompilation seit jeher die Anstrengungen der Interpreten herausgefordert hat. Webers Schriften zum Recht sind, nicht nur im Kontext seines Gesamtwerkes, zugleich bedeutsam und im hohen Maße der Deutung bedürftig. Diese oft enigmatischen Schriften weisen eine Vielschichtigkeit auf, die nicht allein im ambitionierten thematischen Ausholen Webers besteht, sondern in der Textgestaltung auch materiell offenbart wird. Die seit kurzem vorliegende, im Rahmen der Max-Weber-Gesamtausgabe situierte kritische Edition des Rechtsbandes (MWG I/22-3) präsentiert die archäologische Arbeit, die die Genesis der Texte in all ihren Entwürfen und Revisionen dokumentiert.

Die internationale Tagung, die das Käte Hamburger Kolleg »Recht als Kultur« der Rechtssoziologie Webers unter dem Titel »Law as culture. Max Weber’s comparative cultural sociology of law« widmete, stellte den kollektiven Versuch dar, dieser Vielschichtigkeit gerecht zu werden und opake Stellen des Weber’schen Rechtsdenkens zu erhellen. Dass die 22 Vorträge, die die versammelten Weber-Experten vom 25. bis 27. Oktober 2012 im Käte Hamburger Kolleg hielten, nicht zu einem argumentativen »Einverständnis« führten, stellte keine Überraschung dar. Der sachlichen Diskussionsatmosphäre war es aber zu verdanken, dass auch dort, wo grundsätzliche Differenzen zurückblieben, ein geschärfter, zum Teil neu justierter Blick auf das Weber’sche Werk ermöglicht wurde.

Das »Collagenwerk« Max Webers

Werner Gephart, der Direktor des Käte Hamburger Kollegs »Recht als Kultur«, berichtete in seinem Eröffnungsvortrag zunächst von seinen Erfahrungen als Herausgeber des »Rechtsbandes«. Der editorische Befund sei, dass es sich bei dem der Rechtssoziologie Webers zugrundeliegenden Manuskript um ein »Collagenwerk« handele – eine Werkstruktur, die Gephart in einer abendlichen Vernissage eigener Collagen, die sich mit dem Schaffen Webers auseinandersetzen, auch visuell verdeutlichte. Gephart ging in seinem Vortrag aber auch auf die thematischen Felder der Weber’schen Rechtsanalyse ein und legte dar, warumsich diese, wie es ja der Titel der Tagung schon unterstellte, tatsächlich als Beitrag zu einer vergleichenden Kultursoziologie des Rechts lesen ließen – eine These, der die Vortragenden und Diskutanten im Laufe der Konferenz auf unterschiedlichen Wegen auf den Grund gehen sollten. Debattiert wurde aber nicht nur über die kulturwissenschaftliche Ausrichtung der »Rechtssoziologie« und über die Bedeutung des Weber’schen Ansatzes für die Analyse aktueller Konflikte, die im Zuge der Globalisierung in Erscheinung treten, sondern auch über die Prägungen und den Einfluss dieses Unternehmens.

Prägungen und Wirkungen der »Rechtssoziologie«

So ging die Soziologin Uta Gerhardt auf den unmittelbaren theoretischen Einfluss Webers ein, indem sie Talcott Parsons als einen Weberianer vorstellte, der in wichtigen Punkten über Weber hinausgegangen war. Auch spezifische nationale Rezeptionsgeschichten wurden auf der Tagung gegenübergestellt. Masahiro Noguchi (Kyoto) konstatierte für den japanischen Kontext eine relative Vernachlässigung der Rechtssoziologie im Vergleich zu den anderen Schriften Webers, und auch Marta Bucholc (Warschau/Bonn) kam bei einem Blick auf die polnische Rezeption zu dem Schluss, dass Weber in der Regel allenfalls als Theoretiker von Staat, Politik und Herrschaft wahrgenommen werde – seine rechtssoziologischen Schriften seien erst vor wenigen Jahren übersetzt worden. Der Pariser Jurist Olivier Beaud wiederum bedauerte, dass seine eigene Disziplin sich bisher aufgrund eines fortgeschrittenen Positivismus kaum der Lektüre Webers gewidmet habe. Dabei könnten gerade Juristen des öffentlichen Rechts von Weber lernen, wie die Entwicklung des okzidentalen Rechts mit der Entstehung des modernen Staates einhergehe. So könne auch die verbreitete Gegenüberstellung von den Individuen als Trägern subjektiver Rechte einerseits und dem Staatsapparat andererseits aufgelöst werden, da sich mit Weber nachvollziehen lasse, wie der Staat zum Garanten der individuellen Rechte werden konnte. Zugleich mache der soziologische Blick Webers auf die Realitäten eines außerstaatlichen Rechts aufmerksam, das den Staat lediglich als einen partikularen Rechtsgaranten unter vielen möglichen erscheinen lasse. Solange die Jurisprudenz in Frankreich und an anderen Orten jedoch keine Notiz von rechtssoziologischen und -historischen Untersuchungen dieser Art nehme, müsse die eigene Sichtweise beschränkt bleiben. Dass Webers Einfluss in Deutschland nicht rein wissenschaftlicher Natur war, illustrierte Dieter Engels, der Präsident des Bundesrechnungshofes, sei Weber doch durch seinen Artikel von 1917, in dem er sich mit dem zukünftigen Verhältnis von Parlament und Regierung auseinandersetzte, zu einem »geistigen Vater« des parlamentarischen Minderheitenrechts in Deutschland geworden.

Nicht auf den Einfluss Webers, sondern auf bestimmte Prägungen seines Werks ging der Zürcher Rechtshistoriker Andreas Thier ein, indem er nachwies, wie Weber in seiner Untersuchung der Entwicklung des kanonischen Rechts auf die Narrationen eines Otto von Gierke und eines Rudolph Sohm zurückgriff, deren Grundideen aber zurechtbog, so dass sie sich besser in seine eigene Erzählung der fortschreitenden Rationalisierung des okzidentalen Rechts fügten.

Die Religion und die Entwicklungsbedingungen des rationalen Rechts

Thiers Vortrag war auch deswegen aufschlussreich, weil er zeigte, dass sich die Entwicklung der rechtlichen Rationalisierung nicht in kompletter Abkopplung von der Religion vollzog. Vielmehr wurde gerade das kanonische Recht zu einem entscheidenden Faktor der Rationalisierung, indem es, einhergehend mit der Evolution der Kirche zur »Anstalt«, ein einflussreiches formal-rationales Recht konstituierte, das sich vom heiligen Recht abgrenzte. Thier stimmte hier der Deutung Werner Gepharts aus dem Rechtsband zu. Der Theologe und ehemalige Fellow des Käte Hamburger Kollegs »Recht als Kultur« Philipp Stoellger von der Universität Rostock betonte in seinen Ausführungen zu Spuren des Protestantismus in Webers Rechtssoziologie noch dezidierter, dass die Entstehung des modernen Rechts nicht als simple Ablösung von Religion zu verstehen sei, sondern dass es einen »Differenzierungsbedarf jenseits der vertrauten Säkularisierungs- und Ausdifferenzierungsthese« gebe. Stoellger warf die Frage auf, welche Rolle der Protestantismus für die Rechtsentwicklung und auch das Rechtsverstehen spielen könne. Die verstehende Soziologie, und damit auch die Rechtssoziologie Webers, sei als eine »Figur des Nachlebens der reformatorischen Hermeneutik« anzusehen. Die Einflüsse des Protestantismus auf das Recht beurteilte Stoellger differenziert: Einerseits stellte er fest, dass die Semantik der lutherischen Rechtfertigungslehre juridisch geprägt sei und somit als theologischer Beitrag zur Rechtsentwicklung gelesen werden könnte. Andererseits sei die Struktur und Funktion dieser Rechtfertigung nicht mehr juridisch zu verstehen. Kern der Lehre sei nämlich nicht ein rechtsäquivalentes Verhältnis von Gott und Mensch oder Mensch zu Mensch, sondern es gehe um eine passive Gerechtigkeit, um eine »Gerechtmachung des Ungerechten«, die auf der Unterscheidung von Gesetz und Evangelium beruhe: »Unter dem Gesetz ist der Mensch Sünder und entsprechend zu verurteilen; unter dem Evangelium aber ist und bleibt er gerechtfertigt«. Auf dieser Basis sei eine Ausdifferenzierung von »Herrschaft und Heil« erfolgt, die für die Formalisierung und Rationalisierung des Rechts von hoher Bedeutung gewesen seien. Die Ausdifferenzierung bleibe jedoch ambivalent, da die »Heilsordnung« immer noch als maßgebend gelten könne. Der hieraus resultierende Ordnungskonflikt von Recht und Religion sei, so Stoellger, nicht prinzipiell zu lösen, sondern situativ zu entscheiden.

Auf der Suche nach der Weber’schen Ordnung

Ordnungskonflikte und -relationen anderer Art standen im Mittelpunkt der Tagung, während der Weber als ein Theoretiker pluraler, zum Teil konkurrierender sozialer Ordnungen beleuchtet wurde. Der Leipziger Politologe Andreas Anter verwies darauf, dass der Begriff der »Ordnung« eine Schlüsselrolle in Webers Kategoriengebäude einnehme, jedoch nirgendwo eine eindeutige Bestimmung erfahre, sondern vielmehr als Grundtatbestand vorausgesetzt werde. Dass die Ordnungskonzeption Webers untrennbar mit seinem Handlungsbegriff verbunden sei, sei ein theoriegeschichtlich bedeutender Schritt. Ordnung tauche bei Weber nicht nur als etwas durch verschiedene Zwangsmechanismen Durchzusetzendes auf, sondern vor allem als soziale Struktur, deren Existenz an einen spezifischen Geltungsglauben geknüpft sei. Hier zeichne sich auch eine Spannung des Ordnungskonzeptes ab, die repräsentativ für die moderne politische Theorie und Rechtsphilosophie sei.

Die konstitutive Verbindung von Ordnung und Sinn, Ordnung und Geltung entwickelte sich im Anschluss zu einem der größten Diskussionsthemen der Tagung. Weber macht das »Einverständnis« zum Geltungsgrund einer Ordnung, die nie allein auf Zwang beruhen kann. Darüber, dass dieses Einverständnis weder als faktischer Konsens noch als dogmatische Forderung zu deuten sei, herrschte Einigkeit. Martin Albrow, zur Zeit Fellow am Käte Hamburger Kolleg, betonte, dass »Ordnung« bei Weber sehr stark an die Dimension des Glaubens geknüpft sei. Hier komme dann, so Werner Gephart, auch der »Einverständnisglaube« ins Spiel. Tatsächlich beruht bei Weber das Einverständnishandeln auf dem subjektiven Glauben an die objektive Geltung einer Ordnung oder bestimmter Normen. Johannes Weiß wies in diesem Zusammenhang noch darauf hin, dass Weber mit dem Begriff der »Chance« versucht habe, die Handlungsaspekte mit der strukturellen Dimension von Ordnungen zu verknüpfen.

Mit dem Konzept der Wirtschaftsordnung setzte sich Hinnerk Bruhns (Paris) in seinem Vortrag auseinander, in dem er die Begrifflichkeit Webers in der wirtschaftlichen Sphäre inspizierte. Bruhns erinnerte daran, dass Weber eine funktionale Beziehung zwischen Rechts- und Wirtschaftsordnung entschieden abgelehnt habe. Er habe auch keine systematische Typologie von Wirtschaftsordnungen aufgestellt, auch wenn er faktisch die kapitalistische, die projizierte sozialistische und etwa auch die antike Wirtschaftsordnung analysiert habe. Der Schlüsselbegriff in diesen Untersuchungen sei aber jener des »Verbandes« gewesen.

Edith Hanke (München) betrachtete wiederum das Verhältnis von Rechts- und Herrschaftsordnungen, wie sie sich in der Weber’schen Soziologie darstellten. In entwicklungshistorischer Perspektive habe Weber Recht und Herrschaft in seinen Ausführungen zu den politischen Gemeinschaften aufeinander bezogen. Im modernen Anstaltsstaat seien beide Ordnungen, Recht und Herrschaft, über die legal-rationale Form der Legitimität miteinander verknüpft. In typologischer Hinsicht hingegen ließen sich den drei Typen der Herrschaft nur begrenzt entsprechende Rechtstypen zuordnen, etwa in der Korrespondenz von rational-systematischer Justiz und rational-bürokratischer Herrschaft sowie bei der »charismatischen« Justiz, die ihr Äquivalent in der charismatischen Herrschaft habe. In einer strukturellen Perspektive könne man so am besten von »Wahlverwandtschaften« zwischen den Strukturen des Rechts, der Wirtschaft und der Herrschaft sprechen.

Weber und der Rechtspluralismus

Hubert Treiber, Soziologe aus Hannover, führte in seinen Bemerkungen aus, was auch in vielen anderen Beiträgen anklang, nämlich die Entwicklung eines pluralistischen Rechtsbegriffs bei Weber, der ihn sogar als »Ahnherren« des legal pluralism erscheinen lasse. Treiber erinnerte an Webers Ausführungen in seinem Text »Die Wirtschaft und die Ordnungen«, in denen er das Bestehen einer Rechtsordnung an die Existenz eines speziellen »Zwangsapparats« knüpfe, der wiederum durch zu diesem Zweck bereitstehende, mit bestimmten Zwangsmitteln ausgestattete Personen konstituiert werde. Die Geltung von Recht sei bei Weber Bestandteil eines Verbandshandelns, nicht aber unbedingt an den staatlichen Rechtszwang gebunden. So mache Weber den Weg frei für die Analyse eines außer- und vorstaatlichen Rechts, wie es die Bewegung des legal pluralism später auf nicht immer präzise Weise zum Programm erhoben habe, aber auch für die Untersuchung anderer normativer Ordnungen, die mit dem staatlichen Recht in Konflikt geraten könnten. Martin Albrow griff in seinem Schlussvortrag gerade diese Erkenntnis Webers auf, da sie für die Erforschung von normativen Konflikten, die im Zuge der Globalisierung entstünden, äußerst wertvoll sei.

Webers Lehren für die Rechtssoziologie

Über die bloße Exegese hinaus versuchten die Vortragenden und Diskutanten also auch, manche der Erkenntnisse und Methoden Webers für die zeitgenössische Forschung fruchtbar zu machen. Vielen Tagungsteilnehmern erschien gerade das komparative Vorgehen Webers, bei allen Differenzen im Detail, als nachahmenswert. Joachim Savelsberg (Minneapolis) zeigte in seiner Präsentation bestimmter Entwicklungen des internationalen Strafrechts zudem, dass auch die Weber’sche Unterscheidung von formal-rationalem und material-rationalem Recht ein nützliches Untersuchungsinstrument sein könne, da mit ihm inhärente Spannungen der rechtlichen Rationalität offengelegt werden können. Letztlich offen blieb die Frage, inwieweit Webers Rechtssoziologie tatsächlich als vergleichende Kultursoziologie des Rechts verstanden werden könne. Der Pariser Soziologe François Chazel, der außerordentlich lobende Worte für die kritische Edition des Rechtsbandes fand, bezweifelte, dass dies die Ambition Webers gewesen sei, zumal dieser den Begriff der Rechtskultur nie verwandt habe. Vielmehr habe er eine Soziologie der Ordnungen entwickelt. Werner Gephart entgegnete, dass gerade das Konzept der »Einverständnisgemeinschaft« auf einen jeweils spezifischen kulturellen Kontext verweise, auf einen spezifischen Sinn, der den Focus der Kulturwissenschaften bilde. Ordnung sei ohne ihre »Kulturbedeutung« gar nicht zu denken. Und in Webers Analyse der historischen Varianz der Rechtsentwicklungen ließen sich die geeigneten Kategorien finden, um die verschiedenen (normativen, symbolischen und organisationellen) Dimensionen dieser Rechtsevolution zu erfassen, die auch ein tieferes Verständnis der Eigenarten und des Konflikt heutiger Rechtsordnungen und -kulturen ermögliche. Dass Webers Werk für dieses ambitionierte Vorhaben von nicht geringem Nutzen ist, darf zumindest als ein Ergebnis dieser Tagung gelten.

Text: Jan Christoph Suntrup

Fotos: Helge Pohl

Quelle: http://maxweber.hypotheses.org/644

Weiterlesen

Liveblog “Umkämpfte Erinnerung – wie mit Geschichte Politik gemacht wird”

Am 30. November werden wir ab 17 Uhr live von unserer Veranstaltung in Leipzig bloggen. Wer es also nicht bis in die Sächsische Akademie der Wissenschaften schafft, kann sich auf diesem Weg in die Diskussion einschalten. Sie haben geschichtspolitische Fragen an Heinz Duchardt, Norbert Frei, Ute Daniel, Günter Heydemann und die Moderatorin Hilde Weeg? Dann können sie diese auch hier direkt in den Kommentaren oder auf Twitter unter dem Hashtag #gid12 stellen. Anregungen gibt es in unserem Linkdossier und den Vorab-Statements von Ute Daniel, Heinz Duchardt und Günter Heydemann. Das Team von Geisteswissenschaft im Dialog freut sich auf Ihre Interventionen!

Quelle: http://gid.hypotheses.org/146

Weiterlesen

Destroy when done: Ein Fallbeispiel aus der wissenschaftlichen Praxis über die Auswirkungen von Open Access auf misstrauische Menschen

  Neue digitale Technologien und vor allem das Internet ermöglichen die freie Zirkulation und Verfügbarkeit von Wissen und Daten. Das herkömmliche Urheberrecht hält mit dieser Entwicklung nicht Schritt und der Ruf nach Open Access für wissenschaftliche Werke und andere Wissensbestände wird lauter. Die Zukunft verheißt eine globale Wissenschaft, in der Wissen nicht mehr monopolisiert werden kann, sondern allen Menschen an jedem Ort der Erde zugänglich ist. (Für eine postkoloniale Perspektive dazu siehe Artikel über library.nu.) Diese Entwicklung stößt jedoch nicht bei allen Produzenten von wissenschaftlichen Arbeiten auf Zustimmung, sondern führt bei manchen zu Verfolgungswahn und völliger Abschottung von Wissen, wie ich bei der Jagd nach einer abgeschlossen jedoch unveröffentlichten Dissertation feststellen musste. Meine Jagd begann mit dem Hinweis eines Mitarbeiters eines Oral History Archivs, dass in Kalifornien ein Historiker eine Dissertation verfasst hat, die sich mit dem Untersuchungsgegenstand meiner eigenen Dissertation beschäftigt. Aus Interesse an meiner Untersuchung und selbstverständlich auch, um eine Doppeldissertation zu vermeiden, musste ich diese Arbeit sehen. Da die Dissertation an einer amerikanischen Universität eingereicht wurde, führte mich mein erster Weg zu ProQuest, einem Internetportal, das fast alle amerikanischen Master-Abschlussarbeiten und Dissertationen auflistet und entweder zum Download oder Kauf anbietet. Die gesuchte Arbeit war auch dabei, jedoch war es weder möglich sie herunterzuladen noch zu kaufen, was mich verwunderte, da nur wenige Werke in dieser Weise eingeschränkt sind. Mein zweiter Versuch führte mich direkt zu der Homepage der University of Michigan, die ProQuest beheimatet und Dissertationen in gedruckter Form ausschließlich zum Kauf anbietet. Aber auch hier hatte ich keinen Erfolg. Mein dritter Anlauf war die Homepage der Universität, an der die Dissertation eingereicht worden war. Die Arbeit hier zu finden war kein Problem. In der Detailanzeige stand, dass die Arbeit 2009 eingereicht und 2011 veröffentlicht worden war. Ich atmete auf: Anfang 2012 sollte es also kein Problem sein, sie zu lesen. Der Link führte mich zu einer weiteren Seite, die aus einem einzigen Satz bestand: „The digital asset is restricted until July 2014. Please contact archives if you have any questions.“ Als vierten Versuch were ich somit meine E-Mail an das Archiv der Universität, die ich umgehend verfasste und auf die ich keine Antwort erhielt. Die weitere Suche brachte mich auf eine Seite, die nur durch das Login von Mitgliedern der Uni zugänglich ist. Durch Zufall machte ich die Bekanntschaft mit einem Studenten der Uni. Er loggte sich ein und hatte – richtig geraten – keinen Erfolg. Dies war der fünfte Streich. Als Nächstes versuchte ich, den Autor direkt zu kontaktieren. Auf meine E-Mails erhielt ich jedoch keine Reaktion. Alle Off-Site-Möglichkeiten hatte ich ausgeschöpft, also führte kein Weg daran vorbei, es selbst vor Ort zu versuchen – es gibt Schlimmeres, als nach Los Angeles fahren zu müssen. Vor Ort wurde ich zunächst von einer Bibliothek zur nächsten geschickt. Letztendlich wurde mir die Telefonnummer des Archivs gegeben (bis jetzt hatte ich nur dessen Email-Adresse). Von dort wurde ich an die Abteilung Special Collections weitergeleitet. Hier schickte man mich zu einem weiteren Reference Desk. (Nach meiner Berechnung die Versuche sieben bis elf). Hier machte ich die Bekanntschaft von zwei Bibliothekarinnen, Kate und Mary, die, nachdem ich Ihnen mein Problem geschildert hatte, der Ehrgeiz ergriff, die Arbeit aufzuspüren. Sie riefen zunächst noch einmal im Archiv und bei den Spezial Collections an, wo ich schon vergeblich vorgesprochen hatte. Aber auch sie hatten keinen Erfolg. Respektsbezeugungen wurden dem Verfasser der gesuchten Dissertation von den Bibliothekarinnen entgegengebracht, denn er musste einigen Aufwand betrieben haben, um die Arbeit so gänzlich unzugänglich zu machen, selbst für Universitätsmitglieder und Angestellte der Bibliothek. Die Unmöglichkeit eine Arbeit zu finden, die als Dissertation an derselben Stelle eingereicht worden war, sorgte jedoch für Unmut bei den Bibliothekarinnen und sie waren gewillt, alle Hebel in Bewegung zu setzen, um mir zu helfen. Sie empfanden es als Unverschämtheit und Heuchelei, eine wissenschaftliche Arbeit, für die jemandem ein Ph.D. verliehen worden war, der wissenschaftlichen Gemeinschaft vorzuenthalten. Schließlich handelte es sich um eine historische Arbeit und nicht um geheime CIA-Dokumente, merkte Kate an. Da bin ich mir allerdings nicht mehr sicher, wie das Ende der Geschichte zeigt. Dass dieses Versteckspiel überhaupt möglich war, erklärten sie mir, lag daran, dass die Universitätsbibliothek seit 2009 keine ausgedruckten Exemplare ihrer Dissertationen mehr aufbewahrt, sondern lediglich digitale Versionen. Eine Praxis, die zunehmend von amerikanischen Universitäten angewandt wird. Ein ausgedrucktes Exemplar hätte ich somit jederzeit vor Ort einsehen können. Die digitale Version ließ sich verstecken, selbst an der Universität. Wir hatten eine längere Diskussion über Open Access und den Wert von Wissenschaft. Im nächsten Anlauf wurde direkt das digitale Archiv kontaktiert, das für die Digitalisierung der Abschlussarbeiten zuständig ist. James, der Archivar, konnte dann nähere Einblicke in diesen Fall bieten. Generell wird Doktorand(inn)en die Möglichkeit gegeben, den Zugang zu ihrer Arbeit für zwei Jahre zu unterbinden. Dies erlaubt den Autor(inn)en, einen großen Verlag zu finden, der die Arbeit veröffentlicht, ohne dass die Ergebnisse bereits zugänglich sind. Unter bestimmten Voraussetzungen kann eine Verlängerung dieser Frist um weitere drei Jahre erreicht werden. Hierzu muss jedoch ein begründeter Antrag gestellt und vor einem Komitee verteidigt werden. In meinem Fall hat der Autor anscheinend argumentiert, dass nicht nur seine wissenschaftlichen Erkenntnisse geschützt werden müssten, sondern dass seine Arbeit auch als kreatives Werk besonderen Schutz verdient. Diese Argumentation ist reichlich absurd, da wissenschaftliche Arbeiten stets eine kreative Auseinandersetzung mit dem Untersuchungsgegenstand darstellen. Der Archivar des digitalen Archivs betonte, dass der Autor mit großem Getue (big stink) die Veröffentlichung 2011 verhindert hat. Er erklärte sich jedoch bereit, mir die Arbeit zur Verfügung zu stellen. Unter zwei Voraussetzungen: „Do not distribute. Destroy when done.“ Also doch CIA – ich fühlte mich an den Film Burn After Reading erinnert. Die Vorgabe wurde mir noch als persönliche Absicherung der Bibliothekarin („I do not want to get fired for this!“) als E-Mail zugeschickt. Letztendlich habe ich die Arbeit nach einigen Anstrengungen also doch noch bekommen. Durch viel Beharrlichkeit, etwas Glück und vor allem dadurch, dass ich mich mit den Mitarbeiter(inne)n der Universität gut gestellt habe. Die ganze Angelegenheit erinnert mich an die Geschichten, die mir Kolleg(inn)en über Archive in Osteuropa erzählen, wo man erst die Archivare „befrienden“ muss, (wie soll das gehen, wenn sie nicht bei facebook sind?), bevor man die Möglichkeit erhält, an die gesuchten Archivalien zu kommen. Die Digitalisierung führt offensichtlich bei einigen Wissenschaftler(inne)n zu Verfolgungswahn ungeahnten Ausmaßes, was sie dazu veranlasst, alle Hebel in Bewegung zu setzen, um ihre Arbeit vor jeglichem Zugriff zu schützen. Gewissermaßen ist dies die Gegenbewegung zu Open Access. Die Erkenntnis ist, dass es unter bestimmten Umständen einfacher ist, ein digitales Dokument völlig von der Außenwelt abzuschotten, als ein gedrucktes Werk in einer Bibliothek oder einem Archiv. Es zeigt zudem, dass es nicht um die Existenz von Wissen geht, sondern um dessen Auffindbarkeit und Verfügbarkeit. Was sich nicht auffinden lässt, existiert nicht. Und ein Buch lässt sich mitunter leichter lokalisieren als eine Datei. Dies bedeutet keinesfalls, dass nicht auch gedruckte Dokumente verschwinden können. Dieser Effekt ist gerade für die Geschichtswissenschaft bedeutsam, die ihre Quellen deswegen auch Überreste nennt, was das notwendige Verschwinden von Dokumenten und Artefakten – und somit von Wissen – impliziert, um die Voraussetzungen zu schaffen, die Vergangenheit überhaupt in einer komplexitätsreduzierten und sprachlichen Form zu konstruieren. Für Arbeiten aus dem Jahr 2009 kommt dieser Schritt jedoch etwas zu früh. Mein Hauptkritikpunkt ist allerdings nicht, dass jemand besorgt ist, um seine oder ihre wissenschaftlichen Erkenntnisse gebracht zu werden und deswegen dass Internet meidet; sondern vielmehr, dass Doktorarbeiten gar nicht mehr in gedruckter Form verfügbar sind. Die Arbeit, die ich suchte, wurde 2009 abgeschlossen. Wäre sie wenige Monate zuvor – im Jahr 2008 – eingereicht worden, wäre ich heute ebenso wenig in der Lage gewesen, sie online zu beziehen. Ich hätte sie jedoch als gedrucktes Exemplar in der Universitätsbibliothek lesen können.   Um die hilfsbereiten Menschen auf meiner Suche nicht in Schwierigkeiten zu bringen, habe ich eindeutig zuordenbare Namen und Ortsangaben vermieden.      

Quelle: http://fyg.hypotheses.org/29

Weiterlesen

Rezensieren als Prozess – Vom Ende des Einautorprinzips. Oder: Lobo und recensio.net

  In seiner jüngsten Kolumne führt Sascha Lobo das mit der Insolvenz der FR soeben manifest gewordene Zeitungssterben auf einen generellen Rezeptionswandel zurück. Seine Theorie ist spannend und leuchtet unmittelbar ein (wobei ebendies immer die Ahnung nährt, dass eine Sache ganz so einfach denn doch nicht zu fassen sein wird, aber wohl das berühmte Körnchen Wahrheit transportiert). Laut Lobo befinden wir uns mitten in einer „sich selbst prozessualisierenden“ Gesellschaft. An die Stelle von Ergebnissen, etwa in Form von Artikeln, Büchern o.ä. tritt der öffentlich gemachte Entscheidungs- und Entwicklungsprozess. Informationen verflüssigen sich, weil sie vor ihrer Publikation in keine Form mehr gegossen werden und fragmenthaft bleiben. Mikroblogging wird zum flexibelsten aller Nachrichtenkanäle: Wenn es politisch ernst wird, verlässt man sich auf Twitter. Dabei ist der Trend zur Prozessualisierung nicht neu: Früher sorgte das Aufkommen der Tageszeitungen für einen Quantensprung; Artikel konnten binnen 24 Stunden vor aller Augen beantwortet werden. Das Tempo digitaler Medien aber ist schlichtweg nicht mehr steigerbar – also stellt sich das System um. Nachrichten und Diskussionen werden zum Puzzle – und alle puzzeln mit. Veränderte Produktionsgewohnheiten ändern Rezeptionsgewohnheiten und vice versa – am Ende der Kette stehen die Kaufgewohnheiten. Soweit Lobos Kolumne, sehr frei zusammengefasst. Ich würde anfügen wollen, dass die beschriebene Entwicklung durch schwindendes Vertrauen in den „Experten“ beschleunigt wird. In den einen also, der ein Thema in einem dramaturgisch runden Artikel zur Gänze erfasst und zu objektivieren versteht. „Das Ende der Momentaufnahme“ stehe bevor, schreibt Lobo, und es lässt sich eventuell ergänzen, dass sich das nicht nur auf die zeitliche Dimension und das eben nicht mehr steigerbare Tempo bezieht, sondern auch auf die zwangsläufige Ausschnitthaftigkeit und Subjektivität des Einautorprinzips, dessen Akzeptanz schleichend zu Ende geht. Vorausgesetzt ist eine erhöhte Partizipationsbereitschaft beim Einzelnen, denn eine Synthese zu bilden aus all den verfügbaren Fragmenten, liegt anders als früher bei ihm, und je mehr das so ist, desto mehr wächst die Skepsis vor apodiktischen Aussagen (von Politikern, von Wissenschaftlern, vom Nachbarn). Spannend finde ich für unseren Zusammenhang – die Geisteswissenschaften im Allgemeinen und die RKB-Tagung im Speziellen – die Übertragbarkeit auf das Konzept von recensio.net. Fast kam in mir das Gefühl auf, endlich eine Erklärung für unsere vor Jahren gefällte Entscheidung zu haben. Die Entscheidung nämlich, die bislang meistenteils eindimensionale (geschichts-)wissenschaftliche Buchrezension aufzubrechen: Das Web 2.0-Konzept von recensio.net versucht, ergänzend zur klassischen Rezension ein kommentarbasiertes, „lebendiges“ Rezensionsverfahren in die Wissenschaft zu tragen. Das ist nichts anderes als die Prozessualisierung eines bislang statischen Textgenres, dem seine Statik von der Alternativlosigkeit des Papiers in die Wiege gelegt wurde, denn methodisch betrachtet ist wohl kaum ein anderes wissenschaftliches Textgenre so gut geeignet für Fragmentisierung und Prozessualisierung wie die Rezension: Ziel ist Meinungsbildung und  -austausch über Fachliteratur. Kommentare sind in diesem Fall nicht ergänzender Teil des Bewertungsverfahrens, sie SIND das Bewertungsverfahren, ganz in Lobos Sinne, der eben nicht die Kommentarspalte unter dem weiterhin klassischen Artikel als Ausdruck von Prozessualisierung sieht, sondern den Live-Ticker, der den Artikel ersetzt. Und noch viel weniger als bei Blogs scheint mir dabei die Kommentarfrequenz entscheidend, die hier zuletzt angeregt diskutiert wurde – als Qualität und Intention des Kommentars.  Geht es doch weniger darum, per Kommentar das Gegenüber von der eigenen Meinung zu überzeugen, als die eigene Meinung in ein im besten Sinne demokratisches Kaleidoskop einander ergänzender Meinungen einzufügen. Und das Ganze reiht sich dann ein in die gesamtgesellschaftliche Neigung zur Prozessualisierung… Wieder Diskussionsstoff für Panel 3 der RKB-Tagung. Anmeldung läuft!    

Quelle: http://rkb.hypotheses.org/349

Weiterlesen