Algorithmen für Ängstliche

In jüngerer Zeit kam die Berichterstattung über Algorithmen wieder auf die Tagesordnung und man ist fast versucht, als Tenor “Lasst, die ihr eintretet, alle Hoffnung fahren!” zu vernehmen: Die Welt ist beherrscht von einer weithin unbekannten Supermacht, die das Dasein jedes Einzelnen und das Zusammenleben aller durch unsichtbare Fäden aus dem Hintergrund lenkt. Da werden Frauen über ihr Konsumverhalten als schwanger kategorisiert, ehe sie sich dessen selbst bewusst werden. Da bekommen Lebensgemeinschaften keinen Kredit, weil sie am falschen Ende der Straße wohnen. Da plant ein Online-Versand, Kunden die gewünschten Waren zuzusenden, bevor sie überhaupt daran dachten, diese zu bestellen. Und das alles nur, weil da jemand die “richtige mathematische Formel” gefunden hat und in der Lage war, diese “auf einem Computer zu programmieren”. Und jetzt sind die so geschaffenen Algorithmen dabei, sich von ihren Schöpfern loszusagen und die gesamte Menschheit bis zum Sankt Nimmerleinstag zu knechten.

angst

Der Zaubertrank: Deep Learning

Ich habe zunächst versucht, den Wahrheitsgehalt dieser Darstellungen in meinem Unwissen zu finden, was mir nicht sonderlich gut gelang. Sollten etwa die anderen doch nicht mit Wasser kochen und das, was ich so über das Thema weiß, überholtes Wissen sein? Ja, natürlich gibt es auf der einen Seite den Deep-Learning-Ansatz, der – salopp gesagt – irgendwie sowas wie die Architektur des menschlichen Gehirns auf einem künstlichen Rechnersystem nachbildet und das Ergebnis mit Beispielen füttert, auf dass es eigenständige Kategorisierungen vornehme. Ein solcher Ansatz benötigt allerdings auch in unserer Zeit schneller Desktop-PCs noch nicht-alltägliche Rechneranlagen, eine Menge Spezialisten für die Implementation und das Training neuronaler Netzwerke sowie eine hohe Frustrationstoleranz, weil relativ schwer analysierbar ist, was genau passiert und wie man Ergebnisse verbessern kann. Der Deep-Learning-Ansatz wird deswegen vor allem von großen Forschungseinrichtungen und Unternehmen eingesetzt, Google etwa hat Ray Kurzweil darauf angesetzt.

Deep-Learning-Techniken eignen sich vor allem für Aufgaben, wo Muster erkannt werden müssen, die sich nicht oder nur schwer durch spezifische Merkmale beschreiben lassen. So werden sie z. B. die Spracherkennungssyteme von iOS und Andoid eingesetzt. Soweit ich das beurteilen kann, wird der Ansatz abgesehen davon in freier Wildbahn noch kaum angewendet, weil er einfach noch nicht gut genug modellierbar ist.

Der Kochtopf mit Wasser: Maschinelles Lernen

Realweltszenarien, in denen Algorithmen eingesetzt werden, lassen sich fast alle durch Klassifikations- oder Gruppierungsproblem formulieren: Ist die Nutzerin schwanger oder nicht? Welche Kreditkonditionen bekommen die Kunden in der Gruppe, in die der potentielle Kreditnehmer eingeordnet wurde? Produkte welcher Warengruppe haben die anderen Käufer des Artikels noch erworben?  Ist der Autor des unbekannten Pamphlets Donald Rumsfeld oder der Una-Bomber? Will die Politikerin Europa – ja oder nein? Oder – wie in der Facebook-Studie damals - ist der Nutzer bzw. die Nutzerin heterosexuell oder irgendwas anderes (sic!)?

Es ist hier nicht mein Punkt, welche der möglichen Anwendungsszenarien methodisch zweifelhaft oder gar ethisch verwerflich sind. Was gemacht werden kann, wird wahrscheinlich eh irgendwo durchgeführt werden, da habe ich wenig Illusionen. Mir geht es hier nur darum, aufzuzeigen, dass dort in den seltensten Fällen neue mathematische Formeln ersonnen werden, die dann irgendwer auf dem Computer programmiert. Vielmehr steht ein ganzer Werkzeugkasten bekannter Verfahren zur Klassifikation und Gruppierung (Clustering) von Objekten zur freien Verfügung. Theoretisch könnte sich also jede|r daran bedienen und für welche Typisierungen auch immer anwenden. Mit ein wenig Geduld kommt man auch mit so mächtigen Programmen wie WEKA zurecht (da bekommt man auch eine graphische Benutzeroberfläche). Oder man ist so verwegen und installiert sich die entsprechenden Pakete für R.

Und schon ist man Data Scientist. Eigentlich, denn der Teufel liegt mal wieder … in den Daten. Um Objekte zu klassifizieren, muss man sie zunächst durch Merkmale beschreiben, jedenfalls wenn man nicht einen solchen Zauber-Neuronalen-Netzwerk-Ansatz wie oben beschrieben verfolgt. Texte kann ich z.B. beschreiben über die Wörter, die sie enthalten; Menschen über ihre Augenfarbe, ihre Größe, ihr Geschlecht, ihren Wohnort oder eben über die Bücher, die sie bisher erworben haben. Oder ich kombiniere einfach mehrere Merkmale. Und gewichte sie dann möglicherweise unterschiedlich – Augenfarbe ist wichtig, Anzahl der Muttermale etwas weniger relevant. Was auch immer ich messen oder abzählen kann, ist als Merkmal verwendbar. Schwierig ist die Mischung von Merkmalen unterschiedlicher Skalenniveaus, aber auch das ist mit ein wenig Phantasie meist lösbar. Augenfarbe könnte etwa über RGB-Werte angegeben werden – dann hätte ich statt eines nominalskalierten Merkmals gleich drei verhältnisskalierte. Diesen Vorgang – die Zuordnung von Merkmalen zu Objekten – nennt man Feature Engineering. Am Ende dieses Schrittes hat man zu jedem Objekt, das man gruppieren oder klassifizieren möchte, eine Reihe von Zahlen. Und mit diesen Zahlen kann ich dann meinen Algorithmus füttern. Bei der Gruppierung gebe ich die Objekte einfach alle hinein und bekomme am Ende Gruppen (immer hinsichtlich der ausgewählten Merkmale) homogener Objekte zurück. Das nennt man auch unüberwachtes Lernverfahren, weil ich die ursprünglichen Objekte nicht vorklassifizieren musste, um sie in Gruppen einzuteilen.

Ein weiteres bekanntes Verfahren ist das überwachter Art: Hierfür werden Trainingsobjekte benötigt, die bereit vor Anwendung des Algorithmus mit ihrer Klasse versehen sind (+/-schwanger, Text von Rumsfeld, Text vom Una-Bomber etc). Über diese Trainingsobjekte bildet sich der Algorithmus ein Modell, das er zu Rate zieht, wenn er weitere, nicht vorausgezeichnete Objekte zuweisen soll.

Was ich eigentlich damit sagen will

Hinter dem was landläufig als Algorithmen bezeichnet wird, die einen immer größeren Einfluss auf unser Leben haben, verbergen sich meist maschinelle Lernverfahren. In denen steckt zwar ein wenig was an Mathematik drin, vor allem bei der Gewichtung von Merkmalen, bei der Distanzberechnung von Merkmalskombinationen und eben bei der Gruppierung oder Klassifikation. Dies sind aber in den meisten Fällen frei zugängliche Formeln oder gar fertige Implementationen, die über graphische Oberflächen von eigentlich jedem zu bedienen sind. Manche dieser Verfahren liefern für bestimmte Anwendungsfälle bessere, für andere wieder schlechtere Ergebnisse. Zumindest in meinem Bereich, der Computerlinguistik, lässt sich meist schwer voraussagen, welche der Kombinationen gut funktioniert. Man probiert halt einfach alle aus und schaut dann, welche am besten performt (ja, manchmal sind wir halt einfach Ingenieure).

Mit das Wichtigste für die Funktion der Verfahren ist allerdings die Auswahl an Merkmalen, mit denen die Objekte beschrieben werden. Und anstatt darüber zu mosern, dass Algorithmen Entscheidungen für oder über uns treffen, sollte man vielleicht besser darauf drängen, offenzulegen, auf welcher Grundlage sie dies tun. Welche Merkmale erhebt die Schufa? Liest Amazon meine History aus oder beruhen die Empfehlungen nur auf den Daten, die ich ihnen gegeben habe? Vor allem: Kann ich das abschalten? Was der Algorithmus dann hinterher draus macht, kann ja auch mal hilfreich sein. Demnächst hoffentlich hier an einem konkreten Beispiel gezeigt.

Quelle: http://texperimentales.hypotheses.org/1111

Weiterlesen

Audienz bei einem Geächteten

Das Schicksal Friedrichs V. von der Pfalz berührt vordergründig nur die Anfangsphase des Dreißigjährigen Kriegs: zunächst als pfälzischer Kurfürst einer der wichtigsten Reichsfürsten, dann König von Böhmen, um kurz darauf geächtet und als „Winterkönig“ verspottet alles zu verlieren und ins Exil nach Den Haag zu gehen. Bei den Generalstaaten hatte er zwar Zuflucht gefunden, doch seine Machtgrundlagen waren verschwunden. Gleichwohl setzte er in den folgenden Jahren alles daran, um auf die politische Bühne des Reiches zurückzukehren, die pfälzischen Besitzungen und ebenso auch die böhmische Krone wiederzugewinnen. Immerhin gab es noch Kriegsunternehmer wie Mansfeld und Christian von Braunschweig, die vorgaben, für die Sache des Pfälzers zu streiten, und nach wie vor flossen Gelder aus Frankreich, England und den Niederlanden, um diese Feldzüge zu finanzieren.

Auf der kaiserlichen Seite sah die Sache anders aus. Für Ferdinand II. und dem mit ihm verbündeten Maximilian von Bayern mitsamt der Liga war Friedrich nur der „exilierte Pfalzgraf“. Mit einem Reichsächter konnte man keinen Umgang haben, als politischer Faktor war Friedrich rechtlich betrachtet ausgeschaltet. Und Maximilian, der Friedrichs pfälzische Kurwürde nach Bayern transferiert hatte, dachte gar nicht daran, den Exilierten durch diplomatische Kontakte aufzuwerten. Doch war nicht zu übersehen, daß man über die Machenschaften in Den Haag Bescheid wissen mußte. Was ging am Hof des exilierten Rex Bohemiae vor? Das wollte man schon gerne erfahren, doch durfte dies nicht über offizielle Kanäle erfolgen.

Es gab aber einen indirekten, eleganteren Weg. Ferdinand, als Bruder Maximilians von Bayern, unterhielt einen eigenen Agenten in Den Haag. Damit war kein Geheimdienstler gemeint, sondern ein diplomatischer Vertreter auf ganz niedriger Stufe – das war zum einen hinsichtlich des repräsentativen Aufwands billig und zum anderen politisch unverfänglich. Dieser Agent versorgte Ferdinand, der als Kurfürst von Köln unmittelbarer Nachbar der Generalstaaten war, permanent mit Nachrichten über die aktuellen Vorgänge in Den Haag und kümmerte sich auch um kurkölnische Belange bei den Generalstaaten. Er sollte nun auch auf den Pfalzgrafen ein Augenmerk haben.

Tatsächlich knüpfte dieser Agent namens Johann van der Veecken Kontakte zum Gefolge des Pfalzgrafen. Ja, mitunter berichtete er sogar von direkten Gesprächen mit Pfalzgraf Friedrich selbst. Berichte über diese Audienzen schickte er dann an Kurfürst Friedrich – der die wirklich brisanten Informationen über den exilierten Friedrich gleich exzerpierte und nach München weitersandte. Auf pfälzischer Seite wird man schon gewußt haben, welche Dimension diese Gespräche mit Veecken hatten; wer weiß, was man dort alles lanciert hatte, im sicheren Bewußtsein, daß diese über kurz oder lang doch bei Maximilian von Bayern landen würden.

Jedenfalls entwickelten sich hier auf ganz unverfängliche Weise Kontakte zwischen den mächtigen Fürsten im Reich und dem Geächteten im Haager Exil – Kontakte, die es eigentlich gar nicht geben durfte, die aber trotzdem für beide Seiten wichtig waren. Ich habe vor Jahren schon einmal dieses Themen im Umfeld der bayerischen Pfalzpolitik gestreift (im Katalog zum „Winterkönig“ von 2003), will mich demnächst aber noch einmal intensiver mit der Figur des kurkölnischen Agenten Veecken auseinandersetzen.

Quelle: http://dkblog.hypotheses.org/514

Weiterlesen

Das IfZ sucht private Dokumente aus dem Alltag im NS-Regime

Briefsammlung

Für das Forschungsprojekt „Das Private im Nationalsozialismus“ sucht das Institut für Zeitgeschichte Dokumente aus den Jahren 1933 bis 1945, die Einblick in den Alltag der Menschen im NS-Staat geben. Das können Tagebücher, Erinnerungen, Familienchroniken oder Briefe sein, aber auch Fotografien und Fotoalben.

Wir vermuten solche Dokumente in persönlichen Hinterlassenschaften und freuen uns über jedes Stück, das der Wissenschaft zur Verfügung gestellt wird.

Was wird gesucht?

Zu drei Spezialstudien sind wir konkret an Dokumenten und Zeugnissen aus der Zeit von 1933 bis 1945 zu folgenden Themen interessiert:

Fronturlaub: Erfahrungen des Wehrmachtsoldaten und seiner Angehörigen vor, im und mit dem Aufenthalt in der Heimat
Schwangerschaft und Mutterschaft in den ersten beiden Lebensjahren des Kindes sowie verwandte Themen wie Sexualität, Verhütung und Abtreibung

Gerichtsverfahren: juristische Auseinandersetzungen aus dem privaten Bereich, vor allem Ehescheidungen, aber auch Pfändung und Zwangsvollstreckung

Ansprechpartnerin

Dr. Esther-Julia Howell
Stellvertretende Archivleiterin
Telefon: +49 89 12 688-127 (Mo-Do 8-16 Uhr, Fr 8-12 Uhr)
E-Mail: howell@ifz-muenchen.de

Nähere Informationen auf der Projekt-Homepage.

Quelle: http://archive20.hypotheses.org/1992

Weiterlesen

Verwaschene Texte

Artikel zum Voynich-Manuskript (VMS) ziehen meist auch Kommentare an, in denen sich die Kommentarist|inn|en darüber äußern, welche Theorie sie sich mal so überlegt haben, was das VMS sein könnte und wie der Text interpretiert werden kann. In den allermeisten Fällen muss man die Ausführungen nicht ganz ernst nehmen, da sich ein fundiertes Gespräch zu diesem mehr oder weniger komplexen Thema schlecht in Kommentaren führen lässt. Die Darstellung eigener Hypothesen benötigt mehr Platz, einen gegliederten Text und eventuell Abbildungen. Das alles können Kommentarspalten nicht so recht bieten. Es besteht natürlich die Möglichkeit, auf externe Seiten zu verlinken. Ich sehe mir diese dann auch meist an und gebe ein kurzes Feedback. Eine wirklich ausgearbeitete und nachvollziehbare Theorie ist mir dabei allerdings noch nicht untergekommen. Beispiele gefällig? Voilà: [1] [2] [3] [4] [5]

Ein Kommentar in der Nacht

Für einen Kommentar, der in der Nacht zum Sonntag unter meinem Gast-Post bei den Ruhrbaronen landete, muss ich allerdings eine Ausnahme machen, ist der Absender doch Thomas Ernst (wenn er denn wirklich dahinter steckt und mir nicht jemand einen Streich spielen möchte. Es fällt mir aber niemand ein, der Ernsts Stil so gut nachzuahmen verstünde). Traurigerweise werden sich jetzt nicht wenige der Leserinnen und Leser hier fragen, wer denn dieser Thomas Ernst sei. Seine Heldensage ist leider noch immer weithin unbekannt, das hat wohl auch mein Blogpost über dieses Husarenstück nicht wirklich geändert. Mit der Entschlüsselung der Steganographia III hat er sich unsterblich gemacht, seine Darlegung zum Thema ist mehr als lesenswert und sei jedem zur Lektüre empfohlen. Es ist ein Krimi, verborgen im Pelz einer vor amüsant vorgetragener Gelehrsamkeit strotzenden wissenschaftlichen Abhandlung. Mir fehlen die Worte, um hier festzuhalten, wie sehr ich Ernst dafür bewundere. Wenigstens einen New-York-Times-Artikel hat er dafür bekommen.

Die geheimnisumwitterte Steganographia von Johannes Trithemius.

Und nun äußert dieser Thomas Ernst – wenn ich das richtig verfolgt habe – zum ersten Mal seine Hypothese zum VMS, was ich allein für sich genommen schon ziemlich sensationell finde. Gewissermaßen vermutet auch er, beim VMS sei ein Kopist am Werke gewesen. Dieser sei jedoch kein Autokopist, der immer wieder Zeichenketten von sich selbst abschreibt und verfremdet, sondern ein Fremdkopist, der ein Werk abschreibt, dessen Zeichen ihm nicht geläufig sind und dessen Inhalt er dementsprechend nicht versteht. So sehr ich ihn sonst bewundere – hier liegt Ernst meiner Meinung nach falsch. Der Text des VMS weist einfach zu viele Eigenschaften auf, die mit dieser Hypothese nicht in Deckung gebracht werden können. Ich greife mir hier zwei dieser seltsamen Merkmale heraus, die sich in der gegebenen Kürze erklären lassen.

Entropie: Zuwenig Information an Bord

Über das Maß der Entropie lassen sich Aussagen über den Informationsgehalt einer Nachricht machen, und das, ohne den Inhalt (die Semantik) der Nachricht zu kennen. Dafür muss man lediglich die Häufigkeitsverteilung der einzelnen Zeichen kennen (um die Zeichenentropie – H0 – zu errechnen) sowie die Häufigkeit, mit der bestimmte Zeichen auf bestimmte andere folgen (um die Verbundentropie – H1 – zu errechnen). Da H1 abhängig ist vom Umfang des zugrundeliegenden Alphabets, sollte man – um Texte mit unterschiedlich vielen verschiedenen Zeichen zu vergleichen – die Differenz zwischen H0 und H1 heranziehen. Dies tut z.B. Dennis Stallings in seiner Analyse zum VMS und kann damit aufzeigen, dass sich der Text des VMS hinsichtlich dieses Differenzwertes signifikant von allen bekannten natürlichen Schriftsprachsystemen unterscheidet. Das VMS scheint viel weniger Information (d.h. mehr Redundanzen) zu enthalten, als alle vergleichbar langen natürlichsprachlichen Texte, die man bisher untersucht hat. Dies gilt unabhängig davon, ob es sich dabei um Zeichen-, Silben- oder Alphabetschriften handelt.

Wortlängen: Zeilen als funktionale Einheit

Zeilen scheinen im VMS so etwas wie funktionale Einheiten zu bilden, d.h. sie scheinen auf irgend eine Weise gleich zu funktionieren. Bei natürlichen Sprachen ist dies auch zu beobachten, z.B. in der Lyrik oder bei Spruchsammlungen. Ein Text, bei dem auf 200 Seiten die Zeilen so aufgebaut sind, dass ihr jeweils erstes Wort – im Vergleich zur durchschnittlichen Wortlänge – signifikant länger, das jeweils zweite Wort aber signifikant kürzer ist, ist mir allerdings (abgesehen vom VMS, was Elmar Vogt schön ausführt) nicht untergekommen. Dazu wirken die Zeilen wie in Blocksatz gesetzt, ohne dass etwas darauf hindeutet, dass Wörter am Zeilenende getrennt worden wären oder dass der Abstand zwischen den Wörtern merklich differieren würde. Stattdessen scheint der Schreiber bzw. die Schreiberin einfach am Ende der Zeile ein Wort eingefügt zu haben, das längenmäßig passte. Ein solches Gebahren lässt sich meiner Ansicht nach nicht mit der Abschrift eines natürlichsprachlichen Textes in Deckung bringen.

Bloß ein starker Waschgang?

Die beiden kurz ausgeführten Indizien sind nicht die einzigen, die gegen die Hypothese sprechen, dem Text liege ein unverschlüsselter, natürlichsprachlicher zugrunde. Auch wenn man annimmt, der Text sei durch eine verständnislose, fehlerhafte Abschrift unter Zeitnot quasi einem Waschgang unterzogen worden, der ihn nahezu unkenntlich gemacht hat, kann das meiner Meinung nach diese Eigenschaften nicht erklären. Vielmehr deuten die Entropiewerte darauf hin, dass – wenn der Text des VMS eine Botschaft enthält – diese ein gutes Stück kürzer ist, als das die Länge des Textes suggeriert. Das heißt, dass die kleinsten Informationseinheiten des VMS länger sind als unsere Schriftzeichen. Das seltsame positionsabhängige Wortlängengebahren scheint mir auf einen Auswahlprozess irgendeiner Art hinzudeuten. Insofern denke ich, dass die Hypothesen, die

  1. von Gordon Rugg (Text ist ohne Inhalt und mithilfe eines Cardangitters und einer Morphemtabelle hergestellt)
  2. von Torsten Timm (Text ist wahrscheinlich ohne Inhalt und durch Kopie und Abwandlung einiger initialer Zeichenketten entstanden)
  3. von mir (Text ist das Resultat einer Verschlüsselung, bei der einzelne Buchstaben durch ganze, in Verschlüsselungstabellen aufgeführte Wörtern substituiert wurden)

aufgestellt wurden, in Vergleich zu der Ernst’schen die vorzuziehenden sind. Wie man sie gegeneinander evaluieren kann, darüber denke ich demnächst mal nach. Aber vielleicht nimmt mir das ja jemand ab.

 

Quelle: http://texperimentales.hypotheses.org/1155

Weiterlesen

“Der Gang ins Museum wird durch die Virtualisierung nicht wegbrechen”

Dr. Frank Reichherzer arbeitet am Lehrstuhl für Geschichte Westeuropas und transatlantische Beziehungen an der Humboldt Universität zu Berlin. Er konzipierte die digitale Ausstellung “Orte des Übergangs. Eine andere Geschichte des Ersten Weltkriegs” für Europeana.

Dr. Frank Reichherzer (Foto: privat)

Dr. Frank Reichherzer (Foto: privat)

Sie haben als Kurator die digitale Ausstellung „Orte des Übergangs. Eine andere Geschichte des Ersten Weltkrieges“ für Europeana geplant. Europeana verfügt über zahlreiche (Ego-)Dokumente aus verschiedenen Zeitspannen. Nach welchen Kriterien haben Sie ihre Ausstellungsdokumente ausgesucht?

Unser Kriterium war es, die Dokumente und Objekte als aussagekräftige Quellen für die übergeordnete Frage und das Ziel der Ausstellung zu nutzen. Da der Zugang über das Konzept der Orte nicht der Logik der Verschlagwortung der Europeana entspricht, haben wir uns den Themen in einem ersten Schritt über Quellenarten genähert – also Kriegstagebücher, Verordnungen, Karten, Bilder und andere Objekte, zeitgenössische Literatur bis hin zu Lieder- und Kochbüchern und vielem mehr. Dort haben wir die Stellen, an denen unsere Orte thematisiert wurden, vermerkt und dann für den zweiten Schritt alles, was einen bestimmten Ort betraf, als Materialsammlung zusammengestellt.

Ihr Ziel ist es, den Ersten Weltkrieg aus einer neuen Perspektive, und zwar anhand eines Mosaiks von Orten, zu betrachten. Geht es Ihnen darum, den Krieg, der so 100 Jahre zurück liegt und vielen so abstrakt erscheint, erfahrbar zu machen? Welches Publikum möchten Sie damit ansprechen?

„Erfahrbar“ wollten wir den Krieg nicht machen. Wie wollten den Krieg in seiner Widersprüchlichkeit, in seiner Komplexität sichtbar machen. Abstrakte Orte, wie der Bahnhof, das Lazarett, die Kasernen aber auch das Hauptquartier, die sich überall, auf allen Seiten der Fronten, finden lassen, erschienen uns als geeigneter Zugang, die Pfade der Chronologie des Krieges, der nationalen Perspektiven und der epischen Schlachtengemälde zu verlassen. In diesem Sinne abstrahieren wir sogar noch mehr als die meisten Publikationen zum Thema. Wir fordern unsere Besucher heraus. Sie sollen den Ersten Weltkrieg als diffuses Ereignis erkennen – als gigantischen Ort des Übergangs, an dem Zivilisation und Barbarei, Moderne und Archaik, Zerstörung und Schöpfung, Beschleunigung und Beharrung, Mythos und Rationalität, Traum und Trauma und vieles mehr ineinander verwobene Realitäten bilden. Wir wünschen uns ein breites Publikum. Die Ausstellung ist so konzipiert, dass der Besucher seine Wege und sein Eintauchen in die Materie selbst gestalten kann. Gerade der ‚virtuelle Ausstellungsraum’ macht diese Sprünge und Drifts möglich. Die Orte sind dabei der Einstieg. Die Dynamiken, die sich im Raum zwischen den Orten bilden, sollen mit dem ‚Klicken‘ durch die Ausstellung in einer spezifischen Art im Besucher deutlich werden – und hier stimmt es wohl –hier kann der Besucher die Geschichte des Erste Weltkrieg in einer besonderen Weise „erfahren“.

Mittlerweile stellen auch zahlreiche Museen auf ihren Websites digitale Ansichten von ihren Ausstellungsobjekten zur Verfügung. Welche Bedeutung werden digitale Ausstellungen Ihrer Meinung nach in der Zukunft haben?

Technisch ist und wird vieles möglich sein. Vor allem Hypertextstrukturen und gestaffelte Informationsschichte bieten dem Besucher die Möglichkeit, in unterschiedliche Formen, Intensitäten und eigenen Wegen in die Materie einzutauchen. Wir hatten im ursprünglichen Konzept viel mehr Verlinkungen der Orte und der Narrationen wie ‚Ordnung und Chaos‘, geplant, mussten uns aber an den Europeana-Richtlinien orientieren.

Der Gang ins Museum wird aber durch die Virtualisierung nicht wegbrechen. Das Museum als sozialer Ort wird daher nicht verdrängt. Die Sehnsucht nach dem Sozialen und dem Authentischen ist groß. Ich denke, Mischformen werden sich etablieren. Mehr und mehr wird der Ausstellungsbesuch virtuell durch Terminals vor Ort oder auch durch die Nutzung mobiler Endgeräte weiter mit zusätzlichen Informationen angereichert. Grenzen hierzu sehe ich weder im Wissenschaftlich-kuratorischen Input noch in der Technik. Probleme liegen eher in urheberrechtlichen Fragen.

 

Sie wollen mehr über das Projekt Europeana und digitale Museen wissen? Fragen Sie Dr. Reichherzer bei unserem WeberWorldCafé “Narrating the First World War – Experiences and Reports from Transregional Perspectives”!

Quelle: http://wwc.hypotheses.org/390

Weiterlesen

Neuer Band zur Erinnerungsgeschichte Norwegens

Zur Erinnerungsgeschichte Norwegens in transnationaler Perspektive veranstaltete mein Lehrstuhl an der Freien Universität Berlin zwei Workshops – 2011 in Berlin und 2013 in Oslo. Nun steht die Veröffentlichung ausgesuchter Beiträge namhafter Autoren aus Norwegen, Deutschland und der Niederland im Klartext Verlag unmittelbar bevor. Der Titel des Bandes lautet From Patriotic Memory to a Universalistic Narrative? Shifts in Norwegian Memory Culture after 1945 in Comparative Perspective und kann z.B. hier vorbestellt werden. Herausgeber sind u.a. Arnd Bauerkämper, Professor für neuere europäische Geschichte an der FU […]

Quelle: http://umstrittenesgedaechtnis.hypotheses.org/156

Weiterlesen

Offener Brief an den Archivgesetz-Sachverständigen Prof. Dr. Eric Steinhauer

Lieber Herr Steinhauer,

der Landtag hat die Chance verschenkt, bei der Anhörung zur Evaluierung des NRW-Archivgesetzes am 28. August 2014

http://www.landtag.nrw.de/portal/WWW/GB_I/I.1/Tagesordnungen/WP16/800/E16-829.jsp

Stimmen aus dem Umfeld der gegen den Verkauf von Archivgut gerichteten Petition

https://www.openpetition.de/petition/online/kein-verkauf-von-kommunalem-archivgut-in-nrw (derzeit 1771 Unterstützer)

oder auch nur Vertreter der mitbetroffenen Universitätsarchive als Sachverständige einzuladen. Der Sprecher unserer Arbeitsgemeinschaft der NRW-Universitätsarchive, Herr Freitäger, hat bei seiner Unterschrift unter die Petition zu Protokoll gegeben, dass seine Eingabe an das federführende Ministerium noch nicht einmal einer Antwort gewürdigt wurde.

Ich darf Sie bitten, dringend dafür zu plädieren, die im deutschen Archivrecht singuläre Vorschrift, wonach kommunales und Archivgut der unter der Aufsicht des Landes stehenden Körperschaften (also vor allem der Universitäten) veräußert werden darf, ersatzlos zu streichen.

Ich darf zur Begründung auf die Begründung der Petition und meine eigene Stellungnahme von 2009 verweisen:

http://archiv.twoday.net/stories/6070626/

Ergänzend dazu:

Der von den Archivaren festzustellende bleibende Wert von Unterlagen entfällt nicht dadurch, dass eine Kommune in Zeiten klammer Kassen Archivgut verkaufen möchte. Ich darf Sie an die Causa Stralsund erinnern. Glücklicherweise konnte dort die Entscheidung, eine historische Gymnasialbibliothek zu veräußern, rückgängig gemacht werden.

Auch die Kommunalarchivare selbst sind – anders als ein Teil der kommunalen Spitzenverbände – gegen die Veräußerungsmöglichkeit. Nach herrschender archivrechtlicher Ansicht impliziert die gesetzliche Bewertungskompetenz der Archivare eine Weisungsfreiheit, siehe etwa mit Bezug auf Manegold

http://archiv.twoday.net/stories/2699909/

Die amtliche Begründung sagt zu § 2 Abs. 6 Archivgesetz NRW

http://www.landtag.nrw.de/portal/WWW/dokumentenarchiv/Dokument/MMD14-10028.pdf

“Darüber hinaus wird klargestellt, dass die Entscheidungsbefugnis
über die Archivgutbildung allein unter fachlichen Gesichtspunkten zu treffen ist und daher ausschließlich beim zuständigen Archiv liegt.” Nicht beim Archivträger! Es besteht also klar ein Wertungswiderspruch zwischen der Entscheidung des Gesetzgebers, die Bewertungskompetenz – weisungsfrei – in die Hände des Fachpersonals zu geben, und dem Freibrief für den Archivträger, Sammlungsgut zu veräußern.

Nachkassationen sind umstritten, wie die auch archivrechtlich argumentierende Transferarbeit von Hanke 2006 zeigt:

http://www.landesarchiv-bw.de/sixcms/media.php/120/44242/transf_hanke.pdf

Nachkassationen regelt das NRW-Archivgesetz in dem auch für kommunale und die weiteren öffentlichen Archive geltenden § 5 Abs. 2. Hierzu die amtliche Begründung:

“Satz 4 eröffnet dem Landesarchiv ausnahmsweise in besonders begründeten Einzelfällen (z.B., wenn zum Zeitpunkt der Übernahme keine vollständige Bewertung möglich war) die Möglichkeit, nicht mehr archivwürdige Unterlagen zu vernichten. Die Entscheidung über die Archivwürdigkeit liegt auch in diesen Fällen ausschließlich beim Landesarchiv.”

Um eine solche Nachkassation handelt es sich bei der Freigabe von Sammlungsgut nicht. Wenn die Archivare Sammlungsgut zum bleibenden Bestandteil des kulturellen Gedächtnisses erklärt haben und aus fachlichen Gründen eine Nachkassation, die zwingend auf die Vernichtung hinausläuft, nicht in Betracht kommt, kann trotzdem der Archivträger sich – faktisch beliebig – über die Fachkompetenz hinwegsetzen und den Archivar oder die Archivarin anweisen, das Archivgut etwa einem Auktionshaus auszuhändigen. Einen Rechtsschutz gegen diese Maßnahme für die betroffenen Archivare oder andere Betroffene (z.B. Schenkungsgeber) bietet das Verwaltungsrecht nicht an.

Dieter Strauch hat in der kürzlich erschienenen Zweitauflage seines Standardwerks “Das Archivalieneigentum” im Kapitel “Kommunale Archive als GmbH?” (2014, S. 207ff.) die Veräußerungsproblematik erörtert. Seine Ausführungen sind zwar prima facie für die Veräußerungsgegner eher positiv, gehen aber an den faktischen Machtverhältnissen vorbei und können auch juristisch in Frage gestellt werden, da sich eine feste Auslegung nicht etabliert hat.

Nach Ansicht von Strauch (S. 216) verletzt die Veräußerung von Archivgut dann geltendes Recht und kann von der allgemeinen Rechtsaufsicht beanstandet werden, wenn es zu den in § 18, II Verf NRW genannten Geschichts- und Kulturdenkmalen gehört. Dann wäre der Kaufvertrag und die Übereignung der Archivalien nach § 134 BGB nichtig. Ein Gericht könnte die Auslegung der Begriffe Geschichts- und Kulturdenkmale voll überprüfen. Aber das würde voraussetzen, dass eine Klagebefugnis besteht. Nach herrschender Meinung kann sich nur die betroffene Kommune gegen die Kommunalaufsicht wehren. Es ist jedoch nicht davon auszugehen, dass das Land bei der Kommunalaufsicht hinsichtlich der Veräußerung von Archivgut sonderlich streng vorgeht. Beanstandet es nicht, kann kein Gericht eingreifen.

Weder Schenkungsgeber noch betroffene Forscher, denen die Arbeitsgrundlage durch eine Veräußerung entzogen wird, steht eine Klagebefugnis nach derzeit überwiegender Meinung zu. Das hat auch das VG Sigmaringen signalisiert, als ich als betroffener Wissenschaftler eine Klage gegen die Veräußerung des Wolfegger Hausbuchs einreichte, die ich wieder zurückziehen musste, da die Veräußerung bereits erfolgt war.

Strauch verkennt, dass das Land NRW skandalöserweise nicht bereit ist, privates und öffentliches Archivgut denkmalschutzrechtlich zu schützen. Das Denkmalschutzgesetz des Landes klammert das Archivgut aus!

Es ist außerordentlich fraglich, ob ein Verwaltungsgericht so mutig sein wird, denkmalschutzrechtlich nicht eintragbares Archivgut trotzdem als nach der NRW-Landesverfassung als “Denkmal” geschützt anzusehen. Zur allgemeinen juristischen Problematik verweise ich auf meinen Aufsatz in LIBREAS 2013:

http://www.ib.hu-berlin.de/~libreas/libreas_neu/02graf.htm

Strauch argumentiert, dass die Entscheidung über die Veräußerung von Archivgut nicht zu den Geschäften der laufenden Verwaltung gehört, sondern vom Rat beschlossen werden muss (S. 217), was die Chance eröffnet, dass der Casus in der Presse oder Öffentlichkeit diskutiert wird. Im Fall Stralsund hat aber der in einer Ausschusssitzung getroffene Beschluss weder bei Presse noch bei der Öffentlichkeit zu Nachfragen geführt. Ob die Kommunalaufsicht tätig wird, kann sie selbst – faktisch nach Gutdünken – entscheiden. Ein Rechtsanspruch auf ein Einschreiten besteht erneut nicht.

Selbst wenn man Strauch folgt, spricht alles dafür, dass eine rechtswidrig von der Verwaltung statt vom Rat vorgenommene Veräußerung folgenlos bleibt.

Strauch referiert eine Rechtsansicht, dass die Veräußerung von Archivgut anerkennungsbedürftig sei, da ein staatliches Mitwirkungsrecht gegeben sei, also ein Kondominium vorliege (S. 217). In diesem Fall dürfte die Aufsichtsbehörde auch Zweckmäßigkeitserwägungen anstellen.

Nun könnte man fordern, dass
- bei Archivgutveräußerungen ein förmliches Genehmigungsverfahren installiert werden müsse
- wenigstens für die Universitätsarchive bzw. die weiteren öffentlichen Archive nach § 11 ArchivG NRW die Unveräußerlichkeit auch bei Sammlungsgut festgeschrieben wird

Aber am besten streicht man die Möglichkeit der Gemeinden, ungestraft Teile des kulturellen Gedächtnisses verscherbeln zu dürfen, ganz! Sie verstößt gegen den in der Landesverfassung angeordneten Schutz der Denkmale der Geschichte und Kultur, zu denen immer auch das nach archivfachlichen Grundsätzen bewertete archivische Sammlungsgut zählt.

Lieber Herr Steinhauer, hören Sie bitte auf die Stimme der Archivarinnen und Archivare, die sich in der Ablehnung einig sind, und auf die vielen Unterzeichner der Petition und machen Sie unser Anliegen auch zu Ihrem.

Herzlichen Gruß
Ihr Klaus Graf

Quelle: http://kulturgut.hypotheses.org/407

Weiterlesen