Telegrafie – Aktenkunde – Diplomatie (Emser Depesche, Schluss)

Manchen Lesern mag die aktenkundliche Behandlung der Emser Depesche in den letzten vier Postings erschöpfend detailliert vorgekommen sein. Dabei habe ich vieles ausgelassen oder vereinfacht. Aber es ist völlig legitim, die Sinnfrage zu stellen. Wo und wie hilft die Aktenkunde als Hilfswissenschaft? Zurecht wird die Forderung gestellt, die Aktenkunde müsse sich (wie vor ihr die Urkundenlehre) auch Fragen der pragmatischen Schriftlichkeit zuwenden (Schäfer 2009: 98-101, 119). Für die Telegrafie im Dienst der Diplomatie ist dies besonders reizvoll, und die Emser Depesche ist ein gutes Beispiel – das am Ende auch zeigt, warum das solide handwerkliche Fundament unverzichtbar bleibt.

David Nickles’ “Under the Wire” (2003) ist eine faszinierende Lektüre, noch dazu hervorragend geschrieben. Der Mitarbeiter im Historischen Dienst des Departement of State hat sich damit befasst, wie der Telegraf die Arbeitsweise und den Charakter der Diplomatie verändert hat: Erstmals konnten die Außenminister der Mächte ihre Botschafter minutiös dirigieren und in Krisenzeiten annähernd in Echtzeit handeln. Damit stieg allerdings auch der Handlungsdruck, mit vielleicht fatalen Folgen, wenn die öffentliche Meinung aufgestachelt war. Jedenfalls konnte die Außenpolitik zentralisiert und bürokratisiert werden. Für einen Politiker wie Bismarck, der seine Diplomaten als Befehlsempfänger betrachtete und Weisungen exakt ausgeführt wissen wollte, war der Telegraf wie geschaffen. So konnte er selbst von Varzin aus in das Geschehen eingreifen (Nickles 2003: 47 f., 117).

Die Emser Depesche erwähnt Nickles (2003: 7) nur en passant: “The Franco-Prussian war was the first major conflict whose origins were popularly associated with a telegram.” Aber nicht nur im kollektiven Gedächtnis ist die Emser Depesche emblematisch für die Diplomatie im Zeitalter des Telegrafen: Nur mit der Geschwindigkeit dieser Technologie konnte Bismarck in der Nacht vom 13. auf den 14. Juli eine verloren geglaubte diplomatische Operation mit wenigen geschäftstechnischen Handlungen um ihre eigene Achse drehen und in einen Sieg verwandeln.

Noch weiter treibt diesen Ansatz Tobias Nanz in seiner medienwissenschaftlichen Dissertation (2010). Für Historiker ist dieses Buch, in dem das System der europäischen Diplomatie anhand einer Dekonstruktion von Shakespeares “Der Sturm” beschrieben wird, vielleicht etwas ungewohnt. Auch muss man den assoziativen Sprachstil dulden, in dem Bismarck “wie ein optischer Telegraph agierte” (im Wortsinn angesichts der Statur des Fürsten Bismarck eine interessante Vorstellung) und “die komplexen Verflechtungen eines bevorstehenden Krieges in die fechttechnischen Codes Quartz [sic!] und Terz zu transformieren” imstande war (Nanz 2010: 180).

Dennoch bringt Nanz interessante Ansätze, etwa den Hinweis darauf, dass Bismarck mit Lothar Bucher einen Quereinsteiger ins Auswärtige Amt geholt hat, der als Redakteur des Wollfschen Telegrafenbüros große Erfahrung im Telegrammstil hatte, der maximalen sprachlichen Verkürzung von Nachrichten bis an den Rand der Verständlichkeit (Nanz 2010: 181-183). Was unmittelbar der Gebührenersparnis diente, kam Bismarcks Stil der Arbeit mit Drahterlassen zur Steuerung seines Apparats sehr entgegen.

Wenn Nanz (2010: 183 f.) in der Kürzung des Textes aber nur die konsequente Anwendung des Telegrammstils auf Abekens in der Tat umständlichen Bericht sehen will, geht das zu weit. Beim Telegrammstil geht es um die Verringerung der Wortzahl. Dazu werden alle irgendwie entbehrlichen Partikeln und Füllwörter gestrichen. “Ankomme Donnerstag” ist typischer Telegrammstil. Der Aktenbefund eines so redigierten Telegramms zeigt Streichungen und zwischen die Zeilen geschriebene Änderungen. Die Pfeilmarkierungen auf der Entzifferung von Abekens Telegramm zeigen aber keine redaktionelle, sondern eine inhaltliche Bearbeitung an. Bismarck wandte nicht den Telegrammstil an, denn die übernommenen Passagen zeigen unverändert Abekens Weitschweifigkeit. Vielmehr formulierte er durch Auslassung von Textblöcken eine Botschaft an die französische Führung. Letzteres sieht Nanz (2010: 186) auch selbst, löst den Widerspruch aber nicht auf.

In seinen Erinnerungen legt sich Bismarck (hg. v. Ritter/Stadelmann 1932: 310) Folgendes in den Mund: “Wenn ich diesen Text [...] sofort nicht nur an die Zeitungen, sondern auch telegraphisch an alle unsere Gesandtschaften mittheile, so wird er vor Mitternacht bekannt sein [...]“. Nun ist dieses Werk als Rechtfertigungsschrift bekanntlich mit großer Vorsicht zu rezipieren.

Daran fehlt es bei Nanz (2010: 188), der anhand des Aktenbefunds registriert, dass im Verteiler der “1. Expedition” zunächst auch das Wollfsche Telegraphenbüro stand, vor dem Abgang aber wieder gestrichen wurde: “Vielleicht hatte man im Auswärtigen Amt doch noch ein wenig Angst vor dem ‘gallischen Stier’. [...] Es bot sich offenbar eine weniger direkte Lösung an: Man verschickte die erste Expedition wie auch die zweite [...] im Gegensatz zur dritten um 2.30 Uhr morgens nicht in Ziffern, sondern en clair, wie man an der Korrektur am Kopf des Blattes bemerken kann. Jeder, der den Morse-Code beherrschte und Zugang zu einer Telegraphenleitung hatte, konnte den Text lesen. Damit dürfte für eine breite Öffentlichkeit gesorgt worden sein”.

Setzte Bismarck also auf ein “Ems-Leaks”? Nanz (2010: 186) weiß selbst, dass der Depeschentext schon um 21 Uhr als Extrablatt der Norddeutschen Allgemeinen Zeitung vertrieben wurde. Gegen 23 Uhr, also zum Zeitpunkt der Absendung der 1. und 2. Expedition, war er in der Berliner Öffentlichkeit schon allgemein bekannt (Walder 1972: 19 Anm. 2, 73). Da brauchte es keine geschwätzigen Telegraphenbeamten mehr.

Nanz übersieht hier den eigentlichen Witz im Verteiler der 3. Expedition: die Vorgabe eines Leitwegs über England für den nach Madrid bestimmten Erlass (4. Folge). Damit wurde eine Durchleitung durch Frankreich vermieden.

Im Quai d’Orsay lag der Depeschentext anhand der Zeitungsmeldungen erst am Morgen des 14. Juli vor, der Originaltext der 3. Expedition über den französischen Ministerresidenten in München erst am Mittag (Brase 1912: 147 f.). Um 12.30 Uhr berichtete schließlich auch der französische Botschafter, der in Ems ebenfalls aus der Zeitung davon erfahren hatte, nach Paris (Benedetti 1871: 386).

Was war hier passiert? Gerade in Paris wurde der Text eben nicht schon “vor Mitternacht” bekannt. Der aktenkundliche Befund zu Punkt 9 des Verteilers auf der 3. Expedition macht evident, dass genau das, nämlich ein frühzeitiges Bekanntwerden in Frankreich, verhindert werden sollte. Die französische Regierung sollte die Nachricht aus der Zeitung erfahren, um die Demütigung zu vervollständigen, und eben nicht durch ein Leck.

Bismarck rechnete mit der Kompromittierung der Madrider Chiffre und wählte deshalb den Leitweg über London. Er wollte verhindern, dass Gramont es von seinem cabinet noir erfährt, bevor er es in der Zeitung lesen muss. In dieser Feststellung liegt der historische Erkenntniswert der unscheinbaren Verteiler-Verfügung.

Wir sehen in diesem aktenkundlichen Befund eine präzise aus der Ferne gelenkte Operation, deren Timing von wenigen Stunden abhing. Die Emser Depesche bestätigt  eindrucksvoll die Schlüsse, die Nickles für die pragmatische Schriftlichkeit Diplomatie im Zeitalter des Telegrafen gezogen hat. Sie baut Interpretationen historischer Quellen vor, die sich zu weit von der Basis entfernen. Und sie ermöglicht es, aus dem „Text“ des „Dokuments“ und den Bearbeitungsspuren auf dem physischen Schriftträger die vollständige Quellenbasis überhaupt erst herzustellen.

Handwerkliche Expertise ist nicht alles, aber ohne sie ist die historische Arbeit nichts.

- Fin -

Literatur

Benedetti, [Vincent] Comte 1871. Ma mission en Prusse. 2. Aufl. Paris 1871. (Online)

Bismarck, Otto von. Erinnerung und Gedanke. Ritter, Gerhard und Stadelmann, Rudolf Hg. 1932. Gesammelte Werke 15. Berlin.

Brase, Siegfried 1912. Emile Olliviers Memoiren und die Entstehung des Krieges von 1870. Historische Studien 98. Berlin.

Nanz, Tobias 2010. Grenzverkehr. Eine Mediengeschichte der Diplomatie. Zürich/Berlin.
Nickles, David Paull 2003. Under the Wire. How the Telegraph Changed Diplomacy. Harvard Historical Studies 144. Cambridge, MA 2003. (Vorschau bei Google Books)

Schäfer, Udo 2009. Amtliche Aktenkunde der Neuzeit: Records Management des 21. Jahrhunderts. Zur Schnittmenge zweier Disziplinen. In: Uhde, Karsten Hg. 2009. Quellenarbeit und Schriftgutverwaltung – Historische Hilfswissenschaften im Kontext archivischer Aufgaben. Veröffentlichungen der Archivschule Marburg 48. Marburg. S. 89-128.

Walder, Ernst Hg. 1972. Die Emser Depesche. Quellen zur neueren Geschichte 27-29. 2. Aufl. Bern.

Quelle: http://aktenkunde.hypotheses.org/235

Weiterlesen

Digitale Tools für Projekte, Lehre, Weiterbildung & Co

Nachdem wir hier im Blog bereits die Toolbox “Soziale Medienbildung” und die Toolbox No. 2 veröffentlicht haben, folgt nun eine weitere Sammlung von nützlicher Software und Webanwendungen zum Einsatz in der Lehre, in Weiterbildungen oder Projekten. Auch hier sind viele Tools ohne Download anwendbar, bei wenigen ist leider nur eine Testversion innerhalb eines begrenzten Zeitraums oder unter bestimmten Voraussetzungen frei verfügbar. Daher bitte immer genau die Nutzungsbedingungen und AGBs nachlesen. Ergänzungen, Kommentare oder Erfahrungen sind erwünscht. Viel Spaß beim Testen und Einsetzen! Kreative, unterhaltsame […]

Quelle: http://medienbildung.hypotheses.org/7300

Weiterlesen

Algorithmen für Ängstliche

In jüngerer Zeit kam die Berichterstattung über Algorithmen wieder auf die Tagesordnung und man ist fast versucht, als Tenor “Lasst, die ihr eintretet, alle Hoffnung fahren!” zu vernehmen: Die Welt ist beherrscht von einer weithin unbekannten Supermacht, die das Dasein jedes Einzelnen und das Zusammenleben aller durch unsichtbare Fäden aus dem Hintergrund lenkt. Da werden Frauen über ihr Konsumverhalten als schwanger kategorisiert, ehe sie sich dessen selbst bewusst werden. Da bekommen Lebensgemeinschaften keinen Kredit, weil sie am falschen Ende der Straße wohnen. Da plant ein Online-Versand, Kunden die gewünschten Waren zuzusenden, bevor sie überhaupt daran dachten, diese zu bestellen. Und das alles nur, weil da jemand die “richtige mathematische Formel” gefunden hat und in der Lage war, diese “auf einem Computer zu programmieren”. Und jetzt sind die so geschaffenen Algorithmen dabei, sich von ihren Schöpfern loszusagen und die gesamte Menschheit bis zum Sankt Nimmerleinstag zu knechten.

angst

Der Zaubertrank: Deep Learning

Ich habe zunächst versucht, den Wahrheitsgehalt dieser Darstellungen in meinem Unwissen zu finden, was mir nicht sonderlich gut gelang. Sollten etwa die anderen doch nicht mit Wasser kochen und das, was ich so über das Thema weiß, überholtes Wissen sein? Ja, natürlich gibt es auf der einen Seite den Deep-Learning-Ansatz, der – salopp gesagt – irgendwie sowas wie die Architektur des menschlichen Gehirns auf einem künstlichen Rechnersystem nachbildet und das Ergebnis mit Beispielen füttert, auf dass es eigenständige Kategorisierungen vornehme. Ein solcher Ansatz benötigt allerdings auch in unserer Zeit schneller Desktop-PCs noch nicht-alltägliche Rechneranlagen, eine Menge Spezialisten für die Implementation und das Training neuronaler Netzwerke sowie eine hohe Frustrationstoleranz, weil relativ schwer analysierbar ist, was genau passiert und wie man Ergebnisse verbessern kann. Der Deep-Learning-Ansatz wird deswegen vor allem von großen Forschungseinrichtungen und Unternehmen eingesetzt, Google etwa hat Ray Kurzweil darauf angesetzt.

Deep-Learning-Techniken eignen sich vor allem für Aufgaben, wo Muster erkannt werden müssen, die sich nicht oder nur schwer durch spezifische Merkmale beschreiben lassen. So werden sie z. B. die Spracherkennungssyteme von iOS und Andoid eingesetzt. Soweit ich das beurteilen kann, wird der Ansatz abgesehen davon in freier Wildbahn noch kaum angewendet, weil er einfach noch nicht gut genug modellierbar ist.

Der Kochtopf mit Wasser: Maschinelles Lernen

Realweltszenarien, in denen Algorithmen eingesetzt werden, lassen sich fast alle durch Klassifikations- oder Gruppierungsproblem formulieren: Ist die Nutzerin schwanger oder nicht? Welche Kreditkonditionen bekommen die Kunden in der Gruppe, in die der potentielle Kreditnehmer eingeordnet wurde? Produkte welcher Warengruppe haben die anderen Käufer des Artikels noch erworben?  Ist der Autor des unbekannten Pamphlets Donald Rumsfeld oder der Una-Bomber? Will die Politikerin Europa – ja oder nein? Oder – wie in der Facebook-Studie damals - ist der Nutzer bzw. die Nutzerin heterosexuell oder irgendwas anderes (sic!)?

Es ist hier nicht mein Punkt, welche der möglichen Anwendungsszenarien methodisch zweifelhaft oder gar ethisch verwerflich sind. Was gemacht werden kann, wird wahrscheinlich eh irgendwo durchgeführt werden, da habe ich wenig Illusionen. Mir geht es hier nur darum, aufzuzeigen, dass dort in den seltensten Fällen neue mathematische Formeln ersonnen werden, die dann irgendwer auf dem Computer programmiert. Vielmehr steht ein ganzer Werkzeugkasten bekannter Verfahren zur Klassifikation und Gruppierung (Clustering) von Objekten zur freien Verfügung. Theoretisch könnte sich also jede|r daran bedienen und für welche Typisierungen auch immer anwenden. Mit ein wenig Geduld kommt man auch mit so mächtigen Programmen wie WEKA zurecht (da bekommt man auch eine graphische Benutzeroberfläche). Oder man ist so verwegen und installiert sich die entsprechenden Pakete für R.

Und schon ist man Data Scientist. Eigentlich, denn der Teufel liegt mal wieder … in den Daten. Um Objekte zu klassifizieren, muss man sie zunächst durch Merkmale beschreiben, jedenfalls wenn man nicht einen solchen Zauber-Neuronalen-Netzwerk-Ansatz wie oben beschrieben verfolgt. Texte kann ich z.B. beschreiben über die Wörter, die sie enthalten; Menschen über ihre Augenfarbe, ihre Größe, ihr Geschlecht, ihren Wohnort oder eben über die Bücher, die sie bisher erworben haben. Oder ich kombiniere einfach mehrere Merkmale. Und gewichte sie dann möglicherweise unterschiedlich – Augenfarbe ist wichtig, Anzahl der Muttermale etwas weniger relevant. Was auch immer ich messen oder abzählen kann, ist als Merkmal verwendbar. Schwierig ist die Mischung von Merkmalen unterschiedlicher Skalenniveaus, aber auch das ist mit ein wenig Phantasie meist lösbar. Augenfarbe könnte etwa über RGB-Werte angegeben werden – dann hätte ich statt eines nominalskalierten Merkmals gleich drei verhältnisskalierte. Diesen Vorgang – die Zuordnung von Merkmalen zu Objekten – nennt man Feature Engineering. Am Ende dieses Schrittes hat man zu jedem Objekt, das man gruppieren oder klassifizieren möchte, eine Reihe von Zahlen. Und mit diesen Zahlen kann ich dann meinen Algorithmus füttern. Bei der Gruppierung gebe ich die Objekte einfach alle hinein und bekomme am Ende Gruppen (immer hinsichtlich der ausgewählten Merkmale) homogener Objekte zurück. Das nennt man auch unüberwachtes Lernverfahren, weil ich die ursprünglichen Objekte nicht vorklassifizieren musste, um sie in Gruppen einzuteilen.

Ein weiteres bekanntes Verfahren ist das überwachter Art: Hierfür werden Trainingsobjekte benötigt, die bereit vor Anwendung des Algorithmus mit ihrer Klasse versehen sind (+/-schwanger, Text von Rumsfeld, Text vom Una-Bomber etc). Über diese Trainingsobjekte bildet sich der Algorithmus ein Modell, das er zu Rate zieht, wenn er weitere, nicht vorausgezeichnete Objekte zuweisen soll.

Was ich eigentlich damit sagen will

Hinter dem was landläufig als Algorithmen bezeichnet wird, die einen immer größeren Einfluss auf unser Leben haben, verbergen sich meist maschinelle Lernverfahren. In denen steckt zwar ein wenig was an Mathematik drin, vor allem bei der Gewichtung von Merkmalen, bei der Distanzberechnung von Merkmalskombinationen und eben bei der Gruppierung oder Klassifikation. Dies sind aber in den meisten Fällen frei zugängliche Formeln oder gar fertige Implementationen, die über graphische Oberflächen von eigentlich jedem zu bedienen sind. Manche dieser Verfahren liefern für bestimmte Anwendungsfälle bessere, für andere wieder schlechtere Ergebnisse. Zumindest in meinem Bereich, der Computerlinguistik, lässt sich meist schwer voraussagen, welche der Kombinationen gut funktioniert. Man probiert halt einfach alle aus und schaut dann, welche am besten performt (ja, manchmal sind wir halt einfach Ingenieure).

Mit das Wichtigste für die Funktion der Verfahren ist allerdings die Auswahl an Merkmalen, mit denen die Objekte beschrieben werden. Und anstatt darüber zu mosern, dass Algorithmen Entscheidungen für oder über uns treffen, sollte man vielleicht besser darauf drängen, offenzulegen, auf welcher Grundlage sie dies tun. Welche Merkmale erhebt die Schufa? Liest Amazon meine History aus oder beruhen die Empfehlungen nur auf den Daten, die ich ihnen gegeben habe? Vor allem: Kann ich das abschalten? Was der Algorithmus dann hinterher draus macht, kann ja auch mal hilfreich sein. Demnächst hoffentlich hier an einem konkreten Beispiel gezeigt.

Quelle: http://texperimentales.hypotheses.org/1111

Weiterlesen

Audienz bei einem Geächteten

Das Schicksal Friedrichs V. von der Pfalz berührt vordergründig nur die Anfangsphase des Dreißigjährigen Kriegs: zunächst als pfälzischer Kurfürst einer der wichtigsten Reichsfürsten, dann König von Böhmen, um kurz darauf geächtet und als „Winterkönig“ verspottet alles zu verlieren und ins Exil nach Den Haag zu gehen. Bei den Generalstaaten hatte er zwar Zuflucht gefunden, doch seine Machtgrundlagen waren verschwunden. Gleichwohl setzte er in den folgenden Jahren alles daran, um auf die politische Bühne des Reiches zurückzukehren, die pfälzischen Besitzungen und ebenso auch die böhmische Krone wiederzugewinnen. Immerhin gab es noch Kriegsunternehmer wie Mansfeld und Christian von Braunschweig, die vorgaben, für die Sache des Pfälzers zu streiten, und nach wie vor flossen Gelder aus Frankreich, England und den Niederlanden, um diese Feldzüge zu finanzieren.

Auf der kaiserlichen Seite sah die Sache anders aus. Für Ferdinand II. und dem mit ihm verbündeten Maximilian von Bayern mitsamt der Liga war Friedrich nur der „exilierte Pfalzgraf“. Mit einem Reichsächter konnte man keinen Umgang haben, als politischer Faktor war Friedrich rechtlich betrachtet ausgeschaltet. Und Maximilian, der Friedrichs pfälzische Kurwürde nach Bayern transferiert hatte, dachte gar nicht daran, den Exilierten durch diplomatische Kontakte aufzuwerten. Doch war nicht zu übersehen, daß man über die Machenschaften in Den Haag Bescheid wissen mußte. Was ging am Hof des exilierten Rex Bohemiae vor? Das wollte man schon gerne erfahren, doch durfte dies nicht über offizielle Kanäle erfolgen.

Es gab aber einen indirekten, eleganteren Weg. Ferdinand, als Bruder Maximilians von Bayern, unterhielt einen eigenen Agenten in Den Haag. Damit war kein Geheimdienstler gemeint, sondern ein diplomatischer Vertreter auf ganz niedriger Stufe – das war zum einen hinsichtlich des repräsentativen Aufwands billig und zum anderen politisch unverfänglich. Dieser Agent versorgte Ferdinand, der als Kurfürst von Köln unmittelbarer Nachbar der Generalstaaten war, permanent mit Nachrichten über die aktuellen Vorgänge in Den Haag und kümmerte sich auch um kurkölnische Belange bei den Generalstaaten. Er sollte nun auch auf den Pfalzgrafen ein Augenmerk haben.

Tatsächlich knüpfte dieser Agent namens Johann van der Veecken Kontakte zum Gefolge des Pfalzgrafen. Ja, mitunter berichtete er sogar von direkten Gesprächen mit Pfalzgraf Friedrich selbst. Berichte über diese Audienzen schickte er dann an Kurfürst Friedrich – der die wirklich brisanten Informationen über den exilierten Friedrich gleich exzerpierte und nach München weitersandte. Auf pfälzischer Seite wird man schon gewußt haben, welche Dimension diese Gespräche mit Veecken hatten; wer weiß, was man dort alles lanciert hatte, im sicheren Bewußtsein, daß diese über kurz oder lang doch bei Maximilian von Bayern landen würden.

Jedenfalls entwickelten sich hier auf ganz unverfängliche Weise Kontakte zwischen den mächtigen Fürsten im Reich und dem Geächteten im Haager Exil – Kontakte, die es eigentlich gar nicht geben durfte, die aber trotzdem für beide Seiten wichtig waren. Ich habe vor Jahren schon einmal dieses Themen im Umfeld der bayerischen Pfalzpolitik gestreift (im Katalog zum „Winterkönig“ von 2003), will mich demnächst aber noch einmal intensiver mit der Figur des kurkölnischen Agenten Veecken auseinandersetzen.

Quelle: http://dkblog.hypotheses.org/514

Weiterlesen

Das IfZ sucht private Dokumente aus dem Alltag im NS-Regime

Briefsammlung

Für das Forschungsprojekt „Das Private im Nationalsozialismus“ sucht das Institut für Zeitgeschichte Dokumente aus den Jahren 1933 bis 1945, die Einblick in den Alltag der Menschen im NS-Staat geben. Das können Tagebücher, Erinnerungen, Familienchroniken oder Briefe sein, aber auch Fotografien und Fotoalben.

Wir vermuten solche Dokumente in persönlichen Hinterlassenschaften und freuen uns über jedes Stück, das der Wissenschaft zur Verfügung gestellt wird.

Was wird gesucht?

Zu drei Spezialstudien sind wir konkret an Dokumenten und Zeugnissen aus der Zeit von 1933 bis 1945 zu folgenden Themen interessiert:

Fronturlaub: Erfahrungen des Wehrmachtsoldaten und seiner Angehörigen vor, im und mit dem Aufenthalt in der Heimat
Schwangerschaft und Mutterschaft in den ersten beiden Lebensjahren des Kindes sowie verwandte Themen wie Sexualität, Verhütung und Abtreibung

Gerichtsverfahren: juristische Auseinandersetzungen aus dem privaten Bereich, vor allem Ehescheidungen, aber auch Pfändung und Zwangsvollstreckung

Ansprechpartnerin

Dr. Esther-Julia Howell
Stellvertretende Archivleiterin
Telefon: +49 89 12 688-127 (Mo-Do 8-16 Uhr, Fr 8-12 Uhr)
E-Mail: howell@ifz-muenchen.de

Nähere Informationen auf der Projekt-Homepage.

Quelle: http://archive20.hypotheses.org/1992

Weiterlesen

Verwaschene Texte

Artikel zum Voynich-Manuskript (VMS) ziehen meist auch Kommentare an, in denen sich die Kommentarist|inn|en darüber äußern, welche Theorie sie sich mal so überlegt haben, was das VMS sein könnte und wie der Text interpretiert werden kann. In den allermeisten Fällen muss man die Ausführungen nicht ganz ernst nehmen, da sich ein fundiertes Gespräch zu diesem mehr oder weniger komplexen Thema schlecht in Kommentaren führen lässt. Die Darstellung eigener Hypothesen benötigt mehr Platz, einen gegliederten Text und eventuell Abbildungen. Das alles können Kommentarspalten nicht so recht bieten. Es besteht natürlich die Möglichkeit, auf externe Seiten zu verlinken. Ich sehe mir diese dann auch meist an und gebe ein kurzes Feedback. Eine wirklich ausgearbeitete und nachvollziehbare Theorie ist mir dabei allerdings noch nicht untergekommen. Beispiele gefällig? Voilà: [1] [2] [3] [4] [5]

Ein Kommentar in der Nacht

Für einen Kommentar, der in der Nacht zum Sonntag unter meinem Gast-Post bei den Ruhrbaronen landete, muss ich allerdings eine Ausnahme machen, ist der Absender doch Thomas Ernst (wenn er denn wirklich dahinter steckt und mir nicht jemand einen Streich spielen möchte. Es fällt mir aber niemand ein, der Ernsts Stil so gut nachzuahmen verstünde). Traurigerweise werden sich jetzt nicht wenige der Leserinnen und Leser hier fragen, wer denn dieser Thomas Ernst sei. Seine Heldensage ist leider noch immer weithin unbekannt, das hat wohl auch mein Blogpost über dieses Husarenstück nicht wirklich geändert. Mit der Entschlüsselung der Steganographia III hat er sich unsterblich gemacht, seine Darlegung zum Thema ist mehr als lesenswert und sei jedem zur Lektüre empfohlen. Es ist ein Krimi, verborgen im Pelz einer vor amüsant vorgetragener Gelehrsamkeit strotzenden wissenschaftlichen Abhandlung. Mir fehlen die Worte, um hier festzuhalten, wie sehr ich Ernst dafür bewundere. Wenigstens einen New-York-Times-Artikel hat er dafür bekommen.

Die geheimnisumwitterte Steganographia von Johannes Trithemius.

Und nun äußert dieser Thomas Ernst – wenn ich das richtig verfolgt habe – zum ersten Mal seine Hypothese zum VMS, was ich allein für sich genommen schon ziemlich sensationell finde. Gewissermaßen vermutet auch er, beim VMS sei ein Kopist am Werke gewesen. Dieser sei jedoch kein Autokopist, der immer wieder Zeichenketten von sich selbst abschreibt und verfremdet, sondern ein Fremdkopist, der ein Werk abschreibt, dessen Zeichen ihm nicht geläufig sind und dessen Inhalt er dementsprechend nicht versteht. So sehr ich ihn sonst bewundere – hier liegt Ernst meiner Meinung nach falsch. Der Text des VMS weist einfach zu viele Eigenschaften auf, die mit dieser Hypothese nicht in Deckung gebracht werden können. Ich greife mir hier zwei dieser seltsamen Merkmale heraus, die sich in der gegebenen Kürze erklären lassen.

Entropie: Zuwenig Information an Bord

Über das Maß der Entropie lassen sich Aussagen über den Informationsgehalt einer Nachricht machen, und das, ohne den Inhalt (die Semantik) der Nachricht zu kennen. Dafür muss man lediglich die Häufigkeitsverteilung der einzelnen Zeichen kennen (um die Zeichenentropie – H0 – zu errechnen) sowie die Häufigkeit, mit der bestimmte Zeichen auf bestimmte andere folgen (um die Verbundentropie – H1 – zu errechnen). Da H1 abhängig ist vom Umfang des zugrundeliegenden Alphabets, sollte man – um Texte mit unterschiedlich vielen verschiedenen Zeichen zu vergleichen – die Differenz zwischen H0 und H1 heranziehen. Dies tut z.B. Dennis Stallings in seiner Analyse zum VMS und kann damit aufzeigen, dass sich der Text des VMS hinsichtlich dieses Differenzwertes signifikant von allen bekannten natürlichen Schriftsprachsystemen unterscheidet. Das VMS scheint viel weniger Information (d.h. mehr Redundanzen) zu enthalten, als alle vergleichbar langen natürlichsprachlichen Texte, die man bisher untersucht hat. Dies gilt unabhängig davon, ob es sich dabei um Zeichen-, Silben- oder Alphabetschriften handelt.

Wortlängen: Zeilen als funktionale Einheit

Zeilen scheinen im VMS so etwas wie funktionale Einheiten zu bilden, d.h. sie scheinen auf irgend eine Weise gleich zu funktionieren. Bei natürlichen Sprachen ist dies auch zu beobachten, z.B. in der Lyrik oder bei Spruchsammlungen. Ein Text, bei dem auf 200 Seiten die Zeilen so aufgebaut sind, dass ihr jeweils erstes Wort – im Vergleich zur durchschnittlichen Wortlänge – signifikant länger, das jeweils zweite Wort aber signifikant kürzer ist, ist mir allerdings (abgesehen vom VMS, was Elmar Vogt schön ausführt) nicht untergekommen. Dazu wirken die Zeilen wie in Blocksatz gesetzt, ohne dass etwas darauf hindeutet, dass Wörter am Zeilenende getrennt worden wären oder dass der Abstand zwischen den Wörtern merklich differieren würde. Stattdessen scheint der Schreiber bzw. die Schreiberin einfach am Ende der Zeile ein Wort eingefügt zu haben, das längenmäßig passte. Ein solches Gebahren lässt sich meiner Ansicht nach nicht mit der Abschrift eines natürlichsprachlichen Textes in Deckung bringen.

Bloß ein starker Waschgang?

Die beiden kurz ausgeführten Indizien sind nicht die einzigen, die gegen die Hypothese sprechen, dem Text liege ein unverschlüsselter, natürlichsprachlicher zugrunde. Auch wenn man annimmt, der Text sei durch eine verständnislose, fehlerhafte Abschrift unter Zeitnot quasi einem Waschgang unterzogen worden, der ihn nahezu unkenntlich gemacht hat, kann das meiner Meinung nach diese Eigenschaften nicht erklären. Vielmehr deuten die Entropiewerte darauf hin, dass – wenn der Text des VMS eine Botschaft enthält – diese ein gutes Stück kürzer ist, als das die Länge des Textes suggeriert. Das heißt, dass die kleinsten Informationseinheiten des VMS länger sind als unsere Schriftzeichen. Das seltsame positionsabhängige Wortlängengebahren scheint mir auf einen Auswahlprozess irgendeiner Art hinzudeuten. Insofern denke ich, dass die Hypothesen, die

  1. von Gordon Rugg (Text ist ohne Inhalt und mithilfe eines Cardangitters und einer Morphemtabelle hergestellt)
  2. von Torsten Timm (Text ist wahrscheinlich ohne Inhalt und durch Kopie und Abwandlung einiger initialer Zeichenketten entstanden)
  3. von mir (Text ist das Resultat einer Verschlüsselung, bei der einzelne Buchstaben durch ganze, in Verschlüsselungstabellen aufgeführte Wörtern substituiert wurden)

aufgestellt wurden, in Vergleich zu der Ernst’schen die vorzuziehenden sind. Wie man sie gegeneinander evaluieren kann, darüber denke ich demnächst mal nach. Aber vielleicht nimmt mir das ja jemand ab.

 

Quelle: http://texperimentales.hypotheses.org/1155

Weiterlesen

“Der Gang ins Museum wird durch die Virtualisierung nicht wegbrechen”

Dr. Frank Reichherzer arbeitet am Lehrstuhl für Geschichte Westeuropas und transatlantische Beziehungen an der Humboldt Universität zu Berlin. Er konzipierte die digitale Ausstellung “Orte des Übergangs. Eine andere Geschichte des Ersten Weltkriegs” für Europeana.

Dr. Frank Reichherzer (Foto: privat)

Dr. Frank Reichherzer (Foto: privat)

Sie haben als Kurator die digitale Ausstellung „Orte des Übergangs. Eine andere Geschichte des Ersten Weltkrieges“ für Europeana geplant. Europeana verfügt über zahlreiche (Ego-)Dokumente aus verschiedenen Zeitspannen. Nach welchen Kriterien haben Sie ihre Ausstellungsdokumente ausgesucht?

Unser Kriterium war es, die Dokumente und Objekte als aussagekräftige Quellen für die übergeordnete Frage und das Ziel der Ausstellung zu nutzen. Da der Zugang über das Konzept der Orte nicht der Logik der Verschlagwortung der Europeana entspricht, haben wir uns den Themen in einem ersten Schritt über Quellenarten genähert – also Kriegstagebücher, Verordnungen, Karten, Bilder und andere Objekte, zeitgenössische Literatur bis hin zu Lieder- und Kochbüchern und vielem mehr. Dort haben wir die Stellen, an denen unsere Orte thematisiert wurden, vermerkt und dann für den zweiten Schritt alles, was einen bestimmten Ort betraf, als Materialsammlung zusammengestellt.

Ihr Ziel ist es, den Ersten Weltkrieg aus einer neuen Perspektive, und zwar anhand eines Mosaiks von Orten, zu betrachten. Geht es Ihnen darum, den Krieg, der so 100 Jahre zurück liegt und vielen so abstrakt erscheint, erfahrbar zu machen? Welches Publikum möchten Sie damit ansprechen?

„Erfahrbar“ wollten wir den Krieg nicht machen. Wie wollten den Krieg in seiner Widersprüchlichkeit, in seiner Komplexität sichtbar machen. Abstrakte Orte, wie der Bahnhof, das Lazarett, die Kasernen aber auch das Hauptquartier, die sich überall, auf allen Seiten der Fronten, finden lassen, erschienen uns als geeigneter Zugang, die Pfade der Chronologie des Krieges, der nationalen Perspektiven und der epischen Schlachtengemälde zu verlassen. In diesem Sinne abstrahieren wir sogar noch mehr als die meisten Publikationen zum Thema. Wir fordern unsere Besucher heraus. Sie sollen den Ersten Weltkrieg als diffuses Ereignis erkennen – als gigantischen Ort des Übergangs, an dem Zivilisation und Barbarei, Moderne und Archaik, Zerstörung und Schöpfung, Beschleunigung und Beharrung, Mythos und Rationalität, Traum und Trauma und vieles mehr ineinander verwobene Realitäten bilden. Wir wünschen uns ein breites Publikum. Die Ausstellung ist so konzipiert, dass der Besucher seine Wege und sein Eintauchen in die Materie selbst gestalten kann. Gerade der ‚virtuelle Ausstellungsraum’ macht diese Sprünge und Drifts möglich. Die Orte sind dabei der Einstieg. Die Dynamiken, die sich im Raum zwischen den Orten bilden, sollen mit dem ‚Klicken‘ durch die Ausstellung in einer spezifischen Art im Besucher deutlich werden – und hier stimmt es wohl –hier kann der Besucher die Geschichte des Erste Weltkrieg in einer besonderen Weise „erfahren“.

Mittlerweile stellen auch zahlreiche Museen auf ihren Websites digitale Ansichten von ihren Ausstellungsobjekten zur Verfügung. Welche Bedeutung werden digitale Ausstellungen Ihrer Meinung nach in der Zukunft haben?

Technisch ist und wird vieles möglich sein. Vor allem Hypertextstrukturen und gestaffelte Informationsschichte bieten dem Besucher die Möglichkeit, in unterschiedliche Formen, Intensitäten und eigenen Wegen in die Materie einzutauchen. Wir hatten im ursprünglichen Konzept viel mehr Verlinkungen der Orte und der Narrationen wie ‚Ordnung und Chaos‘, geplant, mussten uns aber an den Europeana-Richtlinien orientieren.

Der Gang ins Museum wird aber durch die Virtualisierung nicht wegbrechen. Das Museum als sozialer Ort wird daher nicht verdrängt. Die Sehnsucht nach dem Sozialen und dem Authentischen ist groß. Ich denke, Mischformen werden sich etablieren. Mehr und mehr wird der Ausstellungsbesuch virtuell durch Terminals vor Ort oder auch durch die Nutzung mobiler Endgeräte weiter mit zusätzlichen Informationen angereichert. Grenzen hierzu sehe ich weder im Wissenschaftlich-kuratorischen Input noch in der Technik. Probleme liegen eher in urheberrechtlichen Fragen.

 

Sie wollen mehr über das Projekt Europeana und digitale Museen wissen? Fragen Sie Dr. Reichherzer bei unserem WeberWorldCafé “Narrating the First World War – Experiences and Reports from Transregional Perspectives”!

Quelle: http://wwc.hypotheses.org/390

Weiterlesen