Die unbekannte Heldensage (Podcast-Version) #dehypo5

“Zwischen der Wissenschaft, wie sie die Öffenlichkeit erträumt oder die Medien feiern, und der Wissenschaft, wie sie die Forscher täglich praktizieren, besteht dieselbe Diskrepanz wie zwischen Heldensage und Reisetagebuch“ schreiben Sven Ortoli und Nicolas Witkowski in ihrer Sammlung wissenschaftlicher Legenden mit dem Titel “Die Badewanne des Archimedes”. Tatsächlich sind Durchbrüche in einer langen, entbehrungsreichen Wissenschaftskarriere doch eher spärlich gesät – und sollten sie doch eintreten, geht es meist um sehr spezifische Forschungsbereiche, die jenseits des einschlägigen Fachpublikums eher keine Begeisterungsstürme hervorzurufen vermögen. 

Berühmt geworden sind vor allem so illustre Legenden wie die Bestimmung der Dichte durch den badenden Archimedes oder Newtons Ableitung der Gravitation, induziert durch ein Nickerchen unterm Apfelbaum. Andere wissenschaftliche Erfolge sind der Öffentlichkeit weitgehend unbekannt geblieben, obwohl auch sie ohne Zweifel großartige Leistungen bedeuteten. Bei manchen mag es daran gelegen haben, dass sie Laien einfach nicht gut vermittelbar waren. Andere sind vielleicht einfach in Vergessenheit geraten, weil man sie zu gut versteckte oder sie wieder von der Bildfläche verschwanden, ehe jemand von ihnen Notiz nahm.

Eine solche Episode, die meiner Meinung nach viel mehr Aufmerksamkeit verdient hat, als ihr bisher zuteil wurde, spielt vor knapp 20 Jahren auf dem Feld der Kryptologie, das an weithin bekannten Legenden gewiss nicht arm ist. Zwar beruhen moderne Verschlüsselungsverfahren vor allem auf komplizierten Berechnungsoperationen, so dass sie auch nur mit enormen computationellen Ressourcen angegriffen werden können.

[...]

Quelle: http://texperimentales.hypotheses.org/1970

Weiterlesen

Krypto-Workshop

Nicht nur auf Seiten der Forschung kann man über Tellerränder blicken, auch in der Lehre gewinnt man Erkenntnisse hinzu, wenn man mal statt interessierter (oder zumindest anwesenheitsverpflichteter) Studierender oder statt eines Tagungspublikums Kinder zwischen 11 und 13 als Zuhörer hat. Mehr oder weniger zufällig bin ich gefragt worden (von einem Hörer des Podcastes, in dem Holger Klein zum Voynich Manuskript interviewte), ob ich nicht Lust hätte, einen Kryptologie-Workshop der SK-Stiftung Jugend und Medien zu leiten. Da ich aus zwei Kinderuni-Auftritten (zu Zahlbegriffen in verschiedenen Sprachen und eben zur Kryptologie) bereits gute Erfahrung mit ähnlichen Lehrangeboten gesammelt hatte, sagte ich natürlich bereitwillig zu.

Als geschwätziger Blogger muss ich hier natürlich direkt davon erzählen, vor allem aber nutze ich hier die Gelegenheit, die Materialien zu bündeln, die ich im Workshop nutzte, so dass sie den Kursteilnehmenden (und damit den Lesenden hier) auch außerhalb des Workshop-Multimediaraums zur Verfügung stehen.

Im Vorfeld fand ich es schwer, den Kenntnisstand und die Potentiale der Teilnehmenden einzuordnen, weswegen ich nicht die gesamte Veranstaltung durchplante, sondern sie eher modular organisierte. Die einzelnen Module konnten wir dann – je nach Wünschen und Fähigkeiten der Teilnehmenden – mit unterschiedlicher Intensität behandeln. Modularität kommt auch der Verwendung von Prezi entgegen, weil unterschiedliche Aspekte tatsächlich unterschiedliche Präsentationsdesigns erfordern. Prezi nutze ich inzwischen wirklich gerne als Präsentationssoftware – auch wenn ich eigens dafür wieder den Flash Player aktivieren musste.

[...]

Quelle: http://texperimentales.hypotheses.org/1473

Weiterlesen

Heldensage im Reisetagebuch

Vor ungefähr drei Jahren war ich mit meiner Promotion an einen Punkt gelangt, an dem ich die Entscheidung treffen musste, in welche Richtung sich meine Dissertation weiterentwickeln sollte. Wir hatten unser System Tesla schon zu einem guten Teil realisiert, die Darlegung zur Motivation der Entwicklung eines eigenen Komponentensystems – die Idee wirklich reproduzierbarer Experimente auf Textdaten beliebigen Formats – lag auch bereits in einer Rohform vor. Was fehlte, war ein Anwendungsfall, an dem ich die Funktionalität des Systems bestmöglich demonstrieren konnte. Und die Suche nach einem solchen geeigneten Untersuchungsobjekts hatte mich schon eine ganze Zeit beschäftigt. Eher zufällig stöberte ich dabei nochmal in einem Buch, dessen Lektüre bei mir schon etwas weiter zurücklag: Im wirklich empfehlenswerten Lexikon des Unwissens von Kathrin Passig und Aleks Scholz.1

Dabei fiel mir auf, dass das Voynich-Mauskript (VMS), dem im Lexikon ein Eintrag gewidmet ist, ein durchaus geeignetes Thema wäre, um die Anwendbarkeit von Tesla zu demonstrieren:

  • Das VMS enthält einen Text. Mit unbekannten Zeichen  geschrieben, unbekannten Inhalts und unbekannter Herkunft. Aber einen Text. Und wir haben Tesla entwickelt, um sämtliche Texte analysieren zu können. Auch wenn der VMS-Text auf seine Art einzigartig ist, er sollte sich mit Tesla analysieren lassen.
  • Die Analysen zu VMS sind genauso zahlreich wie auch widersprüchlich. So gut wie alle denkbaren Theorien zur Herkunft oder Inhalt des Textes lassen sich irgendwo finden. Die glaubhaften Analysen einmal in einem System zu bündeln, in dem sie für die ganze Welt reproduzierbar sind, sollte nicht schaden.
  • Das VMS reizt natürlich auch durch seine geheimnisvolle Aura. Damals schon 97 Jahre zerbarsten daran die Theorien durchaus (bisweilen überaus) intelligenter Wissenschaftler und Nicht-Wissenschaftler, ohne dass jemand tatsächlich eine allgemein anerkannte Lösung zum Problem hatte liefern können.

Der Anspruch, den Text tatsächlich entschlüsseln zu können, wäre natürlich allzu vermessen gewesen. Das war auch von Anfang an nicht der Plan. Stattdessen wollte ich die Analysen, welche zu den seltsamen Eigenschaften des Manuskripttextes, die ich hier schon einmal thematisiert habe, in einer Umgebung zusammenführen, welche eine einfache Überprüfung der Analyse-Ergebnisse ermöglicht.


Eine aufgeschlagene Seite des Voynich Manuskripts - seltsame Zeichnungen, seltsamer Text. Quelle: en.wikipedia.org

Tatsächlich bin ich aber weiter gekommen, als ich anfangs annahm und wie es dazu kam, will ich hier kurz erzählen: Beim Studium der Literatur zum VMS – die nicht in allen Fällen wissenschaftlichen Ansprüchen genügt und wo sie dies tut, meist in Veröffentlichungen zu anderen Themen versteckt wurde – nahm ich als Grundtenor wahr, dass kein Chiffrierverfahren bekannt wäre, aus dessen Anwendung ein Text resultiert, der dem VMS-Text ähnlich wäre. Ebenso deuteten bestimmte statistische Eigenschaften darauf hin, dass es sich nicht um eine Transkription einer natürlichen Sprache handeln könne. Wenn es aber weder eine Chiffre noch eine unbekannte Transkription sein kann, so liegt die Vermutung nahe, der Text bestehe einfach aus einer sinnlosen Aneinanderreihung von Phantasiewörtern. Damit korrespondiert – semiotisch ausgedrückt – mit der Ausdrucksseite seiner Zeichen keine Inhaltsseite. Und weil ein Text ohne Inhalt auf gewisse Art ein Schwindel ist, wird die Hypothese, dass es sich beim VMS-Text um einen solchen handelt, auch Hoax-Hypothese genannt.

Irgendwie ist der Gedanke, das VMS sei nur ein Schwindel und es gäbe gar nichts zu entziffern, nicht besonders befriedigend. Mehr Charme hat da die Vermutung von William Friedman (einem der größten Kryptoanalytiker des 20. Jahrhunderts), der es für wahrscheinlich hielt, dass der VMS-Text ein früher Entwurf einer synthetischen Sprache a priori sei – ihm also eine Kunstsprache zugrundliege, die sich – im Gegensatz z.B. zum Esperanto – nicht an natürlichen Sprachen orientiert. Weil solche Sprachen aber scheinbar erst in der zweiten Hälfte 17. Jahrhundert entworfen wurden, das VMS aber relativ sicher schon Ende des 16. Jahrhunderts in Prag kursierte, ist diese These problematisch.

Mehr Charme ist jetzt nicht unbedingt ein wissenschaftliches Kriterium. Ich beschloss aber dennoch, Verschlüsselungsverfahren und Ansätze zu Universalsprachen im ausgehenden Mittelalter und der frühen Neuzeit zu recherchieren. Im Zuge dieser Recherchen zu stieß ich auf die Monographie von Gerhard Strasser2 zum Thema, in der dieser die Verbindung zwischen kryptographischen Verfahren und universell gedachten Sprachentwürfen beleuchtet. Ursprünglich wollte Strasser dabei auf die Universalsprachentwürfe des 17. Jahrhunderts eingehen, allgemein als die ersten ihrer Art angesehen. Er kann aber zeigen, dass schon viel früher – durch den Abt Johannes Trithemius (den ich u.a. schon hier für eine andere seiner Arbeiten gewürdigt habe) – eine Chiffre entworfen wurde, deren Anwendung etwas ergab, das wie das Resultat einer Kunstsprache aussieht, das aber ein verschlüsselter Text ist.

Konkret bezieht sich Strasser dabei auf die Teile III und IV der trithemischen Polygraphia. Die darin beschriebenen Verfahren funktionieren prinzipiell wie die aus den ersten beiden Teilen  (die ich hier auch schon vorgestellt habe): Einzelne Buchstaben werden gemäß einer Ersetzungstabelle durch ganze Wörter ersetzt. Während aber die Ersetzungschiffren in den ersten beiden Teilen lateinische Wörter sind und die resultierenden Geheimtexte wie lateinische Gebete anmuten, sind sie in den darauffolgenden Büchern von Trithemius erdachte Phantasiewörter, der resultierende Text sieht demnach aus wie eine Phantasiesprache. Der sehr regelmäßige Aufbau der Phantasiewörter – an einen Wortstamm sind unterschiedliche Endungen angehangen – gemahnt Strasser an die Universalsprachentwürfe von Wilkins und Dalgano, die erst viel später, um 1660, entworfen wurden.

Je zwei Zeilen von Ersetzungschiffren aus der Polygraphia III und IV. In der Spalte ganz links finden sich die zu ersetzenden Buchstaben.

Die Tatsache, dass nun doch um 1500 schon eine Möglichkeit beschrieben wurde, wie ein Text erzeugt werden kann, der wie das Produkt einer Kunstsprache aussieht, fesselte mich natürlich und ich beschloss, die Trithemischen Werke im Original zu konsultieren. Die Recherche führte mich in ein Mikrofichekabüffchen und den Lesesaal der historischen Sammlungen der hiesigen Universitätsbibliothek genauso wie in die Erzbischöfliche Buchsammlung zu Köln (womöglich wäre ich noch im Stadtarchiv gelandet, das aber gerade der Erdboden verschluckte) – alles spannende Orte, zu denen man als Computerlinguist unter normalen Umständen gar nicht vorstößt.

Ich werde nie vergessen, wie ich im Holzverschlag zur Mikrofichebetrachtung über das Lesegerät gebeugt stand, fieberhaft und ungelenk die kleine Folie weiterschob über die Tabellen der trithemischen Polygraphia, bis ich endlich im dritten Teil angekommen, überprüfen konnte, ob das, was ich mir auf Grundlage von Strassers Schilderung vorstellte, tatsächlich auch im historischen Werk zu finden war. Und wirklich hatte Trithemius einzelne Spalten mit Stamm-Endungs-Kombinationen versehen, die wie Flexionsparadigmen aussahen (auch die “Wörter” des VMS weisen ähnliche Eigenschaften auf). Noch phantastischer war, dass die manuelle Strichliste, die ich nebenbei über die Wortlängenverteilung der Ersetzungstabellen führte, eine Binomialverteilung ergab (ebenso wie die VMS-”Wörter”, siehe auch hier). Dank Patrick Sahle hatte ich dann bald auch die Möglichkeit, die Polygraphia an meinem Schreibtisch zu studieren, der sich als die langweiligere, aber effektivere Arbeits-Location erwies.

Dort konnte ich mich dann weiteren Überlegungen zur Operationalisierung der von mir ja erst per Augenmaß festgestellten Ähnlichkeiten zwischen den beiden Texten widmen. Dabei hatte ich stets die Warnung von Kennedy und Churchill3 vor Augen, dass das VMS ein Spiegel sei, in dem jeder nur seine eigenen Vorurteile und Hypothesen bestätigt sieht. Insbesondere musste ich erst einmal Werkzeuge entwickeln, die mir erlaubten, den VMS-Text einzulesen und Polygraphia-III-Texte zu erzeugen, diese in Analyseeinheiten zu unterteilen und schließlich statistische Eigenschaften, die ich nicht einfach per manueller Zählung ermitteln konnte, auszuwerten. Ich befand mich erst am Anfang eines langen Prozesses, an dessen Ende die Fertigstellung und Veröffentlichung meiner Dissertation und die der duchgeführten Experimente stand.

Irgendwann später las ich das Bonmot von Ortoli und Witkowski: “Zwischen der Wissenschaft, wie sie die Öffenlichkeit erträumt oder die Medien feiern, und der Wissenschaft, wie sie die Forscher täglich praktizieren, besteht dieselbe Diskrepanz wie zwischen Heldensage und Reisetagebuch.” Da dachte ich, dass -  zumindest bei mir im Kopf – genau diese Diskrepanz für einen kurzen Moment aufgehoben war.

1 Katrin Passig, Aleks Scholz: “Lexikon des Unwissens. Worauf es bisher keine Antwort gibt.” Rowohlt Berlin; Auflage: 7 (2007)

2 Gehard Strasser: “Lingua Universalis: Kryptologie und Theorie der Universalsprachen im 16. und 17. Jahrhundert” (Wolfenbütteler Forschungen 38) Harrassowitz, Wiesbaden (1988)

3 Gerry Kennedy und Rob Churchill: “Der Voynich-Code: Das Buch, das niemand lesen kann” Rogner & Bernhard bei Zweitausendeins (2005)

4  Sven Ortoli und Nicolas Witkowski: “Die Badewanne des Archimedes: Berühmte Legenden aus der Wissenschaft” Piper Taschenbuch (2007)

Anm: Drei der vier aufgeführten Bücher sind das, was gemeinhin und bisweilen abschätzig als populärwissenschaftliche Veröffentlichungen bezeichnet wird. Eine ganze Reihe meiner Links führen außerdem zur Wikipedia. Ich halte den Einbezug beider Arten von Quellen für durchaus legitim in einem Blog, der versucht, die eigene wissenschaftliche Tätigkeit etwas populärer zu machen. Dass manche das anders sehen, weiß ich inzwischen auch. Da kann man aber auch gerne mit mir diskutieren. Nebenbei: Untersuchungen zum Voynich Manuskript tragen im Wissenschaftsbetrieb nicht gerade zur Kredibilität bei, was wohl auch ein Grund dafür ist, dass sich so wenige wirkliche Spezialisten mit dem Thema beschäftigen oder aber ihre Ergebnisse in Unterkapiteln anderer Veröffentlichungen (z.B. in einer Einführung in die Programmiersprache BASIC, kein Witz) verstecken. Bei mir ist das ja auch irgendwie der Fall gewesen. :)

Quelle: http://texperimentales.hypotheses.org/278

Weiterlesen

Eine geheime Aufforderung zum Karfreitagstanz

Im heutigen Post möchte ich eine der aufwendigsten Verschlüsselungsmethoden vorstellen, die aber – vor allem für kurze Texte und trotz ihres Alters von mehr als 500 Jahren – sehr sichere Geheimtexte erzeugt, die man im Zweifelsfall gar nicht als solche erkennt. Und da ich den Post am langen Osterwochenende schreibe und veröffentliche, verpacke ich die Darstellung in eine Rahmenhandlung, die zu diesem christlichen Fest (und gewissen Einschränkungen, die in seinem Rahmen bezüglich öffentlicher Vergnügungen gelten) passt. Stellen wir uns vor, wir bekämen am Karfreitag eine gedruckte Einladung zu einer Karfreitagsmesse in die Hand, auf der der folgende Leitspruch (oder wie man das auch immer nennt) abgedruckt wäre:

“Redemptor clemens stabiliens vitam iustis suis in paradiso amen.”

Wenn man sich an ein paar Bröckchen Latein erinnert (so wie ich), so könnte man sich vielleicht zusammen konstruieren, dass irgendwie von einem barmherzigen Erlöser und wahrscheinlich dem Garten Eden die Rede ist und sich dabei ein wenig über die getroffene Wortwahl wundern. Altphilologen würden wohl skeptischer werden ob der Holprigkeit des Ausdrucks. Niemand aber könnte wohl erahnen, dass es sich um eine versteckte Aufforderung handelt, das behördlicherseits streng kontrollierte Tanzverbot am stillen Feiertag zu ignorieren. Verschlüsselt wurde diese Aufforderung mit einer Methode, die beschrieben wird im ersten Buch der sechsteiligen Polygraphia von Johannes Trithemius. Leser dieses Blogs, die schon zu Posterous-Zeiten dabei waren oder über den Übersichts-Artikel den ersten und den zweiten Teil zur Entschlüsselung der Steganographia III gelesen haben, ist der Name Johannes Trithemius bereits ein Begriff. Ich habe ihn als Abt des Klosters Sponheim im Übergang vom 15. zum 16. Jahrhundert vorgestellt. Wegen einer unguten Geschichte hinsichtlich der Rezeption seines ersten Buchs zu Geheimschriften (eben der Steganographia) stellte er sein Amt dort zur Verfügung und war bei der Fertigstellung der Polygraphia bereits der Abt des Klosters Würzburg. Ich hatte den Ablauf der Ereignisse, die Trithemius zum Klosterwechsel veranlassten, bereits in den beiden erwähnten Posts thematisiert, das Problem lag in der explosiven Kombination einer großspurigen Vorankündigung des Werks, einer Menge arkanen Popanz im Buch sowie einem Abt, der lieber den überlegenen Geheimniskrämer gab, als glaubhaft darzulegen, dass das, was wie magischer Schnickschnack aussah, in Wirklichkeit durchdachte Chiffriermethoden waren. Trithemius wiederholt diese Fehler im Falle der Polygraphia nicht, dem Buch geht – zumindest oberflächlich betrachtet – jeder Anschein des Geheimnisvollen ab. Mit der Polygraphia wird aber etwas eingelöst, was schon für die Steganographia angekündigt war: Die Beschreibung eines Verfahren, mit dem – wie Trithemius behauptet – ein ungelehrter Mann innerhalb von zwei Stunden das Lateinische lesen, schreiben und verstehen können soll. Dieses Verfahren entpuppt sich bei näherem Hinsehen allerdings eher als eine raffinierte Chiffriermethode denn als tatsächliches Lernprogramm für die lateinische Sprache. Dessen ungeachtet wird der Ansatz später sowohl ins Französische (durch Gabriel des Collange 1561) als auch ins Tschechische (durch Raphael Mnishowsky, um 1628) übertragen, um es tatsächlich als Lernverfahren für das Französische bzw. Tschechische einzusetzen. Beides kann eigentlich nicht wirklich funktioniert haben. Bessere Aussichten hatte da die Entlehnung der Methode als Chiffre. Betrachten wir aber zunächst ihre Funktionsweise. Neben einer kurzen lateinischen Beschreibung zu Anfang finden sich in der Polygraphia I 383 Listen, die aus jeweils 24 untereinander platzierten Wörtern bestehen. Zusammengenommen ergeben diese Listen eine über mehr als 100 Seiten laufende Tabelle, die sich aus 24 Zeilen und 383 Spalten zusammensetzt. Die ersten sechs Spalten finden sich in der Tabelle unten.

Die ersten 6 Spalten der Polygraphia I. Vor der sechsten Spalte sieht Trithemius ein "suis in", dahinter ein "amen" vor.

Wie die Tabelle andeutet, stehen die 24 Zeilen der Tabelle für 24 Buchstaben des Alphabets (im Vergleich zu dem heute bei uns gebräuchlichen Alphabet fehlen die Buchstaben j und v). Für jeden dieser Buchstaben hat Trithemius 383 verschiedene Wörter zusammengestellt, welche diese ersetzen können. Insofern kann man hier von einer Substitutionschiffre sprechen, die für jeden Klartext-Buchstaben 383 Geheimtext-Homophone bereitstellt. Die Anordung der Wörter in der Tabelle aber ist auf eine beeindruckende Weise ausgeklügelt: Jede Spalte enthält nur Wörter mit gleichen morphosyntaktischen Merkmalen (die erste Spalte etwa nur maskuline Nomen im Nominativ). Benachbarte Spalten sind dabei so gewählt, dass sich sowohl ein syntaktischer wie auch ein semantischer Anschluss ergibt, egal welche Kombination von Wörtern (als Chiffren für eine Buchstabenkombination) auch ausgewählt werden. Ersetzt man mit Hilfe dieser Tabellen einen Klartext sukzessive Buchstaben für Buchstaben mit einem Wort der jeweils nächsten Spalte, so ergibt sich damit ein lateinischer Text, der an ein Gebet erinnert. Der Geheimtext ist damit nicht nur verschlüsselt, sondern zugleich auch maskiert, das heißt – zumindest für Laien – nicht als verschlüsselter Text erkennbar. Aus diesem Grund wurde das Verfahren später auch als Ave-Maria-Chiffre bezeichnet. Das Verfahren ist (wie eigentlich alle trithemischen) sehr innovativ und durch die Kombination von steganographischen (versteckenden) und kryptographischen (verschlüsselnden) Elementen auch doppelt sicher – man muss ja erst einmal darauf kommen, dass man es überhaupt mit einer verschlüsselten Botschaft zu tun hat. Selbst wenn man um diese weiß, dürfte es so gut wie unmöglich sein, den Klartext auf irgend eine Weise zu rekonstruieren, hat man nicht die Ersetzungstabelle (in diesem Fall eine Ausgabe der Polygraphia) zur Hand. Das Verfahren weist allerdings auch eine Reihe von Nachteilen bezüglich seiner Anwendung auf:
  • Der verschlüsselte Text ist um einiges länger als die ursprüngliche Nachricht – schließlich werden ja einzelne Buchstaben durch ganze Wörter ersetzt.
  • Nach 383 Klartextzeichen kommt man am Ende der Ersetzungsspalten an. Beginnt man einfach wieder von vorne, so öffnet man ein Einfallstor für einen kryptoanalytischen Angriff auf den Geheimtext, weil sich zwangsläufig Wörter häufig wiederholen werden, die hochfrequent vorkommende Buchstaben ersetzen.
  • Sender und Empfänger müssen beide über die gleiche Ersetzungstabelle verfügen. Niemand anderem sollte diese zur Verfügung stehen.
Diese Schwierigkeiten waren wohl auch der Grund dafür, dass sich kaum Belege dafür finden lassen, dass die Methode auch Anwendung fand. Lediglich Blaise de Vigenère, der sich später auch einen Namen als Kryptograph machen sollte (die Vigenère-Chiffre ist um einiges berühmter als jedes trithemische Verfahren), weiss zu berichten, dass sich die Türken vom venezianischen Botschafter in Konstantinopel durch eine Ave-Maria-Chiffre haben täuschen lassen. Herzog August der Jüngere (der auch für den legendären Ruf der nach ihm benannten Bibliothek verantwortlich ist) führt in dem von ihm unter dem Pseudonym Gustav Selenus verfassten Handbuch zur Kryptographie zwei Adaptionen der trithemischen Ave-Maria-Chiffre auf, eine weitere lateinische vom italienischen Kryptologen Giambattista della Porta, sowie eine deutsche von einem unbekannten Autor (möglicherweise von ihm selbst). Mit letzterer lassen sich Geheimtexte erzeugen, die in Inhalt, Metrik und Rhythmus dem Vater-unser-Gebet ähneln (leider habe ich über das Wochenende keinen Zugriff auf das entsprechende Buch, so dass ich hier leider kein Beispiel präsentieren kann). Oben erwähnt hatte ich ja auch schon die Übertragungen ins Tschechische und ins Französische, um damit Sprachunterricht durchführen zu können. Vielleicht fehlt mir die Phantasie, wie der Sprachunterricht anhand von Wortlisten vonstatten gehen könnte, jedenfalls kann ich mir einen solchen nicht erfolgreich vorstellen. Natürlich kann ein des Lateinischen unkundiger die Polygraphia I nutzen, um ohne Probleme einen Text in einer Sprache, die er beherrscht, zu verschlüsseln. Er kann sie genauso nutzen, um einen verschlüsselten Text zu dechiffrieren. Dabei erzeugt und liest er zwar einen lateinischen Text, er versteht aber nicht im Mindesten dessen Inhalt. Es passiert ungefähr genau das, was in  Searles chinesischem Zimmer vor sich geht – vorgetäuschtes Verständnis, ohne eine Sprache zu beherrschen. Insgesamt besteht die Polygraphia aus insgesamt sechs Teilen, von denen ich bisher lediglich den ersten erwähnt habe. Der zweite Teil unterscheidet sich vom vorherigen lediglich durch die auf die Tabelle verteilten lateinischen Wörter, auch Teil drei und vier sehen oberflächlich betrachtet aus, als würde das gleiche Prinzip weiter durchgehalten. Das stimmt aber nur zum Teil. Wie ich hier schon einmal kurz angedeutet habe, spreche ich dem Verfahren, welches in der Polygraphia III beschrieben wird, das Potential zu, einen Text zu erzeugen, der ähnliche statistische Eigenheiten wie der des Voynich Manuskripts aufweist. Dazu aber ein andermal mehr (wie immer – wer nicht abwarten kann, lese einfach hier weiter). Ach so – die versteckte Botschaft – die habt ihr euch doch aber schon längst selbst aus der Tabelle rekonstruiert, oder?

Quelle: http://texperimentales.hypotheses.org/156

Weiterlesen