Der Workshop »Das umstrittene Gedächtnis« und der Erinnerungsort Stiklestad

  Im Juni vergangenen Jahres veranstalte der Lehrstuhl von Prof. Arnd Bauerkämper an der Freien Universität Berlin den Workshop »Das umstrittene Gedächtnis – Transnationale und innergesellschaftliche Erinnerungskonflikte in Europa nach 1945«. Während des zweitägigen Seminars sprachen 15 Referenten zu verschiedenen Themen der vergleichenden Erinnerungsforschung, die sich insbesondere dem Wettstreit verschiedener Geschichtsdeutungen und der daraus resultierender Diskurse und Akteuren widmete. Als Ausgangspunkt diente das Fallbeispiel Norwegen, wobei im späteren Verlauf auch Beispiele aus anderen europäischen Ländern (u.a. Italien, Luxemburg, Estland und der Slowakei) vorgestellt wurden. Das [...]    

Quelle: http://umstrittenesgedaechtnis.hypotheses.org/42

Weiterlesen

Ein schwieriges (Rechts-)Verfahren – Die Entschädigung von NS-Verfolgten in der Nachkriegszeit

  Die Auseinandersetzung mit den von den Nationalsozialisten verübten Verfolgungen und Gräueltaten ist bis heute prägend für unsere Gesellschaft. Bereits vor Gründung der Bundesrepublik wurden Stimmen laut, die eine umfassende Entschädigung der Opfer dieser Verfolgungen forderten. Ende der 1940er … Weiterlesen    

Quelle: http://netzwerk.hypotheses.org/1342

Weiterlesen

Ein Schrei hängt in der Luft. Stille und Präsenz in Gregor Schneiders Installation “Weiße Folter”

  Gastbeitrag von Philipp Hindahl. Eine weiße Schiebetür schließt sich hinter dem Besucher. Vor ihm erstreckt sich ein weiß glänzender Korridor, so sauber, dass er blendet. Zur Linken und Rechten sind jeweils sechs rostrote Schiebetüren, die in kleine Räume führen, deren Ausstattung in ihrer Sterilität und Kargheit an Gefängniszellen erinnert. An den der Tür gegenüberliegenden Wänden befinden sich Pritschen mit dünnen Matratzen, darüber schmale, schießschartenartige Fenster, die keinen Blick nach draußen gewähren, da sie von außen geschwärzt sind. In der Ecke neben der Eingangstür steht [...]    

Quelle: http://dtforum.hypotheses.org/418

Weiterlesen

“Und was kann man jetzt mit Tesla machen?”

Eine der am häufigsten gestellten Fragen an uns ist ohne Zweifel die nach den Verwendungsmöglichkeiten für Tesla. Die Frage kam bereits in den Kommentaren dieses Blogs auf, sie wird uns auf den Konferenzen gestellt, auf denen wir Tesla vorstellen, sie war sowohl Teil meiner Disputation, als auch der meines Kollegen Stephan Schwiebert.

Die Antwort auf die Frage ist relativ einfach: Mit Tesla kann man eigentlich alles machen, was auf maschinellen Annotationen oder einer automatischen Analyse von Texten beruht. Wie das mit einfachen Antworten so ist, ergibt sich aus ihnen meist eine ganze Reihe weiterer Fragen. So auch hier:

  1. Was fällt denn alles unter den Begriff Texte?
  2. Was kann man sich konkret unter maschinellen Annotationen vorstellen?
  3. Und was unter automatischen Analysen?
  4. Was bedeutet man kann eigentlich alles machen?
  5. Gibt es denn Dinge, für die sich Tesla nicht eignet?
  6. Aber es gibt doch auch das System XYZ, kann das nicht genau das Gleiche?

Versuche ich mal, diese Fragen zu beantworten, ohne dass allzu viele Folgefragen aufgeworfen werden (weswegen ich auch versuche, möglichst ohne sprachwissenschaftliche und informatische Fachbegriffe auszukommen):

(1) Wir verwenden den Begriff Text relativ weit gefasst. Texte sind für uns einfach alle Daten, die sich in einer linearen, eindimensionalen Abfolge von Zeichen aus einem definierten Alphabet repräsentieren lassen. Das gilt zunächst einmal für alle Daten, die sich irgendwie in einem herkömmlichen Computer speichern und verarbeiten lassen, letztlich arbeitet dieser ja mit Sequenzen von Nullen und Einsen. Wir meinen hier aber vor allem diejenigen Daten, die sich durch ihre eindimensionale Struktur auszeichnen. Darunter fallen vor allem natürlichsprachliche Texte, aber auch Text-Repräsentationen von DNA, RNA, Proteinen und auch von Musikstücken. Die Entscheidung, möglichst viele unterschiedliche Daten in Tesla verarbeiten zu können, wurde bewusst getroffen.  Auf diese Weise können unterschiedliche Verfahren für spezifische Daten entwickelt werden, die dann gegebenenfalls auf andere Daten übertragen werden können. Tesla stellt außerdem keinerlei Anforderungen an das Format der Texte.

(2) Sprache ist zwar letztlich (spätestens beim Verlassen unseres Sprechorgans bzw. als Buchstabenfolge eines Textes) eindimensional organisiert: Mündliche Sprachmitteilungen bestehen etwa aus einer Folge von Lauten, schriftliche Texte aus einer Folge von Buchstaben. Über diesen mehr oder weniger grundlegenden Einheiten sprachlicher Kommunikation existieren jedoch weitere Organisationseinheiten wie Wörter oder Sätze, dabei gibt es unterschiedliche Wortklassen (z.B. Substantive, Verben) und Funktionen (z.B. Objekt, Prädikat). Alle diese Einheiten, Klassen und Funktionen sind implizit im Sprachsignal enthalten, um sie auswerten zu können, müssen die Sprachdaten explizit mit ihnen ausgezeichnet (annotiert) werden. Das kann man entweder manuell machen (was gewisse Vor-, aber auch Nachteile hat) oder bestimmte dafür programmierte Werkzeuge machen lassen. Dazu gehören z.B. Tokenizer, die Wortgrenzen bestimmen, Tagger, die Wörter Wortklassen zuordnen und Parser, welche die Funktion von Wörtern oder Wortgruppen erkennen. Tesla besitzt eine ganze Reihe solcher Werkzeuge, mit denen sich Daten maschinell annotieren lassen.

(3) Annotationen wie in (2) beschrieben,  sind meist eine Vorstufe zur Daten-Analyse, die man auch innerhalb von Tesla betreiben kann. Aus der unüberschaubaren Menge möglicher Analysen wähle ich hier ein Beispiel aus dem Bereich Informationsextraktion (IE). IE ist eine Art Oberbegriff für Verfahren, die aus unstrukturierten Daten (z.B. Texten) strukturierte Daten (z.B. Tabellen in einer Datenbank) ableiten. Ein Anwendungsfall für IE-Verfahren ist die sogenannte Sentiment Analysis (zu deutsch etwa “Stimmungserkennung”), wo Texte z.B. nach positiven und negativen Einstellungen hinsichtlich eines Untersuchungsgegenstandes (Mobiltelefon, Hotel, Fluggesellschaft oder was auch immer) klassifiziert werden. Soll eine solche Klassifikation automatisch erfolgen, so benötigt man einerseits annotierte Texte, um Wörter und Wortgruppen ausfindig zu machen, von denen die Wertung des Textes abhängt, so wie spezielle Adjektive, Gradpartikel, Negationen etc. Man spricht davon, dass bestimmte Merkmale in Texten ausfindig gemacht werden. Mit diesen Merkmalen wird dann ein Klassifikationsmechanismus gefüttert, welcher auf dieser Basis die Texte in Klassen einteilt (also z.B. in gute und schlechte Bewertungen). Die beschriebene Sentiment-Analyse ist nur ein mögliches Verfahren, das in Tesla realisiert werden kann. Inzwischen haben wir eine ganze Bandbreite verschiedener Verfahren in Tesla realisiert, ich etwa habe das Voynich Manuskript damit analysiert, meine Kollegen arbeiten zu den Themen Extraktion syntaktischer Strukturen und Bedeutungskonstitution in natürlichsprachlichen Daten. Innerhalb eines Projekts wurden außerdem Vorarbeiten zur beschriebenen Sentiment-Analyse und der Extraktion temporaler Ausdrücke sowie von Gen-Bezeichnungen durchgeführt.

(4) Tesla ist ein Framework, in dem Werkzeuge zur Annotation und Analyse von Texten sowohl programmiert wie auch genutzt werden können. Was genau zu einem bestimmten Zeitpunkt in Tesla umgesetzt werden kann, hängt von der Ausstattung des Systems zu diesem Zeitpunkt ab. Zur Zeit umfasst das Inventar etwas mehr als 60 verschiedene Komponenten, manche Funktionalität ist gleich durch mehrere Werkzeuge abgedeckt (so gibt es z.B. zwei Tokenizer – einen, der sehr einfach zu bedienen ist, einer der sehr umfassend konfiguriert werden kann). Eine Übersicht zu den vorhandenen Komponenten findet sich auf der Tesla-Entwicklerseite. Prinzipiell (also eigentlich) kann man mit Tesla also alles machen, was in den Bereich der automatischen Prozessierung von Texten fällt. De facto beschränkt aber die aktuelle Ausstattung die momentan mögliche Anwendung – wobei man jederzeit die fehlende Funktionalität selbst implementieren kann.

(5) Man kann in Tesla nicht alles mit Texten machen, man kann nur alles machen, was sich automatisieren lässt. Alles, was mit manueller Auszeichnung zu tun hat, muss damit außerhalb von Tesla erfolgen – das bedeutet z.B., dass man nicht einfach in einem Editor die automatisch erzeugten Ergebnisse korrigieren kann. Hinter dieser Einschränkung steht die Überlegung, dass wir ein System haben wollten, in dem Analysen durchgeführt werden können, die absolut nachvollziehbar sind. Solange man lediglich Software-Algorithmen (die deterministisch sind, also keinen nicht reproduzierbaren Zufalls-Effekt enthalten) arbeiten lässt, hat man die Möglichkeit – so denn die geeigneten Vorkehrungen getroffen wurden – die Analysen jederzeit zu wiederholen und weiterzugeben, auf dass sie woanders reproduziert werden können. Ließe man manuelle Eingriffe in diesem Prozess zu, verlöre man diese Möglichkeit. Ich habe schon mehrere Posts zu diesem Thema geschrieben, etwa diese Parabel, so dass ich es jetzt hier mal dabei belasse. Nebenbei – Tesla ist kein absolut fertiges System (wir haben es mehr oder weniger zu zweit gebaut), so ist etwa die Umsetzung von Maschinellen Lernverfahren, für die Trainingsphasen durchgeführt werden müssen, noch verbesserungsfähig.

(6) Ja, es gibt eine Reihe von Systemen, die ähnlich wie Tesla angelegt sind und auf manchen Gebieten tatsächlich mit unserem System konkurrieren. Dazu zählen Gate, Apache UIMA und TextGrid. Zu den Unterschieden komm ich aber mal ein andermal. Ungeduldigen sei diese Monographie empfohlen.

Ich hoffe, dass ich mit diesem Post ein wenig aufklären konnte, was Tesla tatsächlich ist. Was man damit so alles machen kann, konnte nur bruchstückhaft dargestellt werden (auf Visualisierungen, wie z.B. das Titelbild oben, bin ich noch gar nicht eingegangen). Dafür brauche ich wohl ein paar mehr Posts. Damit man sich aber schonmal ein  Bild machen kann, wie Tesla aussieht, habe ich unten noch einmal einen Screenshot der Tesla-Benutzeroberfläche angehangen.


Ansicht der Benutzeroberfläche von Tesla für Anwender. Groß im Bild der graphische Editor, in dem man seine Analysen zusammenstellt.

Quelle: http://texperimentales.hypotheses.org/125

Weiterlesen

Eine GUI-Analyse von ARTigo

Neulich habe ich einige Runden ARTigo gespielt und mich über die Tippfehler gewundert, die ich gemacht habe, obwohl ich sehr sicher mit zehn Fingern auf der Tastatur schreiben kann. Ich dachte erst, das bin doch nicht ich? Aber da ich alleine am Schreibtisch saß, war ich’s wohl doch. Daraufhin habe ich mir die Benutzeroberfläche von ARTigo ein wenig genauer angesehen:

Die GUI (Graphical User Interface=Benutzeroberfläche) von ARTigo ist wohltuend minimalistisch gestaltet. Nichts lenkt vom zu beschreibenden Bild ab. Im linken Bereich des Fensters befinden sich weiterführende Links und der Fortschrittsbalken, der die verbleibende Zeit visualisiert, sowie die Liste der eingegebenen Tags und der Punktestand. Im rechten Bereich wird das Bild angezeigt. Als neuer Spieler möchte man zunächst einen Blick auf die Spielregeln werfen. Darüber erfährt man etwas, wenn man auf den Link Über ARTigo > ARTigo-Spiel klickt. Zum Glück bietet die GUI nicht so viele Links an, so dass man die Regeln nicht zu lange suchen muss. Prinzipiell sollte aber eine aufzurufende Funktion auch mit einem eindeutig auf diese Funktion hinweisenden Namen benannt werden. Diese Inkonsistenz ist eine Frage des Mappings, das die Beziehung zwischen der Absicht des Spielers und den benötigten Handlungen definiert. Der Link könnte also Über ARTigo > Spielregeln heißen.

Die Blicksprünge die ich mache, sind teilweise enorm. Die Pfeile geben nur einen schematisch-vereinfachten Eindruck davon wieder. Wollte man sie wirklich messen, bräuchte man dafür eine Eye-Tracking-Kamera. Aufgrund der Geometrie der Anordnung aller im Auge zu behaltenden Objekte, sollte diese schematische Darstellung jedoch nachvollziehbar sein.

Die Größe der Blicksprünge ist sowohl vom Format des Bildes – ob Hoch- oder Querformat – abhängig, als auch von der sich daraus ergebenden Platzierung des Eingabefeldes für die Tags und von der Länge der Tag-Liste.

Abbildung 1: Schematische Darstellung der Blicksprünge bei einem Bild im Hochformat mit einer eher kürzeren Tag-Liste

 Abbildung 2: Schematische Darstellung der Blicksprünge bei einem Bild im Querformat mit einer etwas längeren Tag-Liste

Wie gerade erwähnt, habe ich als Spieler mehrere Objekte im Blick:

  • Am wichtigsten ist zunächst das Bild, das ich mir genau ansehen muss, denn ich soll es ja beschreiben. Deshalb ist es sinnvoll, hierfür möglichst viel Spielzeit zur Verfügung zu haben.
  • Die Liste der Tags behalte ich ebenfalls im Auge, weil ich hier zum einen sehe, was ich schon eingegeben habe, und dann, welche Begriffe ich aufgrund eines Tippfehlers vielleicht noch einmal eingeben muss. Außerdem erscheinen dort nach einer Weile bei einigen Begriffen höhere Punktzahlen, wie die fettausgezeichnete Zahl „25“. Darauf bin ich natürlich neugierig, und schiele deshalb öfter auf die Liste.
    Irritierend ist, dass sie dynamisch ist. Ein neuer Begriff wird unten an die Liste angefügt. Deshalb ist jeder Kontrollblick auf einen neu eingegebenen Begriff mit einem zusätzlichen Suchvorgang verbunden.
  • Das Eingabefeld ist unter dem Bild platziert und damit stets am gleichen Platz, aber abhängig von der Bildgröße immer an einer anderen Position auf dem Monitor. Bei jeder Runde muss ich den Blick auf das Feld wieder neu einstellen.
  • Auf den Fortschrittsbalken, der die verbleibende Zeit angibt, schaue ich ebenfalls gelegentlich.

Das Fazit lautet: Ich behalte beim Spielen verschiedene Elemente im Auge. Dabei muss ich teilweise große Blicksprünge machen, wodurch ich aber weniger Netto-Zeit für die Betrachtung des Bildes, die ja wesentlich für das Spiel ist, habe. Außerdem ist ein Blick auf die dynamisch wachsende Tag-Liste zeitintensiv, weil ein neuer Begriff während einer Runde immer an einer anderen Stelle auf dem Monitor erscheint (jeder neue Begriff hat andere X/Y-Koordinaten).

Demzufolge wäre es wichtig, alle zu beachtenden Elemente der GUI so anzuordnen, dass möglichst viel Zeit für die Betrachtung des Bildes zur Verfügung bleibt.

Für mich ergeben sich daraus folgende Vorschläge für eine Umstrukturierung der GUI in ARTigo:

Wenn das Eingabefeld über der Tag-Liste platziert würde und der neueste Tag immer oben in der Liste erscheinen würde, also immer an derselben X/Y-Koordinate, ergäbe sich hieraus bereits eine Zeitersparnis. Der Punktestand ist in diesem Beispiel über dem Fortschrittsbalken angebracht worden, weil er meiner Einschätzung nach für das Spiel wichtiger ist und vom Spieler öfter angeschaut wird als der Punktestand. Aber das ist eine Vermutung, die zu evaluieren wäre.

Die Elemente Fortschrittsbalken, letzter eingegebener Tag und das Eingabefeld für die Tags sollten möglichst nah beieinander platziert werden. Damit würden die Blicksprünge zwischen diesen Elementen kleiner, was eine Zeitersparnis bedeutet. Wichtig wäre außerdem, dass diese Elemente ihre Position während eines Spiels und zwischen den Runden nicht verändern und sie immer an denselben Koordinaten des Monitors platziert wären. Hierdurch würde sich eine zusätzliche Zeitersparnis ergeben, so dass insgesamt mehr Zeit für die Betrachtung des Bildes verbliebe.

 Abbildung 3: Vorschlag zur Umstrukturierung der GUI von ARTigo unter kognitiv-ergonomischen Aspekten. Der Screenshot ist mit Hilfe einer Fotomontage umgestaltet worden.

Schließlich wäre zu ermitteln, ob die Anordnung wie in Abbildung 3, mit dem Bild im linken Bereich und den Begriffen rechts davon, sinnvoll wäre. Wir sind aus Illustrationen daran gewöhnt, bei einer Kombination von Text und Bild, den Text meist rechts neben dem Bild stehend zu sehen. Das hat auch was mit der Leserichtung und kognitiven Verarbeitung zu tun. Man müsste klären, ob sich dadurch ein weiterer Zeitvorteil für den Spieler ergeben könnte. Möglicherweise ist in der Spielsituation aber auch die bisherige Anordnung – Bild rechts, Tags und Eingabefeld links – besser, weil damit der Blick des Spielers zu Beginn des Spiels schneller auf das Eingabefeld gelenkt wird.

Eine ergonomischere Gestaltung der GUI könnte durch effizientere Blicksprünge zu einem Zeitgewinn führen. Eine weitere Auswirkung könnte eine geringere Anzahl von Tippfehlern sein, was zu einer ebenfalls effizienteren Eingabe der Tags führt und wiederum einen Zeitgewinn bedeutet, der sich insgesamt in einer quantitativen Erhöhung der Tags niederschlagen dürfte. Es bleibt festzustellen, ob der Effekt signifikant wäre.

Quelle: http://games.hypotheses.org/55

Weiterlesen

Über digitale Annotationen

Ich habe gerade den Aufsatz von Claudine Moulin mit dem Titel “Vom mittelalterlichen Griffel zum Computer-Tagging. Zur sprach- und kulturgeschichtlichen Bedeutung der Annotation” gelesen. Sie schreibt über Glossen und deren Erforschung, was mich dazu veranlasst hat, über meine eigenen Annotationsmöglichkeiten im digitalen Bereich nachzudenken:

Vor kurzem habe ich mir einen Amazon-Kindle gekauft. Mit dem Gerät sind nur Textmarkierungen möglich. Diese werden in einer eigenen Datei gespeichert und man müsste sie auch ausdrucken können, was ich noch nicht probiert habe, aber sie sind damit auf jeden Fall mal vom Text getrennt. Im o.g. Aufsatz wird „der schreibende Leser“ (S. 84) genannt. So einer bin ich auch. Ich bearbeite den gelesenen Text farblich und mache Randnotizen in Form von Text oder kleinen Zeichnungen. Der Kindle ist diesbezüglich ungeeignet für mich. Ich hätte auch nicht gewagt, an einen E-Ink-Reader einen solchen Anspruch zu stellen. Aber so was gibt‘s tatsächlich! Jetzt bin ich auf ein Gerät von Icarus gestoßen, was diese Funktionalität hat, … leider zu spät…

Übrigens: Textmarkierungen und Randnotizen sind eine Form der Elaboration, d.h. einer tieferen Informationsverarbeitung. Es bleibt also mehr „hängen“, wenn man Text nicht nur liest, sondern seine Gedanken an den Rand schreibt. Ist das nicht ein Grund, dass man dem Text das auch ansehen darf?

Quelle: http://games.hypotheses.org/51

Weiterlesen

Warum finden wir ein Bild schön?

Wir alle verfügen über innere Bilder. Wenn wir an etwas denken, erscheint es häufig vor unserem inneren Auge, begleitet von angenehmen oder weniger angenehmen Gefühlen oder Gedanken.

Unsere innere Bilderwelt besteht zunächst aus dem Selbstbild, das wir von unserer eigenen Person haben, dann aus dem Menschenbild, das wir von den anderen um uns herum haben, und schließlich ist das Weltbild zu nennen, das wir von den größeren Zusammenhängen, in denen wir uns bewegen und leben, haben [1].

Wie entstehen diese Bilder in uns? Sie entwickeln sich aus Erfahrungen, die wir in unserem Leben machen. Das beginnt schon im Mutterleib mit den ersten Tast- und Geschmackserfahrungen. Richtig viele Erfahrungen sammeln wir dann nach der Geburt. Tut uns etwas gut, dann wollen wir das wiederholen und nochmal machen. Mögen wir etwas nicht, dann weigern wir uns und lehnen es ab. Das ist individuell verschieden, denn jeder hat seine eigenen Erfahrungen und damit seine eigenen Bilder. Indem wir etwas ablehnen und wiederholen, bewerten wir die Dinge und Bilder in uns. Bewerten heißt auch, dass wir sie mit einem Gefühl belegen. Somit sind alle Bilder automatisch bewertet und mit Emotionen verknüpft [2].

Ich frage mich, was das Gemälde eines Künstlers anderes als ein inneres Bild ist? Natürlich wurde aus diesem inneren ein äußeres Bild, indem es der Maler auf die Leinwand aufbrachte, sonst könnten wir es ja nicht sehen. Wobei sein inneres Bild nicht das Motiv selbst, sondern die Wahl des solchen ist. Dazu kommen der Pinselstrich und die Farbwahl, also der Ausdruck. Wenn zehn Maler vor demselben Motiv stehen und es malen, dann kommen zehn verschiedene Bilder dabei heraus: zehn verschiedene gemalte innere Bilder.

Beim Betrachten von Bildern in einem Museum begegnen sich die innere Bilderwelt des Künstlers und die innere Bilderwelt des Betrachters. Je nachdem, welche Berührungspunkte beide Bilderwelten haben, werden Gefühle im Betrachter geweckt, wie z.B. Freude, Ergriffenheit, Bewunderung oder Ablehnung und Irritation. Diese Berührungspunkte sind der Knackpunkt: Sie entscheiden nicht nur über Gefallen und Nichtgefallen, sondern auch über den Grad der Emotion, den wir beim Anschauen eines Gemäldes empfinden. Das ist meine Erklärung, warum wir ein Bild schön finden. Wobei meine Erklärung auch ein Bild ist.

[1] Gerald Hüther: Die Macht der inneren Bilder. Wie Visionen das Gehirn, den Menschen und die Welt verändern, Göttingen 2011

[2] Manfred Spitzer: Das Wahre, Schöne, Gute. Brücken zwischen Geist und Gehirn, Stuttgart 2009

Quelle: http://games.hypotheses.org/47

Weiterlesen

Esskultur und nationale Identität – das Beispiel Dänemark

  Bereits nach der Lektüre des sehr lesenswerten Buches »Dänemark« (in der Reihe »Die Deutschen und ihre Nachbarn«, herausgegeben von Helmut Schmidt und Richard von Weizsäcker) von Bernd Henningsen stolperte ich immer wieder über die gleichen Fragen, die sich unser nördlicher Nachbar stellt: Was ist Dänisch? Was macht die dänische Identität aus? Die gleiche Fragestellung tauchte auch während einer dreiwöchigen Summer School in Süd-Jüdland, an der ich letztes Jahr teilnahm, fast täglich im Unterricht auf. Ständig wurden die Teilnehmer an den Unterschied zwischen »national« und [...]    

Quelle: http://umstrittenesgedaechtnis.hypotheses.org/30

Weiterlesen

15 Artikel an einem Tag – Eine Übersicht

  Möglicherweise hat sich jemand darüber gewundert, wie es zustande kommt, dass sich die Anzahl der Artikel dieses Blogs innerhalb von einer Stunde vervielfacht hat. Keine Angst, aus mir ist über Nacht kein hyperaktiver Blogger geworden, der neue Posts in Serie produziert. Ich habe vielmehr – wie bereits angekündigt – ein paar Artikel aus meinem ursprünglichen TEXperimenTales-Blog hierhin importiert. In diesen Posts wurden bereits einige Gedanken entwickelt, die ich in Zukunft hier weiter ausführen möchte, dazu nehme ich halt auch ein wenig redundante Datenspeicherung in Kauf (Informations-Puristen mögen mir verzeihen). Der Import bietet zudem eine gute Möglichkeit, meine bisherigen Ausführungen ein wenig ausführlicher, als das ihre Tags tun, zu klassifizieren: Das erste zentrale Thema, an dem ich mich in meinen Posts abgearbeitet habe, ist die für die Wissenschaft zentrale Forderung nach einer Reproduzierbarkeit von Ergebnissen. Zunächst habe ich ein grundsätzliches Problem, das mit dieser Forderung einhergeht, in einer Art Parabel dargelegt (1). Im anschließenden Post bin ich darauf eingegangen, auf welche Weise es gelöst werden könnte (2). Im Anschluss folgt eine Reihe von Artikeln, die einige zentrale Features unserer Software Tesla darstellen. Tesla ist (unter anderem) unser Lösungsvorschlag für das Reproduzierbarkeitproblem für den Bereich der Textwissenschaften. Da ist zunächst die Erklärung, weshalb wir Tesla als ein Labor für Textprozessierer ansehen (3), dann lege ich dar, woraus Tesla-Experimente bestehen (4). Darauf folgt eine etwas detailliertere Beschreibung, wie man Tesla-Experimente anlegt und durchführt (5), sowie eine Kurzanleitung zum Import von andererleuts Experimenten  (6). Obwohl es zu Tesla noch eine Menge mehr zu schreiben gäbe, bin ich in den folgenden Posts ein wenig vom Thema abgekommen, auch weil gerade da die Veröffentlichung meiner Dissertationsschrift anstand. Diese hat zwar Tesla als Hauptthema, das System wird aber anhand eines Anwendungsfalls aus der Kryptologie präsentiert. Das Thema Kryptologie eignet sich auch gut für die Behandlung in Blog-Artikeln, so dass ich dazu gleich einige verfasst habe: Zu meinen kryptologischen Experimenten aus der Dissertation (7); Zu einer phantastischen Kryptoanalyseleistung jüngeren Datums (8) und (9); sowie zur Schrägheit eines Dokuments, das vor fast genau 100 Jahren gefunden wurde (10). Die restlichen Posts betreffen Ankündigungen von Dissertationsveröffentlichungen (11) und (12), sowie Gedanken über den wissenschaftlichen Austausch über Blogs und Twitter (13), (14) und zu Tesla als Werkzeug zur Erzeugung schöner Titelblätter (15). Soweit die Übersicht über die Artikel, die ich in den letzten paar Monaten geschrieben habe und die nun in die neue Heimat von TEXperimenTales umgezogen sind. Rückgeblickt ist jetzt jedenfalls für meinen Geschmack genug.    

Quelle: http://texperimentales.hypotheses.org/116

Weiterlesen