Erich Mendelsohns »Haus der jüdischen Jugend« recherchieren

Wer sich mit deutsch-jüdischer Geschichte etwas näher befasst, der hat sicher schon etwas von Erich Mendelsohn, einem der bedeutendsten Architekten des 20. Jahrhunderts, gesehen oder gehört. Mir ist er wieder begegnet bei der Vorbereitung der Konferenz zur Jugendbewegung des Steinheim-Instituts und des Arbeitskreises jüdische Wohlfahrt — existierte doch in Essen in den 1930er Jahren ein von Mendelsohn entworfenes und in vielerlei Hinsicht bemerkenswertes jüdisches Jugendheim. Ich bin nun seiner Geschichte für einen Beitrag in Kalonymos einmal näher nachgegangen. Was mir dabei wieder auffiel: Wer noch die prädigitalen (Un-) Möglichkeiten der Recherche, der Literatur- und Quellenbeschaffung erinnert,1 der weiß natürlich die heutigen Möglichkeiten mehr als zu schätzen. Obwohl die Materiallage zu Mendelsohns »Haus der jüdischen Jugend« nicht wirklich gut ist, kann man sich schnell nicht nur ein erstes Bild machen, sondern findet zügig relevante Quellen und sehr rare Fotos im Online-Archiv des Leo Baeck Institute Digibaeck und zeitgenössische Literatur in der Sammlung Judaica Frankfurt — nicht nur die Nachweise, sondern gleich die digitalisierten Originale. Beide Angebote ziehe ich grundsätzlich als Erstes zu Rate, sie sind unverzichtbar für Recherchen zur deutsch-jüdischen Geschichte.

Einen überaus interessanten und für mich neuen Einblick in Leben und Wirken des Architekten bietet zudem die 2014 erschienene Online-Edition des Briefwechsels von Erich und Luise Mendelsohn 1910-1953.2 Zwar bringt die Suche nach »Jugendheim« hier kein direktes Ergebnis, aber es gibt es doch die eine oder andere Passage, die man in diesen Zusammenhang stellen kann, und die durchaus Fragen aufwirft — was ja motiviert, am Thema dranzubleiben.

[...]

Quelle: http://djgd.hypotheses.org/1013

Weiterlesen

Workshop Review: Practices and Context in Contemporary Annotation Activities

Annotationen sind zur Zeit eines der am intensivsten beforschten Themen im Kontext von E-Science und Digital Humanities. Vor gerade einmal zwei Jahren veröffentlichte die W3C Open Annotation Community Group ihren finalen Entwurf zur formalen Bestimmung dessen, was eine Annotation informationswissenschaftlich sein soll. Auf der anderen Seite haben fast alle großen europäischen Infrastrukturprojekte wie DARIAH, CLARIN, DASISH oder auch EUDAT das Thema Annotationen in der einen oder anderen Form in ihren Arbeitsplan aufgenommen. Etablierten Projekten wie dem Annotator der Open Knowledge Foundation oder dem CATMA-Projekt wird eine unvermindert anhaltende Aufmerksamkeit geschenkt. So bildet der Annotator einen zentralen Use-Case in der aktuellen W3C Web Annotation Working Group und ist technischer Ausgangspunkt für das von der Mellon Foundation geförderte hypothes.is-Projekt gewesen.

Zweifelsohne ist das Interesse an Annotationen im Kontext der Etablierung computergestützter Forschung stark gewachsen. Die „Entmaterialisierung“ von Annotationen – also die Tatsache, dass sie in einer digitalen Umgebung unabhängig vom Objekt, das sie annotieren, gespeichert und verwendet werden können – hat neue Anwendungs- und Verwertungsmöglichkeiten für Annotationen geschaffen, die noch lange nicht ausgeschöpft und hinreichend evaluiert sind. Crowdsourcing wie im vielbeachteten Transcribe Bentham-Projekt, Annotationen als primärer Forschungsoutput wie im Pelagios-Projekt oder als Mittel der formalen Datenintegration zur Automatisierung von Interferenzprozessen, wie am Beispiel der SWAN-Ontologie in den Neurowissenschaften zu sehen, sind nur einige wenige dieser Perspektiven.

[...]

Quelle: http://dhd-blog.org/?p=6371

Weiterlesen

Vorstellung der DARIAH-DE-Fellows 2015: Dennis Mischke

Das DARIAH-DE Fellowship-Programm fördert NachwuchswissenschaftlerInnen, die in ihren Forschungsvorhaben innovative digitale Ansätze und Methoden einsetzen und so einen Beitrag zur Weiterentwicklung der Digital Humanities leisten. Im DHd-Blog stellen die DARIAH-Fellows ihre Projekte vor.

Dennis Mischke

Dennis Mischke

Dennis Mischke studierte Anglistik/Amerikanistik, Medienwissenschaft und Kognitionswissenschaft in Potsdam und promovierte an der Ruhr–Universität Bochum mit einer Arbeit zur Kosmopolitik des Vertrauens im Werk von Herman Melville. Er war Gastwissenschaftler an der University of Technology Sydney sowie an der University of Minnesota. Seit 2013 ist er wissenschaftlicher Mitarbeiter am Lehrstuhl für Amerikanistik und neuere Englische Literatur an der Universität Stuttgart. In seinem aktuellen Forschungsprojekt untersucht er Bewegungsmuster von Menschen und Ideen im frühen kolonialen Amerika.

Worum geht es in dem Projekt?

[...]

Quelle: http://dhd-blog.org/?p=5553

Weiterlesen

Vorstellung der DARIAH-DE-Fellows 2015: Canan Hastik

Das DARIAH-DE Fellowship-Programm fördert NachwuchswissenschaftlerInnen, die in ihren Forschungsvorhaben innovative digitale Ansätze und Methoden einsetzen und so einen Beitrag zur Weiterentwicklung der Digital Humanities leisten. Im DHd-Blog stellen die DARIAH-Fellows ihre Projekte vor.

Canan Hastik

canan2013_fellowCanan studierte Wissensmanagement und Informationswissenschaften mit Schwerpunkt Bibliothekswissenschaften an der Hochschule Darmstadt. Seit 2011 ist Canan PHD Kandidatin am Cork Institute (Irland) im Bereich Informatik. In ihrer Promotion beschäftigt Sie sich mit der Erforschung von digitalen Kulturphänomenen im Internet, der Entwicklung von Semantik Web Technologien und in diesem Zusammenhang mit digitalen Sammlungen, Ontologien und fachwissenschaftlicher Annotation.

 

Worum geht es in dem Projekt?



[...]

Quelle: http://dhd-blog.org/?p=5494

Weiterlesen

Bericht: DARIAH Workshop on Intelligent Annotations

Am 28. und 29. Mai 2015 wurde zusammen mit NeDiMAH und eingeladenen Experten in den Tagungsräumen Schloß Wahn der Universität zu Köln ein gemeinsamer “DARIAH Workshop on Intelligent Annotations” durchgeführt.

Ziel des Expertenworkshops war es, Synergien zwischen geisteswissenschaftlichen Modellen und Ontologien zur Beschreibung von Objekten (TEI, CIDOC-CRM) einerseits und Methoden (NeMO, SDM) andererseits zu identifizieren.

Den Ausgangspunkt der Diskussionen bildeten aus aktuellem Anlass und aus inhaltlichen Gründen Annotationen. Denn “Annotation” verweist zum einen auf eine geisteswissenschaftliche Praxis mit ausgeprägtem methodischen Bezugsrahmen, zum anderen bezeichnen Annotationen das Ergebnis dieser Praxis, die Annotation eines Objekts. Indem Annotationen von Natur aus also eine zweifache ontologische Verankerung in Richtung Methode und Objekt besitzen können, eignen sie sich in besonderer Weise zur Evaluation zweier großer Experimentierfelder ontologischer Bemühungen, die bisher zu wenig miteinander in Verbindung gebracht wurden.



[...]

Quelle: http://dhd-blog.org/?p=5258

Weiterlesen

Round Table II “Annotation von Digitalen Medien”

von Michael Bender, Luise Borek und Ruth Reiche, Technische Universität Darmstadt

Wenn Forscherinnen und Forscher aus verschiedenen Digital Humanities-Projekten über das Thema Annotationen diskutieren, kann es schon mal passieren, dass man zunächst aneinander vorbei redet. Für die einen steht ein Tool im Mittelpunkt, das Annotationen vor allem als flüchtige Anmerkungen im individuellen Forschungsprozess unterstützt. Andere begreifen Annotationen vor allem als Mikropublikationen, die am annotierten Gegenstand bzw. im jeweiligen Repositorium verankert sein müssen und einer langfristigen und nachnutzbaren Archivierung bedürfen. Annotationen als Zwischenschritt und Grundlage für Analyse- und Visualisierungsverfahren oder Machine Learning bilden eine weitere Perspektive auf das Thema.

Nicht nur die Ziele einer Annotation und die damit verbundenen Methoden können sehr verschieden sein, sondern auch die Gegenstände (bzw. ihre digitalen Repräsentationen), die annotiert werden. Sie bilden ein breites Spektrum aus unterschiedlichen Forschungsobjekten, darunter z.B. schriftsprachliche Texte und deren Abbildungen, graphische Elemente und Bilder, Videos, Noten oder gar 3D-Objekte. Doch nicht nur der Annotationsgegenstand, sondern auch die Annotationsinhalte selbst sind vielgestaltig. Annotationen sind nicht immer schriftsprachlich, auch die Unterstreichung eines Wortes, die strukturelle Untermalung einer Textseite, die formale Erfassung der Komposition eines Bildes stellen typische Beispiele für Annotationen dar.

Heterogenität und Diversität mögen auf den ersten Blick hinderlich wirken, um zu gemeinsamen Standards und Verfahrenswegen zu finden. Sie eröffnen jedoch auch die Chance, zu neuen Perspektiven und spezifischen Sichtweisen zu gelangen – sei es durch den wechselseitigen, praxisorientierten Austausch, die differenzierte Betrachtung verschiedener Annotationsverfahren oder die Bündelung einzelner Facetten im Annotationsprozess. Wenn Annotationen mehr als nur individuelle Gedankenstützen sein sollen, können sie ihr  Potential nur dann optimal entfalten, wenn bestimmte  Standards verwendet werden. Denn nur dadurch können  Austauschbarkeit und Nachnutzung von Forschungs(zwischen)ergebnissen gewährleistet werden. Um gemeinsame Lösungen möglichst nachhaltig zu entwickeln und das Thema in der geisteswissenschaftlichen Community zu diskutieren, ist die Kopplung an vorhandene Forschungsinfrastrukturen von großer Bedeutung.

Der von DARIAH-DE organisierte Expertenworkshop Annotation of Digital Media: Infrastructural Needs (Round Table II), der am 23. und 24. März 2015 an der Technischen Universität Darmstadt stattfand, zielte auf genau diese Punkte. Den Grundstein für die konstruktive Diskussionsrunde bildeten die Ergebnisse eines ersten Round Table, der im Juni 2014 von der HRA Heidelberg ausgerichtet wurde. Neben der definitorischen Abgrenzung, also der Frage, was Annotationen denn nun eigentlich sind, standen schon in diesem ersten Workshop Differenzierungen zwischen manuell und maschinell generierten Annotationen, verschiedenen Öffentlichkeitsgraden sowie zwischen Flüchtigkeit und Persistenz von Annotationen zur Diskussion. Daran anknüpfend wurde nun im Rahmen des zweiten Workshops versucht, zu konkretisieren, welche Kriterien und Ansatzpunkte für die Entwicklung von technisch-infrastrukturellen Lösungen relevant sind, um letztlich dem großen Ziel ein wenig näher zu kommen, Analyse- und Annotationsprozesse zusammenzuführen und hierdurch Zusammenhänge sichtbar zu machen  so wie es einst Niklas Luhmann mit seinem Zettelkasten vorgeführt hat.

Zwei Perspektiven erwiesen sich in diesen Zusammenhängen als besonders bedeutend: zum einen die auf Anforderungen an Annotations-Tools, zum anderen die auf Speicherorte bzw. Repositorien und Datenbanken. Damit waren Fragen verbunden wie: Auf welche Datenmodelle, Tagsets, Vokabulare oder Ontologien muss ein Annotationstool zurückgreifen können und inwiefern kann hierbei Standardisierung umgesetzt werden? Wo setzt ein Tool am Gegenstand an, worauf greift es zu, wo werden Annotationen verankert, abgelegt und verwaltet? Wie wird der Zugriff unterschiedlicher Akteure darauf organisiert? Wie stabil bzw. veränderbar muss oder kann der zu annotierende Gegenstand sein, wie die Annotationsebene? Wie geht man mit verschiedenen Versionen um? Wie kann bei Annotationen Zitierbarkeit und gleichzeitig Nachnutzbarkeit erreicht werden? Wie können verschiedene inhaltliche Schichten von Annotationen (z.B. aus verschiedenen Fachperspektiven) selektiv zugänglich gemacht werden? Wie lassen sich Annotationen zu einem Referenz- bzw. Wissensnetzwerk verknüpfen? Diese und noch viele weitere Fragen wurden vor allem  aber nicht nur  mit Blick auf technische Lösungsmöglichkeiten diskutiert. Festgehalten werden die gemeinsam erschlossenen Lösungswege in einem kollaborativ verfassten Positionspapier, das in Kürze in den DARIAH-DE Working Papers erscheint.

Im Rahmen des DARIAH-DE-Clusters Fachwissenschaftliche Annotationen sind bereits weitere Workshops rund um das Annotieren geplant. Gelegenheit zur fächerübergreifenden und multiperspektivischen Diskussion bietet zudem auch die Mailingliste Annotationen. Wir freuen uns über rege Beteiligung!

Quelle: http://dhd-blog.org/?p=4913

Weiterlesen

Lazarus Bendavid ›annotiert‹


Früher mit »spitzer Feder«, heute mit »Annotator« ?

Abb. 1: Digitalisierte Briefe von Lazarus Bendavid im Leopold-Zunz-Archiv

1. Digitalisierte Briefe von Lazarus Bendavid im Leopold-Zunz-Archiv

[→ abstract] Als ich 2013 einen Vortrag Jüdische Bibliophilie vorbereitete,1 stieß ich in der herausragenden Sammlung DigiBaeck auf die Selbstbiografie von Lazarus Bendavid. 2 Das eher bescheiden daherkommende (weil schon ältere) Digitalisat hatte zwar vom äußeren Anschein her weniger mit meinem damaligen Thema zu tun, es weckte aber mein Interesse — trotz oder gerade wegen des Fragezeichens in den Metadaten: »With manuscript additions and corrections by the author (?)«. Schaut man sich das genauer an, kommt man zu dem Schluss: Es kann sich nur um die »Fahnen«3 der 1806 publizierten Autobiografie Bendavids4 handeln, denn im schließlich gedruckten und veröffentlichten Exemplar, das ich per Fernleihe aus der SUB Göttingen beschaffen und einsehen konnte,5 finden sich diese von Hand angebrachten Korrekturanweisungen durchgängig umgesetzt.

2. Digitalisierte Fahnen der Selbstbiografie Bendavids

2. Digitalisierte Fahnen der Selbstbiografie Bendavids, annotiert

3. Metadaten der Autobiografie Bendavids, annotiert (SUB Göttingen)

3. Metadaten der Autobiografie Bendavids, annotiert (SUB Göttingen)

4. Eingabe einer Annotation mit Annotator (Titelkupfer, Jewish Theological Seminary)

4.  Annotieren mit Annotator (Titelkupfer, Jewish Theological Seminary)

Es ist naheliegend, dass Bendavid als Autor selbst die Fahnen korrigiert hatte, weitere Evidenz verschaffte der Vergleich der Handschrift mit seinen wenigen erhaltenen, ebenfalls digitalisierten Briefen.6 Bendavid erweist sich hier jedenfalls als durchaus geübter Redakteur, dem Fachsprache und -zeichen hinsichtlich Typografie, Drucksatz und -korrektur offensichtlich geläufig waren. Daraus ist ein Beitrag für die Zeitschrift »Kalonymos« entstanden.7

Bendavids eigenhändige Korrekturen in den Fahnen seiner Selbstbiografie

5. Bendavids eigenhändige Korrekturen in den (digitalisierten) Fahnen (PDF) seiner Selbstbiografie — Warum nicht direkt dort annotieren ?

Annotationen können, darum geht es mir hier, nach langer Zeit noch oder wieder von Interesse oder Bedeutung sein, und die Fahnen der Autobiografie sind ein augenfälliges Beispiel dafür. Und es gibt Bedarf, diesen Annotationen weitere hinzuzufügen. Auf Anhieb wird vielleicht nicht jeder lesen können, was Bendavid auf S. 66 notierte (Abb. 5): »Sollte es nicht möglich seyn, diesen Hurensohn8 hinüber zu bringen. Ich glaube es geht, wenn Sie so setzen, wie ich gezeichnet habe.« Der Korrekturbogen enthält zudem großflächige Streichungen, die sich ebenfalls nicht von selbst erschließen.

Warum jedoch das Erkannte und Entzifferte nicht gleich dort, direkt in der Quelle anmerken? Und an den Fahnen die Notiz anbringen, dass und wo die regulär erschienene Fassung zu finden ist. Und dort notieren, dass es weitere digitalisierte Dokumente in anderen Sammlungen, die ein Licht hierauf werfen, und eben auch Sekundärliteratur dazu gibt. Und all das möglichst sofort mit anderen Forschern teilen!

Versammelte Annotationen

6. Versammelte Annotationen

Mir scheint, dass Martin Raspe exakt dieses Szenario (auch) adressiert hat. »Eine Online-Ressource sollte den Benutzer durch „backlinks“ zu den referenzierenden Stellen in Werken / Datenbanken verweisen können.«9 Und mir scheint, dass das Softwareprojekt Annotator ein vielversprechender Ansatz ist. Die Abbildungen in diesem Blogbeitrag illustrieren, wie das funktionieren kann. Ein sogenanntes »Bookmarklet« (Abb. 6) erlaubt es, Annotationen scheinbar direkt auf den (ja tatsächlich nicht editierbaren, ›fremden‹) Webseiten anzulegen10 (hier Digibaeck, Göttinger Digitalisierungszentrum, Jewish Theological Seminary sowie Leopold-Zunz-Archiv, Abb. 1–4) und führt sie unter dem eigenen Account zusammen (Abb. 6). Annotationen können — müssen aber nicht — geteilt werden (Abb. 4). Statt also die Publikation, die diese Zusammenhänge herstellt, kennen zu müssen, findet der Leser deren Anmerkungen und Fußnoten jeweils an die referenzierten Quellen ›angeheftet‹ und zugleich zentral ›verwaltet‹ — ein Netz über dem »Netz«. Das Plug-in-Konzept lässt hoffen, dass auch Bildformate — die ja in digitalen Sammlungen vorherrschen, wenn man von den Metadaten absieht — sowie PDFs unterstützt werden.

Dies ist nur ein Szenario dieses faszinierenden Konzepts. Die maßgeblich von der Open Knowledge Foundation entwickelte Software wird von etlichen Projekten weiter vorangetrieben. Gerade auch wegen der vielfältigen Anwendungsperspektiven und des generischen Charakters hat eine Arbeitsgruppe von DARIAH-DE (der ich angehöre) nun eben diesen Annotator zur Integration in die »Digitale Infrastruktur für die Geisteswissenschaften« ausgewählt und Anregungen zur Anpassung im Rahmen einer geisteswissenschaftlichen Forschungsumgebung formuliert und veröffentlicht.11 Man darf gespannt bleiben auf die Weiterentwicklung dieser für die Geisteswissenschaften äußerst attraktiven Technik.

Lazarus Bendavid (1762--1832) (Wikimedia Commons, public domain)

Lazarus Bendavid (1762–1832) (Wikimedia Commons, public domain)

Abstract: There are some old and rare sources concerning the Jewish philosopher Lazarus Bendavid. These are now digitized and available on the web. By means of the software Annotator a connection between these digital documents can be made ​​and shared with other readers. The paper illustrates this approach. With respect to the various possible use cases a working group of DARIAH-DE has published a proposal to integrate »Annotator« into the Digital Research Infrastructure for the Arts and Humanities.

  1. Jüdische Bibliophilie und ihre Schätze im Web, Vortrag im Seminar »Buch im Judentum | Judentum im Buch. Bibel – Bibliotheken – Bibliophilie«, Steinheim-Institut, 14. Mai 2013.
  2. Fahnen der Selbstbiografie von Lazarus Bendavid auf DigiBaeck http://www.lbi.org/digibaeck/results/?qtype=pid&term=135737
  3. »Korrekturbogen« insbesondere in Zusammenhang mit den klassischen Druckverfahren.
  4. Bildnisse jetztlebender Berliner Gelehrten mit ihren Selbstbiographieen. Herausgegebenen von Moses Samuel Lowe. Zweite Sammlung. Berlin: J.F. Starcke und Leipzig: J.G. Mittler 1806.
  5. Dem ›Medienbruch Fernleihe‹ konnte ich übrigens für die Zukunft abhelfen, indem ich das Göttinger Exemplar als »Digiwunschbuch« (gegen eine angemessene Gebühr) digitalisieren ließ. URL: http://resolver.sub.uni-goettingen.de/purl?PPN756272378
  6. Teilnachlass von Lazarus Bendavid, Leopold-Zunz-Archiv http://www.jewish-archives.org/
  7. Harald Lordick: Porträt eines Typografen — Eine aufschlussreiche Quelle zu Lazarus Bendavid und Moses Samuel Lowe, in: Kalonymos 2013, Nr. 2, S. 7-11 http://www.steinheim-institut.de/edocs/kalonymos/kalonymos_2013_2.pdf#page=7 Vgl. auch „Großartig urbane Bildung“. Der Aufklärer Lazarus Bendavid, in: Kalonymos, 15 (2012), H. 3, S. 6–10 (mit Beata Mache) http://www.steinheim-institut.de/edocs/kalonymos/kalonymos_2012_3.pdf#page=6 (Vor wenigen Jahren noch hätte man für die erforderlichen Archiv- und Bibliotheksrecherchen weit reisen müssen, wenn man die genannten Raritäten und Unikate überhaupt in die Hand bekommen hätte — wenn das kein der Digitalisierung zu dankender Fortschritt ist!)
  8. Es muss eigentlich ›Hurenkind‹ heißen (Bezeichnung aus der Setzersprache für eine als Satzfehler geltende alleinstehende Zeile am Seitenbegin). Nebenbei ein schönes Beispiel dafür, wie wichtig bei Digitalisierungen das Bereitstellen von Seitenabbildern ist. Denn ob ein beanstandeter Umbruch tatsächlich korrigiert worden war, das war keiner der sekundären Textfassungen der »Selbstbiografie«, online oder gedruckt, anzusehen — nur dem Originalband selbst.
  9. Martin Raspe: Perspektiven der Forschung – PDF? Digitale Bildwissenschaft zwischen gestern und morgen http://www.digitale-kunstgeschichte.de/w/images/0/01/Raspe-PerspektivenDerForschung-PDF.pdf. Vortrag in der Sektion »Bedrohte Besitzstände, verlorene Werte? Die Geisteswissenschaft von der Kunst und die neuen digitalen Verfahren«, DHd 2014. http://www.digitale-kunstgeschichte.de/w/images/0/01/Raspe-PerspektivenDerForschung-PDF.pdf#page=23
  10. Webseitenbetreiber können Annotator selbstverständlich auch direkt einbinden und die Annotationsfunktion damit ihren Lesern anbieten.
  11. Vgl. »DARIAH-DE annotation service« https://dev2.dariah.eu/wiki/x/Sg8CAg (DARIAH-DE (BMBF), Cluster 6 »Annotationen«).

Quelle: http://djgd.hypotheses.org/360

Weiterlesen

Round Table „Annotation von digitalen Medien”

von Luise Borek und Ruth Reiche, Technische Universität Darmstadt

Wer kennt ihn nicht, den Drang beim Lesen eines Textes ein paar Zeilen zu unterstreichen, eine Notiz an den Rand zu schreiben oder wichtige Stellen mit einem Post-It zu versehen, um sie bei Bedarf schnell wieder zu finden? Annotieren ist ein urmenschliches Bedürfnis, im Analogen wie auch im Digitalen. Doch ist bei einer Transformation vom Analogen ins Digitale ein Mehrwert zu erwarten, der Annotationspraktiken als Arbeitsinstrument für die Geistes- und Kulturwissenschaften neue Qualitäten verleiht, insofern digitale Annotationen medienübergreifend wirken, leicht mit anderen geteilt und von anderen ergänzt werden können und so die Entstehung von Wissen über einen längeren Zeitraum nachvollzogen werden kann.

RoundTable_Polaroid

Prinzipiell können alle Arten von digitalen Objekten annotiert werden, nicht nur Texte, sondern z.B. auch Bilder oder Videos. In diesem thematischen Kontext hat sich der Round Table „Annotation von digitalen Medien” positioniert, organisiert von der HRA Heidelberg und mit TeilnehmerInnen verschiedener Fachdisziplinen aus Berlin, Darmstadt, Essen, Heidelberg und Rom. Er fand am 5. und 6. Juni 2014 im Heidelberger Karl Jaspers Centre statt. Anhand konkreter Beispiele aus den jeweiligen Forschungsprojekten ist die Runde gemeinsam fünf Kernfragen digitalen Annotierens nachgegangen:

  1. Was sind Annotationen?
  2. Wer nutzt Annotationen?
  3. Zu welchem Zweck?
  4. Wie werden sie eingesetzt?
  5. Warum überhaupt Annotationen?

Die Frage danach, was Annotationen sind, entspringt dem Bedürfnis einer definitorischen Abgrenzung des Gegenstandsbereichs. Auch wenn alles, was auf ein ‚Datum’ referenziert, ein ‚Metadatum’ ist, so gehen Annotationen doch über rein deskriptive Metadaten hinaus. Vielmehr können manuelle Annotationen als Mikro-Publikationen eines Autors oder einer Autorin verstanden werden, denen maschinell generierte Annotationen gegenüberstehen. Bei einer solchen Gegenüberstellung darf allerdings nicht vergessen werden, dass letzteren die Leistung zum Design des automatisierten Verfahrens vorausgeht. Weiter können wissenschaftliche, private sowie projektinterne Annotationen unterschieden werden, die sich in ihrem Zugang unterscheiden (öffentlich vs. privat) sowie in ihrer Dauerhaftigkeit (persistent vs. flüchtig). Mit diesen drei Typen und ihren Anforderungen sind auch schon unterschiedliche Nutzergruppen impliziert.

Doch aus welchem Grund annotieren welche Nutzer? Hier sind verschiedene Szenarien denkbar, die stark vom jeweiligen Workflow abhängen, in dem die Annotationen auftreten und der somit ihre Anforderungen bedingt. In einem kollaborativen Arbeitsprozess besitzen Annotationen z.B. oftmals vorläufigen Charakter. Erst nach erfolgter Prüfung werden diese im späteren Verlauf durch feststehende Annotationen abgelöst. Letztere bedürfen selbstverständlich eines anderen Status als ihre kurzlebigen (und nicht mehr benötigten?) Vorgänger, denn die Grundlage der Wissenschaftlichkeit besteht in der Nachprüfbarkeit von Belegen. Deshalb sind persistente Annotationen für wissenschaftliche Nachnutzbarkeit dringend notwendig. Konsequent umgesetzt entsteht ein verlässliches Netzwerk des Wissens, das die Idee des Konzepts ‚Linked Data’ mittels eines standardisierten Referenzsystems für wissenschaftliche Kontexte weiterdenkt.

Neben den bereits skizzierten Themenfeldern rund um das Annotieren eröffnet sich mit Fragen nach Raum- und Zeitkomponenten von zu annotierenden Objekten ein weiterer Bereich, der in diesem Kontext noch wenig diskutiert wurde: Objekte verändern sich über die Zeit. Folglich wird nicht ein Objekt annotiert, sondern dessen Zustand bzw. eine Version des Objekts, die das vorliegende Digitalisat repräsentiert.

Der Round Table hat sich als ein geeignetes Format für praxisorientierten Austausch über Annotationen erwiesen und allen TeilnehmerInnen Anregungen für ihre Forschungsprojekte gegeben. Im Rahmen von DARIAH-DE kann das Annotationscluster als Plattform für weitere Gespräche über dieses verbindende Thema fungieren. Zu diesem Zweck ist bereits eine Mailingliste eingerichtet. Wir laden alle Interessierten zum Erfahrungsaustausch ein und freuen uns auf rege Diskussionen. Let’s post-it!

Quelle: http://dhd-blog.org/?p=3831

Weiterlesen

“Big Data” als Herausforderung an die “Digitale Pädagogik” – Ein Plädoyer für die Verwendung der “Grounded Theory”

Big Data als Herausforderungen an eine Digitale Pädagogik 

“Big Data” sind in der breiten Massenkultur angekommen. Sehen einige darin den Untergang der Privatheit durch die umfangreiche Überwachung und Analyse von Nutzerverhalten, so werden die Möglichkeiten der durch die Vernetzung und Interoperabilität von großen Daten-Mengen erzeugten neuen Daten stellenweise schon frenetisch gefeiert. Der Gewinn sich im Zuge von “Big Data” nun endlich mit den methodisch-reflexiven und praktischen Herausforderungen einer DH-affinen bzw. digitalen Pädagogik zu stellen, soll hier in Angriff genommen worden. Zu lange sind wir im Tal der Ahnungslosen verblieben bzw. haben uns darauf verlassen, dass es zu generellen Impulsen kommen wird, die aber seit langer Zeit ausgeblieben sind. Es sollen hier erste Anstösse gegeben werden, dass wir durch den Umgang mit “Big Data” und durch die Nutzung von “Big Data” die Chance ergreifen können die Potentiale, die die “Big Data” für die (Weiter-)Entwicklung der Digitalen Pädagogik birgt, zu nutzen. Dabei spielt die Einsicht von Arthur Conan Doyle “It is a capital mistake to theorize before one has data” (Doyle 1891) eine wichtige Rolle, da wir noch viel zu wenig das Augenmerk auf bereits vorhandene und zu gewinnende Daten bei digitalen Lehr- und Lernprozessen und -kulturen gelegt haben und die Auswertung dieser Daten bisher noch aussteht bzw. diese nur peripher genutzt werden. Es soll hier eine Lanze dafür gebrochen werden, dass wir im Umgang mit “Big Data” und “Big Data Technologien” vor neue Herausforderungen – auch und insbesondere in der Vermittlung – gestellt sind – dies würde auch wohl keiner mehr mit Ernst bezweifeln wollen.

Big Data und die “Grounded Theory” – Ein neuer Ansatzpunkt für die “Digitale Pädagogik”?

Bisher sind viele Potentiale von Big Data und Big-Technologien nicht genutzt worden, wenngleich immer wieder angeführt wird, dass wir durch die technische Umsetzung noch sehr begrenzt sind. Ich halte dies für ein Schein-Argument, da wir schon über viele Daten verfügen, die aber in konzeptionell-methodischer Hinsicht noch nicht aufgearbeitet sind. Erst durch die “datengestützte Theoriebildung” scheint es mir möglich überhaupt technische Anforderungen und weitergehende wechselseitig Bestimmung von Technik und pädagogischer Praxis zu formulieren, die dann wieder in die jeweilige weitere Ausformulierung des Zusammenspiels münden können. Ich gehe davon aus, dass die Big Data und ihre Technologien als Praktik, um die in den Daten schlummernde pädagogische Theorie zu entdecken. Ein theoretischer Ansatz könnte dabei in der “Grounded Theory” gesehen werden, die durch systematisches Erheben und Analysieren von Daten, die sich auf das entdeckte Phänomen beziehen, entdeckt, ausgearbeitet und vorläufig bestätigt. Folglich stehen Datensammlung, Analyse und die Theorie in einer wechselseitigen Beziehung zueinander, die wiederum dazu genützt werden können die technischen Anforderungen an eine neue Form von “digitaler Pädagogik” auszuarbeiten. Mit den vorhandenen Big Data und den vorhandenen Big Data-Technologien könnte die „Methode des permanenten Vergleichs“ angewendet werden. Bei dieser Methode finden die Datensammlung sowie das Kodieren und Analysieren der Daten parallel statt. Für die Kodierung werden substantielle und theoretische Codes verwendet: Die substantiellen Codes werden in offene und selektive Codes unterteilt. Zu Beginn der Analyse werden offene Codes verwendet (offene Kodierung). Offene Codes sind z. B. bestimmte Worte, die in den Daten wiederkehrend vorkommen. Es werden anhand der offenen Codes Unterschiede, Gemeinsamkeiten, Handlungsmuster usw. mit dem Ziel, Kategorien bilden zu können, gesucht. Die Klassifizierungen können gebildet werden, sobald diejenigen Verhaltensmuster identifiziert wurden, die Bedeutung oder Nicht-Bedeutung zugeschrieben bekommen. Diese Verhaltensmuster werden auch Kernvariablen genannt. Im zweiten Teil der Analyse wird nur noch selektiv (selektive Kodierung) kodiert, d. h. anhand der entwickelten Kategorien. Diese Analyseschritte könnten sowohl von forschenden Personen als auch durch Maschinen-lesbare Serialisierung der Daten vorangetrieben werden. So könnten  „Themengruppen“ und „Strategien“, anhand derer die einzelne Datensegmente gruppiert werden können, erhoben werden und systematisch für die Generierung von neuen Materialien im Lern- und Lehrprozess genutzt werden bzw. auf methodisch-reflektierter Ebene zur Fundierung von pädagogischen Mitteln und Methoden genutzt werden.. Das Ziel ist, dadurch Beziehungen und Zusammenhänge herausarbeiten zu können (Polit, Tatano Beck & Hungler, 2004), die dann wiederum in Theorie und Praxis einer “Digitalen Pädagogik” genutzt werden könnten. Es steht damit in Frage, ob bisher die “Digitale Pädagogik” noch zu sehr an dem positivistisch-funktionalistischen Paradigma des Hiatus von Theorie, Praktik und Technik aufsass und damit auch “Big Data” in eine Ecke gezwungen wurde, die das negative Bild prägte. Es wird hier vorgeschlagen Big Data im Zuge einer interaktionistisch-pragamtistischen Perspektive zu sehen. In dieser Sicht sind in den Big Data Interaktionen  zu beobachten, die helfen die Bedeutung von sozialen Objekten, Situationen und Beziehungen, die im symbolisch vermittelten Prozess der Interaktion/Kommunikation hervorgebracht werden, zu analysieren und zu nutzen.

Ein Neu-Ansatz der “Digitalen Pädagogik” im Angesicht der Möglichkeiten von Big Data und Big Data-Technologien müsste auf theoretischer Ebene bei einer interaktionistisch-pragmatistischen Wissenssoziologie anfangen, um in diesen die eingelagerten Interaktionszusammenhängen in der Wissensgenese und die vermittelnde Rolle von Daten und Datafakten im Zusammenklang von theoretisch-konzeptuellen und methodischer Impulse nutzen zu können. Durch diese Sicht können wir ein Miteinander von quantitativer und qualitativer Sozialforschung für die Entwicklung neuer Formen der “Digitalen Pädagogik” Neu-Ansatz der “Digitalen Pädagogik” im Angesicht der Möglichkeiten von Big Data und Big Data-Technologien müsste auf theoretischer Ebene bei einer interaktionistisch-pragmatistischen Wissenssoziologie anfangen, um in diesen die eingelagerten Interaktionszusammenhängen in der Wissensgenese und die vermittelnde Rolle von Daten und Datafakten im Zusammenklang von theoretisch-konzeptuellen und methodischer Impulse nutzen zu können.

Die Verwendung von Big Data in diesem unteraktionistisch-pragmatistischen Horizont weist dabei auf die Unterscheidung von Medium und Form auf, die das Re-entry der Form der Daten und ihrer Modellierung in die Form der Daten erlaubt.

Big Data: die Revolution, die die digitale Pädagogik verändert?

Das von Hirsch (2012) in Anschlag gebrachte Ungleichgewicht zugunsten der Fragen um die Forschungsmethoden, den Theorien und Ergebnissen gegen die kritischen und den aktuellen Praktiken des Unterrichtens, kann m.E. durch Nutzung von “Big Data” als Medium und Form eines pädagogischen Grundprinzips abgemildert werden. Gerade das Miteinander von Methoden der Datenerfassung, der Verteilung und Speicherung, sowie die im Zusammenhang mit Lehr- und Lernmaterialien entstandenen Daten zu durchsuchen, zu analysieren und zu visualisieren, um daraus wiederum Rückschlüsse, Ansätze für die Neugestaltung und Individualisierung von Lehr- und Lernmaterialien können den allzu oft künstlich hergestellten bzw. heraufbeschworenen Hiatus zwischen Digitaler Pädagogik und Big Data überwinden. Durch die Datenerfassung, das Tracing von Datenströmen, des IR als Bestandteil von Feedback-Schleifen durch Analyse und Visualisierung können sowohl für die Produktion und Entwicklung als auch als Maßnahme der Qualitätssicherung von Schulungsmaterialien Grundlagen aus den Big Data gewonnen werden. Durch die Nutzung und Analyse von Nutzerverhalten bei vorhandenen Schulungsmaterialien können wichtige Rückschlüsse daraus gezogen werden, wie diese benutzt werden, und für individuell nutzbare, aber trotzdem im Sinne eines “mass-customizing” sowie bei der Anpassung, der Aufarbeitung und Neugestaltung genutzt werden können. Insbesondere das Data-Mining mit dem Ziel, neue Muster zu erkennen, könnten genutzt werden, um die Lehr- und Lernmaterialien optimaler zu positionieren und durch die Big Data-Technologien von einem “mass-customizing” einer Lernplattform zu individualisierten Lerninseln vorstossen zu können. Die Big Data aus den Schulungsmaterialien mit den Schulungsmaterialien selbst sind dabei der Anfang des Knowledge Discovery in Databases-Prozesses (KDD) (Ester/Sander 2000) zu verstehen.

Die KDD als pädagogisches Mittel und Methode der Digitalität
Die bereits vorhandenen Erfahrungen der Nutzung und die vorhandenen Daten zum Schulungsmaterial könnten die vorbereitenden Untersuchungen und die Transformation der auszuwertenden Datensätze mit bedingen, die wiederum eine Dimension des Knowledge Discovery in Databases sind. Die Schulungsmaterialien selbst sind dabei auch als KDD anzusehen. Ziel wäre es damit zunächst die Erkennung bislang unbekannter Zusammenhänge aus vorhandenen Datenbestände aus und in Form und Medien von Schulungsmaterialien zu erschließen. Durch die Nutzung von Big Data-Technologien, wie z.B. die Clusteranalyse, die Outlier-Erkennung und die Analyse und Generierung von Indexstrukturen, könnten neue Data-Mining-Algorithmen entwickelt werden, um Schritte der Wissensentdeckung (Datenauswahl, Datenbereinigung, Datenreduktion, Modellbildung, Visualisierung usw.) gezielter für die (Weiter-)Entwicklung und neuer Schulungsmaterialien zu nutzen, indem Regelmäßigkeit, Gesetzmäßigkeiten und verborgene Zusammenhänge extrahiert werden und auf das vorhandene Schulungsmaterial zurückgeführt werden, welches in “real-time” dem Lehr- und Lernprozess des KDD angepasst wird. Big Data-Technologien können sowohl die Daten dabei als Medium als auch Form der Clusteranalyse, der Klassifikation, der Assoziations- und Regressionsanalyse der bestehenden Daten dienen. Hierdurch wird es möglich Daten für die Erstellung von neuen Schulungsmaterialien zu gewinnen, die wiederum Anstoss für weitere notwendige Theoretisierungen im Bereich der Digitalen Pädagogik . Durch die Verwendung von Big Data-Technologien, die durch das Daten-Mining von Schulungsmaterialien gewonnen werden können, könnte es möglich werden von Daten hin zur Theoretisierung und ausgehend von dort wiederum zur konkreten Umsetzung in neue Formen und zu Medien der Lehr- und Lernmaterialien zu gelangen. Die Verwendung von Big Data weist dabei eine Unterscheidung von Medium und Form auf, die das Re-entry der Form der Daten und ihrer Modellierung in die Form der Daten erlaubt. Durch diese Sicht können wir ein Miteinander von quantitativer und qualitativer Sozialforschung für die Entwicklung neuer Formen der “Digitalen Pädagogik” nutzen.

Ein Neu-Ansatz der “Digitalen Pädagogik” im Angesicht der Möglichkeiten von Big Data als KDD und Big Data-Technologien müsste auf theoretischer Ebene bei einer interaktionistisch-pragmatistischen Wissenssoziologie anfangen, um in diesen die eingelagerten Interaktionszusammenhängen in der Wissensgenese und die vermittelnde Rolle von Daten und Datafakten im Zusammenklang von theoretisch-konzeptuellen und methodischer Impulse nutzen zu können.

Es stellt sich damit aber umso dringender die Frage nach dem Anspruch eines solchen Ansatzes. Ist eine “Digitale Pädagogik” immer eine Pädagogik der DH oder ist die “Pädagogik der DH” nicht vielleicht doch das Nahziel.

Big Data: Medium und Form – Ansätze für eine “Digitale Pädagogik” oder Pädagogik der DH?
Der Soziologe Niklas Luhmann unterschied zwischen Medium und Form, wobei der von einer Kritik der üblichen Definition des Medienbegriffs ausging, die durch die zwei Aspekte “Vorstellung einer Vielzahl von Elementen und die Funktion des Vermittelns”charakterisiert sei, ohne daß ihr Zusammenhang klar werde. Nach Luhmann setzt gerade ein Medium Elemente voraus, die temporär gekoppelt werden und solchermaßen im Medium als unterscheidbare Formen erscheinen können.Ein Medium wird durch eine Differenz von loser und fester Kopplung seiner Element gekennzeichnet: “Wir müssen dann die Einheit dieser Unterscheidung als Medium bezeichnen, nennen diese lose gekoppelten Elemente mediales Substrat und die festen Kopplungen (deren Außenseite jeweils das mediale Substrat ist) Formen. Ein Medium (…) ist eine Unterscheidung (also selbst eine Form!) auf deren Innenseite Elemente fest und auf deren Außenseite Elemente lose gekoppelt sind” (Luhmann 2000, 30).

Das Medium ist selbst nicht beobachtbar, sondern nur Fortbildungen innerhalb des Mediums. Es soll hier die These vertreten werden, dass vieles dafür spricht, dass Big Data und die damit verbundenen Technologien als ein KDD-Prozess aufgefasst werden können, die sich für die Nutzung auf die Medium-Form-Unterscheidung stützen könnten. So betont Luhmann, dass allein die Formseite anschlussfähig ist, was aufgrund des temporären Charakters der Form zu ständiger (Re-)Aktualisierung von Formbildung zwingt, wie wir es auch bei Data-Mining-Prozessen bei den Big Data-Technologien erleben. Das Medium ist hingegen zeitlich weitaus stabiler, es verbraucht sich nicht durch Fortbildungen. Durch das Data-Mining findet eine Sinnoperation statt, die als re-entry der Form in die Form zu werden ist: “Als operative Einheit aus Unterscheidung und Bezeichnung ist Sinn eine Form, die sich selbst enthält, nämlich die Unterscheidung von Unterscheidung und Bezeichnung. Eine Form ist letztlich eine Unterscheidung, die in sich selbst als Unterschiedenes wieder vorkommt” (Luhmann 1998, 57).

Big Data und ihre Technologien als Medium sorgen somit für die kommunikative Autopoiesis der Daten, indem hier nicht mehr davon ausgegangen wird, dass Informationen einfach übertragen werden, sondern her- und zugestellt werden können, die wiederum in eine Form (hier die Schulungsmaterialien) einfließen können. Durch Big Data als Form der digitalen Pädagogik wird die Markierung einer Unterscheidung möglich (Luhmann 1997,198). Big Data als lose gekoppelte Elemente können in eine feste Kopplung überführt werden, indem sie mit den üblichen Verfahren des Data-Mining gebunden werden und bei jeder neuen Verwendung reproduziert werden, wobei sie immer beliebig oft verwendbar sind. Durch das Data-Mining werden die Big Data zum autopoetischen System, wenn sie als KDD betrachtet werden, das sie das eigene Medium zur eigenen Form binden (Luhmann 1997,197). Die Form ist also eine sich selbst entfaltende Selbstreferenz. Durch die Nutzung von Big Data-Technologien kann es gelingen das Schulungsmaterial der Lern- und Subjektkultur im Wechselspiel des Lernenden und Lehrenden anzupassen. Der individuell hinterlassene Datenstrom kann genutzt werden, um das Lehr- und Lernmaterial anzupassen. Auch dies umfasst die Änderung von einem positivistisch-funktionalistisch zu einem interaktionistisch-pragmatistischen Paradigma der Big Data als KDD.

Big learning data – Ansatzpunkte für eine Revolution der “Digitalen Pädagogik”
Big Data erlauben es also eine für ein breit ausgelegtes Publikum erstelltes Schulungsmaterial auf die jeweilige Lehr- und Lernkultur im Prozess der KDD anzupassen, um so ein “mass-customized” Schulungsmaterial zu einem individuell nutzbaren zu machen und dies in Echtzeit. Dabei können sowohl die Aspekte Volume, Velocity und Variety Berücksichtigung finden als auch notwendiges Feedback geben, die Motivation steigern, individuelle Lernprozesse abbilden und gestalten, die Kollaboration in Datenherstellung, -nutzung und -austausch steigern, die Lehr- und Lernkultur und -prozesse besser steuerbar machen, die Begleitung besser gestalten und das Verstehen von Lehr- und Lernprozessen als Medium und Form zu befördern. Durch die Gewinnung der Daten durch die Verwendung von Big Data als Medium und Form von pädagogischen Prozessen, deren Abbildung und Realisierung der Clusteranalyse, der Klassifikation, der Assoziations- und Regressionsanalyse, kann es gelingen, dass wir in eine höchst produktive und kreative Phase der DH eintreten können und jedem unmittelbar der Nutzen von Digital Humanities verdeutlichen können. Wir können dann wirklich von Daten ausgehen, auf deren Grundlage wir die Theoretisierung und notwendige und in der Dringlichkeit nicht abzustreitende Theoriearbeit der Digitalen Pädagogik weitertreiben zu können und zu müssen. Die Nutzung von Big Data und der damit in Zusammenhang stehenden Technologien könnte somit auch eine Revolution der Digitalen Pädagogik im interaktionistisch-pragmatischen Sinn herbeiführen, die sich von einer blossen Medienpädagogik endlich ablöst und die Big Data aus der Schmuddelecke des Feuilleton befreit.

 

Quelle: http://dhd-blog.org/?p=3794

Weiterlesen

Fascinating Margins. Towards a Cultural History of Annotation


Stadtbibliothek Trier, Stadtbibliothek Trier Hs. 1093/1694 [früher 1464] (Prudentius) fol1v

In the past twenty-five years, hundreds of Medieval manuscripts have lain in front of me in many libraries of the world, and my fascination (and love) for them has not diminished, on the contrary. My primary research topic, vernacular, medieval glosses, brought me to study intensively the life of the margins, interlinea and flyleaves of manuscripts and books– one could say to investigate their other, secondary and partially hidden life. In fact, during my research time at the Bodleian Library in Oxford, I had a nickname, “The Lady with the Lamp”, because of my sitting hours for hours, bending over manuscripts with a torch and a magnifying glass – preferably next to a window with natural light. Up to now, this is the best method for deciphering difficult marginal inscriptions, especially when they are not written with ink, but scratched with a dry point stylus in the parchment pages. Of course, one needs a lot of patience (and passion) for this sort of exercise, and it does have something of a Zen practice, bringing calm and a sense of timeless infinity in you.

Marginalia in books became a genuine research topic for me, not only from the point of view of their importance for medieval philology – but as an essential cultural writing practice that we all know of and practice in our everyday life. In dealing with writing habits, apparently an almost natural compulsion or an urge to annotate can be noticed: C’est plus fort que soi, we just can’t help it. The French library scholar Daniel Ferrer characterizes this internal compulsion as a libido marginalium,[i] author Charles Simic points out „with which demonic obsession we cover the immaculate pages of our books with underlinings and scribblings“,[ii] and continues „Wheresoever I read, I of course need a pencil“.[iii]

A French speaking reader annotating Nietzsche (in French and German)

All in all, a larger book project emerged out of my interest in this topic, dealing with this special aspect of written culture through time, namely the writing and drawing of marginalia in texts and books. These annotations and other reading traces play a special role from the point of view of cultural and linguistic history, yet, up to now, they have not been analyzed in a greater context regarding their functional means as well as their textual and material tradition. On the one hand, these “paratexts” (Gérard Genette) belong to the rare witnesses of the historic and factual use and reception of books. Mark-ups in books help to answer the question by whom, when and why texts were read. Moreover, they uncover the process of knowledge acquisition and knowledge transmission throughout the ages. On the other hand, annotations are also closely linked to the materiality of the text, and a wide variety of layout strategies and inscription types can be identified. These will undergo further transformations following the medial change of letterpress printing and the digital world which will also result in the creation of new paratextual practices. My book project aims to study the cultural and historic dimension of annotating texts taking into account wide ranging interdisciplinary aspects. The typology of the wide variety of annotations which are in evidence since the Early Middle Ages will be analyzed. Furthermore, the annotations’ changes, transformations and tradition lines up to the modern digital age will be identified. The main focus of the research project lies on the diachronic analysis of the European tradition of annotations. However, the project will also draw a comparison between the European tradition and that of other written cultures, especially in Arabic and Asian areas.

A substantial corpus documenting annotation practices has already come together, and I hope to work on the project intensively in the next two years. Of course, I would be very grateful for further hints and thrilled about curious or unusual annotation practices my readers here have come across when reading or looking at manuscripts and books.

PS. After posting this blog I opened Twitter, and saw a cat walking through a manuscript (via @ttasovac, merci!)

Further reading:
Gérard Genette, Seuils, Paris 1987

Falko Klaes – Claudine Moulin, Wissensraum Glossen: Zur Erschließung der althochdeutschen Glossen zu Hrabanus Maurus, Archa Verbi 4 (2007) p. 68-89

Claudine Moulin, Zwischenzeichen. Die sprach- und kulturhistorische Bedeutung der Glossen, in: Rolf Bergmann und Stefanie Stricker (Hrsg.), Die althochdeutsche und altsächsische Glossographie. Ein Handbuch, Bd. 2, Berlin und  New York: Walter de Gruyter  2009, p. 1658-1676

Claudine Moulin, Am Rande der Blätter. Gebrauchsspuren, Glossen und Annotationen in Handschriften und Büchern aus kulturhistorischer Perspektive, in: Autorenbibliotheken, Bibliothèques d’auteurs, Biblioteche d’autore, Bibliotecas d’autur, Quarto. Zeitschrift des Schweizerischen Literaturarchivs 30/31 (2010) p. 19-26

See also the Project “Kulturgeschichtliche Erschließung der volkssprachigen Glossenüberlieferung des Mittelalters“, Historisch-Kulturwissenschaftliches Forschungszentrum (HKFZ), University of Trier
and the Portal “Althochdeutsche und Altsächsische Glossen“, University of Bamberg.

[i] Introduction. «Un imperceptible trait de gomme de tragacanthe …», in: Paolo D’Iorio – Daniel Ferrer (Ed.), Bibliothèques d’écrivains, Paris: CNRS Éditions 2001, p. 13.

[ii] «mit welcher Besessenheit wir die makellosen Seiten unserer Bücher mit Unterstreichungen und Kritzeleien bedecken», in: «Was ich mit meinen Büchern tue», Frankfurter Allgemeine Zeitung,  213 (15. Oktober 2008), p. 33.

[iii] „Wo auch immer ich lese, brauche ich natürlich einen Bleistift.“, in: «Was ich mit meinen Büchern tue», Frankfurter Allgemeine Zeitung,  213 (15. Oktober 2008), p. 33.

Quelle: http://annotatio.hypotheses.org/93

Weiterlesen