Automatische Kollationierung – Zur projektbezogenen Adaption von CollateX für digitale Texteditionen

Code and collate - Workshop Amsterdam (photo: Ellie Bleeker)

Code and collate – Workshop Amsterdam (photo: Ellie Bleeker via Twitter)

Die Erstellung digitaler Editionen ist ein zentraler Arbeitsbereich der Digitalen Geschichtswissenschaften. Die bisher zur Verfügung stehenden Werkzeuge und Arbeitsumgebungen, die ja nicht nur uns Historiker sondern alle textbasierten Wissenschaften betreffen, bleiben dabei aber häufig hinter dem zurück, was man sich hierfür wünscht oder vorstellen kann. Dies gilt auch für das automatische Kollationieren. Doch wie sich auf dem „Code and Collation“ Workshop  gezeigt hat, der vom 2. bis 4. November in Amsterdam stattfand, gibt es hier deutliche Fortschritte zu verzeichnen.

Das Problem – analog

Wenn man an der Edition eines Textes arbeitet, der gleich in mehreren Textzeugnissen überliefert ist, stellt sich immer erst einmal die Frage, welche der Überlieferungen man dem zu erstellenden Editionstext zugrunde legen soll. Mit den Möglichkeiten der digitalen Edition hat sich dieses Problem deutlich vereinfacht.

[...]

Quelle: http://digigw.hypotheses.org/1532

Weiterlesen

Website „Sächsische Gerichtsbücher“ online

Das Sächsische Staatsarchiv verwahrt mit dem Bestand 12613 Gerichtsbücher eine in Deutschland hinsichtlich Umfang und Dichte einmalige Überlieferung von Gerichtsbüchern. In einem durch die Deutsche Forschungsgemeinschaft (DFG) geförderten Projekt wurden die über 22.000 Bände dieses Bestands ab 2013 elektronisch erschlossen. Darüber hinaus konnten Bestände von Gerichtsbüchern in neun sächsischen Stadtarchiven und dem Staatsfilialarchiv Bautzen in das Projekt einbezogen werden. Die Erschließungsinformationen sind in Kooperation mit dem Institut für Sächsische Geschichte und Volkskunde e. V. (ISGV) auf der Website »Sächsische Gerichtsbücher«  veröffentlicht worden. Die öffentliche Freischaltung erfolgte auf einem Fachkolloquium, das heute im Staatsarchiv Leipzig stattfand.

Im Rahmen des Projekts sind über 25.

[...]

Quelle: http://digigw.hypotheses.org/1472

Weiterlesen

Interoperationalität und semantisches Web für Mediävisten. Bericht zur Training School “Transmission of texts. New tools, new approaches” am IRHT Paris (31. März – 4. April 2014)

Training School am IRHT (Foto: Hanno Wijsman)

Training School am IRHT (Foto: Hanno Wijsman)

Anfang April konnte ich an einem gemeinsam von der COST Action „Medioevo Europeo“, dem Institut de Recherche d’Histoire de Textes (IRHT) und dem Projekt Biblissima organisierten Digital Humanities-Seminar teilnehmen. Unter dem Titel “Transmission of texts. New tools, new approaches”(mehr Infos: hier) standen dabei vor allem Fragen der Interoperationalität und das semantische Web im Vordergrund. Anhand konkreter Praxisbeispiele wurden hier neue Ansätze und Tools vorgestellt, die sich teilweise noch in der Entwicklung befinden, die aber zugleich auf sehr viel hoffen lassen. Damit verbunden war eine ebenfalls sehr praxisorientierte Einführung in TEI-XML und RDF.

Die Training School bot eine ganze Woche lang jeden Tag von 9 bis 19 Uhr ein intensives Programm. Von daher kann ich leider nicht alles wiedergeben, was ich hier gesehen und gelernt habe. Ich versuche aber mal, zumindest die Highlights zusammenzufassen, die ich mir notiert habe. Wer weitere Fragen hat, kann sich gerne an mich wenden.

Wichtiger Bestandteil des Programms war natürlich die Vorstellung der Beteiligten und deren Projekte. Nicht zuletzt, weil hier auch genau mit jenen Hilfsmitteln und Methoden gearbeitet wird, die im Rahmen der Training School vorgestellt wurden. Die Bedeutung der Interoperationalität und die Funktionsweise des semantischen Webs ließen sich so direkt am konkreten Beispiel nachvollziehen.

Sismel / Trame

Da ist einerseits das italienische Projekt TRAME, das am SISMEL in Florenz beheimatet ist, einer der Stützen der COST Action. Ziel von TRAME ist es, eine Metasuchmaschine für alle Datenbanken und -repositorien zu konstruieren, die Informationen zu mittelalterlichen Handschriften enthalten (Digitalisate, Kodikologie, Textgeschichte).

IRHT

Hauptveranstalter der Training School jedoch war das IRHT, in dessen Räumen auf der Avenue de Iéna auch die meisten Veranstaltungen stattfanden. Leider ist das IRHT in Deutschland kaum bekannt, was wirklich schade ist. Denn das auf die Erforschung alter Handschriften und Texte und deren (Überlieferungs-)Geschichte spezialisierte IRHT ist eine geradezu unglaubliche Einrichtung. Seit seiner Gründung in den 1930er wird hier alles gesammelt, was sich in Frankreich und weltweit zu Handschriften und alte Texten finden lässt. Organisiert ist das IRHT in 13 Sektionen, die gemeinsam alle hierzu notwendige Expertise unter einem Dach zusammenfassen. Die Bandbreite reicht von der Latinistik, Romanistik, Arabistik, Graezistik und Hebraistik, über Kodikologie, Bibliotheksgeschichte und Heraldik, Lateinische Paläographie und Diplomatik bis hin zu Handschriftenilluminationen. Dabei verfügt jede Sektion über eine herausragende Bibliothek, die jedes Forscherherz höher schlagen lässt. Wo sonst findet man z.B. sämtliche Handschriftenkataloge sowie Ausstellungs- und Auktionskataloge an einem Ort versammelt? Schließlich bietet das IRHT auch immer wieder Schulungen an, um Doktoranden und andere Interessierte im Umgang mit Handschriften auszubilden. Vielleicht wird ja die Direktorin des IRHT ihr Haus alsbald einmal auf dem DFMFA-Blog vorstellen.

Auf alle Fälle lohnt es sich, diese Institution einmal näher anzusehen. Nicht zuletzt, weil die über Jahrzehnte gesammelten Informationen zu Texten, Handschriften, Buchbesitzern etc., die bis vor kurzem noch allein in den vielen Zettelkästen des IRHT einsehbar waren, nun sukzessive online gehen. Dazu gehören auch die 76.000 Mikrofilme und digitale Reproduktionen von Miniaturen und Handschriften, die in Bibliotheken jenseits der Pariser Nationalbibliothek lagern. Interoperationalität spielt dabei eine große Rolle, denn all die verschiedenen Datensammlungen des IRHT sind miteinander verlinkt.

Rückgrat der Architektur ist die Datenbank MEDIUM, in der man früher noch die am IRHT vorhandenen Mikrofilme gesucht hat. Heute findet man hier alle Handschriftensignaturen verzeichnet, zu denen am IRHT Informationen zu finden sind. Die Handschriftensignaturen bilden sozusagen den Primärschlüssel zu dem ganzen System. Entsprechend kann man auch nach den Signaturen suchen. Oder aber, unter Verwendung der recherche avancée, den Bestand auch nach Eigenschaften wie Sprache, Dekoration usw. filtern. Die einzelnen Handschriften in MEDIUM sind dann wiederum mit den entsprechenden Angaben in den weiteren Datenbanken verlinkt, die da sind (in Auswahl):

  • Jonas: Katalog mittelalterlicher französischsprachiger Texte und Handschriften weltweit, durchsuchbar nach Autor, Titel und Signatur, einschließlich Texttradition und Bibliographie. Die Datenbank ist natürlich nicht komplett (zumindest was mein Thema angeht), aber man kann hier schon eine Menge finden und sie wird ständig erweitert. U.a. im Rahmen eines laufenden Katalogisierungsprojektes zu den bisher weitgehend noch unbekannten französischen Beständen der Bibiliotheca Vaticana (ca. 400 Handschriften!).
  • Bibale: Informationen zur Provenienz der Handschriften vom Mittelalter bis heute. Hier ist es möglich, anhand der Besitzvermerke, alter Signaturen, ex libris, Besitzerwappen, Inventare, Einbände usw. die Provenienz einer einzelnen Handschrift zu ermitteln oder auch ganze historische Bibliotheksbestände zu rekonstruieren.
  • Initiale: kunsthistorische Analyse dekorierter und illuminierter Handschriften und Inkunabeln.
  • Pinakes: Griechische Texte und Handschriften.

Die einzelnen Angaben wiederum sind mit der BVMM verbunden, der virtuellen Bibliothek mittelalterlicher Handschriften in französischen Bibliotheken (außer BnF) mit Bildern aus über 10.000 Handschriften, von denen hier über 3000 als vollständiges Digitalisat zu finden sind. Der Viewer erlaubt es dabei, auch mehrere Bilder gleichzeitig anzuzeigen und miteinander zu vergleichen.

Biblissima – das Megaprojekt

Biblissima, der dritte Partner der Training school, ist in der Tat ein wahres Megaprojekt. Wenn man sieht, was die BnF (einer der Partner) mit ihrer Digitalisierungsinitiative und Gallica bereits auf die Beine gestellt hat, kann man sicherlich davon ausgehen, dass auch dieses Projekt wie geplant auch umgesetzt wird. Biblissima soll nämlich nichts anderes als die „Bibliothek der Bibliotheken“ des 21. Jahrhunderts werden. So etwas wie eine, oder besser, die Metabibliothek, in der alle handschriftenrelevanten Daten der beteiligten Institutionen zugleich und miteinander kombiniert anzeigbar und durchsuchbar sein werden. Und das meint:

  • Digitialisate,
  • digitale Editionen
  • und Metadaten aus Forschungsdatenbanken (Handschriftenbeschreibungen, Ikonographie, Einband, Inkunabeln, etc.).

Während heutzutage jede Handschriftenbibliothek für ihre Bild- und Metadaten ein eigenes Format verwendet und die Bilder und Informationen der einzelnen Einrichtungen somit – um auf das in den Präsentationen immer wieder gebrauchte Bild zurückzugreifen – wie in einzelnen Silos lagern, die nicht mit einander kommunizieren können, soll Biblissima es ermöglichen, all diese Bilder und Daten miteinander in Kontakt zu bringen. Dafür wird auf ein gemeinsam mit Stanford entwickeltes Format (IIIF) und auf eine gemeinsame Technologie für die Viewer (Shared Canvas) zurückgegriffen. Letztere besteht darin, die einzelnen Handschriftenseiten als Grundlage zu nehmen. Diese werden dabei a priori als freie Fläche definiert, auf der man dann alle möglichen Informationen als einzelne Datenschichten ablegen kann: Digitalisate, digitale Editionen, Informationen zu Text und Handschrift, zu den Miniaturen, Schwarzlichtfotos, was auch immer. Wer schon einmal einen ersten Blick darauf werden möchte, findet hier ein Demo: http://demos.biblissima-condorcet.fr/mirador/ (nähere Infos dazu: hier).

Mit Biblissima soll es dann möglich sein, zu einer Handschriftenseite oder zu einer ganzen Handschrift (selbst wenn deren Teile getrennt über mehrere Bibliotheken verteilt sind) alle erreichbaren Informationen in ein und demselben Viewer gemeinsam anzeigen zu lassen. Dies kann auch mit mehreren Handschriften gleichzeitig geschehen, wenn man diese z.B. miteinander vergleichen möchte.

Für den Anfang sollen hier die virtuellen Bibliotheken der BnF (Gallica), die oben erwähnte BVMM des IRHT sowie die BVH (Les bibliothèques virtuelles humanistes der Universität Tours) miteinander verbunden werden. Aber auch die British Library und mehrere amerikanische Bibliotheken sind mit dabei. Die Datenpools speisen sich aus den genannten Datenbanken des IRHT, den Metadaten der BnF und weiteren Quellen – die aktuelle Liste umfasst ca. 50 Einzeldatenbanken.

Begleitet werden soll das Ganze durch eine Auswahl frei zur Verfügung stehender Arbeitsinstrumente für die Erstellung digitaler Editionen und deren Analyse. Zudem gibt es auf der Seite von Biblissima bald ein Toolkit, das die verschiedenen im Netz vorhandenen Datenbanken und Tools zusammenfasst und nach verschiedenen Kriterien filtern lässt.

Das Ganze ist natürlich ein Musterbeispiel für die Möglichkeiten des semantischen Webs. Aktuell wird hierfür der Thesaurus und eine Ontology speziell zur Beschreibung von Handschriften und deren Überlieferung erstellt, wobei das RDF-Framework auf CIDOC-CRM und FRBRoo basiert. Wie genau so etwas passiert, das wurde in einem der Praxisteile des Seminars gezeigt … und geübt.

Der Praxisteil: Interoperationalität und semantisches Web mit TEI-XML und RDF

Die 20 Teilnehmer aus insgesamt 14 Ländern haben also nicht nur die schöne neue Welt von morgen präsentiert bekommen, sondern auch ganz konkret erfahren und üben können, wie das alles funktioniert. Und zwar immer anhand der laufenden Arbeiten in den verschiedenen Projekten der beteiligten Institutionen. So wurde für die Markierung von Texten nach TEI- Richtlinien an alten Bibliotheksinventaren gearbeitet, auf deren Grundlage man am IRHT den Bestand der historischen Bibliotheken von Chartres rekonstruiert und mit den Resten abgleicht, die nach dem Bombardierung der Bibliotheque municipale von Chartres während des Zweiten Weltkriegs übrig geblieben sind. Verwendet wurde dabei der XMLmind_XML_Editor, der entsprechend angepasst wurde und der wohl auch dem XML-Editor im Toolkit von Biblissima zugrundeliegen wird.

Methoden und Tools zur Arbeit mit RDF im semantischen Web (Thesaurus erstellen, RDF-Triples formulieren und auf URI‘s verweisen, SPARQL-Abfragen erstellen) wurde uns wiederum am konkreten Beispiel des Biblissima-Projektes vorgeführt, bevor wir es dann auch selbst für unsere eigenen Projekte ausprobieren konnten.

Die Erstellung digitaler Editionen, insbesondere des kritischen Apparats (Varianten und Kommentare), wurden am letzten Tag schließlich anhand des nicht minder beeindruckenden Projektes SourcEncyMe geübt, einer kollaborativen Onlineplattform zu mittellateinischen Enzyklopädien und der Identifikation ihrer Quellen, die bisher noch unveröffentlicht ist. Dominique Poirel hat darüber hinaus in die verschiedenen Möglichkeiten zur Erstellung von Stemmata eingeführt. Wie sich das Ganze dann anhand TEI-encodierter Texte zumindest semi-automatisch umsetzen und graphisch aufbereiten lässt, hat anschließend Dominique Stutzmann gezeigt. Er selbst leitet die Lateinische Paläographie am IRHT und hatte am Tag zuvor sein eigenes digitales Projekt Oriflamms vorgestellt, das ebenfalls nicht unerwähnt bleiben soll. Hier geht es um die Möglichkeiten der automatischen Texterkennung für mittelalterliche Handschriften, wobei das Projekt schon beachtliche Resultate erzielt. Eine genauere Projektvorstellung gibt es voraussichtlich im nächsten Semester im Münsteraner „Forschungskolloquium Mittelalter (400-1500)“.

Fazit

Alles in allem war das, was während der 5 Tage am IRHT und bei Biblissima gezeigt und vorgeführt wurde, eine beeindruckende Demonstration des State of the art. Gerade der Umstand, dass die beiden Leitmotive Interoperationalität und semantisches Web hier immer wieder am praktischen Beispiel in ihrer ganzen Bedeutung fassbar wurden, war für mich eine der wichtigsten Erfahrungen dieser Training School. Das einzige, wovon ich mir noch mehr gewünscht hätte, waren die praktischen Übungen. Denn gerade durch die Arbeit mit Material aus den laufenden Projekten wurden Funktion und Sinn der einzelnen Methoden und Tools erst richtig erfahrbar. Die im Titel angekündigten new tools und new approaches haben sich im Programm der Training School damit aufs Beste miteinander verbunden.

Was mich letztlich zu der Frage bringt, wie es eigentlich mit ähnlich gelagerten Projekten in Deutschland aussieht. Vielleicht könnte man einmal eine Übersicht auch zu aktuellen mediävistischen DH-Projekten und Planungen in Deutschland hier auf dem DigiGW-Blog zusammenzustellen. Sehr gute Initiativen zur digitalen Rekonstruktion historischer Bibliotheken wie das Virtuelle Skriptorium St. Matthias in Trier, weitreichende Digitalisierungsinitiativen wie die der BSB und Metakataloge wie die Manuscripta medievalia gibt es ja auch hier. Und ich habe den Eindruck, dass sich da auch gerade einiges tut. Diese alle einmal in einem Überblick zusammenzufassen und vorzustellen wäre sicherlich sehr spannend und könnte gleichzeitig dazu beitragen, die Digitalen Geschichtswissenschaften bzw. die digitale Mediävistik und all das, was damit in Zukunft möglich wird, auch hier noch sichtbarer und bekannter zu machen.

 

Quelle: http://digigw.hypotheses.org/723

Weiterlesen

Digitalisierungsstrategien für das kulturelle Erbe in Norwegen | Teil 3: Die norwegische Nationalbibliothek als zentraler Akteur

Nach Teil 1 (zu grundsätzlichen Aspekten) und 2 (zum Archivwesen) geht es nun im dritten Part dieser Artikelserie um die norwegische Nationalbibliothek als zentralem Akteur. Dieser weist  die nationale Digitalisierungsstrategie als führender Forschungsbibliothek des Landes die zentrale Rolle für den Aufbau der digitalen Bibliothekssammlungen zu. „Mit Verankerung im Pflichtexemplarsrecht und im Urheberrecht ist es die Vision der Nationalbibliothek, das Gedächtnis der Nation und ein multimediales Kompetenzzentrum auf der Höhe künftiger Nachfrage zu sein. Zwei ihrer vier Hauptziele sind ‚eine von Europas spannendsten und modernsten Nationalbibliotheken zu sein‘ und ‚der Kern der norwegischen digitalen Bibliothek‘ zu sein.“ Zwar wurde das Pflichtexemplarsrecht erst 1989 eingeführt, die Digitalisierungspläne im Rahmen der 2009 lancierten Webpräsenz Bokhylla [Bücherregal] reichen aber zeitlich deutlich weiter. Bis 2017 sollen alle in Norwegen zwischen den Jahren 1900 und 2000 erschienenen Bücher gratis im Internet zugänglich sein – allerdings nur von norwegischen IP-Adressen aus. Alle Bücher, für die das Urheberrecht abgelaufen ist, dürfen heruntergeladen werden, die restlichen kann man nur online lesen. Da das 1989 eingeführte norwegische Pflichtexemplarsrecht zudem medienneutral formuliert ist, finden auch Medien wie Ton- oder Bildaufnahmen Eingang in die Norwegische digitale Bibliothek. Die Digitalisierung der gesamten Bestände der Nationalbibliothek wird darüber hinaus ebenfalls in einem Zeitrahmen von 25 bis 30 Jahren angestrebt. „50 Kilometer an Kulturerbe sollen digitalisiert werden“ überschrieb der norwegische Rundfunk einen Internetbericht über das Vorhaben, für das am zweiten Standort der Nationalbibliothek im nordnorwegischen Mo i Rana eigens ein Digitalisierungsgebäude mit neuester Technik gebaut wurde.

Die Nationalbibliothek folgt in ihrer 2006 begonnenen Digitalisierungspolitik den wichtigsten Empfehlungen, welche als Minimalanforderungen für digitalisiertes Kulturerbe von einer Expertengruppe ausgearbeitet wurden: Lokalisierbarkeit der digitalen Bestände, Qualitätsstandards für die Erstellung digitaler Materialien, umfassende Beschreibung durch Metadaten, Sicherung der Langzeitarchivierung sowie angemessene Präsentation. Zudem wurde eine eigene Digitalisierungsstrategie für das Bibliothekswesen ausgearbeitet, in der die Zugänglichkeit des kulturellen Erbes ebenfalls hervorgehoben wird: „Der Einsatz der Nationalbibliothek auf dem digitalen Gebiet wird auf Sicht dazu führen können, dass der gewöhnliche Nutzer auf seinem eigenen PC direkten Zugang zu großen Teilen des norwegischen Kulturerbes haben kann.“ In einem eigenen Strategiepapier stellt sich die Nationalbibliothek als diejenige Einrichtung vor, die in Norwegen Richtung und Tempo für kulturelle Digitalisierungsvorhaben vorgibt, welche landesweite Standards etabliert und im Mittelpunkt eines ganzen Netzwerkes von Kooperationspartnern steht. Norwegische Bücher und Medien aller Art seit dem Mittelalter sollen nach und nach frei zugänglich werden und die Langzeitarchivierungsstrategie wird sehr ambitioniert mit einer 1000jährigen Perspektive versehen. Das Selbstbewusstsein, hier an der Spitze der Entwicklung zu stehen, ist sehr ausgeprägt: „Some European countries have also started digitizing parts of their national cultural treasures, but so far no other national library has plans to digitize their entire holdings. We are thus the first National Library in Europe to take on this huge challenge, not only for the preservation of materials for posterity, but also to make as much content as possible available on the web.“ Wie weit die Ausweitung von Nutzungsmöglichkeiten der digitalen Sammlungen bereits gedacht wird, zeigt die recht frühe Orientierung auf die Nutzung von mobilen Endgeräten wie Smartphones und die Entwicklung einer mobilen Version der Webpräsenz für die digitalen Sammlungen. Darüber hinaus wird an der Nationalbibliothek auch Forschung betrieben, von der man für weitere Schritte bei der Bewahrung digitaler Materialien zu profitieren hofft, beispielsweise ein Projekt zur Archivierung von Meldungen auf dem Kurznachrichtendienst Twitter: „How can institutions like the National Library of Norway preserve new media content like Twitter for future research and documentation?“ lautet hier das Erkenntnisinteresse. Der Autor verweist ausdrücklich auf die Aufgabe der Nationalbibliothek zur Bewahrung des kulturellen Erbes, zu welchem letztlich in der digitalen Welt auch Nachrichten auf Twitter gehören: „Twitter is a relevant part of our culture, and thus should be regarded cultural heritage. Preserved tweets might provide an insight into our culture for future generations.“

Die zentrale Stellung der Nationalbibliothek wurde weiter gestärkt, als der wichtigste Konkurrent (auch um die öffentlichen Gelder), das staatliche Zentrum für Archive, Bibliotheken und Museen [ABM-utvikling] 2010 aufgelöst und Teile seiner Aufgaben an die Nationalbibliothek sowie an den Norwegischen Kulturrat übertragen wurden. Zudem machten sich auch kritische Stimmen bemerkbar, die einen Mangel an kritischer Diskussion über das Vorgehen namentlich der Direktorin der Nationalbibliothek Vigids Moe Skarstein beklagen und problematisieren, dass gewissermaßen durch die Hintertür eine zu wenig hinterfragte kulturelle Deutungshoheit etabliert worden sei. Es würden hohe Summen für die umfassende Digitalisierung ausgegeben, ohne nach möglichen Nutzungsszenarios zu fragen und ohne die Interessen der Leserinnen und Leser einzubeziehen. Zudem wurde die Forderung laut, Artefakte aus allen Bereichen des kulturellen Erbes einer gemeinsamen Auswahl und Prioritätensetzung zu unterziehen.

Als Fazit der Artikelserie kann man festhalten: Norwegen ist ganz klar Vorreiterland auf dem Gebiet der Digitalisierung von kulturellem Erbe. Besonders bemerkenswert sind dabei Tempo und Umfang der Maßnahmen. Dies ruft wie gesehen auch Kritiker auf den Plan: Autoren und Verlage haben Bücher aus dem digitalen Bücherregal der Nationalbibliothek zurückgezogen (aus Angst vor Gewinneinbußen). Zudem ist Geschwindigkeit bei der sorgfältigen Aufbereitung von historischen Materialien für deren Digitalisierung eben nicht Trumpf. In Norwegen sind die zentralen Akteure allerdings von jeher in einer starken Position, und Regierung sowie Parlament haben im Rahmen der Digitalisierungsstrategien entschieden, diese weiter zu stärken und ihnen die notwendigen Mittel zur Verfügung zu stellen – und nicht etwa externen Dienstleistern aus der freien Wirtschaft. Die Institutionen selbst wiederum haben aus ihrem Auftrag weit mehr gemacht, als ihnen der Staat aufgetragen hat. Insbesondere die Nationalbibliothek hat von sich aus weitere Mittel und Personalkapazitäten für die Digitalisierungsvorhaben reallokiert. Sie nutzt ihre Vorhaben auf dem digitalen Feld für eine weitreichende Imagekampagne, die neben der eigenen Institution auch dem gesamten Land zu einer Reputation als innovative, progressive Nation gereichen soll. Somit sind die Digitalisierungsstrategien für das kulturelle Erbe auch Werbung im Ausland und ein neues Element, das sich aber in eine bestehende Tradition einreiht: Norwegen als Vorbildland, welches sich für die guten Dinge einsetzt und damit der Welt ein Beispiel gibt. Dies ist auf den Gebieten der Wohlfahrtsstaatspolitik ebenso wie der Entwicklungspolitik bereits ein etabliertes Muster. Fortschrittlichkeit wird durch die Offenheit für neue Technologien signalisiert, die für gesellschaftlich wertvolle Zwecke eingesetzt wird. Die kritischen Stimmen sind zwar da, aber sie sind nicht laut und sie sind wenige – in einem Land mit einer stärker ausgeprägten Konsens- statt Konfliktkultur.

Quelle: http://nordichistoryblog.hypotheses.org/2198

Weiterlesen

Geschichtsdarstellung im Internet: Nordeuropa und der Zweite Weltkrieg

Auf dem studentischen Wissenschaftsblog Eisbrecher ist neue Aktivität zu vermerken. Im Rahmen eines von mir unterrichteten Kurses Erinnerungskultur 2.0 – Nordeuropa und der Zweite Weltkrieg im Internet haben sich Studierende im Laufe des Wintersemesters mit Geschichtsdarstellungen im Netz beschäftigt.

Icebreaker von Flickr

Flickr Commons
Tyne & Wear Archives & Museums

Nun ist die Auseinandersetzung so weit gediehen, dass sie sich in publizistischer Form niederschlägt: Auf dem Eisbrecherblog analysieren die Studierenden ausgewählte Internetseiten, die sich mit bestimmten Facetten der Geschichte Nordeuropas im Zweiten Weltkrieg beschäftigen. Da geht es z.B. um das finnisch-deutsche Verhältnis während des Krieges, das Schicksal der norwegischen Kriegskinder (die Beziehungen norwegischer Frauen mit deutschen Soldaten entstammten) und um die Zeit der deutschen Besatzung Norwegens. Zunächst stand die Erarbeitung des wichtigsten historischen Hintergrundwissens an. Zudem war eine der wichtigsten Aufgaben und auch ein Bedürfnis der Teilnehmerinnen und Teilnehmer, nach passenden Analysekategorien für die Untersuchung von Internetseiten zu suchen. Reicht da die klassische geschichtswissenschaftliche Quellenkritik aus oder wieviel medienwissenschaftliche / -theoretische Fundierung muss noch her? Eine (unsortierte) erste Sammlung von Gedanken hierzu sah folgendermaßen aus:

  • äußere Gestaltung
  • Aufbau
  • sprachliche Gestaltung
  • sachliche Darstelllung, nicht polemisierend
  • MedieneinsatzAktualität (Seite an sich, Links)institutionelle Anbindung
    • Bilder
    • Archivmaterialien
    • Herkunft?
    • verlinkt oder Google-Suchergebnisse?
  • Verfasser oder Herausgeber erkennbar, mit Namen benannt?
  • offensichtliche Auslassungen oder Ergänzungen
  • Adressat / Zielgruppe erkennbar?
  • Umfang – eher Überblick oder detaillierte Teildarstellung?
  • interaktive Elemente vorhanden, um Userbeteiligung zu ermöglichen (z.B. Kommentarfunktion)
  • Werbung auf der Seite (verweist gegebenenfalls auf Zielgruppe)?
  • kostenpflichtige Inhalte vorhanden?
  • Verweis auf wissenschaftliche Literatur
  • wird mit Fußnoten oder anderen Verweisen gearbeitet?
  • wie “schön” ist die Seite gestaltet? — problematisch: Schlichtheit könnte wegen Konzentration auf den Inhalt entstehen
  • Statistiken, falls zugänglich: wie stark ist die Seite nachgefragt? hoher Traffic?
  • Navigation zuverlässig und logisch?
  • Qualität der Abbildungen

Nachdem die Studierenden ihre Teilgebiete für die Arbeit in Kleingruppen gefunden hatten, musste eine passende Umsetzungsform gefunden werden. Letztlich fiel die Entscheidung dann für das Blogformat, mit dem fast alle nun erste Erfahrungen sammeln. Schließlich wurde gemeinsam ein Analyseleitfaden erarbeitet, an den man sich zwar nicht sklavisch halten muss, der aber einen gewissen Rahmen anbietet und der die wichtigsten Analyseobjekte benennt:

  1. Technische bzw. “bibliographische” Angaben zur Seite
  2. Aufbau und Struktur – Eindruck der Startseite, Inhaltsverzeichnis vorhanden?, Fließtext oder Stichpunkte?, Zusammenfassung vorhanden?, Zwischenüberschriften, Einzelbeitrag oder Portal?, angebunden oder ausgelagert
  3. Inhalte – Absichten und Anspruch, welche Informationen, theoretisch fundiert, Genre (Augenzeugenbericht oder wissenschaftliche Auseinandersetzung), Quellenangaben, wie groß- oder kleinformatig ist die Themenwahl, offensichtliche Auslassung oder Ergänzung bemerkbar, Adressaten
  4. Gestaltung – Bilder (unterschriften), Navigation, Layout, Verlinkungen, Schriftart, Umfang, Sprache, Werbung vorhanden, Medieneinsatz, Logos von Institutionen?
  5. Fazit – keine reine Zusammenfassung, sondern eine wertende und nochmals gewichtende Kritik – Glaubwürdigkeit (als Gesamteindruck)

Die Schreibarbeit wird auch nach dem Ende der Vorlesungszeit weitergehen. Wer also an den Themen Interesse findet,  kann per Mail-Follow-Funktion oder RSS-Feed dranbleiben.

Quelle: http://nordichistoryblog.hypotheses.org/2137

Weiterlesen

Digitale Bildarchive für Historiker_innen im Netz | Teil 1

Ob für den eigenen Wissenschaftsblog oder für den Unterricht, ob für das geplante Online-Geschichtsportal oder für den Gastbeitrag im Feuilleton: Immer wieder suchen wir in geschichtswissenschaftlichen Zusammenhängen nach passenden Bildern. Nicht immer ist es so leicht, fündig zu werden, obendrein will man sich auch keiner Verletzung des Urheberrechts schuldig machen. In einer kleinen Artikelserie sollen hier einige Portale vorgestellt werden, auf denen man nicht nur Bilder mit einer ausreichenden Qualität und von fachlichem Informationsgehalt findet, sondern auch solche, die man bedenkenlos unentgeltlich für eigene Publikationen nutzen kann – vorausgesetzt, man hält sich an bestimmte Regeln. Es geht hier um eine Auswahl der – aus meiner Sicht – am besten für historische Themen geeigneten Online-Bildarchive, die zudem frei zugänglich sind und Bilder zur kostenlosen Weiternutzung zur Verfügung stellen.

Bildersuche mit Google – ein heikles Unterfangen

Die meisten werden erste Suchen nach Bildmaterial mit der Bildersuchfunktion von Google unternommen haben. Wie bei anderen Recherchen ist der Klick auf die Google-Suchmaske auch hier zum reflexartigen ersten Zugriff geworden. Allerdings ist dieser Weg allenfalls dazu geeignet, sich einen ersten Eindruck über die bildliche Präsenz eines Themas/Namens etc. im Netz zu verschaffen. Wirklich präzise und verlässliche Ergebnisse erzielt man hier nicht. Selbst wenn man die erweiterten Suchfunktionen nutzt, wird man nicht glücklich. Zwar gibt es hier die Möglichkeit, nach frei nutzbaren Inhalten zu suchen (siehe Screenshot), doch kann man sich dennoch nicht sicher sein, dass die angezeigten Ergebnisse tatsächlich urheberrechtlich unbedenklich sind. Zudem ist die Google-Bildersuche nicht besonders genau und liefert daher zum Teil kuriose bis absurde Funde.

Google-Bildersuche

Wikimedia Commons

Die von der Wikimedia-Stiftung (welche u.a. auch die allseits bekannte Online-Enzyklopädie Wikipedia verantwortet) betriebene Seite Wikimedia Commons dürfte den meisten schon einmal begegnet sein – nämlich schlichtweg durch das Aufrufen eines Wikipedia-Eintrags. Die Bilder, welche in die Artikel auf Wikipedia eingebunden sind, werden durchweg in der Bildsammlung Wikimedia Commons verwaltet. In der Selbstbeschreibung wird die Sammlung als  “media file repository” charakterisiert, es geht also nicht nur um Bilder, sondern auch um multimediale Ressourcen. Dennoch machen Fotografien und Grafiken den größten Teil der Sammlungen aus, welche erklärtermaßen zur Nutzung auch außerhalb der Wikipedia oder anderer Wikimedia-Projekte zur Verfügung gestellt werden. Wie das “Commons” [dt.: Gemeingut, Allmende] im Namen der Seite schon erkennen lässt, handelt man hier im Sinne einer Philosophie des freien Teilens von Inhalten. Inhalte, die hier hochgeladen werden, sollen zur freien Nutzung bereitstehen und sind in der Regel mit einem Hinweis dazu, unter welchen Bedingungen dies geschehen sollte, versehen. Das Bildmaterial kann etwa frei von Urheberrechten sein [engl. public domain] und könnte dann sogar ohne Verweis auf Fotograf oder Schöpfers (einer Grafik) weiterverwendet werden.1

Durch das individuelle Hochladen von Bildern durch einzelne User entsteht nach und nach ein buntes Sammelsurium, bei dem man manchmal auch Zufallsfunde machen kann, aber Bildbestände eben nicht systematisch erschlossen werden. Anders sieht dies bei den Kooperationen aus, welche Wikimedia Commons mit verschiedenen kulturellen und wissenschaftlichen Institutionen eingeht, die für geschichtswissenschaftliche Nutzungsszenarien von besonderem Interesse sind. Eine der ersten in dieser Hinsicht relevanten Kooperationen wurde 2008 mit dem (deutschen) Bundesarchiv geschlossen, die allerdings 2010 nach zahlreichen Urheberrechtsverstößen beendet wurde. Mit etwas mehr als 82.000 Bildern ist der Bestand des Bundesarchivs (der weiterhin verfügbar bleibt) momentan immer noch die zweitgrößte Sammlung in den Wikimedia Commons. Weitere Beispiele für historische Bildarchive auf dieser Seite sind die US National Archives and Records Administration (NARA), das niederländische Tropenmuseum oder die Deutsche Fotothek. Die Recherche erfolgt über eine Suchmaske oder über den Zugriff auf die Startseiten der jeweiligen Sammlungen.

Im nächsten Teil werden die Sammlungen auf Flickr Commons vorgestellt.

 

 

 

 

  1. Allerdings ist die Angabe des Fundortes nicht nur für andere Nutzer hilfreich, sondern m.E. auch gute Gepflogenheit.

Quelle: http://digigw.hypotheses.org/394

Weiterlesen

Digitalisierungsstrategien für das kulturelle Erbe in Norwegen | Teil 2: Das nationale Archivwesen als zentraler Akteur

Im ersten Teil dieses mehrteiligen Beitrags hatte ich Grundsätzliches in Sachen Digitalisierung in Norwegen erörtert. Nun soll es in den nächsten Beiträgen um die zentralen Akteure gehen und dabei zunächst um Archive.

Prinzipiell ist zunächst festzuhalten, dass die Archivlandschaft in Norwegen wie auch in den anderen nordischen Ländern bei weitem nicht so kleinteilig ist wie es in Deutschland aus historischen Gründen der Fall ist. Norwegen ist wie seine nordischen Nachbarn ein zentralistisches Land, was zentralen Institutionen wie dem Arkivverket [in etwa: Amt für Archivwesen], der Dachorganisation für die norwegischen staatlichen Archive, eine starke Stellung als Akteur in der öffentlichen Erinnerungskultur verleiht.

Mit der Seite Digitalarkivet wurde in Norwegen eine zentrale Anlaufstelle für archivalische Quellen im Netz geschaffen, auf der digitalisierte Sammlungen gratis den Nutzern zur Verfügung gestellt werden. Diese Webpräsenz wurde bereits 1998 ins Leben gerufen, die Gesamtverantwortung des auf mehrere Standorte verteilten Projekts liegt beim Staatsarchiv in Bergen. Seit 2011 wartet die Seite nach einer gründlichen Renovierung mit ausgebauten Suchmöglichkeiten und einer stärkeren Integration von durchsuchbaren Digitalisaten auf. Typische Quellen der ersten Schübe an Digitalisierungen waren Volkszählungen, Matrikel, Kirchenbücher, Listen mit Namen von Auswanderern, Gerichtsbücher und Ähnliches. Ein Grund dürfte mit darin liegen, dass es sich bei diesen Quellen um von Ahnenforschern stark nachgefragtes, daher häufig genutztes und Verschleiß / möglichen Beschädigungen stärker ausgesetztes Material handelt. Den Ahnenforschern soll so der Weg ins Archiv erspart werden oder zumindest der erste Einstieg in die Forschung mithilfe von online verfügbaren Quellen erleichtert werden.

Das Riksarkiv ist übrigens in Zeiten des Web 2.0 auf verschiedenen Internet-Kanälen präsent, um seine Digitalisierungs-Aktivitäten vorzustellen, etwa mit einem tumblr-Blog namens Dokumentene forteller [Die Dokumente erzählen – auf Norwegisch], auf dem neu digitalisierte Materialien vorgestellt werden oder mit einem eigenen YouTube-Kanal (beides auf Norwegisch, auf dem Blog sind kurze englische Hinweise zu den dort präsentierten Dokumenten). In mehreren Videos wird darauf verwiesen, dass Archive durchaus mehr als reine Papierdokumente bewahren, wie etwa in diesem kurzen Video über die im Riksarkiv bewahrte Tasche des norwegischen Nationalsozialisten-Führers Vidkun Quisling:

Wie sehr die traditionellen Grenzen zwischen den etablierten Akteuren und den “Amateuren” verwischen oder es auch bewusst angestrebt wird, Quellen durch Crowdsourcing-Initiativen einzubinden, zeigt die Idee des Digitalpensjonat (engl. The Digital Inn). Hier steht es allen Nutzern und Institutionen außerhalb des Archivwesens frei, Quellendigitalisate sozusagen als digitale Dauerleihgabe auf einer eigenen Unterseite hochzuladen und der Öffentlichkeit so zur Verfügung zu stellen. Voraussetzung ist, dass die hochzuladenden Quellen archivalischen Charakters sein sollten, was nicht näher expliziert, aber wohl als Quellen von hinreichendem öffentlichen und Forschungsinteresse verstanden werden kann. Zudem sollen die hochgeladenen Versionen (Scans, Abschriften, Tabellen) so quellengetreu wie möglich sein. Eine redaktionelle Kontrolle findet allerdings nicht statt. Neben Quellendigitalisaten gibt es auf dem Digitalarkivet unter “Bokhylla” [Buchregal] auch eine umfangreiche Sammlung digitalisierter historischer Primärliteratur, wie gedruckte staatliche Statistiken,  behördliche Veröffentlichungen, Kirchenbücher, Steuermatrikel und Telefonbücher. Diese sind leider nur mit laufenden Nummer als fortlaufende Liste verzeichnet und nicht mit einer Suchfunktion versehen.

Die Prioritäten des norwegischen Archivwesens richten sich in letzter Zeit stärker auf Jubiläen, wie das nächste große Jubiläum, die 200-Jahrfeier der Verabschiedung der Verfassung von Eidsvoll (siehe das Bild in Teil 1 des Beitrags) 1814. Daneben steht die Sammlung von “digital born material”, wie dem Material, das im Nachgang der Breivik-Attentate vom 22. Juli 2011 gesammelt wurde.

Interessant sind vor dem Hintergrund des erwähnten Digitalpensionats auch Bestrebungen wie etwa des Stadtarchivs Bergen, Digitalisierungsdienste für kommunale Behörden oder Betriebe, aber auch für private Firmen und Privatpersonen zu übernehmen. Mit einem kleinen Video versucht man, den Digitalisierungsprozess anschaulich zu machen.

Quelle: http://nordichistoryblog.hypotheses.org/1364

Weiterlesen

Mit digitalen Quellen Geld verdienen – ein schwedisches Beispiel

Das gängige Muster beim Thema Quellen-Digitalisierung dürfte wohl so aussehen: Staatliche oder andere Institutionen stecken eine Menge Geld in entsprechende Projekte, damit anschließend die digitalisierten Quellen in der Regel ohne direkt damit verbundene Gebühren von den Nutzern verwendet werden können. Es geht aber auch mal andersherum: In Schweden verdient die Firma Arkiv Digital AB Geld mit dem Digitalisieren von Quellen. Wie das geht? Mit dem in Nordeuropa äußerst großen Interesse an Ahnenforschung, das weitaus breitere Kreise als in Deutschland zu Hobbyhistorikern in eigener Sache macht.

Sage und schreibe 43 Millionen (!) Farbbilder in hoher Auflösung bietet Arkiv Digital auf seiner Seite (die auch auf Englisch verfügbar ist) an und die am stärksten vertretenen Quellengattungen weisen auch gleich auf den primär angesprochenen Nutzerkreis hin: Kirchenbücher, Protokolle von Ratsversammlungen, Testamente, Gerichtsakten, militärische Akten und weitere. Es geht also primär darum, interessierten Ahnenforschern Zugang zu umfangreichen, für diese Art  von Nachforschungen einschlägige Akten zu verschaffen, die man eben vom heimischen Bildschirm aus nutzen kann. Ein kleines Vorstellungsvideo (leider nur auf Schwedisch) erklärt die Grundidee und die Zusammensetzung der Sammlungen:

Für die Suche in dem jetzt schon umfangreichen und weiter anwachsenden Material wird eine eigene Software (für alle gängigen Betriebssysteme) angeboten, wahlweise kann man auch eine iPad-App nutzen. Software bzw. App sind kostenlos, Voraussetzung für den tatsächlichen Zugriff auf die Quellen ist ein Abonnement, wobei die Preise von 75,– SEK [~ 9,– €] für eine Woche und 1995,– SEK [~ 231,– €] für zwei Jahre reichen. Mitglieder von Ahnenforschervereinen erhalten Rabatte.

Man kann sich natürlich fragen, ob man solche Summen hinblättern will, wobei die Preise ja durchaus in einem “erträglichen Rahmen” liegen. Die Firma hat eine eigene Seite auf ihrer Homepage (diese auch auf Englisch), auf der sie den Mehrwert ziemlich einleuchtend darstellt und ganz nebenbei eine kurze Geschichte der Bewahrung der Quellen durch Mikroverfilmung liefert. Nicht nur, dass man Reisekosten zu weiter entfernten Archiven spart, die Quellen werden durch Arkiv Digital sämtlich neu in Farbe abfotografiert. Sattsam bekannt wird hier vielen die mühselige Lektüre von alten, abgenutzten Mikrofilmen sein (deren interessante Entstehungsgeschichte mit den amerikanischen Mormonen zusammenhängt!). Diese Filme wurden zwar vor nicht allzu langer Zeit digitalisiert, wurden dadurch aber nicht besser lesbar. Insofern sind die neuen Farbbilder in hoher Auflösung sicherlich für viele Nutzer viel wert, da die Möglichkeit, weit in die Bilder hinein zu zoomen, bei schwer lesbaren Stellen einen erheblichen Vorteil bietet.  Sicherlich hat man mit diesem kostenpflichtigen Angebot die Mehrzahl der Ahnenforscher als Zielgruppe im Blick, die tendenziell eher zur älteren Generation zählen und die bereit sind, für solche Leistungen die entsprechende Summe zu bezahlen. Daneben ist natürlich auch ein weiterer Schritt zur Langzeitarchivierung dieser Quellen getan, die durch häufige und unvorsichtige Nutzung verschleißen und somit dank der Digitalisierung geschont werden.

Die Seite auch auf Englisch anzubieten, ist schlüssig, da aufgrund der massenhaften Auswanderung aus Schweden nach Nordamerika in der zweiten Hälfte des 19. Jahrhunderts und der ersten Hälfte des 20. Jahrhunderts viele schwedischstämmige Amerikaner an der Erforschung ihrer schwedischen Herkunft interessiert sind. Die Software wird daher auch in einer englischen Variante angeboten. Eine Demo-Version in beiden Sprachen zu Anschauungszwecken ist  als Download verfügbar.

Quelle: http://nordichistoryblog.hypotheses.org/1680

Weiterlesen

Eine neue Sicht auf die Arktis – ArkGIS.org

Screenshot ArkGIS

Schiffsverkehr in der Arktis – Screenshot von http://www.arkgis.org

Während Minister aus den Staaten der nördlichsten Regionen der Welt über Machtverhältnisse, wirtschaftlichen Nutzen und Umweltschutz in der Arktis ringen, veröffentlicht der WWF Norwegen eine neue, frei zugängliche, interaktive Karte, dessen Zentrum der Nordpol bildet. Unter dem Namen ArkGIS (Arctic Geographical Information System) wurde Datenmaterial von u.a. dem Arktischen Rat, dem Institute of Marine Research und der Norwegischen Küstenverwaltung grafisch aufbereitet. Dem Nutzer stehen somit derzeit 368 verschiedene Karten und Kartenansichten zur Verfügung, die z.B. den Schiffsverkehr im Nordpolarmeer anzeigen, Gas- und Ölvorkommen verzeichnen und geschützte Regionen ausweisen.

Das Besondere an ArkGIS ist die staatenübergreifende Konzeption der Karte, die es ermöglichen soll »to be able to make relevant information universally available – in a very visible manner«, so die Projektleiter. Bisheriges frei zugängliches Kartenmaterial war meist auf einen Aspekt – in aller Regel die Ausbreitung des Packeises und mögliche Schifffahrtsrouten – beschränkt und sehr nationalstaatlich perspektiviert, was wohl am eindrücklichsten im Kontext der Frage darüber, wem der Nordpol gehört, deutlich wurde. Zur Untermauerung der Besitzansprüche diente meist Kartenmaterial, das z.B. unterseeische Gebirge als Fortführung des nationalstaatlichen Landareals anführte. Vermittelt wurde die Debatte durch eindimensionale Karten, die einen Überblick über die 200-Seemeilen-Zonen und die Gebietsansprüche der Anrainerstaaten geben. In ArkGIS hingegen kann der Nutzer sich seine eigene Karte erstellen und die Aspekte einblenden und kombinieren, die ihn interessieren und die in der Auseinandersetzung über die arktischen Besitzansprüche häufig ausgeblendet wurden, woraus sich gleich eine Vielzahl unterschiedlicher Betrachtungsweisen und damit verbundenen neuen Fragestellungen zu einer solch riesigen Region generieren lassen.

Die Sichtbarmachung der Region ist dem Projekt sicherlich auf eine sehr detaillierte und nicht zuletzt ansprechende Art gelungen. Sie stellt einen wichtigen, differenzierten Beitrag zur Arktis-Debatte dar, die ansonsten geprägt ist von nationalen Eitelkeiten, wirtschaftlicher Habgier und – leider allzu häufig blindem – ökologischem Aktionismus.

http://www.arkgis.org

Quelle: http://nordichistoryblog.hypotheses.org/1642

Weiterlesen

Nordische Mythologie goes digital: Thor und Odin auf dem Tablet-PC

Ein Gastbeitrag von Thomas Mohnike. Was passiert, wenn man Thor, Odin und Freyja aus den isländischen Manuskripten, den Einführungswerken und Edda-Editionen auf das iPad umsetzt, um sie der „taktilen Leserschaft“ näher zu bringen? Ist dies nicht eine Leserschaft, die oft in Computerspielen wie Age of Conan, World of Warcraft, in Filmen wie Lord of the Rings und Thor, in japanischen Mangas und norwegischem Black Metal die erste Bekanntschaft mit Odin und Loki gemacht haben? Wie muss man sich den Mythen des alten Nordens nähern, damit neuen Nutzer zugleich Spaß und Interesse entwickeln, um in die bekanntermaßen schwierige und oft unbefriedigende Welt der Quellen einzutauchen? Laut MacLuhan und anderen Medientheoretikern verändert sich das, was man erzählt, wenn man das Medium wechselt. Inwiefern hat also die gegenwärtige Medien(r)evolution einen Einfluss auf das, was wir im Bereich der Skandinavistik und der Nordeuropäischen Geschichte zu erzählen haben?

Die beste Art, solche Fragen zu beantworten, ist vielleicht das Live-Experiment. Nach einer Begegnung mit Wouter van der Veen, Dozent an der Université de Strasbourg und Autor einer Applikation zu van Gogh, war schnell der Wunsch geboren: Ja – lasst uns sehen, wie ein derart spannendes wie auch komplexes Thema in diesem neuen Medium aussieht, wie es sich verändert und was es auf andere Art und Weise erklärt. In Zusammenarbeit mit einem schnell gewachsenen und interdisziplinären Team – neben dem Verfasser dieser Zeilen sind hier Pierre-Brice Stahl, Gabriela Antunes und Giacoma Bottà zu nennen, Loïc Sander stand für die graphisch-technische Umsetzung – entstand so Dreams of Valhalla, eine iPad-Applikation, die die Vorteile eines klassischen, typographisch anspruchsvoll gestalteten Buches mit jenen des neuen Mediums kombiniert – Video-Interviews mit Experten und Praktikern der Nordischen Mythologie, interaktive, taktile, didaktische Elemente, hochauflösende Bilder von Manuskripten, die man anfassen und auch – vorsichtig – wieder säubern kann, wenn allzu viele Fingerabdrücke hinterlassen hat.

dreamsofvalhalla

Die Applikation ist in drei große Abschnitte geteilt – Quellen, Mythen und Rezeptionen. Sie sensibilisiert also zunächst dafür, auf welche Quellen wir uns stützen können – und vor welche Probleme diese Quellen uns stellen. Es folgt eine umfassende Einführung in das Erzähluniversum der nordischen Götter, um schließlich am Ende in einem historisch-geographischen Kapitel die Rezeptionsgeschichte zu erläutern und anzudeuten, wo wir heute jene Mythen finden können, und warum sie so aussehen, wie sie heute aussehen. 250 Seiten Texte, Bilder, Manuskripte, 55 Minuten Video und zahlreiche interaktive Elemente – das alles findet sich in dieser iPad-App.

Die interessantesten interaktiven Elemente finden sich vielleicht im Quellenteil. Hier kann der Leser das komplexe Verhältnis von Edda-Liedern und Manuskripten durch Berührung mit dem Finger erfahren und dabei verstehen, wie dynamisch und heterogen das Korpus der Edda-Lieder ist. Ein anderes Element lässt den Benutzer einen Runenstein transkribieren und dabei entdecken, wie faszinierend und doch zugleich enttäuschend Runensteine bezüglich der nordischen Mythen sind.

Dreams of Valhalla – Trailer from arthénon on Vimeo.

Vielleicht die größte Verwandlung im Vergleich zu klassischen Einführungen hat die Präsentation der Mythen erfahren. Inspiriert von neueren Überlegungen zur erzählerischen Instabilität der nordischen Mythen, insbesondere durch die einschlägige Studie von Anette Lassen, haben wir das Erzählen in den Mittelpunkt gestellt: Was erzählen die Mythen über Liebe und Leidenschaft, Krieg und Hass, die Erschaffung der Welt und ihr Ende? Wir versuchen also nicht, einen Pantheon zu erklären, sondern das Erzähluniversum der Mythen zu erkunden, ohne die stellenweise beeindruckende Widersprüchlichkeit glätten zu wollen.

Dreams of Valhalla existiert im Augenblick nur für das iPad. Die Software, die unsere Götter im Hintergrund antreibt, ist noch nicht mit den anderen gebräuchlichen Betriebssystemen kompatibel. Wir hoffen, dass die zuständigen Informatiker bald Rat bei Mimirs Quelle suchen.

Das Wichtigste in Kürze:

Dreams of Valhalla. Erhältlich auf iTunes zum Preis von € 4,49.

Autoren: Thomas Mohnike mit Gabriela Antunes, Giacomo Bottà und Pierre-Brice Stahl.

Verleger, Herausgeber und technische Umsetzung: Wouter van der Veen und Loïc Sander.

Link zur Facebook-Präsenz des Projekts.

Dr. Thomas Mohnike ist Maître de conférences am Département d’études scandinaves an der Université de Strasbourg. Der Literatur- und Kulturwissenschaftler hat zu den skandinavischen Literaturen, der Darstellung des Eigenen und des Fremden in diesen und mit der modernen Rezeption nordischer Mythologie geforscht. Er beschäftigt sich auch mit der Geschichte der Germanenkunde und Skandinavistik an der einstigen “Reichs-Universität” Straßburg.

Quelle: http://nordichistoryblog.hypotheses.org/1616

Weiterlesen