Clio-Guide. Handbuch zu digitalen Ressourcen für die Geschichtswissenschaft in zweiter erweiterter und überarbeiteter Auflage erschienen

Zwei Jahre nach der Publikation der ersten Auflage ist eine erweiterte und aktualisierte Auflage des Clio-Guide. Handbuch zu digitalen Ressourcen für die Geschichtswissenschaft erschienen. Neben der Überarbeitung der Texte der ersten Auflage enthält das Handbuch sechs neue Guides:

Rüdiger Hohls hat einen Guide Digital Humanities und digitale Geschichtswissenschaften https://guides.clio-online.de/guides/arbeitsformen-und-techniken/digital-humanities/2018 verfasst, der grundlegend in ein Thema einführt, das zum Kontext aller Clio-Guides gehört.

– Mit dem Guide Zeitungen von Astrid Blome https://guides.clio-online.de/guides/sammlungen/zeitungen/2018 wird ein für Neuzeit- und Zeithistoriker zentraler Quellentypus behandelt.

[...]

Quelle: https://digigw.hypotheses.org/2245

Weiterlesen

Digitale Karten mit Graphendaten (AKHD-Workshop Halle/Wittenberg)

Norbert Luttenberger und Jesper Zedlitz (CAU Kiel) haben sich gemeinsam mit dem Kieler Stadtarchiv mit einer eindrücklichen Quelle der Stadt Geschichte beschäftigt: Dem Dokument 55177, das die Todesopfer in Kiel durch die Luftangriffe zwischen 1940 und 1955 kartiert. Bisher unbekannte (wechselnde?) Autoren hielten in einer großen Kladde akribisch fest, wer wann durch einen der ca. 90 Luftangriffe auf Kiel zu Tode gekommen ist. Todestag, Name, Vorname, Beruf, Geburtstag, Todesort, Wohnort, Todesursache … und eine laufende Nummer. Es fiel den beiden Informatikern und Studierenden nicht leicht, dieses Dokument zu lesen — nicht nur, weil es in wechselnden Handschriften geschrieben ist, sondern vor allem, weil sein Inhalt mehr als beklemmend ist.

Für das Forscherteam war die Digitalisierung ein Auftakt zu weiteren Projekten im Kontext der „Digitalen Geisteswissenschaft“. Das Produkt ist explizit für die Öffentlichkeit gedacht: „Vielleicht haben sich manche Bewohner einer Stadt schon einmal gefragt, ob denn so etwas wie ein Stadtarchiv in den Zeiten der Digitalisierung überhaupt noch notwendig ist“, so Luttenberger und Zedlitz. Mit dem visuell ansprechenden Produkt möchten die beiden Naturwissenschaftler Werbung für Stadtgeschichte machen.

[...]

Quelle: http://digigw.hypotheses.org/1590

Weiterlesen

Vikus: Ein Visualisierungstool für Korpus- und Massendaten

Seit Montag laufen in Bern die Programme rund um die Dhd2017 unter dem Titel „Digitale Nachhaltigkeit“. Während am Montag/Dienstag mehrere Workshops gezielt digitales Wissen vermittelte, startete die offizielle Tagung am Dienstagabend mit einem Abendvortrag. Heute gab es parallel in mehreren Sektionen Vorträge zu Themenschwerpunkten. Ich besuchte die Rubrik „Visualisierung“, die sehr verschiedene Ansätze bereithielt. Um Nachhaltigkeit ging es dabei zwar nicht vordergründig, Fragen der Standardisierung und des langfristigen Erhalts von Angeboten und  Services wurden allerdings immer wieder andiskutiert. Der beste Vortrag des Tages stellte ein interessantes Projekt zur Digitalisierung von Korpora, Massendaten und Sammlungsbeständen vor. Katrin Glinka von der Fachhochschule Potsdam überzeugte, indem sie sehr genau die Problemlagen benannte und anschließend Lösungsansätze aufzeigte. Im Kern geht es darum, wie große Bestände in ihrem inneren Aufbau auch dem unkundigen User bekannt und nahe gebracht werden können. Das Problem ist bekannt: Es gibt zwar bereits zahllose tolle Inhalte im Netz, nur genutzt bzw. gefunden werden sie häufig nicht.

[...]

Quelle: https://digigw.hypotheses.org/1577

Weiterlesen

Call for Papers für Schlüsseldokumente-Edition

Im Rahmen des diesjährigen Historikertages in Hamburg wurde die vom Institut für die Geschichte der deutschen Juden (IGdJ) betreute Online-Quellenedition „Hamburger Schlüsseldokumente zur deutsch-jüdischen Geschichte“ online geschaltet.

Die Online-Quellenedition, die von der DFG gefördert wird, wirft am Beispiel von ausgewählten Quellen, sogenannten Schlüsseldokumenten, thematische Schlaglichter auf zentrale Aspekte der jüdischen Geschichte Hamburgs von der frühen Neuzeit bis in die Gegenwart. Hamburg wird dabei als Brennglas für größere Entwicklungen und Fragestellungen der deutsch-jüdischen Geschichte verstanden.

Für den Ausbau der Edition sucht das IGdJ fachkundige Autorinnen und Autoren, die Interesse haben, am Beispiel einer konkreten Quelle Problemstellungen und Ergebnisse ihrer Forschungen zu präsentieren und diskutieren.

Die zweisprachige Quellenedition (deutsch/englisch) richtet sich in erster Linie an Studierende und Forschende, aber auch an interessierte Laien.

Neben der Bereitstellung der Materialien als Transkript und digitales Faksimile werden die Quellen durch Interpretationstexte in ihre historischen Kontexte eingebettet sowie durch Informationen zur Überlieferung, zur Rezeptionsgeschichte und zu wissenschaftlichen Kontroversen angereichert.

[...]

Quelle: http://digigw.hypotheses.org/1563

Weiterlesen

Hamburger Schlüsseldokumente zur deutsch-jüdischen Geschichte online

screenshot_website_deutsch

Seit kurzem lassen sich ausgewählte Dokumente zu Hamburgs jüdischer Geschichte online durchstöbern! Anlässlich des diesjährigen Historikertages in Hamburg wurde Ende September die vom Institut für die Geschichte der deutschen Juden (IGdJ) realisierte Online-Quellenedition „Hamburger Schlüsseldokumente zur deutsch-jüdischen Geschichte“ freigeschaltet und der Öffentlichkeit präsentiert.

Die Online-Quellenedition wirft am Beispiel von ausgewählten Quellen, sogenannten Schlüsseldokumenten, thematische Schlaglichter auf zentrale Aspekte der jüdischen Geschichte Hamburgs von der frühen Neuzeit bis in die Gegenwart, wobei Hamburg als Brennglas für größere Entwicklungen und Fragestellungen der deutsch-jüdischen Geschichte verstanden wird.

Alle Quellen werden als Transkript und digitales Faksimile bereitgestellt und nach TEI ausgezeichnet.  Die zusätzlich bereitgestellten Interpretations- und Hintergrundtexte dienen der Kontextualisierung und historischen Einordnung. Es finden sich Informationen zur Überlieferung, zur Rezeptionsgeschichte und zu wissenschaftlichen Kontroversen. Alle Inhalte werden sowohl auf Deutsch als auch auf Englisch angeboten.

[...]

Quelle: http://digigw.hypotheses.org/1547

Weiterlesen

Automatische Kollationierung – Zur projektbezogenen Adaption von CollateX für digitale Texteditionen

Code and collate - Workshop Amsterdam (photo: Ellie Bleeker)

Code and collate – Workshop Amsterdam (photo: Ellie Bleeker via Twitter)

Die Erstellung digitaler Editionen ist ein zentraler Arbeitsbereich der Digitalen Geschichtswissenschaften. Die bisher zur Verfügung stehenden Werkzeuge und Arbeitsumgebungen, die ja nicht nur uns Historiker sondern alle textbasierten Wissenschaften betreffen, bleiben dabei aber häufig hinter dem zurück, was man sich hierfür wünscht oder vorstellen kann. Dies gilt auch für das automatische Kollationieren. Doch wie sich auf dem „Code and Collation“ Workshop  gezeigt hat, der vom 2. bis 4. November in Amsterdam stattfand, gibt es hier deutliche Fortschritte zu verzeichnen.

Das Problem – analog

Wenn man an der Edition eines Textes arbeitet, der gleich in mehreren Textzeugnissen überliefert ist, stellt sich immer erst einmal die Frage, welche der Überlieferungen man dem zu erstellenden Editionstext zugrunde legen soll. Mit den Möglichkeiten der digitalen Edition hat sich dieses Problem deutlich vereinfacht.

[...]

Quelle: http://digigw.hypotheses.org/1532

Weiterlesen

Automatische Kollationierung – Zur projektbezogenen Adaption von CollateX für digitale Texteditionen

Code and collate - Workshop Amsterdam (photo: Ellie Bleeker)

Code and collate – Workshop Amsterdam (photo: Ellie Bleeker via Twitter)

Die Erstellung digitaler Editionen ist ein zentraler Arbeitsbereich der Digitalen Geschichtswissenschaften. Die bisher zur Verfügung stehenden Werkzeuge und Arbeitsumgebungen, die ja nicht nur uns Historiker sondern alle textbasierten Wissenschaften betreffen, bleiben dabei aber häufig hinter dem zurück, was man sich hierfür wünscht oder vorstellen kann. Dies gilt auch für das automatische Kollationieren. Doch wie sich auf dem „Code and Collation“ Workshop  gezeigt hat, der vom 2. bis 4. November in Amsterdam stattfand, gibt es hier deutliche Fortschritte zu verzeichnen.

Das Problem – analog

Wenn man an der Edition eines Textes arbeitet, der gleich in mehreren Textzeugnissen überliefert ist, stellt sich immer erst einmal die Frage, welche der Überlieferungen man dem zu erstellenden Editionstext zugrunde legen soll. Mit den Möglichkeiten der digitalen Edition hat sich dieses Problem deutlich vereinfacht.

[...]

Quelle: http://digigw.hypotheses.org/1532

Weiterlesen

Website „Sächsische Gerichtsbücher“ online

Das Sächsische Staatsarchiv verwahrt mit dem Bestand 12613 Gerichtsbücher eine in Deutschland hinsichtlich Umfang und Dichte einmalige Überlieferung von Gerichtsbüchern. In einem durch die Deutsche Forschungsgemeinschaft (DFG) geförderten Projekt wurden die über 22.000 Bände dieses Bestands ab 2013 elektronisch erschlossen. Darüber hinaus konnten Bestände von Gerichtsbüchern in neun sächsischen Stadtarchiven und dem Staatsfilialarchiv Bautzen in das Projekt einbezogen werden. Die Erschließungsinformationen sind in Kooperation mit dem Institut für Sächsische Geschichte und Volkskunde e. V. (ISGV) auf der Website »Sächsische Gerichtsbücher«  veröffentlicht worden. Die öffentliche Freischaltung erfolgte auf einem Fachkolloquium, das heute im Staatsarchiv Leipzig stattfand.

Im Rahmen des Projekts sind über 25.

[...]

Quelle: http://digigw.hypotheses.org/1472

Weiterlesen

Interoperationalität und semantisches Web für Mediävisten. Bericht zur Training School “Transmission of texts. New tools, new approaches” am IRHT Paris (31. März – 4. April 2014)

Training School am IRHT (Foto: Hanno Wijsman)

Training School am IRHT (Foto: Hanno Wijsman)

Anfang April konnte ich an einem gemeinsam von der COST Action „Medioevo Europeo“, dem Institut de Recherche d’Histoire de Textes (IRHT) und dem Projekt Biblissima organisierten Digital Humanities-Seminar teilnehmen. Unter dem Titel “Transmission of texts. New tools, new approaches”(mehr Infos: hier) standen dabei vor allem Fragen der Interoperationalität und das semantische Web im Vordergrund. Anhand konkreter Praxisbeispiele wurden hier neue Ansätze und Tools vorgestellt, die sich teilweise noch in der Entwicklung befinden, die aber zugleich auf sehr viel hoffen lassen. Damit verbunden war eine ebenfalls sehr praxisorientierte Einführung in TEI-XML und RDF.

Die Training School bot eine ganze Woche lang jeden Tag von 9 bis 19 Uhr ein intensives Programm. Von daher kann ich leider nicht alles wiedergeben, was ich hier gesehen und gelernt habe. Ich versuche aber mal, zumindest die Highlights zusammenzufassen, die ich mir notiert habe. Wer weitere Fragen hat, kann sich gerne an mich wenden.

Wichtiger Bestandteil des Programms war natürlich die Vorstellung der Beteiligten und deren Projekte. Nicht zuletzt, weil hier auch genau mit jenen Hilfsmitteln und Methoden gearbeitet wird, die im Rahmen der Training School vorgestellt wurden. Die Bedeutung der Interoperationalität und die Funktionsweise des semantischen Webs ließen sich so direkt am konkreten Beispiel nachvollziehen.

Sismel / Trame

Da ist einerseits das italienische Projekt TRAME, das am SISMEL in Florenz beheimatet ist, einer der Stützen der COST Action. Ziel von TRAME ist es, eine Metasuchmaschine für alle Datenbanken und -repositorien zu konstruieren, die Informationen zu mittelalterlichen Handschriften enthalten (Digitalisate, Kodikologie, Textgeschichte).

IRHT

Hauptveranstalter der Training School jedoch war das IRHT, in dessen Räumen auf der Avenue de Iéna auch die meisten Veranstaltungen stattfanden. Leider ist das IRHT in Deutschland kaum bekannt, was wirklich schade ist. Denn das auf die Erforschung alter Handschriften und Texte und deren (Überlieferungs-)Geschichte spezialisierte IRHT ist eine geradezu unglaubliche Einrichtung. Seit seiner Gründung in den 1930er wird hier alles gesammelt, was sich in Frankreich und weltweit zu Handschriften und alte Texten finden lässt. Organisiert ist das IRHT in 13 Sektionen, die gemeinsam alle hierzu notwendige Expertise unter einem Dach zusammenfassen. Die Bandbreite reicht von der Latinistik, Romanistik, Arabistik, Graezistik und Hebraistik, über Kodikologie, Bibliotheksgeschichte und Heraldik, Lateinische Paläographie und Diplomatik bis hin zu Handschriftenilluminationen. Dabei verfügt jede Sektion über eine herausragende Bibliothek, die jedes Forscherherz höher schlagen lässt. Wo sonst findet man z.B. sämtliche Handschriftenkataloge sowie Ausstellungs- und Auktionskataloge an einem Ort versammelt? Schließlich bietet das IRHT auch immer wieder Schulungen an, um Doktoranden und andere Interessierte im Umgang mit Handschriften auszubilden. Vielleicht wird ja die Direktorin des IRHT ihr Haus alsbald einmal auf dem DFMFA-Blog vorstellen.

Auf alle Fälle lohnt es sich, diese Institution einmal näher anzusehen. Nicht zuletzt, weil die über Jahrzehnte gesammelten Informationen zu Texten, Handschriften, Buchbesitzern etc., die bis vor kurzem noch allein in den vielen Zettelkästen des IRHT einsehbar waren, nun sukzessive online gehen. Dazu gehören auch die 76.000 Mikrofilme und digitale Reproduktionen von Miniaturen und Handschriften, die in Bibliotheken jenseits der Pariser Nationalbibliothek lagern. Interoperationalität spielt dabei eine große Rolle, denn all die verschiedenen Datensammlungen des IRHT sind miteinander verlinkt.

Rückgrat der Architektur ist die Datenbank MEDIUM, in der man früher noch die am IRHT vorhandenen Mikrofilme gesucht hat. Heute findet man hier alle Handschriftensignaturen verzeichnet, zu denen am IRHT Informationen zu finden sind. Die Handschriftensignaturen bilden sozusagen den Primärschlüssel zu dem ganzen System. Entsprechend kann man auch nach den Signaturen suchen. Oder aber, unter Verwendung der recherche avancée, den Bestand auch nach Eigenschaften wie Sprache, Dekoration usw. filtern. Die einzelnen Handschriften in MEDIUM sind dann wiederum mit den entsprechenden Angaben in den weiteren Datenbanken verlinkt, die da sind (in Auswahl):

  • Jonas: Katalog mittelalterlicher französischsprachiger Texte und Handschriften weltweit, durchsuchbar nach Autor, Titel und Signatur, einschließlich Texttradition und Bibliographie. Die Datenbank ist natürlich nicht komplett (zumindest was mein Thema angeht), aber man kann hier schon eine Menge finden und sie wird ständig erweitert. U.a. im Rahmen eines laufenden Katalogisierungsprojektes zu den bisher weitgehend noch unbekannten französischen Beständen der Bibiliotheca Vaticana (ca. 400 Handschriften!).
  • Bibale: Informationen zur Provenienz der Handschriften vom Mittelalter bis heute. Hier ist es möglich, anhand der Besitzvermerke, alter Signaturen, ex libris, Besitzerwappen, Inventare, Einbände usw. die Provenienz einer einzelnen Handschrift zu ermitteln oder auch ganze historische Bibliotheksbestände zu rekonstruieren.
  • Initiale: kunsthistorische Analyse dekorierter und illuminierter Handschriften und Inkunabeln.
  • Pinakes: Griechische Texte und Handschriften.

Die einzelnen Angaben wiederum sind mit der BVMM verbunden, der virtuellen Bibliothek mittelalterlicher Handschriften in französischen Bibliotheken (außer BnF) mit Bildern aus über 10.000 Handschriften, von denen hier über 3000 als vollständiges Digitalisat zu finden sind. Der Viewer erlaubt es dabei, auch mehrere Bilder gleichzeitig anzuzeigen und miteinander zu vergleichen.

Biblissima – das Megaprojekt

Biblissima, der dritte Partner der Training school, ist in der Tat ein wahres Megaprojekt. Wenn man sieht, was die BnF (einer der Partner) mit ihrer Digitalisierungsinitiative und Gallica bereits auf die Beine gestellt hat, kann man sicherlich davon ausgehen, dass auch dieses Projekt wie geplant auch umgesetzt wird. Biblissima soll nämlich nichts anderes als die „Bibliothek der Bibliotheken“ des 21. Jahrhunderts werden. So etwas wie eine, oder besser, die Metabibliothek, in der alle handschriftenrelevanten Daten der beteiligten Institutionen zugleich und miteinander kombiniert anzeigbar und durchsuchbar sein werden. Und das meint:

  • Digitialisate,
  • digitale Editionen
  • und Metadaten aus Forschungsdatenbanken (Handschriftenbeschreibungen, Ikonographie, Einband, Inkunabeln, etc.).

Während heutzutage jede Handschriftenbibliothek für ihre Bild- und Metadaten ein eigenes Format verwendet und die Bilder und Informationen der einzelnen Einrichtungen somit – um auf das in den Präsentationen immer wieder gebrauchte Bild zurückzugreifen – wie in einzelnen Silos lagern, die nicht mit einander kommunizieren können, soll Biblissima es ermöglichen, all diese Bilder und Daten miteinander in Kontakt zu bringen. Dafür wird auf ein gemeinsam mit Stanford entwickeltes Format (IIIF) und auf eine gemeinsame Technologie für die Viewer (Shared Canvas) zurückgegriffen. Letztere besteht darin, die einzelnen Handschriftenseiten als Grundlage zu nehmen. Diese werden dabei a priori als freie Fläche definiert, auf der man dann alle möglichen Informationen als einzelne Datenschichten ablegen kann: Digitalisate, digitale Editionen, Informationen zu Text und Handschrift, zu den Miniaturen, Schwarzlichtfotos, was auch immer. Wer schon einmal einen ersten Blick darauf werden möchte, findet hier ein Demo: http://demos.biblissima-condorcet.fr/mirador/ (nähere Infos dazu: hier).

Mit Biblissima soll es dann möglich sein, zu einer Handschriftenseite oder zu einer ganzen Handschrift (selbst wenn deren Teile getrennt über mehrere Bibliotheken verteilt sind) alle erreichbaren Informationen in ein und demselben Viewer gemeinsam anzeigen zu lassen. Dies kann auch mit mehreren Handschriften gleichzeitig geschehen, wenn man diese z.B. miteinander vergleichen möchte.

Für den Anfang sollen hier die virtuellen Bibliotheken der BnF (Gallica), die oben erwähnte BVMM des IRHT sowie die BVH (Les bibliothèques virtuelles humanistes der Universität Tours) miteinander verbunden werden. Aber auch die British Library und mehrere amerikanische Bibliotheken sind mit dabei. Die Datenpools speisen sich aus den genannten Datenbanken des IRHT, den Metadaten der BnF und weiteren Quellen – die aktuelle Liste umfasst ca. 50 Einzeldatenbanken.

Begleitet werden soll das Ganze durch eine Auswahl frei zur Verfügung stehender Arbeitsinstrumente für die Erstellung digitaler Editionen und deren Analyse. Zudem gibt es auf der Seite von Biblissima bald ein Toolkit, das die verschiedenen im Netz vorhandenen Datenbanken und Tools zusammenfasst und nach verschiedenen Kriterien filtern lässt.

Das Ganze ist natürlich ein Musterbeispiel für die Möglichkeiten des semantischen Webs. Aktuell wird hierfür der Thesaurus und eine Ontology speziell zur Beschreibung von Handschriften und deren Überlieferung erstellt, wobei das RDF-Framework auf CIDOC-CRM und FRBRoo basiert. Wie genau so etwas passiert, das wurde in einem der Praxisteile des Seminars gezeigt … und geübt.

Der Praxisteil: Interoperationalität und semantisches Web mit TEI-XML und RDF

Die 20 Teilnehmer aus insgesamt 14 Ländern haben also nicht nur die schöne neue Welt von morgen präsentiert bekommen, sondern auch ganz konkret erfahren und üben können, wie das alles funktioniert. Und zwar immer anhand der laufenden Arbeiten in den verschiedenen Projekten der beteiligten Institutionen. So wurde für die Markierung von Texten nach TEI- Richtlinien an alten Bibliotheksinventaren gearbeitet, auf deren Grundlage man am IRHT den Bestand der historischen Bibliotheken von Chartres rekonstruiert und mit den Resten abgleicht, die nach dem Bombardierung der Bibliotheque municipale von Chartres während des Zweiten Weltkriegs übrig geblieben sind. Verwendet wurde dabei der XMLmind_XML_Editor, der entsprechend angepasst wurde und der wohl auch dem XML-Editor im Toolkit von Biblissima zugrundeliegen wird.

Methoden und Tools zur Arbeit mit RDF im semantischen Web (Thesaurus erstellen, RDF-Triples formulieren und auf URI‘s verweisen, SPARQL-Abfragen erstellen) wurde uns wiederum am konkreten Beispiel des Biblissima-Projektes vorgeführt, bevor wir es dann auch selbst für unsere eigenen Projekte ausprobieren konnten.

Die Erstellung digitaler Editionen, insbesondere des kritischen Apparats (Varianten und Kommentare), wurden am letzten Tag schließlich anhand des nicht minder beeindruckenden Projektes SourcEncyMe geübt, einer kollaborativen Onlineplattform zu mittellateinischen Enzyklopädien und der Identifikation ihrer Quellen, die bisher noch unveröffentlicht ist. Dominique Poirel hat darüber hinaus in die verschiedenen Möglichkeiten zur Erstellung von Stemmata eingeführt. Wie sich das Ganze dann anhand TEI-encodierter Texte zumindest semi-automatisch umsetzen und graphisch aufbereiten lässt, hat anschließend Dominique Stutzmann gezeigt. Er selbst leitet die Lateinische Paläographie am IRHT und hatte am Tag zuvor sein eigenes digitales Projekt Oriflamms vorgestellt, das ebenfalls nicht unerwähnt bleiben soll. Hier geht es um die Möglichkeiten der automatischen Texterkennung für mittelalterliche Handschriften, wobei das Projekt schon beachtliche Resultate erzielt. Eine genauere Projektvorstellung gibt es voraussichtlich im nächsten Semester im Münsteraner „Forschungskolloquium Mittelalter (400-1500)“.

Fazit

Alles in allem war das, was während der 5 Tage am IRHT und bei Biblissima gezeigt und vorgeführt wurde, eine beeindruckende Demonstration des State of the art. Gerade der Umstand, dass die beiden Leitmotive Interoperationalität und semantisches Web hier immer wieder am praktischen Beispiel in ihrer ganzen Bedeutung fassbar wurden, war für mich eine der wichtigsten Erfahrungen dieser Training School. Das einzige, wovon ich mir noch mehr gewünscht hätte, waren die praktischen Übungen. Denn gerade durch die Arbeit mit Material aus den laufenden Projekten wurden Funktion und Sinn der einzelnen Methoden und Tools erst richtig erfahrbar. Die im Titel angekündigten new tools und new approaches haben sich im Programm der Training School damit aufs Beste miteinander verbunden.

Was mich letztlich zu der Frage bringt, wie es eigentlich mit ähnlich gelagerten Projekten in Deutschland aussieht. Vielleicht könnte man einmal eine Übersicht auch zu aktuellen mediävistischen DH-Projekten und Planungen in Deutschland hier auf dem DigiGW-Blog zusammenzustellen. Sehr gute Initiativen zur digitalen Rekonstruktion historischer Bibliotheken wie das Virtuelle Skriptorium St. Matthias in Trier, weitreichende Digitalisierungsinitiativen wie die der BSB und Metakataloge wie die Manuscripta medievalia gibt es ja auch hier. Und ich habe den Eindruck, dass sich da auch gerade einiges tut. Diese alle einmal in einem Überblick zusammenzufassen und vorzustellen wäre sicherlich sehr spannend und könnte gleichzeitig dazu beitragen, die Digitalen Geschichtswissenschaften bzw. die digitale Mediävistik und all das, was damit in Zukunft möglich wird, auch hier noch sichtbarer und bekannter zu machen.

 

Quelle: http://digigw.hypotheses.org/723

Weiterlesen

Digitalisierungsstrategien für das kulturelle Erbe in Norwegen | Teil 3: Die norwegische Nationalbibliothek als zentraler Akteur

Nach Teil 1 (zu grundsätzlichen Aspekten) und 2 (zum Archivwesen) geht es nun im dritten Part dieser Artikelserie um die norwegische Nationalbibliothek als zentralem Akteur. Dieser weist  die nationale Digitalisierungsstrategie als führender Forschungsbibliothek des Landes die zentrale Rolle für den Aufbau der digitalen Bibliothekssammlungen zu. „Mit Verankerung im Pflichtexemplarsrecht und im Urheberrecht ist es die Vision der Nationalbibliothek, das Gedächtnis der Nation und ein multimediales Kompetenzzentrum auf der Höhe künftiger Nachfrage zu sein. Zwei ihrer vier Hauptziele sind ‚eine von Europas spannendsten und modernsten Nationalbibliotheken zu sein‘ und ‚der Kern der norwegischen digitalen Bibliothek‘ zu sein.“ Zwar wurde das Pflichtexemplarsrecht erst 1989 eingeführt, die Digitalisierungspläne im Rahmen der 2009 lancierten Webpräsenz Bokhylla [Bücherregal] reichen aber zeitlich deutlich weiter. Bis 2017 sollen alle in Norwegen zwischen den Jahren 1900 und 2000 erschienenen Bücher gratis im Internet zugänglich sein – allerdings nur von norwegischen IP-Adressen aus. Alle Bücher, für die das Urheberrecht abgelaufen ist, dürfen heruntergeladen werden, die restlichen kann man nur online lesen. Da das 1989 eingeführte norwegische Pflichtexemplarsrecht zudem medienneutral formuliert ist, finden auch Medien wie Ton- oder Bildaufnahmen Eingang in die Norwegische digitale Bibliothek. Die Digitalisierung der gesamten Bestände der Nationalbibliothek wird darüber hinaus ebenfalls in einem Zeitrahmen von 25 bis 30 Jahren angestrebt. „50 Kilometer an Kulturerbe sollen digitalisiert werden“ überschrieb der norwegische Rundfunk einen Internetbericht über das Vorhaben, für das am zweiten Standort der Nationalbibliothek im nordnorwegischen Mo i Rana eigens ein Digitalisierungsgebäude mit neuester Technik gebaut wurde.

Die Nationalbibliothek folgt in ihrer 2006 begonnenen Digitalisierungspolitik den wichtigsten Empfehlungen, welche als Minimalanforderungen für digitalisiertes Kulturerbe von einer Expertengruppe ausgearbeitet wurden: Lokalisierbarkeit der digitalen Bestände, Qualitätsstandards für die Erstellung digitaler Materialien, umfassende Beschreibung durch Metadaten, Sicherung der Langzeitarchivierung sowie angemessene Präsentation. Zudem wurde eine eigene Digitalisierungsstrategie für das Bibliothekswesen ausgearbeitet, in der die Zugänglichkeit des kulturellen Erbes ebenfalls hervorgehoben wird: „Der Einsatz der Nationalbibliothek auf dem digitalen Gebiet wird auf Sicht dazu führen können, dass der gewöhnliche Nutzer auf seinem eigenen PC direkten Zugang zu großen Teilen des norwegischen Kulturerbes haben kann.“ In einem eigenen Strategiepapier stellt sich die Nationalbibliothek als diejenige Einrichtung vor, die in Norwegen Richtung und Tempo für kulturelle Digitalisierungsvorhaben vorgibt, welche landesweite Standards etabliert und im Mittelpunkt eines ganzen Netzwerkes von Kooperationspartnern steht. Norwegische Bücher und Medien aller Art seit dem Mittelalter sollen nach und nach frei zugänglich werden und die Langzeitarchivierungsstrategie wird sehr ambitioniert mit einer 1000jährigen Perspektive versehen. Das Selbstbewusstsein, hier an der Spitze der Entwicklung zu stehen, ist sehr ausgeprägt: „Some European countries have also started digitizing parts of their national cultural treasures, but so far no other national library has plans to digitize their entire holdings. We are thus the first National Library in Europe to take on this huge challenge, not only for the preservation of materials for posterity, but also to make as much content as possible available on the web.“ Wie weit die Ausweitung von Nutzungsmöglichkeiten der digitalen Sammlungen bereits gedacht wird, zeigt die recht frühe Orientierung auf die Nutzung von mobilen Endgeräten wie Smartphones und die Entwicklung einer mobilen Version der Webpräsenz für die digitalen Sammlungen. Darüber hinaus wird an der Nationalbibliothek auch Forschung betrieben, von der man für weitere Schritte bei der Bewahrung digitaler Materialien zu profitieren hofft, beispielsweise ein Projekt zur Archivierung von Meldungen auf dem Kurznachrichtendienst Twitter: „How can institutions like the National Library of Norway preserve new media content like Twitter for future research and documentation?“ lautet hier das Erkenntnisinteresse. Der Autor verweist ausdrücklich auf die Aufgabe der Nationalbibliothek zur Bewahrung des kulturellen Erbes, zu welchem letztlich in der digitalen Welt auch Nachrichten auf Twitter gehören: „Twitter is a relevant part of our culture, and thus should be regarded cultural heritage. Preserved tweets might provide an insight into our culture for future generations.“

Die zentrale Stellung der Nationalbibliothek wurde weiter gestärkt, als der wichtigste Konkurrent (auch um die öffentlichen Gelder), das staatliche Zentrum für Archive, Bibliotheken und Museen [ABM-utvikling] 2010 aufgelöst und Teile seiner Aufgaben an die Nationalbibliothek sowie an den Norwegischen Kulturrat übertragen wurden. Zudem machten sich auch kritische Stimmen bemerkbar, die einen Mangel an kritischer Diskussion über das Vorgehen namentlich der Direktorin der Nationalbibliothek Vigids Moe Skarstein beklagen und problematisieren, dass gewissermaßen durch die Hintertür eine zu wenig hinterfragte kulturelle Deutungshoheit etabliert worden sei. Es würden hohe Summen für die umfassende Digitalisierung ausgegeben, ohne nach möglichen Nutzungsszenarios zu fragen und ohne die Interessen der Leserinnen und Leser einzubeziehen. Zudem wurde die Forderung laut, Artefakte aus allen Bereichen des kulturellen Erbes einer gemeinsamen Auswahl und Prioritätensetzung zu unterziehen.

Als Fazit der Artikelserie kann man festhalten: Norwegen ist ganz klar Vorreiterland auf dem Gebiet der Digitalisierung von kulturellem Erbe. Besonders bemerkenswert sind dabei Tempo und Umfang der Maßnahmen. Dies ruft wie gesehen auch Kritiker auf den Plan: Autoren und Verlage haben Bücher aus dem digitalen Bücherregal der Nationalbibliothek zurückgezogen (aus Angst vor Gewinneinbußen). Zudem ist Geschwindigkeit bei der sorgfältigen Aufbereitung von historischen Materialien für deren Digitalisierung eben nicht Trumpf. In Norwegen sind die zentralen Akteure allerdings von jeher in einer starken Position, und Regierung sowie Parlament haben im Rahmen der Digitalisierungsstrategien entschieden, diese weiter zu stärken und ihnen die notwendigen Mittel zur Verfügung zu stellen – und nicht etwa externen Dienstleistern aus der freien Wirtschaft. Die Institutionen selbst wiederum haben aus ihrem Auftrag weit mehr gemacht, als ihnen der Staat aufgetragen hat. Insbesondere die Nationalbibliothek hat von sich aus weitere Mittel und Personalkapazitäten für die Digitalisierungsvorhaben reallokiert. Sie nutzt ihre Vorhaben auf dem digitalen Feld für eine weitreichende Imagekampagne, die neben der eigenen Institution auch dem gesamten Land zu einer Reputation als innovative, progressive Nation gereichen soll. Somit sind die Digitalisierungsstrategien für das kulturelle Erbe auch Werbung im Ausland und ein neues Element, das sich aber in eine bestehende Tradition einreiht: Norwegen als Vorbildland, welches sich für die guten Dinge einsetzt und damit der Welt ein Beispiel gibt. Dies ist auf den Gebieten der Wohlfahrtsstaatspolitik ebenso wie der Entwicklungspolitik bereits ein etabliertes Muster. Fortschrittlichkeit wird durch die Offenheit für neue Technologien signalisiert, die für gesellschaftlich wertvolle Zwecke eingesetzt wird. Die kritischen Stimmen sind zwar da, aber sie sind nicht laut und sie sind wenige – in einem Land mit einer stärker ausgeprägten Konsens- statt Konfliktkultur.

Quelle: http://nordichistoryblog.hypotheses.org/2198

Weiterlesen