Rolle vorwärts. Warum Mikrofilme endlich aus den Archiven verschwinden müssen

Viel zu lange und trotz guter Alternativen haben Historikerinnen und Historiker geschwiegen. Doch jetzt muss es raus: Mikrofilme und Mikrofiches haben in den Archiven des 21. Jahrhunderts nichts mehr verloren. Meine momentane Recherche im Hauptstaatsarchiv München brachte das Fass zum Überlaufen. Was ich dort sehen will, ist auf den Mikrofilmen, die ich bekam, teilweise gar nicht und immer so abgelichtet, dass eine wissenschaftliche Rückverfolgbarkeit nicht gewährleistet werden kann. Dazu kommen die üblichen Schwierigkeiten mit dem Format Mikrofilm. In Zeiten des digitalen Wissensmanagements droht der status quo in deutschen Archiven in Vergessenheit zu geraten. Zeit also für ein Wutpamphlet in sechs Punkten.


Mikrofilm-Lesegeräte im Hauptstaatsarchiv Stuttgart.
Quelle: www.landesarchiv-bw.de

1. Quellenbestände auf Mikrofilmen sind unübersichtlich und oft schlampig gespeichert. Was auf den langen Rollen abgelichtet ist, bleibt bisweilen unklar. Das liegt an ihrer schieren Länge – mitunter dutzende Aktenbestände wurden aneinandergereiht. Nummerierungen und Bezeichnungen stimmen nicht mit dem überein, was in den Findbüchern steht. Mehrmals ist es mir schon passiert, dass in den Schächtelchen falsche Rollen lagen. Zudem scheint mir die Verfilmung, die zumindest bei den mich interessierenden Beständen oft aus den 1960er Jahren stammt, ungenau und unsystematisch. Im aktuellen Münchner Fall wurden aus einer Bestandsgruppe Aktenteile fast willkürlich durcheinander aufgenommen. Es mangelt an einer klaren Führung durch den Mikrofilm.

2. Mikroformate sind oft unleserlich und lassen zentrale Quellenbestandteile verschwinden. Jeder, der schon mal eine Quelle auf Mikrofilm gelesen hat, kennt das Problem. Sie sind oft verwischt, undeutlich oder zu kleinformatig aufgenommen. Problematisch wird das besonders bei vormodernen Dokumenten, an denen die Zeit besonders genagt hat und deren Schrift und Sprache wissenschaftlich besonders anspruchsvoll sind. Für diese ist in puncto Analysefähigkeit der Mikrofilm die schlechteste Wahl. Allgemein problematisch ist die schwarz-weiß-Verfilmung. Unterschiedliche Schriftfarben oder farbige Vermerke – die entscheidend sind für die korrekte Quelleninterpretation – sind so nicht erkennbar. 

3. Die Arbeit an Mikroformat-Lesegeräten ist gesundheitsschädlich. Die Benutzer/innen sind an die Lage des Apparats gefesselt. Anders als bei Papierdokumenten oder am Netbook können sie die Position des Arbeitsgeräts oder die eigene Haltung nicht wirklich wechseln. Das geht auf den Rücken, genauso wie die oft schlechten Verfilmungen, die zum ständigen Vorbeugen zum Bildschirm zwingen. Die schaden auf Dauer den Augen. Oft stehen die Lesegeräte in separaten Kabinen, die durch die Apparate schnell warm werden. Die schlechte Luft, das ungünstige Sitzen und die schlechte Dokumentqualität erschweren die Konzentration. Es leiden Gesundheit und wissenschaftliche Qualität.

Kein guter Arbeitsplatz: Mikrofilm-Lesegerät.

4. Mikrofilme sind schwierig und teuer zu reproduzieren. Wenn schon die Verfilmungen schlecht sind, gilt das um so mehr für die Abzüge von den Filmen. Bedenkt man, dass die meisten Historikerinnen und Historiker heute nicht zum Exzerpieren, sondern zum Reproduzieren in die Archive gehen, hat das negative Folgen für den wissenschaftlichen output. Denn am heimischen Schreibtisch sind manche Mikrofilme so schlecht reproduziert, dass die Auswertung schwierig wird. Zudem sind meiner Erfahrung nach Mikrofilm-Kopien immer teurer als Kopien aus den Originalen. Warum, bleibt mir rätselhaft. Die Benutzerinnen und Benutzer zahlen mehr, bekommen aber eine schlechtere Qualität der Repros.

5. Die Lesegeräte sind störanfällig, die Technik ist oft veraltet. Auch dieses Phänomen kennen Archivbesucherinnen und -besucher. Gerade hat man sich auf der unübersichtlichen Filmrolle zurechtgefunden, in eine Handschrift eingelesen und angefangen zu kopieren oder zu exzerpieren – da geht das Licht aus und das Lesegerät macht schlapp. Alte Geräte überhitzen leicht und geräuschvoll. Moderne Lesegerät-Technik ist nicht Standard in deutschen Archiven.

6. Mikrofilme entfremden von den Quellen. Dieser Vorwurf wird von Traditionalisten gerne an Historikerinnen und Historiker gerichtet, die mit digitalisierten Quellen arbeiten oder selbst in Archiven (was in Deutschland selten genug der Fall ist) Quellen digitalisieren. Wo bleibt der Geschmack des Archivs? Der ist bereits seit den 1960er Jahren durch die Mikrofilme verloren gegangen. Wo hingegen Digitalisate authentischer abbilden oder die Reproduktion selbst am Original vorgenommen werden muss, ist der Kontakt mit den Quellen viel direkter, physischer und visuell nachdrücklicher. All das fällt bei Mikrofilmen weg. Sie stehen unüberwindlich zwischen Historiker/in und Quelle – zumal die Originaldokumente von den Archiven mit dem Hinweis auf die Mikrofilme hermetisch unter Verschluss gehalten werden.

Oft unübersichtlich und unsorgfältig: Mikrofilm-Rollen.

Mikrofilme eignen sich also nicht für eine qualitativ hochwertige, exakte, kostengünstige und effektive historische Arbeit. Sie schaden sogar dem Leistungsvermögen der Archivbesucher und verbauen den direkteren Gang ad fontes. Dennoch prägen sie vielfach den Archivalltag, v.a. in den großen Archiven. Darüber muss gesprochen werden. Denn es gibt Alternativen: Digitalisierung, Foto-Reproduktion durch die Benutzer/innen (wie es etwa in den Archives départementales in Frankreich auch für vormoderne Dokumente möglich ist) oder der direkte Zugriff auf die Quellen. Und schon vorweg: gerade für alte Dokumente dürfte die Bestellfrequenz ohnehin nicht sonderlich hoch sein. Zudem werden die Originale von geprüften und gut ausgebildeten Fachleuten eingesehen, die wissen, wie man mit altem Schriftgut umgeht. Alles ist besser als Mikrofilme.

Quelle: http://catholiccultures.hypotheses.org/348

Weiterlesen

Der veſte Buchſtab. Digitale Editionen, ihre Erstellung und Darbietung

  Am 29. und 30.  November 2012 fand in der Geschäftsstelle der Max Weber Stiftung das Arbeitstreffen „digital humanities. Wissenschaftliche Datenbanken und Editionsprojekte“ statt. Zwar gibt es gibt noch keinen Königsweg, der in diesem weiten Bereich zu allen Zielen führt. Umso wichtiger sind Übergangsmöglichkeiten von einem Weg zum anderen. Die Überlieferung von Worten ist das wertvollste Kulturgut überhaupt. Bauten und Bilder, Geschmeide, Melodien und Maschinen können uns nützen, uns freuen, uns staunen und schaudern lassen ‒ aber sie reden nie so zu uns wie Worte, von Mensch zu Mensch. Kein Wunder, dass wir gerade auch dieser Überlieferung digitale Dauer zu geben bestrebt sind, kein Wunder aber auch, dass bei der Ausführung des Vorhabens Schwierigkeiten begegnen. Lösungen solcher Schwierigkeiten war das Arbeitstreffen gewidmet, freilich mit Schwerpunktsetzung: Es ging um schriftliche Überlieferung und das Eingeben, Abspeichern, Aufbereiten und Anzeigen von zugehörigen Metadaten (im weiteren Sinn verstanden, worunter auch schon das Transkript zu einer Abbildung fällt). Und es war wirklich fesselnd zu sehen, wie vielfältige und ausgefeilte Lösungsansätze vorgestellt, gelegentlich auch ‒ freundlich und erfreulich lebhaft ‒ gegenübergestellt wurden und wie sie einander ergänzen oder befruchten konnten.   Aus einer Hölderlinhandschrift mit der im Titel angeführten Stelle. Die Transkription (d oder D oder …?) ist ein primär philologisches, nur sekundär technisches Problem. Dazu unten etwas. (Quelle: Württembergische Landesbibliothek Stuttgart: Hs. Homburg.G,2-7: Blatt 6v: Zeile 6. http://digital.wlb-stuttgart.de/purl/bsz346526833. Lizenz CC BY-NC-ND.) FuD, vertreten von Marina Lemaire und Gisela Minn vom Trierer Kompetenzzentrum, zeigte sich als System mit einem erprobten Kern und einer Vielzahl von entwickelten oder in Entwicklung befindlichen Schnittstellen, um so gut wie alle Editionsschritte zu unterstützen ‒ von der kollaborativen Erfassung in einer MySQL-Datenbank der Uni Trier bis zur Veröffentlichung im Netz oder Druck ‒, aber auch den Wechsel hin zu anderen Systemen anbieten zu können. So gab Sebastian Felten vom DHI London einen interessanten Einblick ins Projekt „Pauper Letters and Petitions for Poor Relief in Germany and Great Britain, 1770 – 1914“ und wie dort sowohl FuD als auch das ‒ noch zu erwähnende ‒ DENQ zusammen genutzt werden, das eine zur Eingabe, das andere zur Anzeige im Netz. BASYS-Invenio, vorgestellt von Thekla Kleinschmidt und Branimir Kolev vom Bundesarchiv, wurde und wird auf der Grundlage von Islandora entwickelt, um Archivalien in einem riesigen Gesamtbestand von einigen hundert Terabytes rasch finden und anzeigen zu können. Eingebaut ist eine sehr lesefreundliche Anzeige in Gestalt des Internet-Archive-Viewers, zudem mit einer maschinellen Texterkennung über Tesseract, was eine Suche im Text der jeweils angezeigten Abbildung ermöglicht. Bei den meisten Bundesarchivalien, gedruckt im 20. bis 21. Jahrhundert, zeitigt eine maschinelle Texterkennung gute Ergebnisse. Peter Stadler stellte die Carl-Maria-von-Weber-Gesamtausgabe vor, die in bewunderungswürdig konsequenter und harmonischer Verbindung von philologischen Kardinaltugenden und modernen XML-Techniken erarbeitet wird: Mit Gründlichkeit und Genauigkeit und der echt philologischen Liebe zum Wort wird aus der sichtbaren Überlieferung, dem Bild, ein lesbarer, und zwar maschinenlesbarer Text, der bis zur Anzahl der Striche bei Unterstreichungen alles von der Überlieferung aufhebt, was irgendwie sinnunterscheidend sein könnte. Ruth und Borries von dem Bussche vom Düsseldorfer Unternehmen Fafalter skizzierten dagegen eine Lösung auf der Grundlage von HTML5, das mit RDF-Annotation angereichert wird ‒ eine Verbindung von Sinn- und Gestaltebene, die früher gemieden wurde, jetzt aber im Verlagswesen und überhaupt im geschäftlichen Umfeld mehr und mehr Anklang findet. Auch, um Netzseiten mit mehr maschinenlesbarem Inhalt im Sinne des „semantic web“ zu erstellen, ist HTML5 mit RDF-Anzeichnung die fortgeschrittenste Lösung. Charlotte Schubert von der Universität Leipzig führte eAQUA vor und machte anhand von Beispielen aus ihrer eigenen Forschung deutlich, welchen außerordentlichen Nutzen ein Korpus von diesem Umfang und Lemmatisierungsgrad, zudem versehen mit den Anzeigemöglichkeiten der Kookkurrenzanalyse und der raumzeitlichen Belegverteilung haben kann. Torsten Schrade von der Digitalen Akademie Mainz stellte einen editorischen Arbeitsablauf vor, der von Ausgangsdokumenten in verschiedenen (und nicht immer günstigen) Formaten hin zum Content-Management-System Typo3 führt. Eine besondere Herausforderung ist im Fall des Beispielprojektes „Medieval Ashkenaz“ die Mischung hebräischer und deutscher Teile, also links- und rechtsläufiger Schriftrichtung, was in besonders schweren Fällen mit einem Zusammenspiel aus weicher Auszeichnung (mit <span dir=”rtl”> … </span>) und harten Steuerzeichen (U+202B für ‘ab hier linksläufig’ und U+202A für ‘ab hier rechtsläufig’) gelöst wird. Die Steuerzeichen werden elegant über das CSS, nämlich über eine an die Anzeichnung dir gebundene content-Eigenschaft eingefügt. DENQ, vorgestellt von Jörg Hörnschemeyer (dem Entwickler) und Jan-Peter Grünewälder vom DHI Rom, ist ebenda entwickelt worden, also gleichsam innerhalb der Max Weber Stiftung. Ein Kernbestandteil ist die XML-Datenbank eXist. Gezeigt wurden eine Suche über mehrere Korpora, auch als Ähnlichkeitssuche auf der Grundlage des Lewenstein-Algorithmus, ferner die Anzeige von Belegen in räumlicher Verteilung, unterlegt mit einer geographischen Karte, sowie die Möglichkeit, die Abbildung eines Textes in Ausschnitte zu zerlegen, die im SVG-Format gespeichert und den je entsprechenden Textausschnitten zugeordnet werden können, was noch in Entwicklung ist. Es konnte aber bereits eine gerade für diese Aufgabe äußerst nützliche maschinelle Vorsegmentierung gezeigt werden, die schon erstaunlich gut war. Zur Dateneingabe sonst: In DENQ wurde oder wird für jedes gewünschte Format eine Überführung in eXist entwickelt. Unter anderem möglich ist die Nutzung eines vertrauten Editors wie Word, in dem dann über Formatvorlagen recht bequem eine semantische Auszeichnung bis auf die Ebene des Zeichens hinab vorgenommen werden kann. Es ist bewundernswert, wie viel Funktionalität und Flexibilität auf schmaler Personalbasis entwickelt und ermöglicht worden ist. TextGrid, vorgestellt von Oliver Schmid von der Technischen Universität Darmstadt, ist vielleicht das komplexeste der vertretenen Systeme und bietet einen zumal gemessen am Projektalter großen Umfang an Funktionen sowie Teilprogrammen, die modular entwickelt und vom Nutzer modular eingebunden werden können. Die Eingabeumgebung, TextGridLab, funktioniert als reines Java-Programm ohne Installation (wenn das Java-Runtime-Environment auf dem Rechner installiert ist, was ja meist zutrifft) und auch offline. Das TextGridRep wiederum dient sowohl der gemeinsamen Arbeit an derselben Datenbank, als auch der Langzeitarchivierung und der Veröffentlichung im Netz mit Suchmöglichkeiten. Zwei vielleicht miteinander zusammenhängende Eindrücke vom Arbeitstreffen: Erstens. Es gibt noch keinen Königsweg, der zu allen Zielen führt; umso wichtiger sind Übergangsmöglichkeiten von einem Weg zum anderen. Zweitens. Gerade als Austauschformat ist XML noch immer und bis auf weiteres „die reine Lehre“, wie Gregor Horstkemper von der Bayerischen Staatsbibliothek in seiner Moderation scherzte. Andererseits wurden hin und wieder die Unzulänglichkeiten von XML in den Randbereichen seiner Verwendung deutlich: Wann immer man Geltungsbereiche auszeichnen will, die unterbrochen sind oder einander überlappen, also nicht in die hierarchische Verschachtelung von XML-Dokumenten passen, muss man zu Behelfen greifen, von denen keiner der Standard ist ‒ die TEI-Richtlinien stellen mehrere gleichberechtigt nebeneinander. Und schlimmer: Um die Behelfslösung einzulesen, etwa bei Abfragen, muss man einen eigenen Parser schreiben (adé Standardkonformität) oder auf Reguläre Ausdrücke zurückgreifen (was sonst als blankes Versagen bei der XML-Verarbeitung gilt) oder XPointer verwenden, was noch kaum umgesetzt und überdies mit einem Patent belastet ist, das bei Sun lag, jetzt also bei Oracle liegen müsste (vgl. http://www.w3.org/TR/xptr-framework/, http://www.w3.org/2002/06/xptr_IPR_summary.html). Oracle hat bekanntlich schon wegen eines anderen von Sun geerbten Patentes einen Rechtsstreit begonnen. Dennoch: Stadler, Leiter der TEI-Interessengruppe „Correspondence“, hat XML mit pädagogischem Impetus hochgehalten: Geisteswissenschaftler sollen mit XML umgehen können, weil der Umgang mit Texten, Textstruktur und Textsemantik zum Kernbereich der Geisteswissenschaft gehört, weil die dabei anfallenden Entscheidungen auch nur der Fachwissenschaftler, kein hilfreich herbeieilender Techniker treffen kann und weil der Umgang mit XML auch gar nicht so schwierig ist wie die wirklich harten Probleme ‒ die sind bei einer Edition stets philologischer Natur. Wenn man von der XML-Frage verallgemeinernd absieht, wird der Impetus ein aufklärerischer: Es geht dann um den Ausgang des Geisteswissenschaftlers aus einer selbstverschuldeten Unmündigkeit, was Datenverarbeitung angeht. Besteht diese Unmündigkeit? Und ist sie selbstverschuldet ‒ aus denselben Ursachen, die Kants berühmter Aufsatz nennt? Hier liegt ein Problem, das unangenehmer ist als etwa das vergleichsweise harmlose Ansinnen, die Geisteswissenschaften im Social Web zu verankern. Dr. Stefan Müller ist Referent für Datenbanken in der Geschäftsstelle der Max Weber Stiftung in Bonn, Redaktion Perspectivia.  

Quelle: http://mws.hypotheses.org/1571

Weiterlesen

Erster Wiener Protestwanderweg für Smartphones

Martin Auer hat für das Zentrum Polis/Politik Lernen in der Schule einen Ersten Wiener Protestwanderweg zusammengestellt, der an mehreren Stationen in Wien per mobile Tag Informationen für Smartphones zur Verfügung stellt, u.a. zur Geschichte der Gewerkschaften, dem Ersten Wiener Mädchengymnasium, der Arena-Besetzung, dem WUK und der Rosa Lila Villa. Weitere Stationen sind in Planung.

Quelle: http://adresscomptoir.twoday.net/stories/222693796/

Weiterlesen

„Wer oder was handelt? Die Handlungsfähigkeit von Subjekten zwischen Strukturen und sozialer Praxis“ – Ein Bericht von Maya Halatcheva-Trapp und Oliver Kiefl

Am 15./16. Juni 2012 fand an der Hochschule Fulda, Fachbereich Sozial- und Kulturwissenschaften, eine Arbeitstagung der Sektion Wissenssoziologie zum Thema „Wer oder was handelt? Die Handlungsfähigkeit von Subjekten zwischen Strukturen und sozialer Praxis“ statt. Wie in dem der Tagung vorausgehenden … Weiterlesen

Quelle: http://soziologieblog.hypotheses.org/2958

Weiterlesen

Erinnerungskultur 2.0 · Das Projekt “1001 Geschichten über Dänemark”


1001 stories of Denmark
Screenshot der englischsprachigen
Android-App

Ich habe das Stichwort “Erinnerungskultur 2.0″ auf diesem Blog bei einem früheren Beitrag  bereits verwendet, es ging um ein norwegisches Projekt. Mal sehen, ob daraus nun sogar der Titel einer längeren Serie wird. Jedenfalls ist es hochspannend, zu beobachten, wie in Nordeuropa mehrere erinnerungskulturelle Projekte Elemente des Web 2.0 aufgreifen. In diesem Fall handelt es sich um das Projekt 1001 Geschichten über Dänemark, das erfreulicherweise nicht nur auf Dänisch, sondern nahezu vollständig (!) auch auf Englisch zugänglich ist. Das Grundprinzip ist schnell erklärt: Die Seite verzeichnet 1001 Stätten des dänischen kulturellen Erbes, die sich mithilfe einer Karte oder nach verschiedenen Kriterien (zuletzt hochgeladen, am besten bewertet, alphabetisch) durchsuchen lassen. Eingetragene User können eigene Beiträge verfassen, andere Beiträge kommentieren, neue Orte hinzufügen und neben ihren eigenen Erzählungen auch Bild, Video- und Audiomaterial hochladen. Die 1001 ursprünglichen Einträge und die 50 übergreifenden Thementexte können nicht verändert, aber kommentiert werden. Betrieben wird die Seite von der Abteilung Kulturarv [Kulturerbe] innerhalb der Kulturstyrelsen, einer staatlichen Institution unter der Ägide des Kulturministeriums, welche als kulturpolitische administrative Zentrale fungiert.

Die Seite baut sehr stark auf die Einbindung der User durch ihre eigenen Beiträge. Hier ist auch die Wortwahl bemerkenswert, wenn mit dem dänischen “1001 fortællinger” dezidiert auf das “Geschichtenerzählen” verwiesen wird, persönlich gefärbte Erinnerungen also; die Beiträge gehen oft von eigenen Vorlieben oder der Wohn-, Arbeits- oder Kindheitsumgebung der Erzählenden aus. Da ist bei einigen schon eine gehörige Portion Nostalgie mit im Spiel, aber das ist auch gewollt, um die persönliche Note zusätzlich zu betonen. Im Anschluss an den oben bereits erwähnten Beitrag scheint es also, als ob der Beschäftigung mit Geschichte (als verabsolutierender Kollektivsingular) die subjektiven Geschichten vieler Einzelner entgegengesetzt werden sollen. Oder man könnte sagen: Monolithisch daherkommende, Allgemeingültigkeit für sich in Anspruch nehmende Deutungen werden durch solche persönlichen Beiträge aufgebrochen und bereichert. Es könnte gut sein, dass sich in bestimmten Bereichen der Geschichtsforschung künftig facettenreichere Bilder aufgrund solchen Materials zeichnen ließen. Könnten diese persönlichen Erzählungen und Kommentare nicht die Grundlage für künftige Forschungen über Alltagskultur, Lokalgeschichte und Geschichtskultur jenseits der etablierten Institutionen bilden? Auf jeden Fall besitzen solche Projekte erhebliches Potenzial zur Mobilisierung geschichtsinteressierter Privatpersonen. Auf diese Weise könnten sich viel breitere Kreise am öffentlichen Geschichtsdiskurs beteiligen. Luke Tredinnick schreibt in diesem Zusammenhang vom Potenzial digitaler Technologien, neue Arten von Geschichten zu kreieren und ein neues Verhältnis zur Vergangenheit zu erlauben.

“Technological innovation has augured what Henry Jenkins has described as ‘participatory’ culture, in which individuals more actively intervene in the structure and make-up of cultural discourse, fashioning the stuff of culture in more personal, fragmented, and playful ways. History is clearly succumbing to this participatory mode. It is not merely the opening up of primary source materials, from census data, to genealogical records, [that] has enabled individuals to construct their own disintermediated relationship with the past. It is also that the proliferation of popular histories, and a popular engagement with the past across both new and traditional media, creates a fertile interaction of the scholarly history and mass culture which cannot leave either unchanged.”

Die Frage ist natürlich, ob die professionelle Geschichtsforschung bereit ist, solche Stimmen wahrzunehmen. So manche Fachvertreter werden darauf setzen, dass sich qua Institutionalisierung und qua Reputationsaufbau innerhalb hermetischer disziplinärer Publikations- und Kommunikationsforen nicht allzuviel ändert. Die Deutungshierarchien oder auch -hegemonien dürften sich als langlebig erweisen. Von daher sollte das Augenmerk auch auf der Herausforderung liegen, welche die Öffnung des historischen Diskurses für so subjektive Stimmen wie auf 1001 Geschichten über Dänemark in sich birgt. Tredinnick spricht von “the making of histories [man beachte den Plural!] in digitally mediated contexts”. Wenn wir von Geschichtswissenschaft im digitalen Zeitalter sprechen, sollten wir nicht nur davon reden, dass etablierte Akteure der Geschichtsvermittlung einfach den medialen Wandel vollziehen, so wichtig und bemerkenswert dies auch ist. Doch gerät in den Hintergrund, dass sich neue Formen und Foren für die Auseinandersetzung mit Geschichte herausbilden. “It is not merely that an objectively knowable past is repurposed for changing cultural contexts, but that different kinds of historical discourses are mobilized within a more participatory mode of cultural engagement. […] In the immediacy of digital culture, history perhaps regains part of its mythapoic [sic!] function.”

Zurück zu den Geschichten aus 1001 dänischen Erinnerungsorten: Ein einführendes Video (nachfolgend mit englischen Untertiteln) zeigt Suchmöglichkeiten und einige Beispiele für Userbeiträge und gibt einen guten ersten Eindruck – verbunden mit einigen humorigen Abschnitten, welche die Schwierigkeiten aufgreifen, eine gescheite Aufnahme hinzubekommen. Klar wird aber auch, wie verschieden die Beiträge ausfallen können, vom Hamlet-Gedenkstein inklusive Gedicht-Deklamation bis hin zu einem Stück Straßenmusik, von einem begeisterten Wissenschaftler am Niels-Bohr-Institut bis hin zu einer naturnahen Interpretation der dänischen Nationalhymne.

Ergänzt wird diese Seite durch Apps für mobile Endgeräte, die für iOs und für Android bereitstehen. Unterwegs kann man also den nächstgelegenen historischen Ort, der auf der Seite verzeichnet ist, z.B. auf dem Smartphone aufrufen und sich Hintergrundinformationen anzeigen lassen. Diese Anwendung hat noch Entwicklungspotenzial, doch die Erweiterung um solch eine mobile Variante ist eine klasse Sache. Der historische Reiseführer, der durch individuelle Kommentare noch mehr Einschätzungen dazu erlaubt, ob der fragliche Ort für einen selber wirklich interessant ist – das ist schon toll. Allerdings zeigt sich dann in einigen Regionen, dass die Dichte bei 1001 (plus weitere durch User hinzukommende) möglichen Besuchsorten streckenweise etwas dürftig ist. Auf Seeland (der Insel, auf der Kopenhagen liegt) findet man nun mal deutlich mehr Stätten des kulturellen Erbes als in einigen Teilen Jütlands. Außerdem könnte man sich die einleitenden Texte dann manchmal doch etwas grundlegender wünschen, um gedruckten Reiseführern ernsthafter Konkurrenz zu machen.

Auf der Hauptseite kann man einzelne Orte von besonderem Interesse zu einer Route zusammenstellen, um einen Trip von Geschichtsstätte zu Geschichtsstätte zu planen. Das verweist klar auf den immer weiter wachsenden Geschichtstourismus, dessen wirtschaftliche Implikationen durch einen eigenen Abschnitt zu Wirtshäusern und Hotels unterstrichen werden. Eine Auswahl von 17 Stück wird durch die jeweils besondere Bedeutung für die dänische Geschichte in das erinnerungskulturelle Konzept eingegliedert. Ohne Frage wird der an diesem Teilprojekt beteiligte dänische Gaststättenverband über die zusätzlich in die Gasthäuser strömenden Kunden nicht wenig erfreut sein.

Und dann gibt es da noch eine schöne Überraschung: Ein eigener Abschnitt widmet sich “Europäischen Erzählungen” – eine überzeugende Einbettung dänischer Geschichte in die europäische. Es geht darum, kulturelle, wirtschaftliche und politische Beziehungen zwischen Dänemark und dem Rest des Kontinents aufzuzeigen, Prägungen, Ideenexport und -import, Gemeinsamkeiten, auch die dänische Geschichte nicht rein national zu deuten, sondern als Teil der europäischen Geschichte zu vermitteln. Das verdient Respekt und es bleibt anzumerken, dass einem eine Überschrift wie “Europe – The Beautiful Story” in Zeiten der Eurokrise geradezu das Herz wärmt und einen angesichts des in Dänemark traditionell starken Europa- und EU-Skeptizismus doch überrascht.

Quelle: http://nordichistoryblog.hypotheses.org/189

Weiterlesen