Genuine Internetdaten als historische Quellen

Catherina Schreiber von der Universität Luxembourg hat unter dem Titel ‘Genuine Internetdaten als historische Quellen – Entwurf einer korrealistischen Quellentheorie’ einen interessanten Artikel in der Zeitschrift für digitale Geschichtswissenschaften, Nr. 1 (2012), verfasst. Ein Abstract und der Volltext befindet sich auf der Webseite der Zeitschrift.

Der Beitrag fasst wunderbar zusammen, was eine digitale Quelle (‘born digital source’) definiert. Eine solche ist genuin digital, multimodal und –dimensional, veränderbar, prozessorientiert sowie zeitlich und räumlich unabhängiger. Zudem kann sie für einen grösseren Umfang an quantitativen und qualitativen Analysen verwendet werden. Dass damit die bisherige quellenkritische Methode nicht mehr ausreicht und einer Erweiterung bedarf, sollte für jeden Leser nachvollziehbar sein.

Was für mich jedoch nicht ganz plausibel erscheint, ist ihre Kritik an der Aufwertung der äusseren Quellenkritik, die nun zu stark mit der inneren Kritik verknüpft würde. Als Beispiel zitiert sie Eva Pfanzelter, welche die Wichtigkeit der Autorenangaben betont. Jedoch werden digital entstandene Texte und ‘Objekte’ (Graphiken, dynamischer Content etc.) leider selten mit einem Urheberhinweis versehen, ausser es ist damit ein finanzielles Motiv damit verbunden (Urheberrecht). Fachportale (bspw. hsozkult) bilden zwar meistens die Ausnahme, aber dies trifft auf Fachseiten (bspw. Universitätswebseiten) schon nicht mehr zu.

Meines Erachtens können auch nicht urheberidentifizierte Quellen, d.h. Quellen, deren Urheber nicht identifiziert werden kann, wissenschaftlich verwendet werden. Vor allem bei quantitativen Analysen können mit solchen ‘anonymen’ Daten und Informationen Aussagen erarbeitet werden. Sobald jedoch eine singuläres Objekt (mit seinen gesamten Beziehungen und Wechselwirkungen) als Quelle im wissenschaftlichen Kontext verwendet werden soll, dann müssen die äusseren ‘Werte’ genau geprüft werden. Eva Pfanzelters Bemerkung, dass die Angaben zu den Autorinnen und Autoren nach wie vor als zentrales Qualitätskriterium gelten, scheint mir deshalb immernoch korrekt zu sein, weil diese Informationen zur Bewertung der Plausibilität, Seriosität und Vertrauenswürdigkeit der Quelle sehr viel beitragen können. Wahrheitsgehalt und Originalität (im Punkt 3 aufgeführt) ist auch in der analogen Welt kein Kriterium die Quelle nicht zu verwenden, aber der Wahrheitsgehalt muss bekannt sein. Diese Anforderung bleibt auch in der digitalen Welt erhalten. Deshalb kann ich Punkt 2.3 nur bedingt zustimmen.

Was im Beitrag leider nicht erwähnt wurde, ist die Flüchtigkeit und Änderbarkeit eines digitalen Objektes: das Objekt kann zum Beispiel bei einem weiteren Zugriff verschwunden sein (eine URL-Angabe mit Datum ist deshalb nur als ‘hilfreicher Hinweis’ einzustufen und nicht als ‘wissenschaftlicher Verweis’). Schlecht steht es um die Nachvollziehbarkeit, wenn die Quelle vom Urheber unerkannt verändert und vom Nutzer verwendet wurde. Dies scheint mir ein wichtiger Aspekt der zu erweiternden Quellenkritik zu sein und entsprechend müssen solche Probleme von der Methodik aufgegriffen werden.

Die Kieslerschen Theorie des Korrealismus in die Quellenkritikdiskussion einzubringen finde ich einen guten Ansatz, dem man nur zustimmen kann. Jedoch hoffe ich auch, dass jeder Historiker in seiner Ausbildung methodisch gelernt hat, eine Quelle immer im grösseren Zusammenhang zu sehen. Deswegen ist der Ansatz nicht neu, aber trägt zum Verständnis der Methodik bei und sollte betont werden.

Catherine Schreiber: Genuine internet data as historical sources
Abstract

 

Quelle: http://hsc.hypotheses.org/123

Weiterlesen

Untere Augartenstraße 1-3 – Ernst Jandls Wohnungsleiden

JandlErnst_Wien_UntereAugartenstr1-3

1020 Wien, Untere Augartenstraße 1-3: Hier wohnte Ernst Jandl in der ersten Hälfte der 1970er Jahre, und es war von hier aus, dass er in einem Inserat in der Presse (23./24.8.1975) "wegen akuten Raummangels und U-Bahn-Baulärms dringend [eine] ruhige private Zweitwohnung" suchte.

Gleich in der Nähe übrigens: Die franz hochedlinger-gasse.

Fetz, Bernhard/Schweiger, Hannes (Hg.): Die Ernst Jandl Show. (366. Sonderausstellung des Wien Museums). St. Pölten: Residenzverlag, 2010, S. 18.

Quelle: http://adresscomptoir.twoday.net/stories/224317985/

Weiterlesen

Rolle vorwärts. Warum Mikrofilme endlich aus den Archiven verschwinden müssen

Viel zu lange und trotz guter Alternativen haben Historikerinnen und Historiker geschwiegen. Doch jetzt muss es raus: Mikrofilme und Mikrofiches haben in den Archiven des 21. Jahrhunderts nichts mehr verloren. Meine momentane Recherche im Hauptstaatsarchiv München brachte das Fass zum Überlaufen. Was ich dort sehen will, ist auf den Mikrofilmen, die ich bekam, teilweise gar nicht und immer so abgelichtet, dass eine wissenschaftliche Rückverfolgbarkeit nicht gewährleistet werden kann. Dazu kommen die üblichen Schwierigkeiten mit dem Format Mikrofilm. In Zeiten des digitalen Wissensmanagements droht der status quo in deutschen Archiven in Vergessenheit zu geraten. Zeit also für ein Wutpamphlet in sechs Punkten.


Mikrofilm-Lesegeräte im Hauptstaatsarchiv Stuttgart.
Quelle: www.landesarchiv-bw.de

1. Quellenbestände auf Mikrofilmen sind unübersichtlich und oft schlampig gespeichert. Was auf den langen Rollen abgelichtet ist, bleibt bisweilen unklar. Das liegt an ihrer schieren Länge – mitunter dutzende Aktenbestände wurden aneinandergereiht. Nummerierungen und Bezeichnungen stimmen nicht mit dem überein, was in den Findbüchern steht. Mehrmals ist es mir schon passiert, dass in den Schächtelchen falsche Rollen lagen. Zudem scheint mir die Verfilmung, die zumindest bei den mich interessierenden Beständen oft aus den 1960er Jahren stammt, ungenau und unsystematisch. Im aktuellen Münchner Fall wurden aus einer Bestandsgruppe Aktenteile fast willkürlich durcheinander aufgenommen. Es mangelt an einer klaren Führung durch den Mikrofilm.

2. Mikroformate sind oft unleserlich und lassen zentrale Quellenbestandteile verschwinden. Jeder, der schon mal eine Quelle auf Mikrofilm gelesen hat, kennt das Problem. Sie sind oft verwischt, undeutlich oder zu kleinformatig aufgenommen. Problematisch wird das besonders bei vormodernen Dokumenten, an denen die Zeit besonders genagt hat und deren Schrift und Sprache wissenschaftlich besonders anspruchsvoll sind. Für diese ist in puncto Analysefähigkeit der Mikrofilm die schlechteste Wahl. Allgemein problematisch ist die schwarz-weiß-Verfilmung. Unterschiedliche Schriftfarben oder farbige Vermerke – die entscheidend sind für die korrekte Quelleninterpretation – sind so nicht erkennbar. 

3. Die Arbeit an Mikroformat-Lesegeräten ist gesundheitsschädlich. Die Benutzer/innen sind an die Lage des Apparats gefesselt. Anders als bei Papierdokumenten oder am Netbook können sie die Position des Arbeitsgeräts oder die eigene Haltung nicht wirklich wechseln. Das geht auf den Rücken, genauso wie die oft schlechten Verfilmungen, die zum ständigen Vorbeugen zum Bildschirm zwingen. Die schaden auf Dauer den Augen. Oft stehen die Lesegeräte in separaten Kabinen, die durch die Apparate schnell warm werden. Die schlechte Luft, das ungünstige Sitzen und die schlechte Dokumentqualität erschweren die Konzentration. Es leiden Gesundheit und wissenschaftliche Qualität.

Kein guter Arbeitsplatz: Mikrofilm-Lesegerät.

4. Mikrofilme sind schwierig und teuer zu reproduzieren. Wenn schon die Verfilmungen schlecht sind, gilt das um so mehr für die Abzüge von den Filmen. Bedenkt man, dass die meisten Historikerinnen und Historiker heute nicht zum Exzerpieren, sondern zum Reproduzieren in die Archive gehen, hat das negative Folgen für den wissenschaftlichen output. Denn am heimischen Schreibtisch sind manche Mikrofilme so schlecht reproduziert, dass die Auswertung schwierig wird. Zudem sind meiner Erfahrung nach Mikrofilm-Kopien immer teurer als Kopien aus den Originalen. Warum, bleibt mir rätselhaft. Die Benutzerinnen und Benutzer zahlen mehr, bekommen aber eine schlechtere Qualität der Repros.

5. Die Lesegeräte sind störanfällig, die Technik ist oft veraltet. Auch dieses Phänomen kennen Archivbesucherinnen und -besucher. Gerade hat man sich auf der unübersichtlichen Filmrolle zurechtgefunden, in eine Handschrift eingelesen und angefangen zu kopieren oder zu exzerpieren – da geht das Licht aus und das Lesegerät macht schlapp. Alte Geräte überhitzen leicht und geräuschvoll. Moderne Lesegerät-Technik ist nicht Standard in deutschen Archiven.

6. Mikrofilme entfremden von den Quellen. Dieser Vorwurf wird von Traditionalisten gerne an Historikerinnen und Historiker gerichtet, die mit digitalisierten Quellen arbeiten oder selbst in Archiven (was in Deutschland selten genug der Fall ist) Quellen digitalisieren. Wo bleibt der Geschmack des Archivs? Der ist bereits seit den 1960er Jahren durch die Mikrofilme verloren gegangen. Wo hingegen Digitalisate authentischer abbilden oder die Reproduktion selbst am Original vorgenommen werden muss, ist der Kontakt mit den Quellen viel direkter, physischer und visuell nachdrücklicher. All das fällt bei Mikrofilmen weg. Sie stehen unüberwindlich zwischen Historiker/in und Quelle – zumal die Originaldokumente von den Archiven mit dem Hinweis auf die Mikrofilme hermetisch unter Verschluss gehalten werden.

Oft unübersichtlich und unsorgfältig: Mikrofilm-Rollen.

Mikrofilme eignen sich also nicht für eine qualitativ hochwertige, exakte, kostengünstige und effektive historische Arbeit. Sie schaden sogar dem Leistungsvermögen der Archivbesucher und verbauen den direkteren Gang ad fontes. Dennoch prägen sie vielfach den Archivalltag, v.a. in den großen Archiven. Darüber muss gesprochen werden. Denn es gibt Alternativen: Digitalisierung, Foto-Reproduktion durch die Benutzer/innen (wie es etwa in den Archives départementales in Frankreich auch für vormoderne Dokumente möglich ist) oder der direkte Zugriff auf die Quellen. Und schon vorweg: gerade für alte Dokumente dürfte die Bestellfrequenz ohnehin nicht sonderlich hoch sein. Zudem werden die Originale von geprüften und gut ausgebildeten Fachleuten eingesehen, die wissen, wie man mit altem Schriftgut umgeht. Alles ist besser als Mikrofilme.

Quelle: http://catholiccultures.hypotheses.org/348

Weiterlesen

Der veſte Buchſtab. Digitale Editionen, ihre Erstellung und Darbietung

  Am 29. und 30.  November 2012 fand in der Geschäftsstelle der Max Weber Stiftung das Arbeitstreffen „digital humanities. Wissenschaftliche Datenbanken und Editionsprojekte“ statt. Zwar gibt es gibt noch keinen Königsweg, der in diesem weiten Bereich zu allen Zielen führt. Umso wichtiger sind Übergangsmöglichkeiten von einem Weg zum anderen. Die Überlieferung von Worten ist das wertvollste Kulturgut überhaupt. Bauten und Bilder, Geschmeide, Melodien und Maschinen können uns nützen, uns freuen, uns staunen und schaudern lassen ‒ aber sie reden nie so zu uns wie Worte, von Mensch zu Mensch. Kein Wunder, dass wir gerade auch dieser Überlieferung digitale Dauer zu geben bestrebt sind, kein Wunder aber auch, dass bei der Ausführung des Vorhabens Schwierigkeiten begegnen. Lösungen solcher Schwierigkeiten war das Arbeitstreffen gewidmet, freilich mit Schwerpunktsetzung: Es ging um schriftliche Überlieferung und das Eingeben, Abspeichern, Aufbereiten und Anzeigen von zugehörigen Metadaten (im weiteren Sinn verstanden, worunter auch schon das Transkript zu einer Abbildung fällt). Und es war wirklich fesselnd zu sehen, wie vielfältige und ausgefeilte Lösungsansätze vorgestellt, gelegentlich auch ‒ freundlich und erfreulich lebhaft ‒ gegenübergestellt wurden und wie sie einander ergänzen oder befruchten konnten.   Aus einer Hölderlinhandschrift mit der im Titel angeführten Stelle. Die Transkription (d oder D oder …?) ist ein primär philologisches, nur sekundär technisches Problem. Dazu unten etwas. (Quelle: Württembergische Landesbibliothek Stuttgart: Hs. Homburg.G,2-7: Blatt 6v: Zeile 6. http://digital.wlb-stuttgart.de/purl/bsz346526833. Lizenz CC BY-NC-ND.) FuD, vertreten von Marina Lemaire und Gisela Minn vom Trierer Kompetenzzentrum, zeigte sich als System mit einem erprobten Kern und einer Vielzahl von entwickelten oder in Entwicklung befindlichen Schnittstellen, um so gut wie alle Editionsschritte zu unterstützen ‒ von der kollaborativen Erfassung in einer MySQL-Datenbank der Uni Trier bis zur Veröffentlichung im Netz oder Druck ‒, aber auch den Wechsel hin zu anderen Systemen anbieten zu können. So gab Sebastian Felten vom DHI London einen interessanten Einblick ins Projekt „Pauper Letters and Petitions for Poor Relief in Germany and Great Britain, 1770 – 1914“ und wie dort sowohl FuD als auch das ‒ noch zu erwähnende ‒ DENQ zusammen genutzt werden, das eine zur Eingabe, das andere zur Anzeige im Netz. BASYS-Invenio, vorgestellt von Thekla Kleinschmidt und Branimir Kolev vom Bundesarchiv, wurde und wird auf der Grundlage von Islandora entwickelt, um Archivalien in einem riesigen Gesamtbestand von einigen hundert Terabytes rasch finden und anzeigen zu können. Eingebaut ist eine sehr lesefreundliche Anzeige in Gestalt des Internet-Archive-Viewers, zudem mit einer maschinellen Texterkennung über Tesseract, was eine Suche im Text der jeweils angezeigten Abbildung ermöglicht. Bei den meisten Bundesarchivalien, gedruckt im 20. bis 21. Jahrhundert, zeitigt eine maschinelle Texterkennung gute Ergebnisse. Peter Stadler stellte die Carl-Maria-von-Weber-Gesamtausgabe vor, die in bewunderungswürdig konsequenter und harmonischer Verbindung von philologischen Kardinaltugenden und modernen XML-Techniken erarbeitet wird: Mit Gründlichkeit und Genauigkeit und der echt philologischen Liebe zum Wort wird aus der sichtbaren Überlieferung, dem Bild, ein lesbarer, und zwar maschinenlesbarer Text, der bis zur Anzahl der Striche bei Unterstreichungen alles von der Überlieferung aufhebt, was irgendwie sinnunterscheidend sein könnte. Ruth und Borries von dem Bussche vom Düsseldorfer Unternehmen Fafalter skizzierten dagegen eine Lösung auf der Grundlage von HTML5, das mit RDF-Annotation angereichert wird ‒ eine Verbindung von Sinn- und Gestaltebene, die früher gemieden wurde, jetzt aber im Verlagswesen und überhaupt im geschäftlichen Umfeld mehr und mehr Anklang findet. Auch, um Netzseiten mit mehr maschinenlesbarem Inhalt im Sinne des „semantic web“ zu erstellen, ist HTML5 mit RDF-Anzeichnung die fortgeschrittenste Lösung. Charlotte Schubert von der Universität Leipzig führte eAQUA vor und machte anhand von Beispielen aus ihrer eigenen Forschung deutlich, welchen außerordentlichen Nutzen ein Korpus von diesem Umfang und Lemmatisierungsgrad, zudem versehen mit den Anzeigemöglichkeiten der Kookkurrenzanalyse und der raumzeitlichen Belegverteilung haben kann. Torsten Schrade von der Digitalen Akademie Mainz stellte einen editorischen Arbeitsablauf vor, der von Ausgangsdokumenten in verschiedenen (und nicht immer günstigen) Formaten hin zum Content-Management-System Typo3 führt. Eine besondere Herausforderung ist im Fall des Beispielprojektes „Medieval Ashkenaz“ die Mischung hebräischer und deutscher Teile, also links- und rechtsläufiger Schriftrichtung, was in besonders schweren Fällen mit einem Zusammenspiel aus weicher Auszeichnung (mit <span dir=”rtl”> … </span>) und harten Steuerzeichen (U+202B für ‘ab hier linksläufig’ und U+202A für ‘ab hier rechtsläufig’) gelöst wird. Die Steuerzeichen werden elegant über das CSS, nämlich über eine an die Anzeichnung dir gebundene content-Eigenschaft eingefügt. DENQ, vorgestellt von Jörg Hörnschemeyer (dem Entwickler) und Jan-Peter Grünewälder vom DHI Rom, ist ebenda entwickelt worden, also gleichsam innerhalb der Max Weber Stiftung. Ein Kernbestandteil ist die XML-Datenbank eXist. Gezeigt wurden eine Suche über mehrere Korpora, auch als Ähnlichkeitssuche auf der Grundlage des Lewenstein-Algorithmus, ferner die Anzeige von Belegen in räumlicher Verteilung, unterlegt mit einer geographischen Karte, sowie die Möglichkeit, die Abbildung eines Textes in Ausschnitte zu zerlegen, die im SVG-Format gespeichert und den je entsprechenden Textausschnitten zugeordnet werden können, was noch in Entwicklung ist. Es konnte aber bereits eine gerade für diese Aufgabe äußerst nützliche maschinelle Vorsegmentierung gezeigt werden, die schon erstaunlich gut war. Zur Dateneingabe sonst: In DENQ wurde oder wird für jedes gewünschte Format eine Überführung in eXist entwickelt. Unter anderem möglich ist die Nutzung eines vertrauten Editors wie Word, in dem dann über Formatvorlagen recht bequem eine semantische Auszeichnung bis auf die Ebene des Zeichens hinab vorgenommen werden kann. Es ist bewundernswert, wie viel Funktionalität und Flexibilität auf schmaler Personalbasis entwickelt und ermöglicht worden ist. TextGrid, vorgestellt von Oliver Schmid von der Technischen Universität Darmstadt, ist vielleicht das komplexeste der vertretenen Systeme und bietet einen zumal gemessen am Projektalter großen Umfang an Funktionen sowie Teilprogrammen, die modular entwickelt und vom Nutzer modular eingebunden werden können. Die Eingabeumgebung, TextGridLab, funktioniert als reines Java-Programm ohne Installation (wenn das Java-Runtime-Environment auf dem Rechner installiert ist, was ja meist zutrifft) und auch offline. Das TextGridRep wiederum dient sowohl der gemeinsamen Arbeit an derselben Datenbank, als auch der Langzeitarchivierung und der Veröffentlichung im Netz mit Suchmöglichkeiten. Zwei vielleicht miteinander zusammenhängende Eindrücke vom Arbeitstreffen: Erstens. Es gibt noch keinen Königsweg, der zu allen Zielen führt; umso wichtiger sind Übergangsmöglichkeiten von einem Weg zum anderen. Zweitens. Gerade als Austauschformat ist XML noch immer und bis auf weiteres „die reine Lehre“, wie Gregor Horstkemper von der Bayerischen Staatsbibliothek in seiner Moderation scherzte. Andererseits wurden hin und wieder die Unzulänglichkeiten von XML in den Randbereichen seiner Verwendung deutlich: Wann immer man Geltungsbereiche auszeichnen will, die unterbrochen sind oder einander überlappen, also nicht in die hierarchische Verschachtelung von XML-Dokumenten passen, muss man zu Behelfen greifen, von denen keiner der Standard ist ‒ die TEI-Richtlinien stellen mehrere gleichberechtigt nebeneinander. Und schlimmer: Um die Behelfslösung einzulesen, etwa bei Abfragen, muss man einen eigenen Parser schreiben (adé Standardkonformität) oder auf Reguläre Ausdrücke zurückgreifen (was sonst als blankes Versagen bei der XML-Verarbeitung gilt) oder XPointer verwenden, was noch kaum umgesetzt und überdies mit einem Patent belastet ist, das bei Sun lag, jetzt also bei Oracle liegen müsste (vgl. http://www.w3.org/TR/xptr-framework/, http://www.w3.org/2002/06/xptr_IPR_summary.html). Oracle hat bekanntlich schon wegen eines anderen von Sun geerbten Patentes einen Rechtsstreit begonnen. Dennoch: Stadler, Leiter der TEI-Interessengruppe „Correspondence“, hat XML mit pädagogischem Impetus hochgehalten: Geisteswissenschaftler sollen mit XML umgehen können, weil der Umgang mit Texten, Textstruktur und Textsemantik zum Kernbereich der Geisteswissenschaft gehört, weil die dabei anfallenden Entscheidungen auch nur der Fachwissenschaftler, kein hilfreich herbeieilender Techniker treffen kann und weil der Umgang mit XML auch gar nicht so schwierig ist wie die wirklich harten Probleme ‒ die sind bei einer Edition stets philologischer Natur. Wenn man von der XML-Frage verallgemeinernd absieht, wird der Impetus ein aufklärerischer: Es geht dann um den Ausgang des Geisteswissenschaftlers aus einer selbstverschuldeten Unmündigkeit, was Datenverarbeitung angeht. Besteht diese Unmündigkeit? Und ist sie selbstverschuldet ‒ aus denselben Ursachen, die Kants berühmter Aufsatz nennt? Hier liegt ein Problem, das unangenehmer ist als etwa das vergleichsweise harmlose Ansinnen, die Geisteswissenschaften im Social Web zu verankern. Dr. Stefan Müller ist Referent für Datenbanken in der Geschäftsstelle der Max Weber Stiftung in Bonn, Redaktion Perspectivia.  

Quelle: http://mws.hypotheses.org/1571

Weiterlesen

Erster Wiener Protestwanderweg für Smartphones

Martin Auer hat für das Zentrum Polis/Politik Lernen in der Schule einen Ersten Wiener Protestwanderweg zusammengestellt, der an mehreren Stationen in Wien per mobile Tag Informationen für Smartphones zur Verfügung stellt, u.a. zur Geschichte der Gewerkschaften, dem Ersten Wiener Mädchengymnasium, der Arena-Besetzung, dem WUK und der Rosa Lila Villa. Weitere Stationen sind in Planung.

Quelle: http://adresscomptoir.twoday.net/stories/222693796/

Weiterlesen