Das twittern/posten/teilen die anderen: #HistMonast (6)

Links zur Bibliothek des Klosters Strahov stellt Klaus Graf auf Archivalia zusammen, darunter den Eintrag im Fabian-Handbuch: http://fabian.sub.uni-goettingen.de/?Strahover_Bibliothek(Prag) das Strahov-Evangeliar (Evangeliarium Strahoviense): http://www.manuscriptorium.com/apps/main/en/index.php?request=show_tei_digidoc&docId=set031101set1171 das 40-Gigapixel-Panorama im Netz: http://www.360cities.net/gigapixel/strahov-library.html Erwin Anton Weyrauch, Geschichte des königlichen Prämonstratenser Chorherren-Stiftes Strahow, Prag 1863: http://books.google.de/books?id=mcfkMhDbwAQC     “Die österreichischen Klosterbibliotheken – Museen oder Wissenswelten?” – Der Vortrag von Helga Penz vom 12. März 2013 beim 5. Kongress Bibliothek & Information, Leipzig, ist online: http://www.opus-bayern.de/bib-info/volltexte//2013/1393/pdf/Penz_Klosterbibliotheken.pdf (via http://archiv.twoday.net/stories/326205015/)   Darauf, dass die Bibliothek des Klosters Reisach nicht im Fabian-Handbuch aufgenommen ist, weist Klaus Graf in Archivalia hin: http://archiv.twoday.net/stories/326201858/   Die [...]

Quelle: http://ordensgeschichte.hypotheses.org/3029

Weiterlesen

Tagungsankündigung: Groupes cathédraux et complexes monastiques : le phénomène de la pluralité des sanctuaires à l’époque carolingienne

Groupes cathédraux et complexes monastiques : le phénomène de la pluralité des sanctuaires à l’époque carolingienne

 

Date:                               19 avril 2013

Lieu:                                Institut historique allemand, 8, rue du Parc-Royal, 75003 Paris

Links:                              www.dhi-paris.fr

http://www.dhi-paris.fr/de/home/veranstaltungen/veranstaltungen.html

http://hsozkult.geschichte.hu-berlin.de/termine/id=21201

Langue:                           français

Responsable:                 Marie-Laure Pain

L’ensemble de la communauté scientifique s’accorde à reconnaître en la période carolingienne des temps féconds et prospères. Pour cela, il suffit de constater le nombre de monastères et de cathédrales érigés ou reconstruits sous les règnes de Charlemagne et de Louis le Pieux et qui ont donné lieu à de riches études archéologiques, architecturales, liturgiques (etc…). Pourtant, il est une question qui mériterait une attention particulière: le phénomène de la pluralité des sanctuaires au sein des groupes cathédraux et des complexes monastiques.

Dans cette table-ronde les intervenants seront amenés à s’interroger sur les origines de cette configuration architecturale et liturgique. Quelle part de nouveautés fut apportée? Qu’en est-il des emprunts aux productions mérovingiennes voir paléochrétiennes? Il conviendra, bien évidemment, d’aborder la question de la fonctionnalité, de la liturgie et, plus simplement, de l’architecture et de la topographie de ces édifices. Enfin, il s’agira d’établir, autant que faire se peut, des comparaisons et des liens entre ces différents complexes.

19 avril 2013

09h00            Accueil des participants

09h15           Ouverture par Rolf Grosse (Paris)

09h30           Introduction par Marie-Laure Pain (Nanterre)

 

Section du matin

Présidence : Jean-Pierre Caillet (Nanterre)

09h45

Michaël Wyss (Saint-Denis) : L’ensemble monumental de l’abbaye de Saint-Denis aux temps mérovingien et carolingien

Marie-Laure Pain (Nanterre) : L’abbaye de Saint-Riquier : églises et liturgie

 

10h45           Pause

 

11h00

Cécile Coulangeon (Nanterre) : L’abbaye Saint-Pierre et Saint-Paul de Ferrières-en-Gâtinais. Un complexe monastique à deux églises à l’époque carolingienne

Géraldine Mallet (Montpellier) : Les abbatiales « carolingiennes » de la zone nord orientale des Pyrénées

Nicolas Reveyron (Lyon) : Les deux églises de Cluny : un héritage carolingien, marqueur de l’ecclésiologie clunisienne

 

12h30                                    Pause déjeuner

 

Section de l’après-midi 

Présidence : Rolf Große (Paris)

14h00

Jean Terrier (Genève) : Le groupe épiscopal de Genève autour du haut Moyen Âge

Claire de Bigault de Cazanove (Paris I/Est – Frankfurt/Main) : Les différentes communautés autour de l’évêque de Freising

 

15h00           Pause

 

15h15

Jacques Le Maho (Caen) : Groupes ecclésiaux de Normandie, topographie et fonctions : autour de deux études de cas, la cathédrale de Rouen (IVe-IXe) et le monastère de Jumièges (VIIe-IXe)

Christian Sapin (Auxerre) : Entre groupe cathédraux et ensemble monastique, l’exemple d’Auxerre au milieu du IXe siècle

Pascale Chevalier (Clermont-Ferrand) : L’évolution du groupe épiscopal de Poreč (Croatie) au haut Moyen Âge

 

16h45           Jean-Pierre Caillet (Nanterre) : Conclusion

17h30           Fin de la table ronde

Quelle: http://mittelalter.hypotheses.org/743

Weiterlesen

Vom weltweit größten Watson-Tutorial

Anfang der Woche fand in Darmstadt im beeindruckenden Hörsaal im “Alten Maschinenhaus” ein Tutorial zu den Hintergründen des Computer-Jeopardy!-Spielers Watson von IBM statt. Eingeladen hatte Chris Biemann vom Fachbereich Informatik der Uni Darmstadt, erschienen waren der Dozent Alfio Massimiliano Gliozzo (IBM Research) sowie mehr als 130 interessierte Zuhörer, welche die Veranstaltung dann auch zum “biggest Watson-Tutorial wordwide so far” machten.

Watson ist eine von IBM entwickelte und auf spezieller Hardware umgesetzte Software, der es im Frühjahr 2011 gelungen ist, das Spiel Jeopardy! gegen die bis dahin erfolgreichsten (menschlichen) Kandidaten zu gewinnen. Dieses Ereignis hatte ich damals hier im Blog aufgegriffen, als Paradebeispiel dafür, was man in meinem Fach Informationsverarbeitung bzw. Computerlinguistik so alles anstellen kann. Für uns war diese Meldung eine echte Sensation, weil sie viel unvorhergesehener kam als der Sieg von Deep Blue (dem ungleich berühmteren Schachprogramm, ebenfalls von IBM entwickelt) über den Schachweltmeister Garry Kasparov 14 Jahre zuvor. Weshalb aber wurde das Schachproblem viel früher als das Jeopardy!-Problem gelöst? Lösen heißt hier: Gegen die ausgewiesen besten Menschen in dem Spiel zu gewinnen.

IBM Watson

Watson bei IBM: Eine zimmergroße Maschine. Bild: Clockready CC-BY-SA-3.0

Schach – so unendlich groß die Zahl der möglichen Spiele auch sein mag (selbst Deep Blue konnte bei weitem nicht alle möglichen Züge analysieren) – ist ein rein mathematisches Problem. Es gibt eine begrenzte Menge an Zuständen, die in eine ebenfalls begrenzte Anzahl von Folgezuständen überführt werden können. Menschen waren dem Computer lange überlegen, weil sie Muster in Schachspielen erkennen konnten, die sie mögliche Gewinnstrategien entwerfen ließen. Die ersten Schachcomputer hatten dann auch eine erbärmliche Performance. Später schlugen sie Anfänger, irgendwann Hobbyspieler und am Ende dann eben auch den amtierenden Weltmeister (Deep Blue 1997). Letzteres allerdings auch erst im zweiten Versuch, das erste Aufeinandertreffen hatte Kasparov 1996 noch für sich entschieden. Nebenbei: Der auf gewisse Weise entthronte Weltmeister unkte nach der Niederlage 1997, Deep Blue hätte zwischendurch Hilfestellungen durch Menschen bekommen. Der Vorwurf wurde nie wirklich aufgeklärt, weil IBM keine Untersuchung zuließ und Deep Blue dann auch demontierte. Insgesamt sind lediglich 12 Partien des Rechners öffentlich bekannt – jeweils 6 in den Jahren 1996 und 1997, sämtlich mit Kasparov als Gegner. Da aber in der Zwischenzeit Deep Fritz, ein Programm, um das sehr viel weniger Geheimhaltungs-Popanz gemacht wurde, 2006 den damaligen Weltmeister Wladimir Kramnik mit 4:2 schlug, zweifelt niemand mehr ernsthaft daran, dass Computer in der Lage sind, Menschen jederzeit im Schach zu schlagen.

Der Sieg von Watson über Ken Jennings und Brad Rutter kam dagegen gewissermaßen aus dem Nichts. Nie zuvor hatte jemand versucht, eine Maschine in einem Spiel wie Jeopardy! einzusetzen, wo es darum geht die zugehörigen Fragen zu sehr trickreich formulierten Antworten herauszufinden (also schlicht ein umgedrehtes Frage-Antwort-Spiel). Um ein Beispiel zu geben:

Antwort: “Aufgezeichnete Sachverhalte oder Gedanken, bisweilen mit Tagebuchcharakter, die auf einer Webseite zu finden sind.”

Die dazu passende Frage wäre: “Was ist ein Blog?”

Die Themenkomplexe, aus denen die Antworten stammen, sind dabei nicht eingegrenzt, sollten aber die Zuschauer interessieren – schließlich handelt es sich um eine Fernsehshow, die von den Einschaltquoten lebt. Man benötigt also ein breites Wissen, um in dem Spiel zu bestehen. Dieses dürfte zwar tatsächlich vollständig oder zumindest in großen Teilen irgendwo hinterlegt sein, wo es auch für Computer zugänglich ist – im Zweifelsfall eben in der Wikipedia. Die drei größten Herausforderungen bestehen aber darin,

  1. Die Antworten richtig zu interpretieren, um eine Ahnung davon zu bekommen, wonach überhaupt gefragt wird.
  2. Eine Wissensbasis so zu gestalten, dass interpretierte Antworten auf mögliche Fragen abgebildet werden können.
  3. Aus möglichen Fragen diejenige auszuwählen, die als die passenste erscheint.

Um gut Schach spielen zu können, genüge es, Mathematik zu beherrschen; Jeopardy! aber gründe in der menschlichen Kognition, sagte Gliozzo. Statt wohldefinierter Zustände in begrenzter Zahl hat man es mit prinzipiell unendlich vielen Ausdrücken zu tun, die auch noch verschiedene Bedeutungen tragen können. Die Antworten, mit denen ein Jeopardy!-Kandidat konfrontiert wird sind genauso wie der größte Teil des verfügbaren Wissens in menschlicher Sprache hinterlegt und damit ambig, kontextabhängig und teilweise implizit.

Welche Ansätze IBM dabei verfolgte, die Aufgabe anzugehen und erfolgreich zu gestalten, war Thema des Workshops und Gliozzo gelang es aus meiner Sicht wirklich gut, dieses ansprechend und informativ darzulegen. Insgesamt bestand der Vortrag aus vier etwa zweistündigen Blöcken, einer Art eingedampften Form eines Kurses, den Gliozzo auch an der New Yorker Columbia Universität anbietet. Zwischendurch wurden immer wieder von IBM produzierte Filme zu Watson, der Jeopardy!-Challenge und der Zukunft des Systems gezeigt, die aus unterrichtstechnischen Gründen angebracht waren (inmitten des sehr anspruchsvollen Stoffs konnte man sich mal zurücklehnen und konsumieren), die auf mich als europäischen Wissenschaftler mitunter aber etwas überproduziert und pathetisch wirkten (Dan Ferrucci, Leiter des Watson-Projekts mit Tränen in den Augen und so, auf der IBM-Seite kann man sich selbst ein Bild davon machen).

Sehr gut hat mir die Live-Demo gefallen, eine Art simuliertes Spiel Watson gegen Vortragspublikum. Dabei zeigte sich auch, dass die Maschine mit denen eigens für das europäische Publikum ausgewählten Fragen offensichtlich nicht besonders gut zurecht kam. So war Watsons Vermutung, wo nach dem Schengen-Abkommen keine Kontrollen mehr stattfinden: passport. Erst danach folgte das korrekte borders, witzigerweise dicht gefolgt von Austria.

In den einzelnen Sessions ging Gliozzo auf die Teilbereiche (I) DeepQA-Architecture, (II) Natural Language Processing Components, (III) Structured Knowledge Components und (IV) Adaption to the Medical Domain ein. Die Klammer um das Ganze war ein Diagramm, das die Performances von Jeopardy!-Gewinnern und Watson, ausgestattet mit bestimmten Komponenten zeigte. War die Maschine anfangs noch meilenweit von einer Performance entfernt, auch nur ein einziges der historischen Jeopardy-Spiele zu gewinnen, sah man, dass die Zuschaltung der nacheinander erläuterten Komponenten immer weitere Fortschritte brachte. Das war als roter Vortragsfaden schon ziemlich genial. Detailliert berichte ich davon vielleicht mal an anderer Stelle. Schließen möchte ich mit einer Reihe von Aspekten, die ich aus dem Tutorial mitnehmen durfte:

  1. Watson versteht nicht. Er gleicht Muster ab und führt eine unglaubliche Anzahl von Bewertungsfunktionen durch. Die Entwickler haben eine Unzahl verschiedener Techniken gegeneinander evaluiert und diejenigen, welche sich in Tests als erfolgreich herausstellten, im System behalten.
  2. IBM hat nicht gezaubert oder vorher unbekannte Techniken entwickelt, sondern einfach nur bekanntes miteinander kombiniert. Gliozzo ist auf so gut wie jeden Schritt aus einem anfangs völlig undurchschaubar komplizierten Workflow-Diagramm eingegangen (natürlich nicht immer im Detail) und meinte am Ende so in etwa: “Jetzt kann das jeder von euch nachbauen. Viel Spaß!” Dabei unterschlug er allerdings nicht, dass eine selbstgebaute Antwortmaschine wahrscheinlich Tage für die Lieferung der Frage benötigen würde, was Watson auf seiner speziellen Hardware (3000 Prozessorkerne, 15 TeraByte RAM) in unter 3 Sekunden schaffen musste (ansonsten hätte er gegen seine menschlichen Konkurrenten keine Chance gehabt).
  3. Watson ist eine Maschine, um Jeopardy! zu gewinnen. Die ersten Versuche, ihn einzusetzen, um bspw. Mediziner bei der Diagnose oder der Behandlung von Krankheiten zu unterstützen, waren eher ernüchternd. Nachdem viel Arbeit in die Adaption gesteckt wurde, konnten zwar Fortschritte erzielt werden, man hat es aber weiterhin mit einer domänenspezifischen Anwendungen zu tun. IBM ist das klar und sucht deshalb nach neuen Lösungen.
  4. Offenbar war den Entwicklern vorher nicht klar, ob Watson die Challenge tatsächlich für sich entscheiden würde – man ging von einer 50% Chance aus. Im oben erwähnten Diagramm sah man, dass Jennings in vielen historischen Spielen eine deutlich bessere Performance hinlegte, als Watson am Ende seiner Jeopardy!-Entwicklung. Watson ist also – im Gegensatz zu Schachcomputern – weiterhin schlagbar.

Soweit meine (erste) Nachlese zum Watson-Tutorial. Vielleicht kann ich demnächst nochmal auf die Gesamtarchitektur oder einzelne Komponenten des Systems eingehen. Ich hoffe, mir ist es einigermaßen geglückt, auszudrücken, dass ich die Veranstaltung für wirklich gelungen hielt und möchte hier die Gelegenheit ergreifen, mich herzlich beim Organisator Chris Biemann zu bedanken. Falls so etwas noch einmal stattfinden sollte, kann ich jedem NLP-, Machine Learning- und Knowledge Engineering-Interessieren mit bestem Gewissen raten, daran teilzunehmen!

 

Quelle: http://texperimentales.hypotheses.org/865

Weiterlesen

Archive 2.0 auf dem 65. Westfälischen Archivtag

 

Auf dem 65. Westfälischen Archivtag in Münster wurde der Bereich Archiv 2.0 zwar nicht explizit thematisiert, wohl aber an etwas versteckter Stelle angesprochen – und zwar auf dem Diskussionsforum “Verzeichnest du noch oder gefällst du schon? Archive als Anbieter digitaler Dienstleistungen”. Im Folgenden sei mein eigenes Impulsreferat dokumentiert:

 

„Diese Verzeichnung gefällt mir! Das Archiv 2.0 als Anbieter digitaler Dienstleistungen“

Am 13. März 2013 stieg weißer Rauch über der sixtinischen Kapelle in Rom auf und ein neuer Papst war gewählt worden.

Schornstein Sixtinische Kapelle

Was hat das zu tun mit uns als Archiven oder gar unserem heutigen Archivtag?

Vielleicht soviel, dass es ein Archivar war, der das „Habemus Papam“ verkündete, nämlich der Kardinalprotodiakon Jean-Louis Tauran, der von 2003 bis 2007 das Vatikanische Geheimarchiv leitete. Es war das Schweizerische Bundesarchiv, das diese Nachricht publik machte.

Vielleicht aber auch soviel, dass Päpste – oder besser: der schriftliche Nachlass päpstlichen Handelns – für die allermeisten Archive kein unbekanntes Thema sind. Vielerorts bilden Papsturkunden den Grundbestand der Alten Abteilungen, lässt sich mittelalterliche Geschichte insbesondere durch Papsturkunden rekonstruieren. Aus Anlass der Papstwahl berichtete beispielsweise das Österreichische Staatsarchiv über die Tagebücher des Erzbischofs von Wien, der 1655 nach Rom reiste um am damaligen Konklave teilnahm. Im Vergleich dazu brandaktuell war die Mitteilung des Stadtarchivs Linz am Rhein, dass in seinen Beständen die Erteilung des apostolischen Segens an die Bürger der Stadt direkt nach der Wahl des nunmehr emeritierten Papstes im Jahr 2005 vorhanden sei.

Und auch die us-amerikanischen National Archives nahmen das Ereignis zum Anlass, auf eine umfangreiche Fotosammlung zu den Begegnungen von Päpsten und Präsidenten der vergangenen Jahrzehnte zu verweisen.

Warum sind diese Informationen für uns heute interessant? Weil alle diese Archive ihre Rolle als digitale Dienstleister ernst genommen haben und ihre Nutzer mit aktuellen archivnahen Informationen versorgt haben – und gemacht haben sie das über den in diesem Fall wohl bequemsten virtuellen Weg: nämlich über das soziale Netzwerk Facebook.

Papst Österreichisches Staatsarchiv

 

Papst US National Archives

Das „gefällt mir“ kann ich da als Nutzer sagen – und ich bezweifle, dass auch nur eins der genannten Archive für diese nette kleine tagesaktuelle Aufmerksamkeit irgendwie seine Kernaufgaben vernachlässigt hätte. Das ist es nämlich, was die Leitfrage unserer Diskussion hier impliziert: „Verzeichnest du noch oder gefällst du schon?“

Hier scheinen zwei Aspekte gegeneinander zu stehen

  • Auf der einen Seite die eigentliche Arbeit eines Archivs, seine Kernaufgaben (wofür hier die Verzeichnung sinnbildlich steht): eine anspruchsvolle, eine fordernde, bisweilen eine mühselige, vielleicht auch ungeliebte Arbeit; ist ein laufender Meter Verzeichnungsarbeit geschafft, warten schön die nächsten fünf. Dank und Lob für eine erfolgreiche Verzeichnungsarbeit erhält man nicht.
  • Ganz anders dagegen dieses ominöse „gefällst du schon?“: Gefallen, wollen wir das? Wir sind doch das kulturelle Gedächtnis der Gesellschaft. Wir erinnern an Geschichte, an Politik, an Herrscher, an wichtige Geschehnisse, an mitunter schreckliche Untaten. Wir sind seriös, wir sind staatstragend, wir sind eine Behörde. Da müssen wir doch keinem gefallen. Und außerdem sind wir Monopolisten: Wer unsere Dokumente einsehen will, der muss schließlich zu uns kommen, egal ob wir ihm gefallen oder nicht. Und letztendlich: Bei Facebook wissen wir doch alle: das ist bloß Spielerei, irgendwas für Teenies und allenfalls noch für Studenten, da kann ja jeder alles reinschreiben und morgen kann das alles wieder weg sein, außerdem steht da sowieso nichts Wichtiges, denn das Wichtige wird nämlich gedruckt.

Dieser Gegensatz aber scheint mir an den gegenwärtigen und vor allem an den zukünftigen Arbeitsrealitäten von Archiven vorbeizugehen:

  • Die archivische Arbeit wird sich zunehmend in den digitalen Raum verlagern, durch Digitalisate, durch Online-Publikationen, durch virtuelle Lesesäle – entsprechend notwendig wird es sein, die Strukturen zu besitzen, um diese digitalen Inhalte zu bewerben und direkt den Interessenten zuzuleiten
  • Die technischen Mittel für einen virtuellen Auftritt – für die Präsentation von Archivalien und Beständen, für Kommunikation und Interaktion mit den Nutzern, für den fachlichen Austausch mit den Kollegen – stehen längst bereit: Soziale Netzwerke, Sharing-Plattformen, Blogs, Micro-Blogs, Foren, Wikis u.v.a.m.
  • Wir Archivare müssen nur bereit sein, diese technischen Mittel zu nutzen – oder wie es ein niederländischer Kollege (wo sie uns in diesen Belangen tatsächlich Lichtjahre voraus sind) formulierte: „It’s not about technology, it’s about attitude!“

Archives Cantal

Zu den Möglichkeiten, einer archivischen Nutzung von sozialen Medien (= Archiv 2.0) möchte ich schließlich 4 Thesen formulieren:

1) Die Nutzung von sozialen Medien ist für einen wachsenden Teil der Bevölkerung alltägliche Normalität. Die deutschen Archive haben noch keine Antwort auf diese neue Mediennutzung gefunden und stehen der Entwicklung weitgehend passiv gegenüber.

2) Die archivische Nutzung von sozialen Medien erlaubt eine unkomplizierte und unmittelbare Vermittlung archivischer Anliegen: Präsentation von Archiv und Beständen, Kommunikation und Interaktion mit den Nutzern, Mitteilung von Neuigkeiten, Publikationen, Veranstaltungen u.v.a.m.

3) Die archivische Nutzung von sozialen Medien erlaubt einen intensivierten fachlichen Austausch ohne auf punktuelle Ereignisse wie Archivtage oder auf persönliche berufliche Netzwerke angewiesen zu sein. Fragen und Probleme können unkompliziert und unmittelbar unter Einbeziehung aller Interessenten thematisiert werden.

4) Die archivische Nutzung von sozialen Medien verlangt einen Bewusstseinswandel: weg von hierarchischem, beständeorientiertem, reaktivem Denken und hin zu kommunikativem, kollaborativem, nutzerorientiertem Denken.

Andernorts funktioniert der archivische Umgang mit den sozialen Medien bereits – daran könnten wir uns ein Beispiel nehmen!

(Bastian Gillner)

 

 

 

Quelle: http://archive20.hypotheses.org/592

Weiterlesen

Europa wächst durch den Austausch seiner Vergangenheit

Der Staatsanzeiger für Baden-Württemberg veröffentlichte in seiner letzten Ausgabe am vergangenen Freitag, 15. März 2013 (S. 31), einen Bericht über die Entwicklung vier grenzüberschreitender Projekte basierend auf Studien zur gemeinsamen Vergangenheit der Bewohner des Oberrheins: das „Netzwerk Geschichtsvereine am Oberrhein“, „Netzwerk Museen 2014“, das Ausstellungsprojekt „Menschen im Krieg. 1914 bis 1918 am Oberrhein“ und „Archivum Rhenanum“. Wir freuen uns sehr über diese Entwicklung.

Staatsarchiv_Artikel

Quelle: http://archives.hypotheses.org/278

Weiterlesen

Papstkritik

Es ist Ende Juli 1630 in Regensburg. Ein Mönch hält eine Predigt, in der er die Person des Papstes scharf angreift: „Wann der babst der Antichrist wehre, so wehre eß gewißlich dieser.“ Berichtet hat diesen ungeheuerlichen Vorwurf Sigismund von Götze, kurbrandenburgischer Kanzler und Geheimer Rat, in einem Brief an einen Kollegen im Geheimen Rat, Levin von dem Knesebeck (31.7.1630, GStA PK, I. HA Rep. 12, Nr. 162 fol. 20-22‘ Ausf.). Götze hielt sich in diesen Wochen in der Reichsstadt auf, weil dort der Regensburger Kurfürstentag stattfand, den er als Vertreter Brandenburgs besuchte. Er selbst hatte diese Predigt nicht gehört, sondern berief sich aufs Hörensagen. Dadurch wird diese Episode nicht unglaubwürdig, denn einen solchen Vorgang wird man schlecht frei erfunden haben. Warum auch hätte er als Reformierter sich die Predigt eines Mönches, also eines katholischen Geistlichen, anhören sollen?

Als er von dem Vorfall erfuhr, wird er es aber vielleicht sogar bedauert haben, daß ihm dieses Schauspiel entgangen ist. Wann kam es schon einmal vor, daß von katholischer Seite genau der Vorwurf ins Spiel gebracht wurde, der zu den Klassikern reformatorischer Papstkritik gehörte? Genauso gut kann es sein, daß diese Geschichte bei Götze zuerst nur auf ungläubiges Staunen gestoßen ist und ihn im Weiteren vor allem irritiert hat, zumal in einer Situation, die von Bedrängnis und Unsicherheit gekennzeichnet war. Auf dem Regensburger Kollegialtag ging es, wie die einschlägige Literatur ausweist (Kober, S. 229-246, Kaiser, S. 279-302, Albrecht, S. 733-759), vor allem um Wallenstein und die Frage, wer das Oberkommando über die kaiserliche Armee übernehmen sollte. Gerade für die protestantischen Reichsstände standen aber die Religionsgravamina im Vordergrund, über die sie verhandeln wollten. Denn sie begannen immer stärker die Auswirkungen des Restitutionsedikts zu spüren und fürchteten nun ein kaiserliches Durchregieren mit dem Vorzeichen einer ungehemmten Gegenreformation.

Götze leitete seine Erwähnung der mönchischen Anti-Papst-Predigt aber noch mit einem bezeichnenden Satz ein: Mit dem Papst sei man hier gar nicht zufrieden, meinte er, was darauf hindeutet, daß er womöglich noch mehr antikuriale Kritik mitbekommen hatte. Dies wiederum überrascht nicht, denn tatsächlich waren insbesondere der Kaiserhof und auch einige katholische Reichsstände unzufrieden mit der Politik des Heiligen Stuhls. Schon seit einigen Jahren waren sie über das mangelnde Engagement Roms in diesem Krieg enttäuscht; konkret hatten sie sich – wenig verwunderlich – vor allem eine stärkere finanzielle Unterstützung der Kriegsanstrengungen Kaiser Ferdinands II. und der Katholischen Liga erhofft. Doch die Kurie hielt es für ratsam, die habsburgischen Machtphantasien nicht allzu sehr in den Himmel wachsen zu lassen. Gerade mit Blick auf die Kräfteverhältnisse in Italien konnte der Papst eine schrankenlose Machtfülle der Casa d’Austria nicht befördern.

Solche unübersehbaren Risse in der Front der katholischen Mächte werden den brandenburgischen Kanzler allerdings kaum getröstet haben. Seine Briefe vom Regensburger Kurfürstentag sind durchweg von einer düsteren Stimmung gekennzeichnet, mit der er die Verhandlungen des Kollegialtags begleitete. „Jst viel gereded vonn einem solchem Mann“, schließt Götze seinen Bericht über die Papstkritik ab. Letztlich unklar ist hier, wen er konkret meinte: Sprach man damals viel von dem papstfeindlichen Mönch oder war etwa der Antichrist ein häufiges Thema? Für den Brandenburger wird man eher die apokalyptische Sichtweise annehmen können. Tatsächlich sollte der heraufziehende schwedische Krieg noch einmal mehr Belastungen und mehr Unheil bringen – für alle daran Beteiligten.

Quelle: http://dkblog.hypotheses.org/125

Weiterlesen

Digitalisierte Zeitungen und OCR: Welche Forschungszugänge erlauben die digitalen Bestände?


Ein eher einfacher Fall der OCR-Bearbeitung © ceslava.com

Wer die Geschichte der Zeitung erforschen will ist darauf angewiesen, sich mit Originalen auseinanderzusetzen. Ein bekanntes Problem ist, dass Zeitungsbestände geografisch weit verteilt sind. Eine Sonderstellung haben hier Frankreich mit der Bibliothèque nationale de France und Großbritannien mit der British Library und der Außenstelle Colindale Newspaper Library. Beiden Bibliotheken stehen für eine lange Geschichte der zentralisierten Zeitungssammlung. Forscher finden hier an zentralem Ort und in kürzester Zeit das, was sie für ihre Arbeit brauchen.

Die Digitalisierung hat in den vergangenen Jahren immer stärker Einfluss auf das Entstehen der Forschung gewonnen. Computergestützt lassen sich große Korpora in kurzer Zeit auswerten. Die zentrale Verfügbarkeit über das Netz macht Bibliotheks- und Archivreisen überflüssig. Das werden besonders Forscher, die mit weit verstreut überliefertem Material arbeiten, zu schätzen wissen. Wurden zunächst hauptsächlich historische Buchbestände digitalisiert, geraten mehr und mehr auch Zeitungen, periodische Drucke und die Flugpublizistik unter den Scanner. Für eine Promotion, die sich mit Zeitungen des 17. Jahrhunderts in Deutschland, England, den Niederlanden und Frankreich beschäftigt, sind Digitalisate eine große Bereicherung.

Welche Datenbanken kann man überhaupt auf der Suche nach digitalisierten Zeitungen anzapfen? In meiner Recherche hat sich herausgestellt, dass vor allem britische Archive und Bibliotheken führend sind, was das Digitalisieren von Zeitungen anbelangt. Bob Nicholson nennt in seinem Aufsatz die Zahl von rund 8.000 Zeitungsseiten, die in Großbritannien jeden Tag digitalisiert werden. Schaut man die Datenbanken der wichtigsten Bibliotheken durch bekommt man den Eindruck, dass in der Hauptsache viktorianische Zeitungen des 18. und 19. Jahrhunderts digitalisiert wurden und noch werden. Ein guter Startpunkt ist das British Newspaper Archive. Komfortabel ist die Suche: nicht alleine ein Suchschlitz ermöglicht den Einstieg in den Datenbestand. Bereits auf der Startseite sind die digitalisierten Zeitungen über ein Drop-Down Menü einfach zugänglich. Bei allen Datenbanken ist eine Stichwortsuche möglich. So wird Nutzen aus den per OCR aufgearbeiteten Dateien gezogen. Wichtiger Unterschied des British Newspaper Archive ist: es handelt sich um ein kommerzielles Unternehmen. Die Suche und das Browsen durch die Zeitungsbestände ist kostenlos, eine Paywall wird allerdings dort hochgefahren, wenn es an die Inhalte geht.

Neben diesem kommerziellen Angebot existieren auch digitale Bestände der wichtigen Tages- und Wochenzeitungen des Landes, beispielsweise der der Times.

Frühe Zeitschriftendrucke sind aus den Beständen der Oxford Boldeian Library digitalisiert worden. Im Internet Library of Early Journals Projekt wurden die meisten Zeitschriften von Microfichebeständen ausgehend digitalisiert und mit einer OCR-Software bearbeitet. Sie sind nun kostenfrei im Internet einsehbar.

In Deutschland werden immer mehr Zeitungen vom Zentralen Verzeichnis digitalisierter Drucke erfasst. Hier ist viel Material vor allem aus der ersten Hälfte des 20. Jahrhunderts zu finden. In der Vergangenheit tauchten hier mit großer Regelmäßigkeiten auch wissenschaftliche Journals des 19. Jahrhunderts auf.

Als wichtige Quelle hat sich auch das rheinland-pfälzische Digitalisierungsportal dilibri erwiesen. Hier finden sich rheinland-pfälzische Zeitungen aus dem 19. Jahrhundert digitalisiert. Meist sind die Jahrgänge komplett, leider nicht OCR-bearbeitet, was die Suche nach den Beiträgen erschwert.

Auffallend ist, dass gerade in Deutschland viele der digitalisierten Zeitungen nur über die Titel zu erschließen sind, die in den Metadaten eingetragen sind. Lädt man die Digitalisate herunter fällt auf, dass keinerlei OCR-Bearbeitung der Seiten stattgefunden hat, die PDFs somit als Image, und nicht als Text-Dateien gespeichert wurden. Dies hat eine Reihe an Nachteilen.

Digitalisierte Zeitungen, schön und gut, möchte man meinen. Nicholson ist in seinem jüngsten Artikel der Frage nachgegangen, wie sie die Forschung beeinflussen und kommt zu dem Schluss, dass serielle (historische) Analysen gut mit dem Hilfsmittel digitalisierter Zeitungsbestände durchgeführt werden können. Grund dafür ist der Zugang: Während man die Inhalte gedruckter Zeitungen nur Top-Down erschließen kann, lassen sich in OCR-bearbeiten Dateien grundsätzlich andere Suchoptionen durchführen. Inhaltsanalytisch ist die Stichwortsuche hier sicherlich der am meisten genutzte Zugang. Über eine Reihe an definierten Stichworten lassen sich beispielsweise in einer Längsschnittanalyse die Bewertung bzw. die mediale Darstellung einzelner Prozesse genau untersuchen. Nicholson spricht deswegen von einem Bottom-Up Zugang, da der Forscher auf der Mikroebene des Texts einsteigen kann und keine vorgeschalteten Selektionsprozesse (Titel der Zeitung ˃ Inhaltsübersicht/Rubrik ˃ Überschrift ˃ Text) die Auswahl des Untersuchungsgegenstands beeinträchtigen.

Die OCR-Aufbereitung ist noch immer schwierig und vor allem zeitraubend, auch wenn in den letzten Jahren Verbesserungen erzielt werden konnten. Vor allem deutsche Zeitungen des 17. Jahrhunderts, die in Fraktur gedruckt wurden und meist in kurzer Zeit und damit mit wenig handwerklichem Aufwand produziert sind, stellen für die meisten OCR-Programme noch Schwierigkeiten dar.

Und trotzdem: fehlt OCR, geht in komplett neuer Zugang zu den Quellen verloren. Forscher sind dann darauf angewiesen, den Zugang zum Text über den althergebrachten Weg zu finden. In der Konsequenz bedeutet dies, dass beispielsweise sehr große Korpora nur in einer Auswahl untersucht werden können. Die Einschränkung hat zur Folge, dass von dem neuen, von Nicholson skizzierten Bottom-Up Zugang zum Text, nicht mehr viel übrig bleibt.

Die Diskussion um die Eigenschaften digitaler Dateien wird auch von Karsten Schuldt im LIBREAS Blog weiter vorangetrieben.

Literatur:

Nicholson, Bob: Nicholson, Bob, The digital Turn. Exploring the methodological possibilities of digital newspaper archives. In: Media History 19(2013), S. 59-73.

Bildquelle: flickr CC-BY-SA

Quelle: http://newsphist.hypotheses.org/23

Weiterlesen

Duellieren als Rache für Ehebruch und als Rettung der männlichen Ehre

Der Roman Effi Briest von Theodor Fontane und die Novelle Lieutenant Gustl von Arthur Schnitzler erschienen an der Wende zum 20. Jahrhundert. Beide thematisieren unter anderem den Ehrenkodex des ausgehenden 19. Jahrhunderts. Während Baron von Innstetten – der Ehegatte der Protagonistin in Theodor Fontanes Roman – nach Bekanntwerden der Liebschaft seiner Ehefrau mit einem Offizier nicht zögert und den Liebhaber im  Duell tötet, hadert der junge Leutnant in Arthur Schnitzlers Novelle mit dem Suizidgedanken, da er vom ihn beleidigenden Bäckermeister am Duell gehindert wurde und so dem militärischen Ehrenkodex nicht entsprechen konnte.

Interessant in Hinblick auf das Duellieren ist die gesetzliche Lage. Wie mich eine Kollegin aufmerksam machte, greift Evelyne Polz-Heinzl im Nachwort der bei Reclam erschienenen Ausgabe des Lieutenant Gustl diese Frage auf. Mit Verweis auf das von William M. Johnston 1974 erschienene Buch Österreichische Kultur- und Geistesgeschichte hält sie fest, dass 1911 Duelle mit Ausnahme einiger triftiger Gründe verboten wurden. Zu diesen triftigen Gründen zählte der Ehebruch:

In den Jahren nach dem Erscheinen des Lieutenant Gustl sollte die Institution des Duells aber zusehends verfallen, und zwar genau aufgrund der Interferenzen mit justitiablen Tatbeständen. Hatte man Gesetzesverstöße duellierender Offiziere bislang nicht geahndet, hatte Kaiser Franz Joseph noch jeden Offizier, der einen Zivilisten getötet hatte, begnadigt, so verzeichneteten die ab 1902 gegründeten Ligen gegen das Duell stetige Erfolge. Ab 1911 waren Offiziere laut kaiserlichem Dekret nicht mehr verpflichtet, eine Duellaufforderung anzunehmen; mit einigen Ausnahmen, wozu etwa die Rache für Ehebruch gehörte, wurden Duelle verboten.

Arthur Schnitzler: Lieutenant Gustl, hg. von Konstanze Fliedl, 2011, Nachwort von Evelyne Polz-Heinzl, S. 94-95.


Quelle: http://ehenvorgericht.wordpress.com/2013/03/18/duellieren-als-rache-fur-ehebruch-und-als-rettung-der-mannlichen-ehre/

Weiterlesen