Die Politik Ferdinands II.

Kaiser Ferdinand II. hat es noch nie leicht gehabt: weder zu Lebzeiten, als er sich in den Kriegswirren zu behaupten hatte, noch nach seinem Tod, als die Historikerschaft ihn eher negativ beurteilt hat. Es entstand das Bild eines schwachen, zaudernden, sich allzu sehr von seinen Ratgebern, zumal den Geistlichen, abhängig machenden Monarchen, der in seiner Bigotterie das gesunde Maß für eine realistische Politik verloren habe. Mit der Politik des Kaisers hat sich jüngst Thomas Brockmann in seiner 2011 erschienenen Habilitationsschrift auseinandergesetzt.

Meine Meinung zu diesem Buch habe ich in einer Besprechung dargelegt, die gerade erschienen ist: ZHF 40 (2013), S. 720-722 (Eine weitere Besprechung liegt noch von Johannes Arndt vor.). Daß ich diese Arbeit sehr schätze, wird hoffentlich deutlich. Und mein positives Votum will ich auch durch die geäußerte Kritik nicht geschmälert wissen. Ja, ich finde es schade, daß die Studie um 1630 abbricht und nicht mehr die Phase des Schwedischen Kriegs miteinbezieht, in der sich die kaiserliche Politik angesichts der schweren militärischen Krisensituation neu ausrichten mußte. Doch relativiert dies nicht die analytische Leistung dieser Arbeit insgesamt.

Mir gefällt einfach der sehr ruhige und wägende Ton, mit dem eine komplexe archivalische Situation ausgewertet und eine lange Forschungstradition gewichtet wird, so daß am Ende historische Einschätzungen zustande kommen, die mindestens sehr erwägenswert sind. Ich sage dies sehr bewußt so, weil Brockmann in der Beurteilung mancher Sachverhalte durchaus zu anderen Ergebnissen gekommen ist als ich in meiner Dissertation (etwa bei einigen Aspekten bezüglich des Regensburger Kurfürstentags von 1630). Diese divergenten Ansichten anzunehmen, fällt aber deswegen umso leichter, als in dieser Studie stets erkennbar wird, daß der Autor sehr skrupulös gearbeitet und es sich wahrlich nicht einfach gemacht hat.

Handelt es sich nun um die abschließende Ferdinand-Biographie? Die Studie ist nicht als Biographie angelegt, auch wenn sie wesentliche Züge dieses Monarchen erhellt. Auch die Lücke für die Jahre 1631 bis 1637 fungiert hier als Vorbehalt, insofern die letzten Lebensjahre eben nicht berücksichtigt werden. Gleichwohl setzt Brockmann mit seiner Arbeit Maßstäbe, und man kann davon ausgehen, daß hier Anregungen geboten und vielleicht auch Reizpunkte gesetzt sind, die eine weitere Erforschung dieses Kaisers stimulieren.

Quelle: http://dkblog.hypotheses.org/426

Weiterlesen

Madame de Pompadour ist begeistert. Der Herzog von Croÿ und seine Architekturzeichnungen

Im April des Jahres 1760 entschied sich Emmanuel Herzog von Croÿ (1718–1784) Madame de Pompadour, Mätresse Ludwigs XV., erneut seine Aufwartung in Schloss Versailles zu machen. Bei diesem Besuch allerdings ging es dem Herzog von Croÿ nicht um seine ausstehenden Beförderungen … Continue reading

Quelle: http://archidrawing.hypotheses.org/300

Weiterlesen

Partizipation durch Standardisierung? Erschließung vor dem Hintergrund fortgeschrittener Nutzeremanzipation

Folien:

 

Einleitung: Forscher suchen nach Inhalten

Als ich vor ein paar Jahren begann, eine virtuelle provenienzmäßige Beständebereinigung in einem nach Pertinenzen geordneten Archiv vorzunehmen und es dabei tiefer zu erschließen, gab mir das Forschungsdepartment des Hauses den Hinweis, dass Historiker nach thematischen Inhalten, nicht nach Herkunftsstellen suchten. Rückblickend war für mich damit der Startschuss gefallen, konventionelle Methoden archivischer Erschließung zu hinterfragen. Es wäre zu einfach, das Ansinnen nach themenbezogenen Suchmöglichkeiten auf beigegebene Indizes und Thesauri zu verweisen, selbst aber an der hierarchischen Erschließung auf der Grundlage des Fonds- oder des Registraturprinzips als unbedingter Krönung der Archivgutbeschreibung, vermeintlich gar nicht unreflektiert, zu beharren.

Was wäre damit gewonnen? Das zentrale Anliegen des Archivars, Archivbestände in ihren Kontexten darzustellen und zu beschreiben, verlöre seinen Wert, wenn seine Erschließungsprodukte von den Nutzern weder mehr akzeptiert noch gar verstanden würden. Am Ende könnte man verführt sein, den Archivaren die Erstellung ihrer monohierarchischen, kontextorientierten Provenienzfindbücher als Steckenpferd in ihrem Elfenbeintürmchen zuzugestehen, während zur intensiven Nutzung das käme, was in den Augen der Archivare eher die Ergänzung, das Bonbon für die Googlegeneration sein könnte: Die Schlagwortsuche, der Index, die Freitextsuche und ähnlich aufwändige Findsysteme für den amateurhaften Nutzer von der anderen Seite des tiefen Grabens, des so genannten „Archival Divide“.

Nein, das wäre kein Gewinn. Leider kann man die Probleme, die Historikerinnen und Historiker und erst recht andere Nutzergruppen mit unseren nach klassischen Methoden erstellten Findmitteln haben, nicht hinwegreden. Wir alle kennen sie aus eigener Erfahrung mit unseren Kunden. Und selbst wenn wir auf die erfahrensten Nutzer sehen: Wie viele unserer Findbücher wurden als Repräsentanten ihres Genre, also in allen ihren Teilen, studiert, wer liest die Verwaltungs- und Bestandsgeschichten oder gar die Erläuterungen zum Erschließungsprozess und die Erschließungsrichtlinien, bevor er sich an die Titelliste macht? Ist die Stufenerschließung nach ISAD(G) eine Anleitung, treffsicher Einschlaflektüre zu generieren, die nie gelesen wird? Wir kommen also nicht umhin, uns mit den veränderten Nutzeranforderungen eingehend auseinanderzusetzen und unsere Methoden ergebnisoffen zu hinterfragen.

Kontextstiftende Ordnung und konzeptuelle Einheiten

In der archivischen Erschließung wird meist zwischen den Prozessen der Ordnung und der Beschreibung unterschieden. In der deutschen Erschließungstradition ebenso wie in den Ausprägungen der nationalen Traditionen in den bekannteren internationalen Standards wie dem ISAD(G) oder dem DACS wird Erschließung auf der Grundlage eines Bestands, eines Fonds, vorgenommen und ist eine vom Allgemeinen zum Besonderen hinabsteigende mehrstufige hierarchische Repräsentation von Verzeichnungseinheiten als einer größeren Einheit. Wichtig ist es, die Bedeutung des Bestands oder Fonds als die maßgebende kontextstiftende Einheit in einem Archiv zu begreifen. Ich sage bewusst „kontextstiftend“ und nicht „kontextwahrend“, weil in den meisten Fällen Bestände nicht konzeptuell, sondern pragmatisch als physisch abgegrenzte Einheiten innerhalb eines Archivs, also eher als Schellenberg’sche Record Group denn als Fonds, verstanden werden. Dann aber sind sie vom methodischen Ansatz her bereits ein Stückweit dekontextualisiert, so dass die Erhellung der in ihnen bewahrten Kontexte bereits, ebenfalls ein Stückweit, zu einer Rekontextualisierung durch den Archivar werden kann.

Geoffrey Yeo nennt solche Bestände daher generell Collections.[1] Jennifer Meehan umschreibt die Wirkung der Fonds-Bezogenheit der Erschließung in ihrem 2014 erschienenen Aufsatz „Arrangement and Description: Between Theory and Practice“ und damit die Wirkung der traditionellen Standards geradezu entlarvend mit den folgenden Worten:

„[…] the fonds has served to codify archival description as a singular, fixed representation of a whole and its parts and as a linear, top-down process, which doesn’t adequately reflect or address the complex realities of recordkeeping.“[2]

Der Fonds steht demnach Modell für ein fixiertes Abbild, das in seiner Akkuranz den Anspruch der Singularität erhebt.

Der Abschnitt 3.5.3 des ISAD(G) zu den Related Units of Description im eigenen und in auswärtigen Archiven weicht diese Starre zwar auf, verharrt aber ebenfalls in der Vorstellung des Bestands als abgeschlossener Einheit in der Struktur der Tektonik eines Archivs. Dass der Fonds aber vielmehr eine konzeptuelle Einheit ist, ergibt sich bereits aus der Definition des Committee on Descriptive Standards des ICA im terminologischen Abschnitt des ISAD(G):

“The whole of the records, regardless of form or medium, organically created and/or accumulated and used by a particular person, family, or corporate body in the course of that creator’s activities and functions.”

In der Praxis weichen wir von der Theorie insofern ab, als wir eher selten dazu neigen, unsere Bestände nur als Teilbestände umfassenderer relationaler Korpora zu begreifen oder gar darzustellen. Vielmehr sehen wir zu ihrer Abgrenzung auf die physische Aggregation von Archivalieneinheiten in unseren jeweiligen Archiven. In Wirklichkeit aber ist es durchaus nicht selbstverständlich, dass das, was wir als Archivbestand ansehen, mit der Gesamtheit des Materials übereinstimmt, das vom selben Registraturbildner stammt. Wir alle kennen die Zerstreuung von Archivgut amtlicher Provenienzen auf staatliche Archive und Nachlässe in den Stiftungsarchiven der Parteien oder die weit verstreute historische Überlieferung des Reichssicherheitshauptamts, des Generalbauinspektors für die Reichshauptstadt sowie der Kolonial- und Besatzungsbehörden, um nur eine kleine Auswahl zu nennen. Die aufkeimenden Archivportale geben geeignete Instrumente, um dieser Verstreuung von Archivgut durch einen Rechercheverbund zu begegnen.

Wir verharren an dieser Stelle unserer Betrachtungen immer noch in der Betonung der institutionellen Herkunft als bestandsbildendem Kriterium, haben uns aber mit der Akzeptanz des Fonds als einer konzeptuellen Größe in der Frage der „kodifizierten archivischen Erschließung als singuläre und fixe Repräsentation“ desselben insoweit bewegt, als sich diese Repräsentation über die physische Archivgutaggregation in unseren Magazinen hinaus auf ein durch die gemeinsame Relation zum Bestandsabgrenzungskriterium „institutionelle Provenienz“ definiertes Rekonstrukt ausgeweitet hat.

Das eingangs erwähnte Forschungsdepartment wird auch an dieser Stelle noch einwerfen können, dass unsere Erschließung in diesem Stadium des Ordnungsprozesses in Gestalt der Beständeabgrenzung in ihrem Kern immer noch keine Anstalten macht, eine themenbezogene Herangehensweise zu unterstützen.

Terry Cook bezeichnete den Fonds als ein intellektuelles Konstrukt.[3] Er sagte dies angesichts sich schnell verändernder Strukturen und komplexer Muster im Verwaltungsaufbau und im Verwaltungsablauf in modernen Organisationen. Peter Scott kam bereits in den 1960er Jahren zu einer ähnlichen Anschauung und wurde zum Vater des australischen „Series System“.[4] Ausgehend von häufig wechselnden Strukturen und Aufgabenverteilungen, sah er, dass die Federführung bei langfristig laufenden Aktenserien häufig wechselte. Er stellte fest, dass solche Serien dadurch mehrere Registraturbildner erhielten. Daraus folgte die Einsicht, dass es möglicherweise weniger die Organisationseinheiten sind, die für die Schriftgutentstehung verantwortlich sind, als vielmehr die Aufgaben und Funktionen, die in deren Mandat liegen. Das australische Series System implizierte, dass eine Serie mehreren Fonds zuzuordnen war.

Begreifen wir Aufgaben und Funktionen als Urheber von Aktionen und Prozessen und das Archivgut als deren Repräsentation, so müssen wir unser Verständnis von Provenienz über die an Organisationen gebundene hin zu einer an Funktionen gebundenen erweitern. Wir müssen die „funktionale Provenienz“ als Bestandsabgrenzungskriterium akzeptieren.[5] Und, was unsere Traditionen weit mehr erschüttern kann: Wir müssen uns damit auseinandersetzen, dass Archivgut mehreren Beständen angehören kann, dass demnach auch die Erschließung nicht mehr eine ihrem Wesen nach einzigartige Repräsentation eines in jeder Hinsicht einmaligen und fix strukturierten Bestandes zum Ziel hat. In Anlehnung an Terry Cook bedeutet die Zuweisung von Archivgut zu jeweils einem einzigen Bestand die Verdunkelung von Kontexten, da es seine Existenz vielfältigen entstehungsursächlichen Beziehungsgemeinschaften verdankt. Diese Vielfalt gilt es bei der Erschließung sichtbar zu machen.

Kontextwahrende Beschreibung in relationalen Modellen

Die Beschreibung von Beziehungsformen, Beziehungsgemeinschaften und die ergänzende Berücksichtigung entstehungsursächlicher Funktionen kann zu einer Erschließung führen, die in der Tat eine themenbezogene Herangehensweise seitens des Nutzers unter Wahrung der Konnotation zu den Entstehungskontexten begünstigt. Entsprechende Metadaten können zugewiesen und in Normdateien erläutert werden. Durch eine verstärkte Betonung der Beschreibung von Beziehungen und Eigenschaften der Entitäten des angewandten Metadatenmodells lassen sich die Grundlagen dafür legen, die so entstehenden Erschließungsprodukte mit den Rechercheinstrumenten des Semantic Web zu nutzen. Der bestandsbildende und damit die äußere Ordnung schaffende Prozess verlagert sich auf die Identifikation dieser Beziehungen und Eigenschaften und wird damit Bestandteil des analysierenden Prozesses der Beschreibung von Archivgut.

Peter Horsman weist in seinem Aufsatz „The Last Dance of Phoenix“ darauf hin, dass bereits Peter Scott mit seinem Seriensystem die Beschreibung von Archivgut gegenüber dem physisch nachvollziehbaren Ordnungsprozess den Vorzug einräumt:

Scott added an important conceptual element by stressing the power of description, indeed, by eventually preferring description to arrangement [6]

Horsman zeigt ferner auf, dass die Diskussion darüber, ob die Bestandsabgrenzung durch den Beschreibungsprozess und nicht durch eine starre Form des Arrangement erfolgen sollte, bereits bis zum Internationalen Archivarskongress in Brüssel im Jahr 1910, der ein Meilenstein für die internationale Durchsetzung des Provenienzprinzips werden sollte, zurückreicht und in Deutschland von dem Archivar Gustav Wolf bereits frühzeitig thematisiert wurde. Dennoch bedurfte es vor allem eines Terry Cook, um diesem Ansatz in der jüngeren Archivwissenschaft erneut Beachtung zu schenken. Nun, letztlich kommt Horsman zu dem Schluss, dass die Gestalt von Archivbeständen, von Fonds, er benutzt diesen Term, durch den beschreibenden Prozess der Erschließung erfolgt. Er definiert einen Fonds quasi mit einer mathematischen Formel, indem er sagt:

A fonds (F) is any set of relationships (r1, r2, r3, etc.), where a record (a1, a2, a3, etc.) is an element in any of the identified (and non-identified) relationships. Evidently, a record can be part of two or more relationships, and two or more fonds.[7]

Damit haben wir eine neue Ebene erreicht. Um Bestände auf diese Weise identifizieren zu können, müssen die Einzelteile potentieller Fonds mit Metadaten versehen werden, deren Auswertung Beziehungsgemeinschaften zur Grundlage visualisierbarer Archivkörper machen kann. Wir benötigen dafür standardisierte Metadatensets, die maschinenlesbar sind. Geoffrey Yeo weist in einem 2012 erschienen Beitrag in der Zeitschrift „Archivaria“ darauf hin, dass es ein Proprium gerade unseres digitalen Zeitalters sei, Objekte durch das Arrangement von Metadaten zu ordnen, und nimmt dafür Bezug auf David Weinbergers Theorie der „Third Order of Order“, die gerade dadurch geschaffen wird:

This is Weinberger’s ‚third order of order,’ in which resources can be arranged into as many sequences as may be desired and users can organize their work independently of the limitations imposed by analog systems.[8]

Rufen wir uns nun erneut ins Gedächtnis, dass sich Fonds durch Beziehungsgemeinschaften abgrenzen lassen und je nach der Priorisierung dieser Gemeinschaften andere Grenzen haben, die über die einzelnen Archive hinausgehen, so ist die Standardisierung der Metadaten eines der Erfordernisse, um den Nutzern mit neuen Konzepten begegnen zu können, die einen Mehrwert für die Auswertbarkeit von Archivgut bringen; Nutzern, die längst begonnen haben, selbst Quellen zu entdecken und mit Hilfe breit angelegter Projekt zu erschließen und der Forschergemeinschaft zugänglich zu machen. Ich nenne Projekte wie CENDARI, DARIAH, EHRI und nicht zuletzt die Europeana als Pionierin im Aufbau und Einsatz wegweisender Metadatenmodelle. Wir haben es mit Nutzern zu tun, die als Historiker und Vertreter verwandter Disziplinen sich nicht nur im aktiven Zugang sondern auch in der Zugänglichmachung von Archiv- und Kulturgut emanzipiert haben, die Aufgaben übernommen haben, die ursprünglich auf dem ureigenen Terrain der Archivare lagen, die aber dabei auch umfassendere Formen der Erschließung vornehmen konnten, für die den Archiven die Ressourcen fehlten.

Die Standards zu formulieren und die erforderlichen Metadatensets vorzuhalten ist die Aufgabe der Archivare, um eine Erschließung zu gewährleisten, die sich nicht in Beliebigkeit verliert, die nicht Beziehungsgemeinschaften konstruiert, sondern in ihnen Kontexte identifiziert; eine mögliche Fehlentwicklung übrigens, die Jennifer Meehan als die Regel in der weithin gängigen Erschließungspraxis brandmarkt.[9] Die praktische Anwendung der Sets im Prozess der Beschreibung der einzelnen Archivguteinheiten ist eine Aufgabe, an der sich der emanzipierte Nutzer beteiligen kann, ja wohl beteiligen muss, um sie angesichts der kaum veränderbaren Ressourcenknappheit überhaupt ernsthaft angehen zu können.

Um Beziehungen und Eigenschaften von Entitäten eines Metadatenmodells standardisiert identifizieren und beschreiben zu können, bedarf es der Festlegung der Entitäten, mit denen man arbeiten möchte, der Beschreibung der Entitäten als Objekte, etwa in Gestalt von Normdateien (Authority Records) und eines Katalogs von Beziehungsformen und Eigenschaften, mittels derer die Verbindungen der Entitäten untereinander beschrieben werden können. Auf diese Weise gelangt man zu einem Findmittelsystem in der Gestalt eines so genannten Entity-Relationship Model (ERM), ähnlich dem im Museumsbereich angewandten CIDOC Conceptual Reference Model, das mit einem Katalog arbeitet, der auf die Verhältnisse musealer Objekte abgestimmt ist.[10] Im Bereich der Archive muss hier wohl das Conceptual Model for Archival Description in Spain von 2012 hervorgehoben werden.[11] Ansätze für die Umsetzung solcher Modelle in Datenaustauschformate finden sich zum Teil bereits im EAD-Schema, insbesondere im neuen EAD3, in dem der Beschreibung von Rollen der Entitäten größeres Gewicht eingeräumt wird.[12] Beispielsweise kann Archivgut mit Funktionen in Beziehung stehen, die einerseits entstehungsursächlich waren oder andererseits einen Nutzungskontext bezeichnen, in den das Archivgut bei einer späteren Nachnutzung zu anderen als den Ursprungszwecken gestellt wurde. Das ist mit Rollenbeschreibung gemeint. Die konsequente Durchsetzung eines Conceptual Reference Model gibt jede den Nutzer bevormundende Priorisierung des einen oder des anderen Beziehungs- oder Kontextstranges auf, beseitigt monohierarchische Tektoniken, arbeitet mit Ontologien und lässt den Nutzer an seinem PC selbst entscheiden, welche Beziehungsformen für sein konkretes Nutzungsvorhaben welche Priorität bekommen soll. Er befindet sich sozusagen vor einem Bausteinkasten von Geschichten und Namen, von stories and names, wie Wendy M. Duff und Verne Harris ihren Aufsatz über archival description as narrating records and constructing meanings betitelten, und stellt nun legitime Verknüpfungen zwischen den Bausteinen her, wodurch historische Narrative wieder aufleben.[13] Auf diese softwarebasierte Priorisierung von Information durch den Nutzer folgt die Generierung einer virtuellen Kollektion, in der Kontexte und Hierarchien zusammen mit den Archivgutbeschreibungen und den digitalen Repräsentationen angezeigt werden, möglicherweise in der äußeren Gestalt eines Findbuchs, wenn auch als temporäres und nutzungsfallbezogenes Erzeugnis.

Nachdem ein solcher Katalog von Beziehungen und Eigenschaften erstellt bzw. ein entsprechendes Datenset als dafür geeignet identifiziert und nach Möglichkeit als Linked Open Data übergreifend nutzbar ist, gilt es, um zu dem skizzierten Ergebnis zu gelangen, User zu adressieren, die sich eignen und Interesse haben, in passender technischer Umgebung den Archivalien solche Metadaten zu attributieren und möglicherweise auch selbst zur Vervollkommnung dieses Katalogs beizutragen. Von der Vorgehensweise handelt es sich dabei um eine Art von Indizierung mit vorgegebenen Werten durch den Nutzer. Weiters kann ihm erlaubt werden, zusätzliche Werte für den Katalog der Beziehungen und Eigenschaften vorzuschlagen. Diese Form der Interaktion zwischen Archiv und Nutzer, der Partizipation des Nutzers an der Erschließung, benötigt visuelle Repräsentationen des Archivguts. Ohne dass die in Frage kommenden Archivalien digitalisiert vorliegen, ist diese Form der Erschließung ebenso wenig möglich wie jede andere Art des onlinebasierten Crowdsourcing.

Die Attributierung von Eigenschaften in der geschilderten Weise muss sich übrigens nicht zwangsläufig an den Grenzen physischer Archivalieneinheiten orientieren. Das Modell des konzeptuellen Fonds ließe sich womöglich mikrokosmisch auf die konzeptuelle Archivalieneinheit ausweiten. Wenn man aber tatsächlich Beziehungsgemeinschaften zwischen Vorgängen, Dokumenten und Einträgen in die Erschließung einbeziehen möchte, so bekämen die Digitalisate eine neue Qualität. Die metadatengesteuerte Komposition von Subfile-Elementen schüfe neue semantische Einheiten, wenn man möchte, virtuelle Repräsentationen intellektueller Rekontextualisierungen. Denn es entstünden quasi Archivguteinheiten, die weder in analoger noch in digitaler Form so jemals vorgelegen hatte. Im Archiv würden auf diese Weise mehr oder weniger filigrane Informationskollektionen gebildet.

Partizipatorische Erschließung mit Social Communities

Wer könnten nun die Adressaten partizipatorischer Erschließungsformen sein?

Die zeitgleiche Arbeit am selben Archivbestand war Gegenstand eines interinstitutionellen Erschließungsprojekts von Beständen des Internationalen Suchdienstes, das ich koordiniert habe. Die adressierten Teilnehmer an der Erschließung waren in jenem Projekt Spezialisten in den Archiven von Yad Vashem und dem USHMM in Washington, D.C.

Eine Möglichkeit der Erschließung in Zusammenarbeit mit Dritten sind demnach geschlossene Kreise, die sich beispielsweise in Form der Mitarbeiter in einer kooperierenden Institution oder in Gestalt der Glieder irgendeiner anderen, unter Mitwirkung des Archivs zu konstituierenden Community konkretisieren können. Ein offenes Crowdsourcing, ein Anzapfen der „Schwarmintelligenz“, wird je unmöglicher, je höher die Anforderungen an die Qualität der Crowd sind.

Möchten wir vielleicht (lieber) von Addressed Sourcing sprechen und diesen Begriff verwenden, wenn es das Ziel ist, soziale Communities zu identifizieren, die bei der Erschließung interaktiv mit dem Archivar kooperieren? Der Schwerpunkt liegt auf dem Identifizieren und dem Kooperieren als beidseitigen Aktionen. Damit wäre dem Prosumentengedanken des Web 2.0 – wie ich meine – sehr gut Rechnung getragen. Anders als bei Crowdsourcing-Projekten, bei denen die Nutzer oft lediglich die Möglichkeit haben, Information zu rezipieren und neue Information hinzuzufügen, wären sie beim Addressed Sourcing ebenso auf die Rückmeldung des Archivars angewiesen, wie der Archivar auf die des Nutzers. Addressed Sourcing ist insofern eine dialogische, interaktive und durative Kooperation. Sie kann sich nicht auf ein punktuell fassbares Kommunikationsereignis beschränken, sondern funktioniert nur durch steten Austausch innerhalb einer längeren Verlaufsdauer.

Schluss

Web 2.0-Technologien einzusetzen, um Dritte an der archivarischen Arbeit teilnehmen zu lassen ist ein entscheidender Schritt zu einem erneuerten Ressourcenmanagement in den Archiven. Web 2.0, Addressed Sourcing, Standardisierung und emanzipierte Nutzer sind die Voraussetzung für eine erfolgreiche Partizipation. Damit gelingt die Integration der User in das archivarische Kerngeschäft. Die Nutzung von Web 2.0 und Web 2.0-Technologie führte nicht dazu, dass Nebenaufgaben aufgebläht oder völlig neue Arbeitsbereiche an Land gezogen werden, vielmehr führte sie zum Ressourcengewinn für die zentralen Aufgaben. Derartige Partzipationsformen lassen sich vermutlich auch auf andere Bereiche übertragen, etwa auf eine partizipatorische Bewertungspraxis. Wir gelangen somit vielleicht bei dem an, was man „Archiv 2.0“ nennen darf. Ich schließe mit einem Satz von Jennifer Meehan, in dem sie, anknüpfend an die Erläuterung des Begriffs Archives 2.0 durch Kate Theimer am Ende Joy Palmer zitiert:[14]

Rather, an ‚Archives 2.0‘ mode of description might encompass participatory archives, which ‚posits a more radical user orientation, where both archivists and users collaborate to build the archive itself’.

[1] „We can perceive that a collection has physicality, but a fonds, as Cook affirmed, should be seen as an intellectual construct.“ (Geoffrey Yeo, The Conceptual Fonds and the Physical Collection. In: Archivaria 73 (2012), S. 53.

[2] Jennifer Meehan, Arrangement and description: between theory and practice. In: Archives and recordkeeping: theory into practice, hg. v. Caroline Brown, London, 2014, S. 63-99; hier: S. 75.

[3] Vgl. u.a.: Terry Cook, The Concept of the Archival Fonds in the Post-Custodial Era. In: Archivaria 35 (1993).

[4] Vgl. u.a.: Peter J. Scott, The Record Group Concept: a case for abandonment. In: American Archivist 29 (1966).

[5] Die Theorie ist keineswegs neu, hat sich aber als Kriterium zur äußeren Beständeabgrenzung im deutschsprachigen Raum wenig etabliert; vgl. David Bearman, Archival Methods: Archives and Museum Informatics Technical Report. In: Archives and Museum Informatics, Pittsburgh, 1989; Ders., Electronic Evidence: Strategies for managing records in contemporary organizations. In: Archives and Museum Informatics, Pittsburgh, 1994. Im “International Standard for Describing Functions” (ISDF) wird Provenienz wie folgt definiert: “The relationships between records and the organizations or individuals that created, accumulated and/or maintained and used them in the conduct of personal or corporate activity. Provenance is also the relationship between records and the functions which generated the need of the records.” (First Edition, 2007, S. 10; http://www.ica.org/10208/standards/isdf-international-standard-for-describing-functions.html).

[6] Peter Horsman, The Last Dance of Phoenix – The De-Discovery of the Archival Fonds“. In: Archivaria 54 (2002), S. 1-23; hier: S. 15.

[7] Ebd., S. 17.

[8] Geoffrey Yeo, Bringing Things Together: Aggregate Records in a Digital Age. In: Archivaria 74 (2012), S. 43-91; hier: S. 58. Vgl. David Weinberger, Everything is Miscellaneous: The Power of the New Digital Disorder, New York, 2007.

[9] Jennifer Meehan, Arrangement and Description, S. 76.

[10] Deutsche Fassung des CIDOC-CRM: http://cidoc-crm.gnm.de/wiki/CIDOC-CRM:Portal. Vgl. auch die Ausführungen von Geoffrey Yeo, The Conceptual Fonds, S. 71 ff.; ders, Bringing Things Together, S. 81 ff.

[12] Vgl. Kerstin Arnold, EAD3 and the Consequences of the New Version: http://www.apex-project.eu/index.php/en/articles/149-ead3-and-the-consequences-of-the-new-version.

[13] Die Vielfalt der dem Archivgut innewohnenden Narrative betonte in jüngster Zeit u.a. Eric Ketelaar: „The record is full of meanings, some may be read in the record, or inferred from the intertextuality that connects it to other documents, others have to be deduced from the context of archives‘ creation and use.“ Er geht danach auch auf mögliche Instrumentalisierungen solcher Narrative ein. (Eric Ketelaar, Archives and Archivists without Borders In: Archives without borders/Archivos sin fronteras, proceedings of the international congress in The Hague, August 30 – 31, 2010 / ed. Hildo van Engen et al. – Berchem ; Vlaamse Vereniging voor Bibliotheek-, Archief- en Documentatiewezen, Sectie Archieven ; 2012 (= Archiefkunde, 12), S. 355-359.

[14] Jennifer Meehan, Arrangement and Description, S. 94; Joe Palmer, Archives 2.0: if we build it, will they come? In: Ariadne, 2009: http://www.ariadne.ac.uk/issue60/palmer.

Quelle: http://archive20.hypotheses.org/1555

Weiterlesen

Associated Press: USA schufen kubanischen Twitterklon

Das Internet, das per Definition Ländergrenzen überwindet, ist dennoch nicht überall wirklich angekommen. Laut Statistiken der International Telecommunication Union (ITU) nutzten 2012 gerade einmal 25,6% aller KubanerInnen das Internet (in Deutschland betrug die Quote 84%). Es gibt zwar Internet-Cafés auf Kuba, aber man zahlt für eine Stunde Internetnutzung mindestens 4,50 US-Dollar. In Anbetracht des Durchschnittseinkommens, das bei rund 20 US-Dollar liegt, für viele unbezahlbar. 2008 gab es nur in 0,5% der Haushalte überhaupt einen Internetanschluss, obwohl 3,4% der Haushalte über einen Computer verfügten.

Mobiltelefone sind schon eher verbreitet, gut 15% der KubanerInnen nutzen sie. Doch auch sie unterliegen dem staatlichen Monopol. Dies machte sich laut einem Bericht der Associated Press (AP) die US-Regierung zu nutze. In einem Projekt des Entwicklungsdienstes USAID, der sich vor allem um humanitäre Hilfe in Entwicklungsländern kümmert, wurde eine Plattform entwickelt, mit deren Hilfe KubanerInnen unzensiert und ohne Beobachtung durch den Staatsapparat austauschen können. In Anlehnung an twitter wurde die Plattform „Zunzuneo“ getauft – das kubanische Wort für Kolibri. Dort sollten zunächst harmlose Nachrichten über Musik, Wetter und Sport verbreitet werden, später laut AP regierungskritische Botschaften. USAID äußert sich in einem Pressebericht zum Projekt „Zuzuneo“, gibt aber an, das Ziel sei gewesen, „eine Plattform zu entwickeln, auf der sich KubanerInnen frei austauschen können – Punkt.“

Den Bericht der AP sowie weitere Informationen (beides auf Englisch) finden Sie hier.

Quelle: http://wwc.hypotheses.org/83

Weiterlesen

Dozenten-Nähkästchen (II) – Seminarplanung

Im beginnenden Semester habe ich die Möglichkeit (wie hier berichtet), an Stelle eines meiner Pflichtkurse ein neu völlig zusammengestelltes Seminar anzubieten. Dazu ist zwar einiges an Organisation nötig, die man irgendwann vor Beginn des Semesters oder zumindest der ersten Vorlesungswoche (also vor heute) hinbekommen haben muss. Lustigerweise hatte Kathrin Passig heute auch die richtigen Tweets dazu:

 

Nachdem ich ein Thema gefunden und geändert, mir einen Zeitslot und einen Raum ausgesucht habe, bzw. mir habe zuweisen lassen (das war auch schon ohne Großbaustelle an der Uni Köln schwer genug, ist mir aber wider Erwarten doch einigermaßen schnell gelungen), konnte ich mich an die inhaltliche Planung setzen, in die ich hier einen kurzen Einblick geben will.

Der formale Rahmen einer Uni-Veranstaltung wird meist dadurch vorgegeben, dass man 16 Doppelstunden zur Verfügung hat, die man auf eine Art füllen muss, welche die Studierenden weder langweilen noch überfordern sollte. Und am Ende mit dem Gefühl zurücklässt, dass sie inhaltlich und methodisch etwas dazugelernt haben.

Als erstes braucht man ein Thema, das eine Klammer um das bildet, was man im Kurs beabsichtigt zu tun. Wie es aussieht, habe ich gerade einen Auftrag für unser Institut an Land gezogen, bei dem es genau um die Evaluierung unterschiedlicher Text-Mining-Methoden geht. Dieser ist noch nicht ganz in trockenen Tüchern, deswegen kann ich hier noch keine konkreten Angaben machen. Vage geht es darum, aus einem sehr großen Korpus relativ homogener Texte Informationen zu extrahieren, um diese in strukturierter Form (Datenbank) abzulegen. Die dort zu behandelnden Texte haben eine Art von Binnenstruktur, d.h. sie zerfallen in der Regel in drei Teile. Es ist einfacher, Informationen aus ihnen zu extrahieren, wenn man weiß, in welchem der drei Textteile man zu suchen hat. So bietet sich an, vor der Informationsextraktion eine Textklassifikation vorzunehmen, in der man versucht, diese Teile im Gesamttext auszumachen und zu labeln (Demnächst vielleicht mal etwas konkreter).

Nun ist es durchaus sinnvoll, die beiden Aufgaben – Projektbetreuung und Seminarangebot – miteinander zu verknüpfen, so dass beide Aufgaben davon profitieren können. In diesem Fall ist es auch durchaus legitim, da die von mir angebotene Übung zum Modulslot  ”Angewandte Sprachverarbeitung” wie die Faust aufs Auge passt. Es bleibt aber noch zu überlegen, wie das Seminar aufgebaut sein kann, so dass die Studierenden davon auch bestmöglich profitieren.

Einerseits braucht es natürlich eine Einführung in den Bereich Text Mining und seine Unterdisziplinen Information Extraction und Text Categorization. Dafür galt es einführende Literatur zu finden, an der ich mich im Unterricht orientieren kann und die damit von den Studierenden als Grundlage für meine Ausführungen herangezogen werden kann (ich könnte denen ja sonstwas erzählen). Es gibt inzwischen eine Reihe recht annehmbarer Lehrbücher zu den Themen, deswegen wurde ich dort relativ schnell fündig. Allerdings setzen die entsprechenden Kapitel meist eine gewisse Grundbildung in induktiver Statistik voraus, wenn man die angewendeten Methoden tatsächlich auch von Grund auf verstehen will. Für die Studierenden kann ich das nicht unbedingt voraussetzen weswegen ich noch eine Einführung in dieses Thema angesetzt habe. Ein dritter – in unserem Studiengang sehr wichtiger Bereich – betrifft die konkrete Umsetzung des Gelernten in einer Software-Lösung.

Zusammengefasst besteht das Seminar aus aus drei Oberthemen – dem konkreten Anwendungsfall (aus dem Bereich Text Mining), dem zugrundeliegenden Handwerkszeug (induktive Statistik) sowie der Art und Weise der Umsetzung (Software Implementierung). Nach dieser Grob-Strukturierung entschloss ich mich erst einmal eine Mind Map anzulegen1, welche speziellen Themen behandelt werden müssten und wie diese zusammenhängen. Das erste Resultat ist dieses hier gewesen:

Course-Text-Mining_37e2acb0

Diese Mind Map gibt mir einen Überblick darüber, was ich in den zur Verfügung stehenden 16 Semesterwochenstunden ansprechen sollte und hilft mir bei der Gliederung des Seminars und der Verteilung von Aufgaben, die durch die Studierenden in Form von Kurzreferaten übernommen werden können. Damit bin ich zwar noch nicht ganz durch, aber es bleiben ja auch noch ein paar Stunden Zeit bis zur ersten Sitzung…

1Hab ich mit Bubbl gemacht, ging erstaunlich problemlos online https://bubbl.us/

Quelle: http://texperimentales.hypotheses.org/1042

Weiterlesen

Zum Buchbegriff in der Diskussion um das digitale Publizieren in den Geisteswissenschaften. Überlegungen auch aus linguistischer und mediävistischer Sicht

Entpolarisierung und Öffnung

Um es für den wissenschaftlichen Bereich vorwegzunehmen (für andere Bereiche, wie etwa die Belletristik, ist die Lage eine andere): Die mittelfristige Zukunft im Bereich des wissenschaftlichen Kommunizierens und Publizierens ist digital und Open Access. Dabei möchte ich die sogenannte analoge Publikation nicht als Gegenpol oder Ausschlusskriterium zum Digitalen (und vice versa) im aktuellen Zeitstrang sehen. Wir sollten die besten Wege für digitale Publikationskulturen unter Beteiligung aller Akteure vorbereiten und vor allem auch im gegenwärtigen Diskurs eine Entpolarisierung zwischen Gedrucktem und Digitalem vornehmen. Dieser Prozess impliziert einen Wandel bezüglich der Formen und der Vielfalt der Publikationsformate, Hand in Hand mit der Entwicklung von Evaluations- und Anerkennungsmechanismen, die die Qualität und Vielfalt von digitalen Publikationen im Open Access – genauso wie die der analogen – in Einvernehmen mit den grundlegenden Prinzipien geisteswissenschaftlicher Forschung garantieren.

Dieser vielschichtige Veränderungsprozess hat bereits begonnen hat (schon alleine die zahlreichen Workshops und Tagungen zu diesem Thema sind mehr als Symptom). Angemessene und faire Praktiken, auch in und zusammen mit dem gewerblichen Bereich, sollten angestrebt werden, bei denen Wissenschaftler und Wissenschaftlerinnen nicht in noch größerem Maße wie bislang die goldenen Melkkühe für die Veröffentlichungen der eigenen Aufsätze und Bücher werden. Ein solches Szenario würde in der Tat genau das Gegenteil des fundamentalen Selbstverständnisses geisteswissenschaftlicher Forschung bedeuten.

ESF Young Researchers Forum "Changing Publication Cultures"

ESF Young Researchers Forum “Changing Publication Cultures”

Das Young Researchers Forum der European Science Foundation hat in einem Positionspapier mit dem Titel “Changing Publication Cultures in the Humanities” die neue Situation, der wir zur Zeit gegenüberstehen, überzeugend zusammengefasst:

“A key aspect of the future publishing culture in the humanities is to develop new opportunities to catalyse positive change in prevalent modes of institutional authority. It is necessary to facilitate access to the scholarly community in order to democratise participation and collaboration between peers because innovative scientific work takes place in numerous contexts outside traditional scholarly genres”. (p.7)

Dieses “Reformieren” (im wörtlichen Sinne – “eine neue Form geben”) der wissenschaftlichen Publikationspraktiken wird als Folge auch einen Wandel der Rollen der darin partizipierenden Individuen und Institutionen haben, etwas der Bibliotheken und Archive. Und auch das Verlagswesen ist hier tiefgreifend gefordert, ich zitiere noch einmal das Young Researchers Forum:

“The role of publishers will change from providing content to providing services to the authors and users of scholarly information. As content will increasingly be available in raw open access form, the challenge for the publisher is to provide suitable access and flexibility, assisting scholars to find, select, enrich, recombine, and cite the work of others. The repositories themselves should be maintained by public institutions capable of guaranteeing open and equal long-term access to the results and resources of the scholarly work. The role of the scholars as a global community is to provide the source of new scholarly knowledge and a guarantee of its high intellectual quality.” (p.7).

Letzter Punkt ist dann auch der entscheidende: Der Geisteswissenschaftler bleibt – wie seit jeher –der Garant der hohen intellektuellen Qualität des produzierten Outputs. Diese Verantwortung können und sollen wir nicht abgeben – und der Anspruch auf diese Garantie existierte und existiert per se und ist letztendlich, so würde ich aus der Sicht der Handschriftenforscherin uns Sprachhistorikerin formulieren, unabhängig von der Medialität des Textträgers.

Wissenschaftliche Erzählformen, Buch und Medialität

Somit greifen solche Argumentationen zu kurz, die in der Debatte um das digitale Publizieren eine vermeintliche, toposhaft idealisierende Dichotomie von herkömmlich Gedrucktem (im Sinne von gedruckter Qualität) versus digitale Flüchtigkeit aufbauen. Der Historiker Martin Schulze Wessel hielt vor kurzem auf einer Veranstaltung in München zum Thema “Nachwuchswissenschaftler, Verlage, Bibliotheken & Open Access. Zeitgemäßes Publizieren in den Geisteswissenschaften” – bei feinfühlig differenzierender Argumentation – letztendlich an der traditionellen Sichtweise fest: “Die große Erzählung bedarf des gedruckten Buches, da bin ich ganz sicher”. Ihm ist gewiss hinsichtlich des Umstands zuzustimmen, dass die „große Erzählung“ weiterhin – im Gegensatz etwa zu Datenbanken, optischen Visualisierungen und anderen neuen Wissensrepräsentationen – im Fließtext am besten, und zwar auch mit hohem literarischem Anspruch darstellbar ist, und dieser Fließtext in Buchform gut vermittelbar ist, aber das muss heutzutage nicht mehr unbedingt oder ausschließlich auf Papier geschehen. Auch digitale Buch-Publikationen können prinzipiell und werden auch einen verdientermaßen gleichen qualitativen Anspruch im monographischen Bereich erfüllen.

Vor allem der Luzerner Mittelalterhistoriker Valentin Gröbner, der diese Art der Polarisierung inzwischen geradezu zu seinem Markenzeichen entwickelte, hat kürzlich in einem Gastbeitrag auf der Online-Zeitschrift Public History Weekly (13.02.2014) im Hinblick auf die neuen Publikationskulturen plakativ festgehalten:

“Lektion? Keine Erlösung durch die neuen Medien, und auch kein Weltuntergang. Die schnellen digitalen Übertragungskanäle mit ihrem ununterbrochenen Aufdatieren schaffen ihre langsamen analogen Vorgänger auf Papier nicht ab, im Gegenteil. Noch nie waren gedruckte Aufsätze und Bücher so notwendig wie heute, nämlich als Filter für stabile Resultate: Hochfrequente “heiße” Kommunikationsmedien – wie dieses hier – alimentieren und fördern “kühlere” Speicher mit längerer Haltbarkeit. Deswegen wird in den digitalen Formaten auch ununterbrochen auf Papierpublikationen verwiesen. Das gilt für wissenschaftliche Netzpublikationen ebenso wie für jeden brauchbaren Wikipedia-Eintrag. Und aus richtig guten Blogs werden – Bücher. Hallo, digitale Revolution, ist da jemand?”

Die Passage ist linguistisch interessant, denn sie baut metaphernreich einen Gegensatz auf, der eigentlich an fundamentalen Anachronismen scheitert: die Annahme, dass es Bücher offenbar nur in gedruckten Formen gibt bzw. geben darf – und dass nur das auf Papier Gedruckte offenbar das Filternde, das Stabile, das Elitäre und das letztendlich Qualitätsvolle darstellt.[1] Kurzum: die Argumentation müsste spätestens bei historischer Betrachtung wie ein Kartenhaus zusammenbrechen, da sie die Jahrhunderte, ja Jahrtausende vor der Einführung des Buchdruckes in Europa (wohl bewusst) aus dem Blickfeld nimmt. Sie scheitert somit letztendlich auch an der Grunddefinition des Buches. Ein Buch ist nicht per se ein auf Papier gedrucktes Garant für stabile Wissensvermittlung – sonst würden ganze Jahrhunderte Wissenserzeugung, Wissensvernetzung und Wissensweitergabe über das Pergament oder anderer Schriftträger ausgeblendet, und zwar solche Schriftkulturen, die mittels eines Schriftmediums erfolgreich funktionierten und im Mittelalter etwa Bücher produzierten, die per se keine zwei identischen Kopien des gleichen Textes erlaubten. Diese Verfahren der Buchproduktion erzeugten kollaborative und vielfach dynamische Wissensspeicher, die erst die Voraussetzungen schufen für die wissenschaftlichen Großunternehmungen ab dem Humanismus aufwärts. Diese mittelalterlichen Pergamenthandschriften, ja es sind Bücher, aber keine gedruckten, lehren den, der sich die Zeit nimmt aus der Vogelperspektive unserer digitalen Welt hineinzuschauen, dass wir es mit seltsamen Wiedererkennungswerten zu tun haben – und somit letztendlich auch das papierne Buch in einer longue durée hier seinen Platz noch einnehmen muss, ohne das endgültige A und O aller Dinge zu sein.

Alte BücherFreilich muss man, wenn man wissenschaftlich arbeiten will, nicht alles lesen, was im Netz steht, um nochmals den Titel eines Beitrages von Valentin Gröbner zu zitieren,[2] aber diese Frage stellt sich letztendlich für alles (inklusive der sogenannten “grauen Literatur”) auf Papier Gedruckte und davor Geschriebene, und somit wären wir wieder bei der Frage der Quellenkunde und Heuristik, die nur durch eine ganz immaterielle, und zwar intellektuelle Arbeit vollzogen werden kann. Insgesamt sollten wir die Vielfalt der neuen Publikations- und Kommunikationsformen im Netz wahrnehmen, mit den (noch) vorhandenen analogen kombinieren, in unsere wissenschaftlichen Arbeitsweisen integrieren, und auch deren positive Potentiale erkennen, von wissenschaftlichen Blogs, Mikropublikationen bis hin zu Online-Zeitschriften und Monographien, die selbstverständlich auch qualitativ hochwertig online veröffentlicht werden können, um nur einige zu nennen.

Hybridität und Digitalität

Vielleicht würde es auch einfach gut tun, unsere jetzige Hybridität zwischen analogen und digitalen Publikationskulturen zu erkennen, und im Kontext einer allgemeinen Digitalität entspannter damit umzugehen. Auch ich stehe gerne vor einem Regal und ziehe genau das (gedruckte) Buch zu einer bestimmten mittelalterlichen Bibliothek heraus, um darin konzentriert zu lesen oder einfach nur zu stöbern, – ich freue mich aber auch, wenn das gleiche Buch (oder eins, das ich eben nicht zur Hand habe) zum orts- und zeitungebundenen Lesen oder zum gezielten Durchsuchen digital verfügbar, und sogar eventuell von mir annotier- und mit anderen Quellen verlinkbar ist. Nicht zu schweigen von all den mittelalterlichen Handschriften, von denen ich jeden Tag dankbar bin, dass ich sie inzwischen zu Tausenden in hochqualitativer Auflösung und zum Teil in ihrem ursprünglichen – heute vielfach nicht mehr in der analogen Welt vorhandenen – Überlieferungskontext mit anderen Codices zusammen im Netz aufsuchen und benutzen kann.

(Die Ausführungen gehen auf einen Vortrag zurück, der auf Einladung von Marko Demantowski und Béatrice Ziegler am 24. März 2014 des Basler Kolloquium zur Didaktik der Geschichte und Politik gehalten wurde. Merci an Mareike Koenig und Georg Schelbert für Anregungen und Hinweise.)

 

[1] Die ganze Debatte erinnert zum Teil an die Diskussion um die deutsche Rechtschreibreform und das von manchen noch heute (vielleicht etwa auch in elitärem Habitus) praktizierte Festklammern an der alten Orthographie, wobei auch deren Unzulänglichkeiten beflissentlich ausgeblendet bzw. systematisch verdrängt werden.

Quelle: http://annotatio.hypotheses.org/376

Weiterlesen

Der Raum der Entgrenzung. Der Cyberspace als Sinnhorizont medialer Kommunikation- Von Udo Thiedeke (Teil 1)

Soll der Cyberspace als soziologischer Begriff für die Modellierung einer durch neue Medien beeinflussten Sozialität taugen, so ist zu beobachten, wie der Sinnhorizont der Kommunikation durch die Kommunikation mit neuen Medien verändert wird. Hierzu ist der Vorschlag zu machen, soziologisch … Continue reading

Quelle: http://soziologieblog.hypotheses.org/6386

Weiterlesen

Abstract zum Vortrag “Bloggen und Archive: Das Blogportal de.hypotheses.org” von Maria Rottler

Maria Rottler

Bloggen und Archive: Das Blogportal de.hypotheses.org

dehypothesesorg

Als Teil der europäischen Plattform Hypotheses.org, die inzwischen bereits knapp 850 Blogs umfasst, wurde vor zwei Jahren mit de.hypotheses.org ein deutschsprachiges Blogportal für die Geisteswissenschaften eröffnet; betreut wird dieses nicht-kommerzielle Angebot vom Deutschen Historischen Institut Paris und der Max Weber Stiftung. Eine Langzeitarchivierung der Beiträge ist gewährleistet.

Das Blogportal soll zu einer größeren Sichtbarkeit der einzelnen Wissenschaftsblogs beitragen; dazu werden die Beiträge von de.hypotheses.org auf Facebook, Twitter und Google+ beworben, von der wissenschaftlichen Redaktion ausgewählte Beiträge auch auf der deutschsprachigen sowie der internationalen Startseite.

Wissenschaftler/innen einzeln oder in Gruppen, aber auch Institutionen wie Archive, Bibliotheken und Museen sind eingeladen, bei de.hypotheses.org Blogs einzurichten – ein Angebot, das für die Bloggenden kostenlos ist. Inzwischen wurden bereits mehr als 100 deutschsprachige Blogs in den Katalog von OpenEdition aufgenommen, darunter das Tagungsblog “Archive 2.0“.

Im Rahmen des Vortrags soll nun einerseits das Blogportal vorgestellt werden, andererseits anhand von Beispielen gezeigt werden, welche vielfältigen Möglichkeiten sich Archivar/innen bieten, wie sie sich an verschiedenen Arten von Blogs beteiligen oder für sich und/oder ihre Institution(en) Blogs einrichten können.

Dass die Bedienung für die Bloggenden gar nicht so kompliziert ist, werden wir sehen, wenn wir einen Blick ins Dashboard werfen. Wer dann gleich selbst ausprobieren möchte, Beiträge zu erstellen, zu formatieren und zu veröffentlichen, Bilder, Videos, PDF-Dateien und Tweets einzubetten, wird dazu vor Ort in den Pausen in einem Schulungsblog die Gelegenheit haben.

Quelle: http://archive20.hypotheses.org/1548

Weiterlesen

Tagungsbericht: Wittelsbach, Bayern und die Pfalz: das letzte Jahrhundert

800 Jahre nach der Übertragung der Pfalzgrafschaft bei Rhein an die Familie der Wittelsbacher durch Kaiser Friedrich II., die über 700 Jahre währen sollte, befasste sich die wissenschaftliche Tagung „Wittelsbach, Bayern und die Pfalz: das letzte Jahrhundert“ mit zentralen Aspekten der Stellung der Pfalz im Königreich Bayern. Ausgewiesene Experten referierten am 28. und 29. März 2014 auf Schloss Villa Ludwigshöhe bei Edenkoben in drei Sektionen über das besondere Verhältnis der Pfalz zum Königreich Bayern zwischen deren Angliederung im Jahre 1816 und dem Ende der Wittelsbacher Herrschaft 1918. Ein besonderes Anliegen der von Prof. Dr. Karsten Ruppert, Katholische Universität Eichstätt-Ingolstadt, initiierten Tagung war die Belebung des Dialoges zwischen den bayerischen und pfälzischen Historikern über diese Epoche der gemeinsamen Geschichte.

Die Veranstaltung war ein gemeinsames Projekt der Generaldirektion Kulturelles Erbe (GDKE) des Landes Rheinland-Pfalz, der Katholischen Universität Eichstätt-Ingolstadt und der Hambach-Gesellschaft für historische Forschung und politische Bildung. Eine Unterstützung gewährte die Stiftung Bayern-Pfalz. Nach der Begrüßung durch die Direktorin der Sektion „Burgen, Schlösser, Altertümer“ der GDKE, Dr. Angela Kaiser-Lahme, die über die Geschichte und Bedeutung des Tagungsortes informierte, führte Prof. Dr. Karsten Ruppert in die Konzeption der Tagung ein: Von allen neu erworbenen Gebieten habe sich Bayern mit der Pfalz am schwersten getan. Dass die Integration dennoch gelungen sei, sei einer Politik zu verdanken gewesen, die so viel Einheitlichkeit wie nötig eingefordert und so viel Selbständigkeit wie möglich gewährt habe. So sei bis zum Vorabend des Weltkriegs der Beweis erbracht worden, dass ein starker Staat sich durchaus mit lebendigen Regionen vereinbaren ließ.

Den Auftakt zur Sektion „Politik, Verfassung, Recht“ machte Prof. Dr. Hans Fenske, Universität Freiburg, mit einem Referat über „Die pfälzische Sonderkultur in der politischen Entwicklung Bayerns bis zur Revolution von 1848/49“. Darin betonte er sowohl die populäre Zustimmung zur Beibehaltung der verfassungspolitischen Errungenschaften aus der französischen Zeit („Rheinische Institutionen“) wie auch die Bereitschaft der bayerischen Regierung und der führenden Verwaltungsbeamten zur „Verbürgung des pfälzischen Sonderstatus“. Mit der im Anschluss an die Pariser Julirevolution 1830 einsetzenden „konservativen Wende“ Ludwigs I., die vom Hambacher Fest 1832 verstärkt wurde, kam diese Phase zu einem vorläufigen Ende. Im Verlauf der Revolution 1848/49 wurde durch die liberalen Reformen jedoch eine Angleichung der rechts- an die linksrheinischen Verhältnisse erzielt, weshalb „von einer Sonderkultur dann kaum noch die Rede sein“ konnte.

Dr. Wilhelm Kreutz, Privatdozent an der Universität Mannheim, porträtierte „Die politische Entwicklung Bayerns und der Pfalz von 1848/49 bis 1918“. Hatte das Jahr 1849 mit der Lossagung der Pfalz von Bayern durch die Provisorische Regierung im Rahmen der Reichsverfassungskampagne den „Tiefpunkt des bayerisch-pfälzischen Verhältnisses“ markiert, so endete damit auch die geschlossene oppositionelle Blockhaltung durch Betonung der (französisch geprägten) politischen Autonomie. In der zweiten Hälfte des 19. Jahrhunderts sei ein Streben nach einer „historischen Kulturlandschaft ‚Pfalz’“ durch die Umdeutung der Pfälzer in einen „eigenen deutschen Stamm“ neben Franken, Schwaben und Altbayern unter Betonung der Einheit von politischem Territorium und geographischem Gebiet erkennbar. Gleichzeitig wurde neben dieser „kulturellen Transformation der Identität“ unter Dominanz der nationalliberal orientierten „Flaschenbarone“ die Annäherung an die deutsche Kultur und das ‚Reich’ wichtiger.

Dr. Franz Maier vom Landesarchiv Speyer bestätigte die Befunde der Vorredner. Die Vereinheitlichung auf staatlicher Ebene sei bis 1862 nahezu vollständig vollzogen worden und Neuerungen aus der französischen Zeit seien nicht nur belassen worden, sondern sie seien vielfach auch im rechtsrheinischen Bayern übernommen worden. Auf der kleinsten Verwaltungsebene, die Maier in seinem Vortrag über „Die Entwicklung der Verwaltung und Kommunalverfassung in der Pfalz und im rechtsrheinischen Bayern“ besonders im Blick hatte, ist es hingegen bis zum Ende der Monarchie zu keiner Angleichung gekommen; die erweiterten Selbstverwaltungskompetenzen wurden nicht berührt. Zu groß wären die Eingriffe in das alltägliche Leben der Menschen gewesen.

Den Vorbildcharakter der pfälzischen Freiheitsrechte für das rechtsrheinische Bayern, besonders für das aufgeklärte Milieu, untermauerte auch Prof. Dr. Dr. Reinhard Heydenreuther in seinem Referat über die „Rechtsordnung und Justizverfassung der Pfalz“. Mit der Übernahme respektive Garantie der Freiheit und Sicherheit der Person sowie des Eigentums, der Gleichheit vor dem Gesetz, der Freiheit des Gewerbes, der Trennung von Justiz und Verwaltung, der Öffentlichkeit der Gerichtssitzungen und der Trennung des Geistlichen vom Weltlichen wurde im Kernland jedoch erst 1848 begonnen.

Der Beitrag Prof. Dr. Alois Seidls von der Hochschule Weihenstephan über „Die pfälzische Landwirtschaft des 19. Jahrhunderts im Spiegel des bayerischen Stammlandes“ beleuchtete die großen Unterschiede in den landwirtschaftlichen Verhältnissen als Auftakt zur Sektion „Wirtschaft und Gesellschaft“. Die seit der französischen Zeit bestehende moderne Agrarverfassung („Bauernbefreiung“) machte die Bauern in der Pfalz zu Eigentümern und Unternehmern gleichermaßen; die Realteilung hatte allerdings die Ausbildung einer kleinbetrieblichen Agrarstruktur („Parzellierung“) und im Verein mit der Bevölkerungsexplosion des 19. Jahrhunderts mehrere Ernährungskrisen zur Folge. Auch auf die Entwicklung moderner Produktionstechniken wirkte sich die Dominanz der Parzellenbetriebe nachteilig aus. Durch die korporativ betriebene Agrarbildung fand jedoch eine gegenseitige Befruchtung zwischen dem Stammland und der Pfalz statt.

Prof. Dr. Dirk Götschmann, Universität Würzburg, schloss mit seinem Vortrag über „Industrialisierung und Gewerbe der Pfalz“ daran an. Die agrarische Pfalz (bis zur Mitte des Jahrhunderts waren rund 70 % der Beschäftigten in der Landwirtschaft tätig) mit überwiegend Subsistenzwirtschaft habe nur wenig Produktivkraft entfaltet. Andererseits habe die Abhängigkeit von einem – oft häuslich betriebenen – Zuerwerb, der aufgrund der liberalen Gewerbeverfassung ohne Restriktionen aufgenommen werden konnte, der Pfalz gegenüber dem rechtsrheinischen Bayern einen Vorsprung bei der aufkommenden Industrialisierung und Globalisierung verschafft. Die Erweiterung der Absatzmöglichkeiten durch den Deutschen Zollverein von 1834, der Anschluss an die Eisenbahn und die Schifffahrt seit den 1840er Jahren machten die Klein- und Kleinstbetriebe (heute: „Mittelstand“) der Pfalz zu Profiteuren auf dem Binnen- und Weltmarkt.

Dr. Markus Raasch, Privatdozent an der Universität Mainz, relativierte mit seinem Beitrag zu „Adel und Bürgertum. Bayern und die Pfalz aus gesellschaftshistorischer Perspektive“ die weitverbreitete Auffassung, wonach in der Pfalz feudale Lebensformen keine Rolle gespielt hätten. Durch zahlreiche Nobilitierungen habe sich zwar durchaus eine sehr heterogene Adelslandschaft mit zahlreichen Zerfallserscheinungen ergeben; allerdings seien diese Beleg für eine „ausgeprägte Kontinuität in der Diskontinuität“. Auch seien die Verfassung von 1818 sowie die Revolution von 1848/49 wichtige Zäsuren, doch sei der Abbau von Vorrechten stets mit staatlichen Konzessionsangeboten einhergegangen. Überdies zeuge der überproportionale Anteil des Adels in Bürokratie und Politik von Erfolgen im „Kampf ums Obenbleiben“. Dem Wandel der Besitzverhältnisse konnte der Adel ferner durch Allianzen mit dem Besitzbürgertum entgegenwirken, das mit der Adaption adliger Lebensformen diese weiterführte.

Das Referat Prof. Dr. Hermann Rumschöttels über „Die Pfalz um gesellschaftlichen und wirtschaftlichen Wandel Bayerns in der zweiten Hälfte des 19. Jahrhunderts“ musste aus persönlichen Gründen entfallen, wird aber in den Tagungsband aufgenommen werden.

In die dritte Sektion, „Religion und Kultur“, führte Prof. Dr. Werner K. Blessing, Universität Erlangen-Nürnberg, mit dem Vortrag „Pfälzer ‚Eigen-Sinn’ – Der Unionsprotestantismus im Königreich Bayern“ ein. Die pfälzische Kirche könne insofern als „Seismograph des Zeitgeschehens“ gelten, als sie gegen die reaktionäre Kulturpolitik Ludwigs I. durch eine starke rationalistische Gegenbewegung Widerstand leistete. Politische Bedeutung erlangte die speziell auf gemeindlicher Ebene praktizierte „protestantische Freiheit“ dadurch, dass sie sich mit der frühliberalen Kritik an der konservativen Staatsführung verband; der Kampf um die Unabhängigkeit der Unierten Kirche der Pfalz vom orthodoxen „Neuluthertum“, welches das Oberkonsistorium in München dominierte, sollte auch die politische Autonomie befördern. Die Unionskirche wirkte als „geistig neutrales Band“ entscheidend an der Entwicklung einer gemeinsamen Identität mit.

Die andere große Konfession hatte Prof. Dr. Klaus Unterburger, Universität Regensburg, im Blick, als er zum Thema „Zwischen bayerischem Staatskirchentum und Milieubildung: Strukturelle Rahmenbedingungen und spezifische Eigenheiten des Pfälzer Katholizismus“ referierte. Er strich heraus, dass die beiden aus dem Mainzer Kreis kommenden Bischöfe, Geissel und Weis, sich für eine Stärkung und Reform des Katholizismus nach dem Niedergang in der „Franzosenzeit“ im Sinne des Ultramontanismus eingesetzt hätten. Unter dem Einfluss des frühliberal-rationalistischen Protestantismus und der kleinstädtischen Struktur der Pfalz sei die Ausbildung eines praktizierenden katholischen Milieus erschwert worden. Letzteres sei in der zweiten Hälfte des 19. Jahrhunderts daher einen anderen Weg zur politischen Partizipation gegangen als der pfälzische Protestantismus: statt vornehmlich über den Parlamentarismus über Vereine, eine katholische Presse, Parteien und karitative Orden.

Dr. Lenelotte Möller, Speyer, machte in ihrer Betrachtung über „Schulwesen und höhere Bildungsanstalten der Pfalz im Rahmen des bayerischen Bildungssystems“ deutlich, dass im gesamten Jahrhundert ein beeindruckender Fortschritt erkennbar ist und eine massive, vor allem von den Gemeinden getragene Aufbauarbeit geleistet wurde: Nachdem die Beschulung zur öffentlichen Aufgabe eines territorial und bildungssystemisch weitgehend homogenisierten Staates geworden war, konnte eine ebenso verbesserte Eliten- wie Breitenförderung und damit ein großer Anstieg der Alphabetisierung verzeichnet werden. Eine Besonderheit der Pfalz blieb der große Anteil der bis ins 20. Jahrhundert hinein bestehenden kommunalen Gemeinschaftsschulen.

Abschließend stellte Dr. Jürgen Vorderstemann, Speyer, die Frage „Pfälzische Kulturlandschaft oder kulturelle Provinz?“ Zwar hätten die bayerischen Könige, vor allem unter Ludwig I. und in der Prinzregentenzeit, einige kulturelle Aktivitäten entfaltet, doch seien diese weit hinter denen in München und anderen Teilen Bayerns zurückgeblieben. Umso mehr Gewicht sei daher den erfreulich zahlreichen Initiativen der Bürgergesellschaft zuzumessen. Zur Provinzialisierung habe schließlich noch beigetragen, dass kein Pfälzer Künstler von Rang in seiner Heimat geblieben sei. Die Zurücksetzung der Pfalz gegenüber dem Kernland, die während der Tagung in verschiedenen Referaten angeklungen war, in der Kulturpolitik war sie am deutlichsten.

Quelle: http://achtundvierzig.hypotheses.org/553

Weiterlesen

Dozenten-Nähkästchen (I)

In einem kleinen Fach wie der Informationsverarbeitung besteht das Curriculum – bedingt durch die sehr begrenzten Ressourcen – zu weiten Teilen aus Lehrveranstaltungen, deren Inhalte weitestgehend vorgegeben sind. Das geht natürlich auch zum Teil auf die Kappe des Bologna-Prozesses, in dessen Zuge u.a. Modulhandbücher eingeführt wurden, in denen bisweilen haarklein dokumentiert ist, was in welchen angebotenen Kursen für Inhalte behandelt werden müssen. Beziehungsweise muss das dort genau umgekehrt verschlüsselt werden – es zählt nicht der Input, also die Inhalte, die gelehrt werden, sondern der Outcome, mithin die Kompetenzen, welche die Besucher der Veranstaltung/des Veranstaltungsbündels im Modul erworben haben (sollten). Ob letzteres, was als toller Paradigmenwechsel gefeiert wurde, wirklich so viel sinnvollere Lehrveranstaltungen bedingt, sei dahingestellt. Ich selbst finde es gar nicht verkehrt, dass die Studierenden mit dem Modulhandbuch schwarz auf weiß bekommen, mit welchen Themen sie zu rechnen haben/was letztlich von ihnen verlangt wird und so weniger eventueller Willkür einzelner Dozentinnen oder Dozenten ausgesetzt sind.

Dass ich dem ganzen aufgeschlossen gegenüber stehe, liegt womöglich auch daran, dass ich jetzt schon lange genug dabei bin und die gegenwärtig geltenden Modulhandbücher sowie deren – hoffentlich im nächsten Jahr in Kraft tretenden – Nachfolger mitschreiben durfte. Oder musste. Und möglicherweise ist es leichter, wenn man sich an einen Plan halten muss, den man sich selbst ausgedacht hat. Lehrveranstaltungen, die über die Jahre nur schwach variieren, haben natürlich auch den Vorteil, dass sie in der Vorbereitung nur beim ersten Mal wirklich viel Arbeit machen. Ich habe in den letzten Jahren die je zweisemestrigen Kurse “Computerlinguistik” und “Softwaretechnologie: Java” (Seminar bzw. Programmierpraktikum) gegeben. Mit jedem Jahr wird die Vorbereitungszeit kürzer – die relevante Literatur ist gesichtet, Folien (bei denen bei mir eh immer nur wenig draufsteht) sind entworfen, Beispielanwendungen gefunden. Natürlich kommt bei so dynamischen Gebieten wie Computerlinguistik und Programmiersprachen immer etwas neues hinzu, das sich aber nach meiner Erfahrung relativ fix in einen bereits existierenden Plan einbetten lässt.

Pano-unikoeln-magnusplatz

Mit der Zeit wird es aber natürlich etwas langweilig, immer das gleiche zu unterrichten – bei aller Dynamizität der Inhalte. Deshalb habe ich schon in früheren Semestern mit Co-Dozenten Seminare zu ausgewählten Themen angeboten, die gerade ins Konzept passten (laufende Projekte, an denen ich gearbeitet habe oder Bereiche, die in meiner Dissertation eine Rolle spielten) und über mein Lehrdeputat, das ich verpflichtet bin, abzuleisten, hinausgingen. Mit mehr Fleiß hätte ich das vielleicht auch regelmäßig hinbekommen, es spielte hier aber auch eine Rolle, die Preise nicht zu verderben – es ergäben sich ja für die Bundesländer enorme Einsparpotentiale, wenn jeder Dozierende in seiner Freizeit regelmäßig zusätzliche Kurse ohne Bezahlung gäbe.

So war ich dann sehr froh, als wir am Institut Verstärkung bekommen haben und diese im nächsten Semester mein Programmierpraktikum übernehmen kann. Damit kann ich ein Seminar anbieten, dessen Inhalte ich weitgehend selbst bestimmen darf – es muss nur auf das Thema “Sprachverarbeitung” passen, was hinzukriegen sein dürfte. Eigentlich wollte ich diesen Blogpost dazu nutzen, zu beschreiben, auf welche Weise ein solches Seminar geplant werden kann. Das werde ich dann – so meine Bloglaune es will – im nächsten Teil berichten.

Bild: By A.Savin (Own work) [GFDL (http://www.gnu.org/copyleft/fdl.html) or CC-BY-SA-3.0-2.5-2.0-1.0 (http://creativecommons.org/licenses/by-sa/3.0)], via Wikimedia Commons

Quelle: http://texperimentales.hypotheses.org/1026

Weiterlesen