Archivmaterial des französischen Senats zum Ersten Weltkrieg online

commissionsenatDer Sénat, einer der beiden Kammern neben der Assemblée Nationale des Parlamentssystems in Frankreich, mit Sitz im Palais du Luxembourg, hat seine Archivunterlagen zum Ersten Weltkriegs digitalisiert und online zur Verfügung gestellt. Es handelt sich dabei um die Protokolle seiner Sitzungen und um die Berichte der Kommissionen. Der Zeitraum umfasst die Jahre von 1914 bis 1920. Die Scans werden als pdf zur Verfügung gestellt.

Online zugänglich sind derzeit:

Weitere Informationen zum Digitalisierungsprojekt und zur Arbeit des Senats gibt es hier auf Französisch.

 

Quelle: http://grandeguerre.hypotheses.org/1126

Weiterlesen

Eilt wirklich sehr!

Vermerke und Verfügungen auf Aktenschriftstücken richtig einzuordnen, ist ein großer Teil des aktenanalytischen Geschäfts. Deshalb nimmt die Merkmalskunde (so die treffende Bezeichnung bei Neuß 1954: 187) oder Analytische Aktenkunde zu Recht breiten Raum in den Handbücher ein.

Wie die vorliegende Literatur insgesamt, ist auch die Merkmalskunde im Besonderen noch stark auf die Zeit vor 1918 konzentriert. So wie sich das Aktenwesen im 20. Jahrhundert lawinenartig ausbreitete, differenzierten sich auch die inneren Merkmale weiter aus, wechselten ihr Erscheinungsbild und zum Teil auch ihre Funktion. In loser Folge und ohne systematisierenden Anspruch möchte ich einige Vermerke und Verfügungen vor allem in ihren zeitgeschichtlichen Ausprägungen behandeln.

Der Hauptrohstoff jeder Bürokratie ist die Zeit, die auf die Bearbeitung der einzelnen Vorgänge verteilt werden kann. Jeder bürokratische Institution benötigt ein Steuerungsmittel, um besondere Vorgänge mit Priorität bearbeiten zu können: die Beschleunigungsverfügung. Ihre klassische Form ist das lateinische cito! oder citissime!, gern auch kombiniert als cito! citissime! Bis vor kurzer Zeit war im deutschen Auswärtigen Dienst auch noch citissime nachts in Gebrauch: Traf der so bezeichnete Erlass außerhalb der Dienstzeiten in der Botschaft sein, so war der Botschafter notfalls aus dem Bett zu holen. Cito begegnet mitunter auch als grafisches Symbol, bei dem die übrigen Buchstaben in das C eingeschrieben sind. Verdeutscht wurde daraus Eilt! oder Eilt sehr!

Meisner (1935: 150; 1952: 77; 1969: 275) und Kloosterhuis (1999: 483 f.) behandeln cito oder Eilt im Kontext des Empfänger eines Schreibens: als Anordnung z. B. des Behördenleiters zur beschleunigen Erledigung einer Sache, die er auf dem Schriftstück, das den Vorgang auslöst, notiert. Der Konzipient der Antwort übernimmt die Verfügung in seinen Entwurf; Adressat bleiben dabei die nachfolgenden Instanzen im Geschäftsgang der eigenen Institution. Auch Hochedlinger (2009: 72 f.) bleibt in dieser Tradition, gibt aber mit der Erwähnung der Eilbriefe des 20. Jahrhunderts einen Hinweis auf den zweiten Anwendungsbereich, der in den komplizierten Verwaltungsstrukturen der Zeitgeschichte große Bedeutung gewonnen hat.

Eilt kann nämlich der Absender auch, bevorzugt zwischen Kopf und Datum, in sein Schreiben einbauen, um seine Einschätzung der Eilbedürftigkeit einer Sache dem Empfänger aufzwingen. Analytisch liegt also keine vom Kontext getrennte Verfügung vor, sondern ein besonderer Teil des Formulars. Dazu zwei Beispiele:

Eilt sehr 2

Hier wurde Eilt sehr beim Empfänger, dem Referat I B 1 des Auswärtigen Amts verfügt. Quellenkritisch kann daraus mit Sicherheit geschlossen werden, dass das Stück eilig behandelt wurde. (PA AA, B 43, Bd. 147.)

Eilt sehr 1

 

Hingegen wurde im zweiten Beispiel der Stempel Eilt sehr – Sofort auf dem Tisch dem Bericht vom Absender schon mitgegeben. (PA AA, B 43, Bd. 120.) Mehr als eine unverbindliche Empfehlung für die vorgesetzte Zentrale in Bonn kann man darin prima facie nicht sehen. Die hier nicht abgebildeten Bearbeitungsspuren deuten zwar tatsächlich auf eine schnelle Befassung hin: Eingang am 14. Januar, Schlussverfügung zdA am 15. Außer einer einsamen Anstreichung in der mitübersandten Anlage hat dieser Bericht allerdings keine weiteren Aktionen ausgelöst. Schnell zu entscheiden, dass nichts zu veranlassen ist, ist natürlich auch eine Form der schnellen Bearbeitung.

Der Eilt-Stempel wurde in der Ständigen Vertretung der Bundesrepublik bei der NATO nach Aktenlage seinerzeit gern und häufig geschwungen. Ein größeres Eilt (10 x 3,5 cm!) habe ich den Unterlagen des Auswärtigen Amts übrigens noch nicht entdeckt. Waren diese Sachen wirklich immer eilig? Der Verdacht drängt sich auf, dass Eilt (wie auch Geheim) in vielen Fällen als Subsitut für einen im Behördenschriftwesen nicht vorgesehen Wichtig-Vermerk gebraucht wurde. Geschäftstechnische Eilbedürftigkeit und sachliche Wichtigkeit sind aber grundsätzlich verschieden.

So ist Eilt im modernen Behördengeflecht auch ein Mittel, um an höherer Stelle im Wettbewerb mit anderen Aufmerksamkeit für die eigenen Anliegen zu gewinnen. Leicht kann der Gebrauch inflationär werden. Der Brüsseler Eindruck von Dringlichkeit dieser Sache wurde in Bonn jedenfalls nicht geteilt.

Sofort auf den Tisch, wie im Beispiel oben, ist ebenso wie das v. a. bei Kabinetts- und Parlamentssachen anzutreffende von Hand zu Hand ein Zusatz, der die sofortige Vorlage bzw. Weitergabe des Vorgangs ohne Ruhezeiten in Posteingangsstellen und Verteilerzimmern bewirken soll.

Literatur

Hochedlinger, Michael 2009: Aktenkunde: Urkunden- und Aktenlehre der Neuzeit, Wien.

Kloosterhuis, Jürgen 1999: Amtliche Aktenkunde der Neuzeit: Ein hilfswissenschaftliches Kompendium. In: Archiv für Diplomatik 45: 465–563 (Preprint).

Meisner, Heinrich Otto 1935: Aktenkunde: Ein Handbuch für Archivbenutzer mit besonderer Berücksichtigung Brandenburg-Preußens, Berlin.

Meisner, Heinrich Otto 1952: ,Urkunden- und Aktenlehre der Neuzeit, 2. Aufl., Leipzig.

Meisner, Heinrich Otto 1969: Archivalienkunde vom 16. Jahrhundert bis 1918, Leipzig.
Neuss, Erich 1954: Aktenkunde der Wirtschaft, Bd. 1, Berlin (Schriftenreihe der Staatlichen Archivverwaltung 5).

Quelle: http://aktenkunde.hypotheses.org/46

Weiterlesen

Wie global ist eigentlich global? Oder: Weltbeziehungen, Region, Peripherie

 

Ich betreibe ja Mikrogeschichte. Vergleichend, immerhin (darüber gibt’s demnächst auch mal was). Aber der Fokus liegt auf sehr kleinen Räumen/sozialen Gruppen, eben auf ländlichen Gemeinden, Dörfern. In meinem Fall: so um 1000 Einwohner. Das ist möglicherweise unmodisch. Denn besonders attraktiv wirken ja die großen Ansätze, am besten direkt Globalgeschichte. Das verkauft sich gut, hat was Exotisches und muss sich garantiert nicht fragen lassen, „wie repräsentativ“ das Ganze denn nun sei.

Nun kann man allerdings fragen, wie weit eigentlich die Ansätze von Globalgeschichte und Mikrogeschichte auseinanderliegen – im Zweifel sehr weit. Aber muss das so sein? Nicht erst seit meiner Rezension zum Jahrbuch für Geschichte des ländlichen Raumes 2012: Im Kleinen das Große suchen (erscheint hoffentlich bald in der ZfG) denke ich über das Verhältnis von Mikro- und Makrogeschichte nach. Und da ich das ja nicht komplett alleine machen muss, es ganz im Gegenteil viele andere Menschen gibt, die sich auch so ihre Gedanken dazu machen, werde ich in den nächsten Wochen immer wieder Texte diskutieren, die sich dieses Problems annehmen.

Den Auftakt mache ich heute mit einem aktuellen Aufsatz von Johannes Paulmann, erschienen in der letzten HZ und direkt von mir markiert als „muss ich lesen“ (passiert inzwischen häufiger – wer hat sich verändert, die HZ oder ich?).

Worum geht’s? Paulmann versucht, Ansätze der Regionalgeschichte aufzubrechen und in globale Kontexte zu stellen. Er diskutiert unterschiedliche methodische Ansätze und Diskussionen, vor allem solche, die den Konstruktionscharakter von Regionen herausstellen. Statt also von einem gegebenen Territorium auszugehen, wie es die Landesgeschichte lange gemacht hat, soll der Blick darauf gelenkt werden, wie die verschiedensten Akteure an der Konstruktion und Veränderung von Regionen (Regionsvorstellungen und –bezügen) beteiligt sind.

Bei diesem konstruktivistischen Charakter bleibt er aber nicht stehen, sondern betont abseits der Stabilisierung von Regionen deren Verflechtungen und Grenzüberschreitungen. Er greift das Konzept von Translokalität auf und erweitert es zu einem Werkzeug für die Regionalgeschichte: „Transregionalität“ greift also den grenzüberschreitenden Charakter globaler Bezüge auf, ohne die „Region“ als Ausgangspunkt der Interaktion vorauszusetzen. Region entsteht vielmehr auch in dieser Grenzüberschreitung globaler Art.

Dieses Konzept von Transregionalität erprobt Paulmann nun am Beispiel des Südwestens Deutschlands, also letztlich des heutigen Baden-Württembergs bis ins 19. Jahrhundert zurückprojiziert. Anhand von „Welt-Läufern“ (Reisenden und (Re-)Migrierenden) und Institutionen der globalen Wissenserzeugung und Zirkulation (von Völkerkundemuseen bis hin zu alternativen Informationszentren zur „Dritten Welt“) untersucht er, welche Vorstellungen von Region sich in solchen (hierarchischen!) Beziehungen zur „Welt“ niederschlugen und verfestigten, aber auch aufgebrochen wurden.

Über den Aufsatz kann man insgesamt sicher viel diskutieren – etwa, inwieweit gerade der „Südwesten“ ein geeigneter Untersuchungsraum ist, da die Schwierigkeit doch darin besteht, dass er kaum als „Geschichtsregion“ wahrgenommen wird, als Identitätsraum mit historischer Tiefenwirkung also. Oder warum die Weltbeziehungen in erster Linie solche in die südliche Hemisphäre sind, ob die „Welt“ nicht noch mehr ist.

Da aber Paulmann den Aufsatz vor allem als Forschungsaufriss nutzt, um zu zeigen, in welcher Form regionale Ansätze global eingebettet werden können, sind diese Fragen zwar natürlich wichtig, sollten aber nicht als Fundamentalkritik verstanden werden.

Im Gegenteil, ich glaube, dass diese Form der „Beziehungsforschung“ eine interessante Facette regionalhistorischen Arbeitens (und auch globalhistorischen Arbeitens) umreißt, die meiner Meinung nach noch zu wenig beachtet wird, nämlich die Verknüpfung von lokalen Praktiken und „Welt“. Oder, um mit Bruno Latour zu sprechen: „Auch ein großes Netz bleibt in allen Punkten lokal“ (Latour S. 155). Global ist eine Perspektive, keine Seins-Beschreibung. Bleibt man im Konkreten, sind globale Beziehungen lokale Vernetzungspraktiken.

Diese Perspektive ermöglicht es, sehr unterschiedliche Akteure in ihren Praktiken sichtbar zu machen – nicht nur „die“ Politik, „den“ Imperialismus oder „den“ Kapitalismus. Dabei bleibt es aber meiner Meinung nach eine wichtige Aufgabe, die Verkettung dieser Praktiken ebenso sichtbar zu machen – nicht nur einfach alles in einer Menge von Kleinstpraktiken aufzulösen, sondern die Netze dahinter zu rekonstruieren (Latour lässt grüßen), die Zusammenhänge und Machtgeflechte,

So interessant ich den Aufsatz finde, so bleiben trotzdem Fragen. Vielleicht ist das aber auch gerade ein Zeichen dafür, wie weiterführend ich die Idee der Weltbeziehungen finde, als Art und Weise, Fragen zu stellen.

Das ist erstens das Problem der Konstituierung von Regionen. Im Aufsatz von Paulmann geht mir das manchmal zu schnell, die Institutionen und Personen werden in einem Raum situiert, als Beispiel für Weltbeziehungen des Südwestens. Nicht in allen Fällen ist nachweisbar, wie sie an der Regionsbildung selbst teilhaben (etwa: beim Freiburger Informationsdienst Dritte Welt). Wie kann man diese Region wirklich in ihrem Konstruktionscharakter verdeutlichen, und wann ist eine Region etwas „relativ“ Verfestigtes?

Zweitens, davon ausgehend: Warum handelt es sich, so Paulmann, um Transregionalität und nicht um Translokalität? In vielen Fällen sind es sehr punktuelle Praktiken der Raumbeziehung, eine wichtige Rolle spielen konkrete Orte, etwa Stuttgart oder auch die Gemeinde Korntal. Kann man diese Punkte wirklich in einer Fläche aufheben? Wenn ja, wie?

Und schließlich ist die Region hier sehr stark von Punkten, im Zweifel sogar von Zentren her gedacht, noch dazu (häufig, bei den Weltläufern nicht immer) von sozialen Eliten. Das liegt natürlich auf der Hand, weil die Städte und die bürgerlichen Akteure wichtige Ausgangspunkte der offensiven Herstellung von Weltbeziehungen waren. Was aber machen wir eigentlich mit den Orten jenseits der (regionalen) Zentren? Gibt es dort Weltbeziehungen? Rechnen wir einfach die Weltbeziehungen der Städte auf die Regionen hoch? Oder müssen wir von einer punktuellen Globalität des 19. und 20. Jahrhunderts ausgehen, aus denen beispielsweise ländliche Gesellschaften ausgeklammert waren?

Die Perspektive für mich ist natürlich: Welche Formen von Weltbeziehungen bildeten eigentlich ländliche Akteure aus? Welche „Welt“ meinten sie, und wie veränderte sich das? Und: Wie kann ich diese Weltbeziehungen jenseits eigener Migration oder dominanter Institutionen wie Völkerkundemuseen sichtbar machen? Oder muss ich dann bereits die Segel streichen und sagen: Provinz blieb Provinz und der eigene Kirchturm das Zentrum der eng begrenzten dörflichen Welt?

Ich glaube ja, dass die Vernetzung und die Herstellung von Weltbeziehungen analysierbar ist. Die Frage ist nur: Was war die Welt? Möglicherweise endete sie in München. Oder in Rom. Oder in St. Louis (dazu auch bald mehr). Auszuschließen ist das nicht. Ich werde berichten.

Paulmann, Johannes: Regionen und Welten. Arenen und Akteure regionaler Weltbeziehungen seit dem 19. Jahrhundert, in: Historische Zeitschrift 296 (2013), S. 660-699.

Latour, Bruno: Wir sind nie modern gewesen. Versuch einer symmetrischen Anthropologie, Franfurt/Main 2008 [frz. Original 1991].

 

 

Quelle: http://uegg.hypotheses.org/79

Weiterlesen

Elias Khoury: The Spring and the Blood in Syria

Am Mittwoch, 26. Juni 2013, sprach der libanesische Schriftsteller und Intellektuelle Elias Khoury (Beirut/New York University) als Gast des Forschungsprogramms „Europa im Nahen Osten – der Nahe Osten in Europa“ (EUME) am Forum Transregionale Studien in Berlin.

EUME Discussion: Elias Khoury “The Spring and the Blood in Syria” from maxweberstiftung on Vimeo.

Unter dem Titel “The Spring and the Blood in Syria” verband Elias Khoury seine Analyse der aktuellen Situation in Syrien mit einem weiteren Blick auf die Neubestimmung von Politik, Gesellschaft und Kultur im arabischen Nahen Osten und die Rolle der Intellektuellen. Elias Khoury ist Schriftsteller, Dramatiker, Literaturkritiker, Journalist und einer der bedeu-tendsten Intellektuellen der arabischen Welt. Als “globally distinguished professor” unterrichtet er regelmäßig an der New York University. Seine Kolumnen und Kommentare zur zeitgenössischen Politik und Kultur in der arabischen Welt werden weit rezipiert. Seit 1998 hat er an verschiedenen Initiativen und mehreren Sommerakademien von EUME oder seinem Vorgängerprojekt, dem Arbeitskreis Moderne und Islam mitgewirkt. Im akademischen Jahr 2010-11 war er Fellow des Wissenschaftskollegs zu Berlin. Zuletzt hat er im September 2012 an der EUME  Sommerakademie „Aesthetics and Politics“ in Kairo und im Juni 2013 an der Marburger Konferenz „Committment and Dissent in Arabic Literature“  teilgenommen. Daneben hielt er die Keynote Adress bei der Konferenz “Inverted Worlds – Congress on Cultural Motion” des Orient-Instituts Beirut. Khoury hat mehr als zehn Romane veröffentlicht, die in zahlreiche Sprachen übersetzt wurden. Auf Deutsch erschienen sind u.a.: Das Tor zur Sonne (Klett-Cotta Verlag, Stuttgart 2004), Yalo (Suhrkamp Verlag, Berlin 2011) und Als schliefe sie (Suhrkamp Verlag, Berlin 2012).

Quelle: http://mws.hypotheses.org/3179

Weiterlesen

Stellenangebot wissenschaftliche/r Mitarbeiter/in an der BBAW

Die Berlin-Brandenburgische Akademie der Wissenschaften (BBAW) ist eine Körperschaft des öffentlichen Rechts mit Sitz in Berlin. Ihr wissenschaftliches Profil ist vor allem geprägt durch langfristig orientierte Grundlagenforschung der Geistes- und Kulturwissenschaften. Die Akademie beschäftigt etwa 350 Mitarbeiter/innen, ihr Jahresbudget beträgt rund 20 Mio. Euro. Die Akademie sucht für das von der DFG geförderte Projekt „Personendaten-Repositorium“ zumfrühestmöglichen Zeitpunkt eine/n

wissenschaftliche/n Mitarbeiter/in
mit Erfahrungen in den Digital Humanities
mit der Hälfte der tariflichen Arbeitszeit und vorerst befristet für ein Jahr

(bei erfolgreichem Projektverlauf Verlängerung um ein weiteres Jahr möglich).

Die Akademie betreut bedeutende Editionen, Wörterbücher und Prosopographien sowie interdisziplinäre Arbeitsgruppen und Kolloquien. Die im Jahre 2001 von der Akademie ins Leben gerufene Initiative TELOTA (The electronic life of the academy) entwickelt Instrumente zur digitalen Erarbeitung, Dokumentation und Präsentation der Forschungsdaten. Das DFG-Projekt „Personendaten-Repositorium“ ist ein Projekt der TELOTA-Initiative. Ziel des Projekts ist die Weiterentwicklung des an der BBAW konzipierten und implementierten Personendaten-Repositoriums und seine Etablierung innerhalb der nationalen und internationalen  geisteswissenschaftlichen Forschungslandschaft.

Aufgaben:
  • Umsetzung des erweiterten PDR-Datenmodells für komplexe Datenstrukturen
  • Konzeption und Aufbau von Datenmapping- und Datenmanagement-Strukturen für heterogene Personendaten-Bestände
  • Entwicklung von Datenanalyse-Algorithmen zur Korrektur und Auswertung der Personendatenbestände
  • Darstellung der Ergebnisse auf wissenschaftlichen Tagungen und Workshops sowie Nutzerschulungen
Voraussetzungen:
  • abgeschlossene einschlägige Hochschulausbildung,
  • nachgewiesene Erfahrungen bei der Datenmodellierung und –verarbeitung mit XML und XSLT
  • Kenntnisse mindestens einer Skript-Sprache, vorzugsweise Perl
  • Fähigkeit zur interdisziplinären Zusammenarbeit
  • ausgeprägte Teamfähigkeit und Erfahrungen in der Projektarbeit.

Die Vergütung erfolgt bei entsprechender Qualifikation nach E13 des Angleichungs-TV Land Berlin. Bewerbungen von Frauen sowie von Bewerberinnen und Bewerbern mit Migrationshintergrund sind ausdrücklich erwünscht. Bewerbungen von Schwerbehinderten werden bei gleicher Eignung vorrangig berücksichtigt.

Aussagekräftige Bewerbungen senden Sie bitte unter Angabe der Kennziffer IAG 06/13 in der

Betreffzeile möglichst elektronisch bis zum 15.08.2013 an die

Berlin-Brandenburgische Akademie der Wissenschaften
z. Hd. Frau Dr. Ute Tintemann
tintemann@bbaw.de
Jägerstr. 22/23, 10117 Berlin

Weitere Informationen unter www.bbaw.de

Bei schriftlicher Bewerbung kann eine Rücksendung der Bewerbungsunterlagen nur dann erfolgen, wenn ein frankierter Rückumschlag beigelegt ist.

Quelle: http://dhd-blog.org/?p=1963

Weiterlesen

Vom Buchdruck zum Social Web: Medien zwischen Subversion und Reproduktion – Von Benjamin Köhler

Von Benjamin Köhler Medienentwicklung (als technischer Wandel) und Veränderungen gesellschaftlicher Strukturen (als kultureller Wandel) bedingen sich immer wechselseitig (vgl. Ogburn 1957, Gillwald 2000), wobei neue soziale Praktiken und Techniken einen langen Weg des Aushandelns und Ausprobierens gehen (vgl. Jäckel 2005; … Weiterlesen

Quelle: http://soziologieblog.hypotheses.org/5270

Weiterlesen

Tagungsbericht zur ersten Digital Humanities Summer School Bern

Die (Inter-)Disziplin der digitalen Geisteswissenschaften (Digital Humanities) konturiert sich auch in der Schweiz immer deutlicher. Nach einer Reihe regionaler und nationaler Fachtagungen, erster Berufungen an Universitäten und eines ersten THATCamps – einer relativ informellen und stark partizipaitven Unconference –, das auch in die Nachbarländer und teilweise darüber hinaus ausstrahlte, fand vor wenigen Tagen mit der ersten Digital Humanities Summer School an der Universität Bern (26.-29. Juni 2013) ein weiterer bedeutender DH-Anlass statt. Wie das Lausanner THATCamp (2009) wurde die DH-Summer School durch ein bewährtes Konsortium aus Vertretern der Geschichtsplattformen infoclio.ch (als Hauptorganisator) und hist.net, des Vereins Geschichte und Informatik (also der Hausherren dieses Blogs), des DODIS-Editionsprojekts sowie von Forschenden der Universitäten Bern und Lausanne (LADHULDHLab) organisiert und durchgeführt. Dank eines attraktiven Programms mit Präsentatoren und Workshop-Leitern von internationalem Ruf waren die gut hundert Plätze im Frühjahr in kürzester Zeit an Teilnehmer aus zwanzig verschiedenen Ländern vergeben. 

Die viertägige Summer School begann am Mittowch, 26. Juni, mit einem Eröffnungsvortrag durch Ray Siemens, Universität Victoria CA und ADHO-Direktor, der das Verhältnis der Digital Humanities zu den hergebrachten Disziplinen und dem Spannungsfeld zwischen ihnen auszuleuchten versuchte, wobei seine wichtigsten Referenzpunkte Cathy Davidsons Begriff ‚Digital Humanities 2.0‘ und Willard McCartys ‚Methodological Commons‘ (ibi p. 118-119) waren. Erscheinen die Digital Humanities von aussen betrachtet verhältnismässig positivistisch geprägt, eröffnen sich aus der Innenperspektive vielerlei kritische Aspekte und unscharfe Grenzziehungen. Siemens plädiert dafür, den definitorischen Problemen nicht auszuweichen, da diesbezüglich eine gewisse Standfestigkeit notwendig sei, um die disziplinäre und interdisziplinäre Forschung voranzubringen.

Susan Schreibman, Trinity College Dublin, lieferte im nächsten Vortrag historischen Kontext zur Genese der Digital Humanities und den wechselnden Selbstverständnissen der Akteure, wobei sich der Bogen von Roberto Busas Lochkarten-basierter Thomas von Aquin-Konkordanz bis hin zu virtuellen Welten spannte, welche die Beantwortung ganz konkreter Fragestellungen ermöglichen sollen, letzteres veranschaulicht durch das laufende Easter Rising-Projekt und dessen virtuelles Strassenpanorama, das, situative Begebenheiten und das Potential der verwendeten Waffen berücksichtigend, Aufschluss über mögliche Opferzahlen während des Dubliner Osteraufstandes von 1916 geben soll. Die Anekdote des zunächst irrtümlicherweise online frei zugänglich gemachten Bandes ‚Digital Humanities‘, welche den Verkauf des Werks erst recht angekurbelt hat, ermöglichte einen interessanten Bezug zu den im Wandel begriffenen Publikationsmodellen und den damit einhergehenden Fragen nach wissenschaftlicher Anerkennung und in der Verlängerung zur viel diskutierten Wertfrage des ‚building and making‘ im Gegensatz zu ‚reading and critique‘. Durch sich verschiebende Gewichte und den postulierten ‚object life cycle‘ bzw. genereller durch die Bestrebungen zur langfristigen Kuration von Forschungsdatenbeständen deutet sich nach Schreibman eine gewisse Konvergenz der bis anhin disparaten Arbeitsfelder von Forschern und Dokumentalisten (Bibliothekaren, Archivaren) an.

Vermochten diese beiden einführenden Referate die Entwicklung und den gegenwärtigen Stand digitaler geisteswissenschaftlicher Forschung einigermassen abzustecken, blieb das inspirierende Moment vielleicht etwas hinter den Erwartungen zurück. Illustrieren lässt sich dies beispielsweise am (zu) verbreiteten Visualisierungstyp der Begriffswolke (word cloud, wordle; bisweilen auch als Vokuhilas des Internets bezeichnet), den Siemens wie Schreibman in ihren Präsentationen verwendeten, was aus dem Publikum prompt hinterfragt wurde und einer Diskussion über den Einsatz von Werkzeugen Weg bereitete, deren Mechanismen häufig nicht evident sind und die folglich Resultate verzerren können.

UmstritteneBegriffswolken-300x223Claire Clivaz, Ray Siemens; Bild: Martin Grandjean

 

Elena Pierazzo, Kings College London, verband in ihrem Vortrag kommunikations- und texttheoretische Aspekte konzise mit den vielfältigen praktischen Herausforderungen, die digitale Editionsprojekte mit sich bringen. Ausgehend von der grundlegenden Unterscheidung der linguitischen Konstruktion (Text) vom physischen Objekt (Dokument) erörterte sie das editorische Spektrum, das von einfachen, evident gegliederten, neoplatonischen Texten über Leseausgaben, kritische Editionen und diplomatische Editionen hin zu dokumentnahen Faksimile-Editionen reicht. Seit mehreren Jahrzehnten kommt dabei besonders der materiellen Dimension von Texten grössere Bedeutung (critique génétique, material/new philology) zu, was die — ohnehin komplexe und konventionalisierte — editorische Praxis weiter ausdifferenziert hat. Mit dem Transfer der zugehörigen Editionsformen in den digitalen Raum stellen sich viele Fragen, deren wichtigste Pierazzo schlaglichtartig tangierte und mit zugleich illustrativen und beeindruckenden Beispielen veranschaulichte. Ihr eigener vor dem Hintergrund der Arbeit der TEI Manuscripts SIG entstandener Proust-Prototyp lässt den Leser durch die sequentielle Anzeige von Textpassagen beispielsweise gleichsam dem Autor bei der Entstehung des Texts über die Schultern blicken. Zur Sprache kam mehrfach auch die Position des Editors, dessen Textverständnis im Encoding manifest wird und dessen Rolle und Autorität gerade auch bei Crowdsourcing-Editionsprojekten definiert werden sollte. Zum Themenkreis digitaler Editionsformen vgl. aktuell und ausführlich Sahle (2013) und dann vor allem auch Pierazzos neues Werk zu digital scholarly editions, das in absehbarer Zeit verfügbar sein wird.

In seinem zweiten Vortrag, der sich mit der sozialen Wissenskonstruktion und -produktion (in den Literaturwissenschaften) befasste, äusserte Ray Siemens die These, dass grössere Datenmengen, beschleunigte Arbeitsweisen, unmittelbarere und dichtere Kommunikation sowie verstärkte Teilhabe des Publikums in der Datenerzeugung und im wissenschaftlichen Diskurs das Potential hätten, Forschungsfragen und Forschungsprozesse wesentlich zu beeinflussen. Anknüpfend an die Arbeit des Electronic Textual Cultures Lab (ETCL, U Victoria), und vor dem Hintergrund, dass Wissen in der Regel in chaotischen Strukturen und unter sehr unterschiedlichen Bedingungen entsteht, wobei gerade die informelle Forschungskommunikation bedeutsam ist, beschrieb Siemens eine Umdeutung der Rolle der Forschenden im digitalen Umfeld von didaktischen Autoritäten hin zu Wissensermöglichern (facilitators of knowledge). Kollaborative Werkzeuge, welche grundlegende Funktionen wie die Bereitstellung von Materialien, deren Annotation, Verzeichnung und Analyse ermöglichen — durch Siemens anhand einer Fülle von Beispielen dargelegt, etwa zur Honorierung freiwilliger Partizipation (Gamification), ergänzt durch eine hervorragende annotierte Bibliographie –, sind in diesem Kontext für die Wissensproduktion elementar. Wissen entsteht vor einem grösseren Publikum und durch mehr Akteure, seine Produktion verlagert sich im akademischen Kontext wie in anderen Bereichen (z.B. Journalismus) ausserhalb institutioneller Strukturen. Aus diesen Überlegungen leitet Siemens eine Reihe von Forderungen an zeitgenössische Forscher ab: Damit (Geistes-)Wissenschaftler die Entwicklung neuer Methodologien und Kommunikationsformen mitprägen können, müssen sie die Potenziale neuer Medien untersuchen, um sie bestmöglich zu verstehen, die Mechanismen kollaborativer Arbeitsinstrumente kennen, Grenzen ausloten, unterliegende Ideologien freilegen und einfache positivistische Ansätze in Frage stellen. Neben engagiertes Gestalten und Kreieren soll eine kritische Theorie treten, welche ethische und disziplinäre Standards ständig reflektiert.

Viele der zuvor anklingenden Implikationen der Erweiterung geisteswissenschaftlicher Disziplinen um neue Ansätze und Methoden auf theoretische, moralische und gesellschaftliche Belange bündelte David Berry, Swansea University, in einem dicht befrachteten Vortrag zu DH und Kulturkritik bzw. den Critical Digital Humanities. Auch er setzt bei der Definition und Abgrenzung des Feldes an, dabei er Stephen Ramsays DH-Typisierung aufnehmend, die der vorab praktisch orientierten und relativ institutionalisierten Community wie sie sich in den frühen 1990er Jahren unter dem Schlagwort Computing in the Humanities formierte (DH-Typus I), eine neuere weniger klar umrissene Bewegung entgegenstellt, deren Interessen breit gefächert sind und die mit bisweilen revolutionärer Gesinnung eine eigentliche Erneuerung der Geisteswissenschaften anstrebt (DH-Typus II; Medientheoretiker, Kulturkritiker, Digitalkünstler). Der Frage, was sich in der Konfiguration der geisteswissenschaftlichen Forschung wirklich verändert, näherte sich Berry aus den Perspektiven der Quantifizier- und Kalkulierbarkeit, der Organisation und des Beschleunigungspotenzials. Mit der Überhandnahme eines metrischen Paradigmas, das Hermeneutik durch Mathematik ersetzt und die Formalisierung der Forschung befördert, verändert sich auch der organisatorische Rahmen: Forschung wird projektbezogen betrieben und Administratoren und Projektleiter machen Professoren das Terrain streitig. Zugleich beschleunigt sich die Forschungstätigkeit durch effiziente Analyseformen, hochgradig responsive Kommunikationsmittel und eine in manchen Fällen ausbeuterische Arbeitsteilung. Vorwürfe, die Digital Humanities seien zuvörderst eine opportunistische und marktanbiedernde Ausrichtung der Forschung nach Kosten-Nutzen-Forderungen lassen sich nach Berry nicht kategorisch von der Hand weisen, gibt es doch deutliche Parallelen zwischen DH-Diskursen und Managementfloskeln. Näher betrachtet handle es sich aber um genuin geisteswissenschaftliche Betätigung, die keineswegs bewährte Forschungsprinzipien leichtfertig gegen die gerade angesagtesten Technologien und Ansätze eintauscht. Dafür, dass „digital“ in der politischen Ökonomie der Universitäten längst ein Schlüsselwort im Erschliessen neuer Geldquellen ist, gibt es jedoch zahllose Belege. Berry fordert zurecht mehr Anerkennung für die bereits geleistete kritische Arbeit und mehr Unterstützung für ihren Ausbau. Der möglicherweise resultierende Verlangsamungseffekt könne durchaus produktiv sein, indem die Forschung durch verstärkte Reflexion profitiere, gerade auch jenseits der Projektebene in der längerfristigen Perspektive.

Im Gegensatz zu Berrys übergreifendem Vortrag konzentrierte sich jener von Claire Lemercier, CNRS-Sciences Po, Paris, über Netzwerkanalyse auf eine spezifische Forschungsmethode, ohne es aber zu missen, Bezüge zu quantitativen Methodolgien zu schaffen. Im Vordergrund standen dabei nicht konkrete analytische Werkzeuge, sondern die formalen Möglichkeiten, Forschungsdaten einer Linse gleich aus verschiednen Winkeln und Distanzen zu untersuchen. Das Potential der Methode liege weniger in attraktiven Visualisierungen komplexer (und oftmals wenig aussagekräftiger) Netzwerke als in der Möglichkeit, vorhandene und fehlende Bezüge auf verschiedenen Ebenen zu betrachten und isolierte Effekte aufzuspüren. Der Forschungsprozess soll dabei von der Datensammlung in einem Archiv bis zur Publikation der Resultate von formalen Überlegungen begleitet werden, die es durch eine vorausschauende, der Dimensionalität bewusste Datensatzmodellierung erlauben, einengende Abhängigkeiten im weiteren Forschungsprozess zu vermeiden. Genaue Kenntnisse über den Aufbau eines Datensatzes und daraus abgeleitet mögliche interessante Fragestellungen beeinflussen die Auswahl des Analysewerkzeuges grundsätzlich. Der Netzwerkanalyse verwandte Methoden wie die geometrische Analyse, die multiple Korrespondenzanalyse, die Sequenzanalyse oder auch klassische deskriptive Statistik sind für manche Forschungszwecke besser geeignet als die soziale Netzwerkanalyse, die ihrerseits eigentlich eine Vielfalt von Spielarten umfasst. Die Netzwerk-Sichtweise kann in vielen Bereichen produktiv sein — als Netzwerke aufgefasst werden können Beziehungen unter und zwischen Personen und Organisationen aber auch historischen Ereignissen und Quellen oder linguistischen Einheiten –, um Korrelationen und Beziehungsmuster aufzudecken, sie sollte aber immer auch durch einen qualitativen Blickwinkel auf die Daten ergänzt werden.

Im letzten Vortrag der Summer School präsentierte Frédéric Kaplan, EPFL Lausanne, das kürzlich angelaufene Venice Time Machine-Projekt von EPFL und Universität Ca’Foscari (Digital Humanities Venice) und mithin seine Vision, durch effiziente Digitalisierung und Datenextrapolation vergangene Zeiten virtuell zu erschliessen und durch die Erkenntnisse wesentlich zu einer temporalen Kartografierung von Städten, Ländern und Kontinenten beizutragen. Erste Voraussetzung für die Kreation einer solchen ‚Zeitmaschine‘ ist die Anhäufung zuverlässiger Daten über die Vergangenheit. Wir verfügen nämlich über eine enorme Datendichte in der Gegenwart, die aber bereits für die vorhergehende Dekaden und mehr noch für vergangene Jahrhunderte sehr viel bescheidener ist. Im Venedig-Projekt sollen zu diesem Zweck im Verlauf der nächsten zehn Jahre rund 80 Laufkilometer Archivalien mit über 100 Millionen Dokumenten, die aus einem Zeitraum von über 1000 Jahren stammen und in verschiedenen Sprachen und Dialekten verfasst wurden, digitalisiert und interoperabel aufbereitet werden, so dass dereinst geschätzte 10 Milliarden ‚Ereignisse‘ (Datenpunkte, factlets) abgefragt werden können. Kaplan und sein Team sehen einer Vielzahl von Stolpersteinen entgegen, denen sie mit innovativen Methoden begegnen wollen: optimierte Scan-Roboter (Vision einer Abtastung der Information in geschlossenen Büchern), verbesserte Texterkennung durch Kontextwissen (analog der Spracherkennung), Nutzung der frei erhältlichen Mithilfe tausender motivierter Studenten gegen Akkreditierung von Kursleistungen in massive open online courses (MOOCs), graphbasierte semantische Informationsmodellierung (RDF), Extrapolation und Simulation fehlender Informationen. Der geisteswissenschaftlichen Forschungsdaten eigenen Ungenauigkeit und Unsicherheit soll durch die Zuweisung ‚fiktiver Räume‘, die in Aggregation Wahrscheinlichkeitsaussagen zulassen, begegnet werden, so dass unter einer Vielzahl potentiell möglicher Vergangenheiten die plausibelsten eruiert werden können. Es handelt sich zweifellos um ein hochinteressantes Projekt mit viel Potential für verschiedene Bereiche. Ob die angestrebte effiziente semantische Erschliessung aber in den nächsten Jahren Realität wird und zufriedenstellende Resultate liefern kann, vermag aus heutiger Warte jedoch gewisse Zweifel zu wecken.

Die sieben vielseitigen und interessanten Vorträge wurden durch zwölf Workshops und sieben Unconference-Sessionen ergänzt, die erfreulicherweise oftmals mit einem direkten Bezug zu den Vortragsthemen angeboten wurden und theoretische (Critical Digital Humanities, Zugänglichkeit und Quellenkritik digitaler/digitalisierter Quellen), disziplinäre (DH und die akademische Lehre) und methodische Belange (Datenaufbereitung, Textanalyse, digitale Editionen von Text und Musik, Visualisierungsmethoden, individuelle und kollektive Arbeitspraktiken) sowie deren Überschneidung (semantisch modellierte Forschungsumgebungen) vertieften. Aufgrund der begrenzten verfügbaren Zeit blieb es in vielen Workshops bei der Demonstration und Diskussion, vereinzelt konnten die Teilnehmer aber erfreulicherweise auch durchaus selber aktiv werden, etwa in den Workshops zu TEI-Editionen (E. Pierazzo), Textanalyse (S. Schreibman), Literaturverwaltung (N. Chachereau) oder Gephi-Visualisierungen (M. Grandjean). Für künftige Veranstaltungen sind diese Tutorien-ähnlichen Blöcke sicher sehr wünschenswert, vielleicht auch in ausgedehnter Form über mehrere Zeiteinheiten hinweg oder als eigenständige Hands-on-Tagesveranstaltungen.

Im Rahmen eines Project Slams stellten rund ein Drittel aller Teilnehmer in Kürzestpräsentationen ihre aktuelle Tätigkeit oder ihr hauptsächliches Forschungsinteresse vor, was eine grosse Bandbreite disziplinärer und thematischer Herkunft offenbarte, die sich zuvor schon in den Diskussionen angedeutet hatte. Mit einem ungezwungenen Diner, gemütlichen Abendstunden in der Bundesstadt, einem spontan organisierten Erfahrungs- und Hintergrundbericht von den Taksim Gezi-Park-Protesten in Istanbul durch zwei Teilnehmer und schliesslich einem Abschluss-Picknick, das aufgrund der Witterung leider nicht draussen durchgeführt werden konnte, bot die Summer School gute Gelegenheit, Kontakte zu knüpfen und Erfahrungen und Visionen zu teilen. Es bleibt zu hoffen, dass der ersten Digital Humanities Summer School in der Schweiz weitere folgen werden, woran dank der zunehmenden Verankerung der Digital Humanities auch hierzulande eigentlich kaum zu zweifeln ist. Mit der Ausrichtung der DH 2014 in Lausanne (6.-12. Juli) zeichnet sich für nächstes Jahr bereits ein hervorragender Anknüpfpunkt ab!

 

Cross-posting: http://blog.ahc-ch.ch/2013/07/tagungsbericht-zur-ersten-digital-humanities-summer-school-bern

Quelle: http://dhd-blog.org/?p=1952

Weiterlesen

„Die ganze Wahrheit“ im Blog des Jüdischen Museums Berlin

Immer mehr Museen in Deutschland entscheiden sich dazu, einzelne Ausstellungen[1], Veranstaltungen[2] oder ihren allgemeinen Museumsbetrieb mit einem Blog zu begleiten. Auch das Jüdische Museum in Berlin gibt im Blogerim – Aus dem Alltag des Jüdischen Museums Berlin einen Einblick in den … Weiterlesen

Quelle: http://musermeku.hypotheses.org/413

Weiterlesen

Handschrift im Zeitalter der digitalen Reproduzierbarkeit

Für den 19. und 20. Juli ist ein Kolloquium zur „Handschrift im Zeitalter ihrer digitalen Reproduzierbarkeit“ an der Universität Trier angekündigt. Am Freitag wird Harald Wolter-von dem Knesebeck (Rheinsiche Friedrich-Wilhelms-Universität Bonn) über Schrift und Bild in liturgischen Handschriften des frühen und hohen Mittelalters vortragen. Am Samstag wird Christine Jakobi-Mirwald einleitende Vorträge zur Entstehung des Handschrift und ihrer Reproduktion, Heinrich Dilly und den „natürlichen“ Maßstaß halten. Weitere Informationen finden sich auf den Seiten der Trierer Universität.

Quelle: http://scriptorium.hypotheses.org/303

Weiterlesen

Was ist eine Randtypen-Tafel?

Die Frage schlug mir entgegen, als ich erzählte, was ich denn gerade so treibe. Unter Archäologen werden die verschiedensten Begriffe verwendet, die selbstverständlich erscheinen, aber nur für Archäologen selbstverständlich sind. Das betrifft manchmal auch Zusammensetzungen, die nur aus gebräuchlichen Wörtern bestehen, wie z. B.: Randtypen-Tafel.

Zunächst, was heißt hier Tafel? Tafeln werden für die Abgabe-Version bzw. für die Drucklegung einer archäologischen Arbeit angefertigt und sind ganzseitige Übersichten. In diesem Fall also eine ganzseitige grafische Übersicht von Randtypen. Das heißt, man erstellt eine typologische Übersicht von Rändern, in diesem Fall Ränder von Keramikgefäßen, die auf der Ausgrabung geborgen worden sind.

Typologische Übersicht bedeutet, dass das Fundgut nach bestimmten formalen Eigenschaften klassifiziert worden ist. Das ist die Voraussetzung für eine spätere Einordnung, Datierung etc.

Das ganze klappt bei Keramik besonders gut. Keramik gehört zu den am häufigsten geborgenen Materialien, weil sie zum Ersten sehr häufig hergestellt und benutzt wurde, zum Zweiten, weil sie sich unter fast allen Bedingungen im Boden erhält und zum Dritten, weil sie sehr schnell kaputt geht und nur bedingt reparierbar ist. 

Im Mittelalter sind Keramiken als Massenware von spezialisierten Handwerkern hergestellt worden und die Handwerker hatten ein bestimmtes Formen-Repertoire, das sich am Nutzen und am Zeitgeschmack orientiert.

Der Clou ist jetzt aber, dass diese Gefäße, wenn sie ausgegraben werden, in der Regel kaputt sind. Das heißt, in einem großen Haufen Keramik, der vor mir auf dem Tisch liegt, liegen Ränder, Böden, Henkel oder Tüllen einzeln und ohne Zusammenhang herum.

Foto: Maxi Platz

 

Deswegen muss ich mir einen Überblick verschaffen, welche Ränder oder Böden im Fundgut vorhanden sind. Da Archäologie eine Wissenschaft ist, muss ich den Nachweis darüber führen, also bilde ich sie ab.  Das reicht aber noch nicht, ich muss die Kriterien meiner Klassifikation erläutern, in dem ich den Scherben als Typ beschreibe.

Die Einordnung des Keramik-Spektrums erfolgt zu allererst in sogenannte Warenarten. (Dazu habe ich schon mal einen Post veröffentlicht.) Dann erfolgt eine Typologisierung der Randscherben, der Bodenscherben und der Angarnierungen (z.B. Henkel, Tüllen). Diese Beschreibung sollte einer gewissen Norm entsprechen, damit auch jede/r FachkollegIn etwas damit anfangen kann. Eine solche Richtschnur gibt unter anderem der „Leitfaden zur Keramik-Beschreibung“[1], ein Werk, das jede/r MittelalterarchäologIn kennt, benutzt (und nicht mit in den Urlaub nimmt).

Bei einer Ausgrabung, wie den Untersuchungen im Umfeld der Elisabethkirche, wurden Funde aus unterschiedlichen Zeitepochen geborgen. Die Vorlage der Keramik-Typologie dient zum einen dazu, Schichten, Befunde usw. zu datieren und einzuordnen, aber auch bisherige lokale Typologien zu ergänzen und/oder zu verifizieren. Bestimmt werden also zum Ersten die Warenarten, zum Zweiten die Randtypen, die Bodentypen, Angarnierungen, Deckel usw., zum Dritten das zu rekonstruierende Gefäßformenspektrum, also z. B. Töpfe, Schüsseln, Kannen, Becher oder Ofenkacheln.

Das wichtige ist jetzt aber, welche Typen kommen in welcher Zeitphase vor? Und was kann man daraus ableiten?

Zur Veranschaulichung: Ein paar Randtypen aus Marburg

 

Randtyp 1a        

Ausbiegender, leicht verdickter Rand mit leicht gerundeter nach außen geneigter Randleiste.

 Randtyp 1b                

Ausbiegender verdickter Rand mit gerundeter einwärts geneigter Randleiste und Innenkehle. Die Innenkehle kann dabei sehr deutlich ausgeprägt sein.

Randtyp 2a                

Ausbiegender leicht verdickter Rand mit leicht gekehlter einwärts geneigter Randleiste mit Innenkehle.

Randyp 3b                  

Steiler, nach außen leicht trichterförmig ausgezogener Rand mit gekehlter Mündung. (Becherkachel)

Umsetzung: Maxi Platz

Typen-Tafeln sind also grafisch aufgearbeitete Übersichten von Ergebnissen der Kleinfundauswertung. Sie veranschaulichen, dienen zur Beweisführung, aber auch als Vorlage für weitere archäologische Untersuchungen in der näheren Umgebung.

[1] I. Bauer/ W. Endres/ B. Kerkhoff-Hader/ R. Koch /H.-G. Stephan, Leitfaden zur Keramikbeschreibung (Mittelalter-Neuzeit). Terminolgie-Typologie-Technologien (Kallmünz/Opf. 1987)

Quelle: http://minuseinsebene.hypotheses.org/724

Weiterlesen