Die Fraunhofer Sicht der Dinge

Ich habe letzte Woche in Frankfurt beim “Workshop Control. Selbstkontrolle in einer überwachten Welt vorgetragen”. Was mir hier vor allem deutlich geworden ist: Technikzentrierte Ansätze brauchen ein Gegengewicht in Form kritischer Sozial- und Kulturwissenschaften. In meinem Vortrag “Die Erfindung biometrischer Identifizierungstechniken – Anwendungspraktiken zur Wiedererkennung von Personen” habe ich versucht herauszuarbeiten, wie biometrische Merkmale das Identifizieren von Personen verändert haben. Die grundlegende Idee bei biometrischer Identifizierung ist, dass körperliche Merkmale als Index für ein Archivsystem verwendet werden, um so über das körperliche Merkmal eine Person wiederzuerkennen und zwar auf objektivierbare Weise. Mit diesem Fokus untersuche ich die Einführung und Implementierung der Anthropometrie und Daktyloskopie Ende des 19. Jahrhunderts.

Nach mir hielt Alexander Nouak vom Fraunhofer-Institut für Graphische Datenverarbeitung in Darmstadt einen Vortrag mit dem Titel „Führen biometrische Verfahren zwangsläufig zur totalen Kontrolle?“ Ob die Frage beantwortet wurde im Laufe der Präsentation, kann ich nur schwer sagen, letztlich war die Botschaft der Präsentation, dass ein vollautomatisiertes Verfahren zur Wiedererkennung durch den Einsatz von Biometrie möglich ist. Interessant war aber der Einstieg, den Alexander Nouak für seinen Vortrag gewählt hat. Er wollte nämlich zeigen, dass das Argument meines Vortrags historisch falsch ist. Und wenn nicht falsch, dann zeige sich da zumindest eine spezielle “Wiener Sicht der Dinge“. Denn von einer Erfindung der Biometrie um 1900 könne nicht die Rede sein, schließlich seien biometrische Merkmale schon seit Jahrtausenden im Einsatz. Aber die Wiener hätten nunmal manchmal eine eigene Perspektive und er könne das sagen, denn er sei schließlich Wiener.

Der Einstieg war nicht nur unnötig, sondern auch Unsinn. Denn mein Argument ist ja nicht, dass um 1900 körperliche Merkmale zur Wiedererkennung erfunden wurden, sondern, dass biometrische Identifizierungstechniken wie die Anthropometrie und die Daktyloskopie erfunden wurden. Auch wenn auf einer antiken Steintafel ein Fingerabdruck entdeckt wurde, heißt das nicht, dass es das Fingerabdruckverfahren schon seit der Antike gibt. Ein entscheidender Unterschied. Das Verfahren beruht darauf, dass der Fingerabdruck nach einem bestimmten Muster klassifiziert wird und in ein Register abgelegt wird und aus diesem anschließend herausgesucht und mit einem anderen Abdruck verglichen werden kann. Auf diesem Prinzip beruhen ja auch die von Nouak vorgestellten biometrischen Identifizierungssysteme. Diese Klassifizierungssysteme gab es vorher schlichtweg nicht.

Während ich mich noch geärgert habe, ist mir eingefallen, woher ich diese Argumentation kenne – aus meinen Quellen. Robert Heindl, der Anfang der 1920er Jahre eine große Monographie über die Daktyloskopie schrieb, mit dem Titel “System und Praxis der Daktyloskopie“, verwendete die ersten 50 Seiten damit, die Geschichte des Fingerabdruckverfahrens derart darzulegen, dass er in so ziemlich allen Kulturen und Zeiten Hinweise auf die Verwendung von Fingerabdrücken fand. Als der Direktor des Wiener Erkennungsdienstes, Franz Eichberg, in den 1920er Jahren in einem Gerichtsverfahren mit dem Vorwurf konfrontiert wurde, dass ja gar nicht bewiesen werden könne, ob sich der Fingerabdruck im Laufe eines Lebens verändere, schließlich sei das Verfahren gerade einmal 20 Jahre in Verwendung, somit könne es dazu noch gar keine Studie geben, konterte er den Angriff mit den Worten:

„Ich hatte den billigen Erfolg, nachweisen zu können, daß die Daktylsokopie eine sehr alte Wissenschaft ist, die allerdings erst seit einigen Jahrzehnten in die moderne Kriminalistik Eingang gefunden hat.“ (1)

Genau diesen billigen Erfolg dachte wohl auch Nouak einfahren zu können. Das Stilmittel, das sowohl Nouak, Heindl und Eichberg anwenden, würde ich beschreiben mit: Legitimation des eigenen Verfahrens mit einem historischen Argument durch den Vergleich von Äpfeln mit Birnen. Beschrieben hat dieses Argumentsprinzip auch schon Ludwig Fleck 1935 bei seiner Untersuchung zur Entstehung wissenschaftlicher Tatsachen, wo er das Konzept von Urideen (Präideen) entwarf:

Viele wissenschaftliche, bestbewährte Tatsachen verbinden sich durch unleugbare Entwicklungszusammenhänge mit vorwissenschaftlichen, mehr oder weniger unklaren verwandten Urideen (Präideen), ohne daß inhaltlich dieser Zusammenhang legitimiert werden könnte. (2)

 

Beispiel aus Robert Heindls “System und Praxis der Daktyloskopie”. Es zeigt die seiner Meinung nach “früheste Kunde von der Daktyloskopie”.

 

Das wollte ich eigentlich bei der anschließenden Diskussion sagen, was ich dann nicht getan habe, weil ich bei der Diskussion den Fokus auf ein anderes Thema richten wollte, was mir zu dem Zeitpunkt wichtiger schien: Denn Nouak hatte deutlich gemacht, dass es sich bei dem von ihm präsentierten System um ein vollautomatisiertes, sicheres System zur Identifizierung von Personen durch Biometrie handelt. Ich habe dann nach der Rolle von Menschen in diesem System nachgefragt und die Antwort bekommen, dass dieses System keine Menschen brauche, weil es – so Nouak – ja schließlich vollautomatisiert arbeiten würde. Was ich verneint habe mit der Ergänzung, dass ein biometrischer Vergleich mit Wahrscheinlichkeiten operiert, was Nouak vorher auch dargestellt hatte mit der Erklärung von FRR und FAR, und dass mit so einem System erstens Menschen operieren und es zweitens von Menschen programmiert wurde. Nouak wollte darauf aber nicht eingehen. Stattdessen kam immer wieder der Verweis darauf, dass die Technik neutral sei – ja, ich kann mich da an ein Brotmesser-Beispiel erinnern, mit dem jemand erstochen werden kann oder eben Brot geschnitten werden kann – und biometrische Systeme bald flächendeckend in Verwendung sein werden, weil es letztlich alle haben wollen: Die Alten, weil es so bequem ist, und die Jungen, weil sowieso.

Diesen Positionen muss aus meiner Sicht deutlich widersprochen werden. Nicht aus Technikfeindlichkeit! Sondern, weil in dieser naiven Technikgläubigkeit Visionen verkauft werden und nicht reflektiert wird, dass Technik und Gesellschaft nicht getrennt voneinander funktionieren. Technik ist stabilisierte Gesellschaft (3), wie es bei Latour heißt:

„Niemand hat je reine Techniken gesehen – und niemand je reine Menschen.“ (4)

Wenn das die Wiener Sicht der Dinge ist, darauf unermüdlich hinzuweisen, dann soll das so sein.

 

(1) Eichberg, Franz (1922): Meine Erfahrungen als Gerichtssachverständiger für Daktyloskopie. In: Öffentliche Sicherheit. Polizei-Rundschau. 2 (19-20), S. 3–5.
(2) Fleck, Ludwig ([1935] 1981): Entstehung und Entwicklung einer wissenschaftlichen Tatsache. Einführung in die Lehre vom Denkstil und Denkkollektiv. Frankfurt am Main: Suhrkamp, S. 35.
(3) Latour, Bruno (2006a): Technik ist stabilisierte Gesellschaft, in: Andréa Belliger/David J. Krieger (Hg.): ANThology. Ein einführendes Handbuch zur Akteur-Netzwerk-Theorie, Bielefeld, S. 369-397, hier: S. 369.
(4) Latour, Bruno (1996): Der Berliner Schlüssel. Erkundungen eines Liebhabers der Wissenschaften, Berlin. S. 21. 

Quelle: http://www.univie.ac.at/identifizierung/php/?p=5241

Weiterlesen

XI Konferenz “Kultur und Informatik”

Vom 23. bis 24. Mai 2013 findet die 11. Veranstaltung der Reihe „Kultur und Informatik“ im Pergamon Musum in Berlin statt. Die Veranstaltung stellt Best-Practice-Beispiele, Heraus­for­derungen und Ent­wick­lungs­ten­den­zen im Bereich von Visualisierungen und Interaktionen in den Mittelpunkt. Die Konferenz richtet sich einerseits an Kulturpolitiker, Mitarbeiter der Kultur- und Kreativwirtschaft, an Kommunikationswissenschaftler, Kultur- und Kunstakteure sowie andererseits an Informatiker und Techniker, die zu kulturellen Themen forschen und entwickeln.

Fünf zentrale Fragen stehen im Mittelpunkt der verschiedenen Vorträge und Präsentationen:

  • kulturpolitische Rahmenbedingungen,
  • die Verflechtung und gegenseitige Beeinflussung von Kultur und Informatik,
  • Einfluss von Kunst und Kultur auf die Gestaltung der Zukunft,
  • die mediengerechte Aufbereitung von Informationen sowie
  • die intuitive Benutzung von Mediensystemen.

Diese zentralen Fragestellungen sollen vorrangig anhand von Best-Practice-Beispielen für die Kultur- und Kreativ­industrie analysiert, demonstriert und diskutiert werden.

Call for Paper bis 31. Januar 2013:

Themenvorschläge für Vorträge, Plakate oder Demonstrationen können bis 31. Januar 2013 als Abstract in deutscher oder englischer Sprache eingereicht werden. Vorschläge zu folgenden Gebieten sind gewünscht:

  • Visualisierungs- und Interaktionstechniken,
  • Informations-, Visualisierungs- und Kommunikationssysteme in öffentlichen Räumen,
  • Interaktive Multimedialösungen für Museen, Theater, Konzerthäuser, Ausstellungen etc.
  • Interaktive Systeme in der Kultur- und Kreativwirtschaft,
  • Stadt- und Tourismusinformationssysteme,
  • Digitale Messen, Science Center, Museen, Galerien und Ausstellungen,
  • Virtuelle Rekonstruktionen,
  • Augmented Reality,
  • Media Architecture, speziell digitale Erweiterung realer Gebäude und Stadtquartiere,
  • Positions- und kontextsensitive Dienste,
  • Dokumentieren, Visualisieren und Interagieren in Museen und Archiven,
  • Spielbasierte Aufbereitung von Informationen,
  • Digitales Story Telling,
  • Multimedia-Guides,
  • weitere mit der Themenstellung “Visualisieren, Erkunden, Interagieren” verbundene Fragestellungen

Die Einreichung (1-3 Seiten DIN A4) sollte den Umfang des Beitrages, Vorteile, Theorien und/oder Anwendungen und Ergebnisse enthalten. Des Weiteren sollte der Beitrag so strukturiert sein, dass das Programmkomitee in der Lage ist, die Originalität und den Wert der Leistung zu verstehen.

Eine Einsendung impliziert den Willen, sich für die Konferenz zu registrieren und den Beitrag, insofern dieser akzeptiert wird, auf der Konferenz zu präsentieren.

Die Einsendung der Themenvorschläge erfolgt online als PDF über das Konferenzmanagementsystem der Forschungsgruppe INKA. Erstbenutzer registrieren sich bitte vorab.Sollten Sie hierbei Probleme haben, wenden Sie sich bitte an die Veranstalter.

Alle angenommenen Beiträge werden in den Konferenzband aufgenommen. Der Verlag wird derzeit bestimmt und im Januar 2013 hier veröffentlicht. Eine TeX Vorlage zur Einreichung des finalen Beitrages wird hier im Januar 2013 bereitgestellt.

Alle weiteren Informationen finden Sie auf der Internetseite des Veranstalters hier.

Quelle: http://dss.hypotheses.org/817

Weiterlesen

Tagungsbericht „Datenbanken für die Mediävistik und die Renaissance in Forschung und Lehre“

Auf H-Soz-u-Kult erschien heute der Tagungsbericht zur eHumanities-Sektion „Datenbanken für die Mediävistik und die Renaissance in Forschung und Lehre“ des Historikertages 2012: http://hsozkult.geschichte.hu-berlin.de/tagungsberichte/id=4515  

Quelle: http://digiversity.net/2012/tagungsbericht-datenbanken-fur-die-mediavistik-und-die-renaissance-in-forschung-und-lehre/

Weiterlesen

Bericht von der Tagung des Käte Hamburger Kolleg »Recht als Kultur«: »Law as culture. Max Weber’s comparative cultural sociology of law«




Die »Rechtssoziologie« Max Webers gehört zu den zentralen Textpassagen seines fragmentarisch gebliebenen Monumentalwerks »Wirtschaft und Gesellschaft«, das als posthume Kompilation seit jeher die Anstrengungen der Interpreten herausgefordert hat. Webers Schriften zum Recht sind, nicht nur im Kontext seines Gesamtwerkes, zugleich bedeutsam und im hohen Maße der Deutung bedürftig. Diese oft enigmatischen Schriften weisen eine Vielschichtigkeit auf, die nicht allein im ambitionierten thematischen Ausholen Webers besteht, sondern in der Textgestaltung auch materiell offenbart wird. Die seit kurzem vorliegende, im Rahmen der Max-Weber-Gesamtausgabe situierte kritische Edition des Rechtsbandes (MWG I/22-3) präsentiert die archäologische Arbeit, die die Genesis der Texte in all ihren Entwürfen und Revisionen dokumentiert.

Die internationale Tagung, die das Käte Hamburger Kolleg »Recht als Kultur« der Rechtssoziologie Webers unter dem Titel »Law as culture. Max Weber’s comparative cultural sociology of law« widmete, stellte den kollektiven Versuch dar, dieser Vielschichtigkeit gerecht zu werden und opake Stellen des Weber’schen Rechtsdenkens zu erhellen. Dass die 22 Vorträge, die die versammelten Weber-Experten vom 25. bis 27. Oktober 2012 im Käte Hamburger Kolleg hielten, nicht zu einem argumentativen »Einverständnis« führten, stellte keine Überraschung dar. Der sachlichen Diskussionsatmosphäre war es aber zu verdanken, dass auch dort, wo grundsätzliche Differenzen zurückblieben, ein geschärfter, zum Teil neu justierter Blick auf das Weber’sche Werk ermöglicht wurde.

Das »Collagenwerk« Max Webers

Werner Gephart, der Direktor des Käte Hamburger Kollegs »Recht als Kultur«, berichtete in seinem Eröffnungsvortrag zunächst von seinen Erfahrungen als Herausgeber des »Rechtsbandes«. Der editorische Befund sei, dass es sich bei dem der Rechtssoziologie Webers zugrundeliegenden Manuskript um ein »Collagenwerk« handele – eine Werkstruktur, die Gephart in einer abendlichen Vernissage eigener Collagen, die sich mit dem Schaffen Webers auseinandersetzen, auch visuell verdeutlichte. Gephart ging in seinem Vortrag aber auch auf die thematischen Felder der Weber’schen Rechtsanalyse ein und legte dar, warumsich diese, wie es ja der Titel der Tagung schon unterstellte, tatsächlich als Beitrag zu einer vergleichenden Kultursoziologie des Rechts lesen ließen – eine These, der die Vortragenden und Diskutanten im Laufe der Konferenz auf unterschiedlichen Wegen auf den Grund gehen sollten. Debattiert wurde aber nicht nur über die kulturwissenschaftliche Ausrichtung der »Rechtssoziologie« und über die Bedeutung des Weber’schen Ansatzes für die Analyse aktueller Konflikte, die im Zuge der Globalisierung in Erscheinung treten, sondern auch über die Prägungen und den Einfluss dieses Unternehmens.

Prägungen und Wirkungen der »Rechtssoziologie«

So ging die Soziologin Uta Gerhardt auf den unmittelbaren theoretischen Einfluss Webers ein, indem sie Talcott Parsons als einen Weberianer vorstellte, der in wichtigen Punkten über Weber hinausgegangen war. Auch spezifische nationale Rezeptionsgeschichten wurden auf der Tagung gegenübergestellt. Masahiro Noguchi (Kyoto) konstatierte für den japanischen Kontext eine relative Vernachlässigung der Rechtssoziologie im Vergleich zu den anderen Schriften Webers, und auch Marta Bucholc (Warschau/Bonn) kam bei einem Blick auf die polnische Rezeption zu dem Schluss, dass Weber in der Regel allenfalls als Theoretiker von Staat, Politik und Herrschaft wahrgenommen werde – seine rechtssoziologischen Schriften seien erst vor wenigen Jahren übersetzt worden. Der Pariser Jurist Olivier Beaud wiederum bedauerte, dass seine eigene Disziplin sich bisher aufgrund eines fortgeschrittenen Positivismus kaum der Lektüre Webers gewidmet habe. Dabei könnten gerade Juristen des öffentlichen Rechts von Weber lernen, wie die Entwicklung des okzidentalen Rechts mit der Entstehung des modernen Staates einhergehe. So könne auch die verbreitete Gegenüberstellung von den Individuen als Trägern subjektiver Rechte einerseits und dem Staatsapparat andererseits aufgelöst werden, da sich mit Weber nachvollziehen lasse, wie der Staat zum Garanten der individuellen Rechte werden konnte. Zugleich mache der soziologische Blick Webers auf die Realitäten eines außerstaatlichen Rechts aufmerksam, das den Staat lediglich als einen partikularen Rechtsgaranten unter vielen möglichen erscheinen lasse. Solange die Jurisprudenz in Frankreich und an anderen Orten jedoch keine Notiz von rechtssoziologischen und -historischen Untersuchungen dieser Art nehme, müsse die eigene Sichtweise beschränkt bleiben. Dass Webers Einfluss in Deutschland nicht rein wissenschaftlicher Natur war, illustrierte Dieter Engels, der Präsident des Bundesrechnungshofes, sei Weber doch durch seinen Artikel von 1917, in dem er sich mit dem zukünftigen Verhältnis von Parlament und Regierung auseinandersetzte, zu einem »geistigen Vater« des parlamentarischen Minderheitenrechts in Deutschland geworden.

Nicht auf den Einfluss Webers, sondern auf bestimmte Prägungen seines Werks ging der Zürcher Rechtshistoriker Andreas Thier ein, indem er nachwies, wie Weber in seiner Untersuchung der Entwicklung des kanonischen Rechts auf die Narrationen eines Otto von Gierke und eines Rudolph Sohm zurückgriff, deren Grundideen aber zurechtbog, so dass sie sich besser in seine eigene Erzählung der fortschreitenden Rationalisierung des okzidentalen Rechts fügten.

Die Religion und die Entwicklungsbedingungen des rationalen Rechts

Thiers Vortrag war auch deswegen aufschlussreich, weil er zeigte, dass sich die Entwicklung der rechtlichen Rationalisierung nicht in kompletter Abkopplung von der Religion vollzog. Vielmehr wurde gerade das kanonische Recht zu einem entscheidenden Faktor der Rationalisierung, indem es, einhergehend mit der Evolution der Kirche zur »Anstalt«, ein einflussreiches formal-rationales Recht konstituierte, das sich vom heiligen Recht abgrenzte. Thier stimmte hier der Deutung Werner Gepharts aus dem Rechtsband zu. Der Theologe und ehemalige Fellow des Käte Hamburger Kollegs »Recht als Kultur« Philipp Stoellger von der Universität Rostock betonte in seinen Ausführungen zu Spuren des Protestantismus in Webers Rechtssoziologie noch dezidierter, dass die Entstehung des modernen Rechts nicht als simple Ablösung von Religion zu verstehen sei, sondern dass es einen »Differenzierungsbedarf jenseits der vertrauten Säkularisierungs- und Ausdifferenzierungsthese« gebe. Stoellger warf die Frage auf, welche Rolle der Protestantismus für die Rechtsentwicklung und auch das Rechtsverstehen spielen könne. Die verstehende Soziologie, und damit auch die Rechtssoziologie Webers, sei als eine »Figur des Nachlebens der reformatorischen Hermeneutik« anzusehen. Die Einflüsse des Protestantismus auf das Recht beurteilte Stoellger differenziert: Einerseits stellte er fest, dass die Semantik der lutherischen Rechtfertigungslehre juridisch geprägt sei und somit als theologischer Beitrag zur Rechtsentwicklung gelesen werden könnte. Andererseits sei die Struktur und Funktion dieser Rechtfertigung nicht mehr juridisch zu verstehen. Kern der Lehre sei nämlich nicht ein rechtsäquivalentes Verhältnis von Gott und Mensch oder Mensch zu Mensch, sondern es gehe um eine passive Gerechtigkeit, um eine »Gerechtmachung des Ungerechten«, die auf der Unterscheidung von Gesetz und Evangelium beruhe: »Unter dem Gesetz ist der Mensch Sünder und entsprechend zu verurteilen; unter dem Evangelium aber ist und bleibt er gerechtfertigt«. Auf dieser Basis sei eine Ausdifferenzierung von »Herrschaft und Heil« erfolgt, die für die Formalisierung und Rationalisierung des Rechts von hoher Bedeutung gewesen seien. Die Ausdifferenzierung bleibe jedoch ambivalent, da die »Heilsordnung« immer noch als maßgebend gelten könne. Der hieraus resultierende Ordnungskonflikt von Recht und Religion sei, so Stoellger, nicht prinzipiell zu lösen, sondern situativ zu entscheiden.

Auf der Suche nach der Weber’schen Ordnung

Ordnungskonflikte und -relationen anderer Art standen im Mittelpunkt der Tagung, während der Weber als ein Theoretiker pluraler, zum Teil konkurrierender sozialer Ordnungen beleuchtet wurde. Der Leipziger Politologe Andreas Anter verwies darauf, dass der Begriff der »Ordnung« eine Schlüsselrolle in Webers Kategoriengebäude einnehme, jedoch nirgendwo eine eindeutige Bestimmung erfahre, sondern vielmehr als Grundtatbestand vorausgesetzt werde. Dass die Ordnungskonzeption Webers untrennbar mit seinem Handlungsbegriff verbunden sei, sei ein theoriegeschichtlich bedeutender Schritt. Ordnung tauche bei Weber nicht nur als etwas durch verschiedene Zwangsmechanismen Durchzusetzendes auf, sondern vor allem als soziale Struktur, deren Existenz an einen spezifischen Geltungsglauben geknüpft sei. Hier zeichne sich auch eine Spannung des Ordnungskonzeptes ab, die repräsentativ für die moderne politische Theorie und Rechtsphilosophie sei.

Die konstitutive Verbindung von Ordnung und Sinn, Ordnung und Geltung entwickelte sich im Anschluss zu einem der größten Diskussionsthemen der Tagung. Weber macht das »Einverständnis« zum Geltungsgrund einer Ordnung, die nie allein auf Zwang beruhen kann. Darüber, dass dieses Einverständnis weder als faktischer Konsens noch als dogmatische Forderung zu deuten sei, herrschte Einigkeit. Martin Albrow, zur Zeit Fellow am Käte Hamburger Kolleg, betonte, dass »Ordnung« bei Weber sehr stark an die Dimension des Glaubens geknüpft sei. Hier komme dann, so Werner Gephart, auch der »Einverständnisglaube« ins Spiel. Tatsächlich beruht bei Weber das Einverständnishandeln auf dem subjektiven Glauben an die objektive Geltung einer Ordnung oder bestimmter Normen. Johannes Weiß wies in diesem Zusammenhang noch darauf hin, dass Weber mit dem Begriff der »Chance« versucht habe, die Handlungsaspekte mit der strukturellen Dimension von Ordnungen zu verknüpfen.

Mit dem Konzept der Wirtschaftsordnung setzte sich Hinnerk Bruhns (Paris) in seinem Vortrag auseinander, in dem er die Begrifflichkeit Webers in der wirtschaftlichen Sphäre inspizierte. Bruhns erinnerte daran, dass Weber eine funktionale Beziehung zwischen Rechts- und Wirtschaftsordnung entschieden abgelehnt habe. Er habe auch keine systematische Typologie von Wirtschaftsordnungen aufgestellt, auch wenn er faktisch die kapitalistische, die projizierte sozialistische und etwa auch die antike Wirtschaftsordnung analysiert habe. Der Schlüsselbegriff in diesen Untersuchungen sei aber jener des »Verbandes« gewesen.

Edith Hanke (München) betrachtete wiederum das Verhältnis von Rechts- und Herrschaftsordnungen, wie sie sich in der Weber’schen Soziologie darstellten. In entwicklungshistorischer Perspektive habe Weber Recht und Herrschaft in seinen Ausführungen zu den politischen Gemeinschaften aufeinander bezogen. Im modernen Anstaltsstaat seien beide Ordnungen, Recht und Herrschaft, über die legal-rationale Form der Legitimität miteinander verknüpft. In typologischer Hinsicht hingegen ließen sich den drei Typen der Herrschaft nur begrenzt entsprechende Rechtstypen zuordnen, etwa in der Korrespondenz von rational-systematischer Justiz und rational-bürokratischer Herrschaft sowie bei der »charismatischen« Justiz, die ihr Äquivalent in der charismatischen Herrschaft habe. In einer strukturellen Perspektive könne man so am besten von »Wahlverwandtschaften« zwischen den Strukturen des Rechts, der Wirtschaft und der Herrschaft sprechen.

Weber und der Rechtspluralismus

Hubert Treiber, Soziologe aus Hannover, führte in seinen Bemerkungen aus, was auch in vielen anderen Beiträgen anklang, nämlich die Entwicklung eines pluralistischen Rechtsbegriffs bei Weber, der ihn sogar als »Ahnherren« des legal pluralism erscheinen lasse. Treiber erinnerte an Webers Ausführungen in seinem Text »Die Wirtschaft und die Ordnungen«, in denen er das Bestehen einer Rechtsordnung an die Existenz eines speziellen »Zwangsapparats« knüpfe, der wiederum durch zu diesem Zweck bereitstehende, mit bestimmten Zwangsmitteln ausgestattete Personen konstituiert werde. Die Geltung von Recht sei bei Weber Bestandteil eines Verbandshandelns, nicht aber unbedingt an den staatlichen Rechtszwang gebunden. So mache Weber den Weg frei für die Analyse eines außer- und vorstaatlichen Rechts, wie es die Bewegung des legal pluralism später auf nicht immer präzise Weise zum Programm erhoben habe, aber auch für die Untersuchung anderer normativer Ordnungen, die mit dem staatlichen Recht in Konflikt geraten könnten. Martin Albrow griff in seinem Schlussvortrag gerade diese Erkenntnis Webers auf, da sie für die Erforschung von normativen Konflikten, die im Zuge der Globalisierung entstünden, äußerst wertvoll sei.

Webers Lehren für die Rechtssoziologie

Über die bloße Exegese hinaus versuchten die Vortragenden und Diskutanten also auch, manche der Erkenntnisse und Methoden Webers für die zeitgenössische Forschung fruchtbar zu machen. Vielen Tagungsteilnehmern erschien gerade das komparative Vorgehen Webers, bei allen Differenzen im Detail, als nachahmenswert. Joachim Savelsberg (Minneapolis) zeigte in seiner Präsentation bestimmter Entwicklungen des internationalen Strafrechts zudem, dass auch die Weber’sche Unterscheidung von formal-rationalem und material-rationalem Recht ein nützliches Untersuchungsinstrument sein könne, da mit ihm inhärente Spannungen der rechtlichen Rationalität offengelegt werden können. Letztlich offen blieb die Frage, inwieweit Webers Rechtssoziologie tatsächlich als vergleichende Kultursoziologie des Rechts verstanden werden könne. Der Pariser Soziologe François Chazel, der außerordentlich lobende Worte für die kritische Edition des Rechtsbandes fand, bezweifelte, dass dies die Ambition Webers gewesen sei, zumal dieser den Begriff der Rechtskultur nie verwandt habe. Vielmehr habe er eine Soziologie der Ordnungen entwickelt. Werner Gephart entgegnete, dass gerade das Konzept der »Einverständnisgemeinschaft« auf einen jeweils spezifischen kulturellen Kontext verweise, auf einen spezifischen Sinn, der den Focus der Kulturwissenschaften bilde. Ordnung sei ohne ihre »Kulturbedeutung« gar nicht zu denken. Und in Webers Analyse der historischen Varianz der Rechtsentwicklungen ließen sich die geeigneten Kategorien finden, um die verschiedenen (normativen, symbolischen und organisationellen) Dimensionen dieser Rechtsevolution zu erfassen, die auch ein tieferes Verständnis der Eigenarten und des Konflikt heutiger Rechtsordnungen und -kulturen ermögliche. Dass Webers Werk für dieses ambitionierte Vorhaben von nicht geringem Nutzen ist, darf zumindest als ein Ergebnis dieser Tagung gelten.

Text: Jan Christoph Suntrup

Fotos: Helge Pohl

Quelle: http://maxweber.hypotheses.org/644

Weiterlesen

Mal wieder und immer noch: Digitized vs. Digital

NeDiMAH, das „Network for Digital Methods in the Arts and Humanities“ enthält unter anderen eine Arbeitsgruppe zu „Scholarly Digital Editions“. Die erste Veranstaltung (ein „Expert Meeting and Workshop“) zu diesem Themenkomplex hatte laut Call einen Schwerpunkt in der definitorischen Grundfrage: Was ist eigentlich eine „digitale Edition“?

Nachdem ich mich mit dieser Frage nun auch schon seit 15 Jahren beschäftige, sie in meiner Dissertation einigermaßen länglich ausgewalzt habe und meine eigene Definition Grundlage meines Katalogs digitaler Editionen ist, war ich froh, sie nun auch einmal im Expertenkreis zur Diskussion stellen zu können.

Die Präsentation zum Vortrag findet man als und bei prezi, ich fasse sie hier nicht noch einmal zusammen. Nur ein Punkt, der eigentlich ein Nebenaspekt ist, soll hier aufgegriffen werden, weil ich mich frage, ob diese Diskussion nicht auch in anderen Bereichen der Digital Humanities produktiv geführt wird oder werden kann  und insofern keine Digitale-Editionen-Spezialdiskussion ist:

Offensichtlich wird die Digitale Edition sinnvollerweise im Aufgreifen der traditionellen Editorik definiert. Und dann in Abgrenzung zu ihr. Hier entsteht aber ein Problem: wenn eine gedruckte Edition einfach digitalisiert wird, müsste man dann nicht von einer digitalen Edition sprechen? Der normale Gebrauch der deutschen Sprache legt dies zunächst nahe. Es ist geradezu schwierig, dem folgenden Satz wiedersprechen zu wollen: „Eine digitalisierte Edition ist eine digitale Edition“. Trotzdem muss es getan werden und müssen wir akademischen Klugscheißer der allgemeinen Sprachlogik wohl ein wenig Gewalt antun Widerstand leisten. Denn wie ich andernorts schon ausgeführt habe, liegt der Kern der Wandlungen in der Editorik (und den Geisteswissenschaften insgesamt?) nicht in einem Wandel der Werkzeuge und Medien – sondern in einer Bewegung hin zur Transmedialisierung. Dies führt dazu, dass die mediale Präsentation – ob im Buchdruck oder digital – nicht „wesentlich“ ist. Das wiederum bedeutet, dass eine „digitale Edition“ nicht einfach dadurch definiert ist, dass sie digital vorliegt. Das Digitale ist eine notwendige, aber keine hinreichende Bedingung. Es entsteht das quasi-definitorische Statement:

„Eine digitalisierte Edition ist (noch lange) keine digitale Edition.“

Dies ist das Gegenstück zu dem positiven Definitionsbaustein aus der gegensätzlichen Richtung:

„Eine digitale Edition kann nicht ohne substanzielle Verluste an Inhalten oder Funktionalitäten gedruckt werden.“


Diese Definition ist zunächst gut, weil sie die Spezifika der digitalen Edition in den Vordergrund stellt. Leider ist sie nicht besonders scharf, weil man sich lange darüber wird streiten können, was „substanziell“ ist. Der Ansatz wurde in der Diskussion dann auch an genau diesem Punkt hinterfragt: Bieten nicht schon digitalisierte Editionen einen funktionalen Mehrwert, wenn man sie z.B. per Knopfdruck durchsuchen kann? Hm, ja, offensichtlich muss es eine Schwelle geben, die überschritten werden muss, um davon reden zu können, dass es sich bei digitalen Editionen um „andere“ Editionen handelt, als die gedruckten Editionen wie wir sie kennen. Diese Schwelle brauchen wir auch deshalb, weil digitale Editionen aus digitalisierten Editionen sehr wohl „herauswachsen“ können. Viele digitale Editionen beginnen mit der Digitalisierung bereits gedruckt vorliegender Editionen. Ab einer bestimmten Ausbau- und Umbaustufe wird man sie dann aber doch als „digitale Editionen“ bezeichnen wollen. Diese Schwelle ist zunächst – wie oben angedeutet – durch Inhalte und Funktionen bestimmt. Hinter dem begrifflichen Wechsel und hinter der Beschreibung von Eigenschaften muss aber letztlich ein konzeptioneller Unterschied stehen. Die digitale Edition ist durch ein eigenes Theoriegebäude und durch eine eigene Methodik bestimmt. Sie folgt einem „digitalen Paradigma“, zu dem eben Konzepte wie Transmedialisierung, abstrakte Modellierung, Daten-Orientierung, Multitext, Prozesshaftigkeit, Transparenz, besere Zugänglichkeit oder vielleicht auch Soziabilität gehören. Wenn ich die Stimmung in der Diskussion richtig gedeutet habe, scheint das auch weitgehend unterstützt zu werden. Zum einen wurde (von, ich glaube, Roberto Rosselli del Turco) einmal mehr darauf hingewiesen, dass ja heute alle Editionen mit digitalen Werkzeugen erstellt würden, man deshalb auch von „digital born printed editions“ sprechen könne, dies aber eben auch noch lange keine digitalen Editionen ausmachen würde. Zum anderen betonte die gewohnt klarsichtige Elena Pierazzo, dass wir digitale Editionen deshalb machen, weil wir andere Gegenstände erschließen und andere Zielstellungen (z.B. in der Repräsentation der Textgenetik) verfolgen wollen. Deshalb könne es nicht darum gehen, bessere Editionen in der Tradition des Buchdrucks zu machen  – selbst dann nicht, wenn man dazu die besten digitalen Mittel einsetzen würde. Man sei schließlich an Dingen interessiert, die im Druck nicht nur nicht möglich sind, sondern in der Druckkultur noch nicht einmal denkbar waren.

Das ist eine klare, aber radikale Position, die wohl nicht von allen geteilt werden würde. Schließlich gibt es daneben auch viele, die betonen würden, dass es sehr wohl auch um die (bessere) Edition von Materalien geht, die man immer schon edieren wollte und um die dabei jetzt anzuwendenden besseren Methoden und Werkzeuge. Aus dieser Perspektive bleibt es schwierig, ein klares Kriterium zu finden, an dem sich die digitalisierte oder bloß irgendwie in digitaler Form vorliegende Edition von der „wirklich“ digitalen Edition unterscheidet.

Die terminologische Trennung scheint übrigens auch auf der internationalen Ebene zu funktionieren: Digitized is not digital. Es gibt zwar auch noch das Wort „digitalized“, aber das scheint (wenn es nicht nur ein furchtbarer Germanismus oder ein einfaches Synonym zu „digitized“ ist) etwas (und zwar verschiedenes) Anderes zu bedeuten.  Nämlich u.a. eine allgemeinere Durchdringung von Wissenschaft und Welt durch die Prinzipien des Digitalen und nicht so sehr das Digital-Werden von bestimmten „Dingen“ oder Informationen. Zuletzt ist „digitalized“ auch in den Digital Humanities auf einem Buchtitel aufgetaucht, nicht aber in dem betreffenden Buch selbst – so dass auch hier weiterhin unklar bleibt, was es denn genau für unseren Fragenkreis bedeuten und beitragen könnte.

Was das Phänomen „eine digitalisierte Edition ist keine digitale Edition“ in seiner sprachlogischen Problematik betrifft, so hätte ich gerne Analogien aus bisherigen Wortentwicklungen. Es müsste so etwas sein wie „ein befreiter Mensch ist kein freier Mensch“ (nur mit mehr Sinn!). Hat jemand ein besseres Beispiel?

Quelle: http://dhd-blog.org/?p=1122

Weiterlesen

Gesamtüberblick Videos/Abstracts

Nach und nach gingen in den letzten Wochen die Abstracts und Videomitschnitte unserer Tagung ‘Max Weber in der Welt’ online.

Alle Videos und Abstracts sind hier noch einmal zusammengefasst.

Begrüßung

 

1. Die internationale Weber-Rezeption in der Vergangenheit
/ Die Rezeption Max Webers durch die Welt
Warschau: Die Reaktion polnischer Intellektueller auf Max Webers Polenschriften
Referentin: Marta Bucholc (Universität Warschau)
Abstract

 

Moskau: Die Rezeption der Russlandstudien im Kreis der russischen Intelligenz
Referent: Dittmar Dahlmann (Rheinische Friedrich-Wilhelms-Universität Bonn)

 

Tokio: Japanische Kontroversen über Max Webers »Protestantische Ethik«
Referent: Wolfgang Schwentker (Osaka University)
Abstract

 

Istanbul: Die Rezeption Max Webers in der republikanischen Türkei
Referent: Alexandre Toumarkine (Orient-Institut Istanbul)
Abstract

 

Diskussion

 

2. Max Webers Rezeption der Welt
Rom: Der Romaufenthalt (1901–1903) und Max Webers Verhältnis zum Katholizismus
Referent: Peter Hersche (Universität Bern)
Abstract

 

Paris: Max Weber und die »Philosophie de l’art« von Hippolyte Taine
Referent: Francesco Ghia (Università degli Studi di Trento)
Abstract

 

Washington: Max Weber und die USA
Referent: Lawrence A. Scaff (Wayne State University, Detroit)
Abstract

 

London: Max Weber and the World of Empire
Referent: Sam Whimster (London Metropolitan University und Käte Hamburger-Kolleg »Recht als Kultur«)
Abstract

 

Paris: Der »Soziologe« und der Krieg. Max Weber 1914–1920
Referent: Hinnerk Bruhns (Centre de recherches historiques, CNRS / EHESS, Paris)
Abstract

 

3. Die internationale Weber-Rezeption in der Gegenwart / Die Rezeption Max Webers durch die Welt
Max Weber weltweit. Zur Rezeption eines Klassikers in Zeiten des Umbruchs
Referentin: Edith Hanke (Bayerische Akademie der Wissenschaften, Max Weber-Gesamtausgabe, München)
Abstract
Internationale Tagung „Max Weber in der Welt“: Vortrag von Edith Hanke, 5. Juli 2012 from maxweberstiftung on Vimeo.

 

Beirut: Max Weber und die arabische Welt
Referent: Stefan Leder (Orient-Institut Beirut)

 

Kairo: Max Weber and the Revision of Secularism in Egypt: The Example of Abdelwahab Elmessiri
Referent: Haggag Ali (Academy of Arts, Egypt)
Abstract

 

Max Weber und die »universalgeschichtlichen Probleme«
Referent: Gangolf Hübinger (Europa-Universität Viadrina, Frankfurt/Oder)
Abstract

 

Abschlussvortrag

Quelle: http://maxweber.hypotheses.org/601

Weiterlesen

Berliner Gespräche zur Digitalen Kunstgeschichte

Am 30. November 2012 finden die ersten Berliner Gespräche zur Digitalen Kunstgeschichte am Institut für Kunst- und Bildgeschichte (IKB) der Humboldt-Universität zu Berlin statt.

Thema wird Bildannotation sein, es werden diverse bekannte und unbekanntere Tools vorgestellt werden.

Da nur noch wenige Plätze frei sind, wird um eine kurze Anmeldung bei Georg Schelbert gebeten.

Termin: 30.11.2012, 10:00-16:30 Uhr
Ort: Institut für Kunst- und Bildgeschichte (IKB) der Humboldt-Universität zu Berlin
Raum 0.12
Georgenstraße 47
D-10117 Berlin

Quelle: http://dhd-blog.org/?p=1096

Weiterlesen

Digital Classicist Seminar Berlin: Treebanking in the World of Thucydides.

Der dritte Vortrag im Rahmen des neuen “Digital Classicist Seminar Berlin” wird morgen stattfinden.
Jede/r ist herzlich zur Teilnahme an dieser und/oder den folgenden Seminarsitzungen eingeladen. Eine Anmeldung ist nicht erforderlich.
Dieser Vortrag wird über ein Projekt berichten, in dem das DAI unmittelbar beteiligt ist.

ZEIT
Di. 20. November 2012,17:00-18:30 Uhr

ORT
TOPOI-Haus Dahlem
Hittorfstr. 18
14195 Berlin

VORTRAGENDER
Francesco Mambrini (DAI Berlin / Center for Hellenic Studies, Harvard University, Washington DC, USA)

TITEL
Treebanking in the World of Thucydides. Linguistic annotation for the Hellespont Project

ABSTRACT
What contribution can digital collections give to research in Ancient History? In order to answer this question, digital historians have rightly concentrated on the problem of how to structure the different documents (such as texts, surviving artifacts, geographical locations and related published works), so that the relevant materials can be retrieved with meaningful content-oriented queries. Among the projects that are pursuing this goal, the Hellespont Project (DAI, Perseus Project) focuses on the history of Athens in the years 479-431 BCE, as narrated in the text of Thucydides’ Histories (I, 89-118).
Yet, written sources for Ancient History (such as the works of Ancient historians) are especially complex. In order to get access to their content, they need structuring at a far more advanced level than current digital editions can provide. We propose to use the methods of current computational linguistics to address this issue. In particular we will explore how, in the Hellespont Project, we are taking advantage of the available annotated syntactic corpora and upgrading their model with supplementary annotation. Our goal is to enrich the text of Thucydides with with word-by-word linguistic annotation on morphology, syntax, valency frame and other discursive features such as semantic roles, verbal aspect, anaphora resolution and topic-focus articulation. Semi-automatic linguistic annotation is also the foundation for a data-driven event extraction from an ancient text. Moreover, a fine-grained linguistic analysis is not only useful for digital representation. A text annotated with syntactic and semantic information can allow for a multitude of linguistic and literary studies that can help us understanding Thucydides’ work.

WEITERE INFORMATIONEN
http://de.digitalclassicist.org/berlin/2012/11/12/Mambrini

Das vollständige Programm des Seminars:
http://de.digitalclassicist.org/berlin/seminar2012

KONTAKT/ORGANISATIONSTEAM
http://de.digitalclassicist.org/berlin/about

Quelle: http://dhd-blog.org/?p=1081

Weiterlesen

Trancribe Bentham in a Panopticon: verspätete Berichterstattung zum Vortrag von Philipp Schofield im Rahmen der Darmstädter Ringvorlesung am 8.11.

Text von Jörg Lehning, TU Darmstadt

Im Rahmen der Ringvorlesung “Digital Humanities” war Philip Schofield, Leiter des Bentham-Projektes und General Editor der Gesammelten Werke Jeremy Benthams zu Gast und erfreute die interessierten Hörerinnen und Hörer mit seinem Vortrag “Transcribe Bentham – An experiment in scholarly crowdsourching”.

Das (im Übrigen preisgekrönte) interdisziplinäre Bentham-Projekt ist ein großartiges Beispiel für ein wissenschaftliches Projekt, das mit den neuen Technologien zusammenwächst. Das “scholarly crowdsourcing”, was man vielleicht mit “wissenschaftliche Bearbeitung durch unwissenschaftliche Mengen” etwas wenig elegant umschreiben könnte, ist hierbei ein elementarer Baustein des Projekts.

Wie Schofield ausführte, sei es auch in diesem Projekt zunächst wichtig, Ziele zu definieren. In diesem Fall sei das die Erstellung einer neuen gedruckten Edition gewesen, ein weiteres, dass diese kostengünstig sein sollte.

Bentham, so Schofield, hätte den technologischen Fortschritt mit offenen Armen begrüßt, und das nicht nur, weil er zeitlebens Technik zur Vereinfachung von Arbeitsabläufen erfunden hatte, sondern auch, weil er mit ihr seine Ideen wesentlich besser hätte umsetzen können.

Das Computerzeitalter wäre mitunter auch hilfreich, veraltete oder nicht hilfreiche Strukturen zu überwinden, meinte Schofield mit Blick auf diverse alte Regularien (Oxford Standard of storage rules), etwas was auch in den Debatten um die Definition der Digital Humanities eine Rolle spielt.

Die Bentham Dokument Datenbank, die von 2003-2006 bearbeitete Dokumente bereitstellt, ist eine zentrale Quelle für Metadaten, die von Editoren und Forschern genutzt werden kann.
Die Technik hat jedoch nicht nur Vorteile: im Rahmen des Arbeitsablaufs wird durch einen wissenschaftlichen Mitarbeiter die Qualität der fertig bearbeiteten Dokumente geprüft, bevor sie hochgeladen werden können. Die Erfahrung zeigt hier, dass händisches XML/TEI-Tagging zu steigender Fehlerzahl und somit auch zu steigendem Zeitverbrauch führen kann. Aber: Die Probleme mit der Technik können mitunter auch durch die Technik behoben werden, so z.B. durch das Interface, das die Text-XML-TEI-Erstellung erleichtert und somit die menschlichen Fehlerquellen in diesem Fall umgeht.

Mitarbeiter werden bei Wunsch genannt und bekommen auch Rückmeldung zu ihrer Arbeit. Von den Transkripten werden 95% von sogenannten “super-transcribers” bearbeitet. Bemerkenswert ist, dass viele der “User”, die an dem Projekt arbeiten, gar nicht unbedingt an Bentham interessiert waren und sind, sondern vor allem die Art der Arbeit im Rahmen des Projekts interessant fanden. Auch die digitale Komponente schien zu reizen.

Projekte wie dieses haben als limitierende Faktoren oft Zeit und Komplexität. Wirtschaftliche Argumente für diese Projekte sind wichtig, wenn es darum geht, sie überhaupt in die Tat umzusetzen. Die ökonomische Rechtfertigung kann hier darin bestehen, dass die Methode des “scholarly crowdsourcing” kosteneffizient ist, z.B. im Vergleich zu bezahlten Forschern.

Abschließend stellte sich Schofield Fragen nach der Berechtigung und dem Erfolg des Projekts und kam zu dem Schluss, dass es ein Erfolg sei, weil Bedarf daran besteht und es wissenschaftlich fundiert sei. Die digitalen Geisteswissenschaften indes würden das Projekt dazu zwingen, die Funde auch mit neuen Methoden aufzubereiten und zu präsentieren.

Fragen hinsichtlich der Existenzberechtigung des Projektes beinhalten die Überprüfung der Zielsetzung Druck im Hinblick auf Ideen und Modelle der “freien Information”. So taucht zum Beispiel die Frage auf, ob nicht nur noch eine editierte Fassung online stehen soll, die die gedruckte Ausgabe ersetzt. Hier stehen sich die Punkte Kosteneffektivität und beständige, gesicherte Referenz durch physikalische Permanenz gegenüber.

Follow us on Twitter: @DHDarmstadt @RappAndrea #DHDarmstadtLecture

Am 22.11.2012 ist Martin Wynne (Oxford University) zu Gast: “Corpus and Text Analysis for Research in the Humanities”; 18.00 Uhr s.t., Schloss, Raum 36. Gäste sind herzlich willkommen.

Quelle: http://dhd-blog.org/?p=1077

Weiterlesen