„Die bedeutenden Wissenschaftssprachen müssen erhalten bleiben“

Prof. Dr. Hinnerk BruhnsInterview mit Prof. Dr. Hinnerk Bruhns, Forschungsdirektor am CNRS, Paris über die von ihm mitgegründete und herausgegebene Online-Zeitschrift „Trivium“.

Mareike König (MK): Herr Bruhns, Sie sind einer der „Väter“ von Trivium, eine elektronische Zeitschrift, die seit Herbst 2007 ausgewählte Artikel aus deutschen und französischen geistes- und sozialwissenschaftlichen Fachzeitschriften in der jeweils anderen Sprache in Übersetzung open access veröffentlicht. Wie ist die Idee zu Trivium entstanden?

Hinnerk Bruhns (HB): Die Idee zur Gründung der Zeitschrift Trivium ist in den Jahren 2005 bis 2007 entwickelt worden. Ich war damals stellvertretender Leiter der Fondation Maison des Sciences de l’Homme (FMSH). Dort gibt es seit den 1980er Jahren ein deutsch-französisches Programm für die Übersetzung von Büchern aus den Geistes- und Sozialwissenschaften[1], das mit der Unterstützung durch das Goethe-Institut (zuvor: Inter Nationes), den DAAD und das Centre National des Lettres durchgeführt wird. Die schon vor vielen Jahren gelegentlich von mir vorgetragene Idee, dieses Programm durch ein Parallelprogramm zur Übersetzung von Zeitschriftenartikel zu ergänzen, war einer der Ausgangspunkte, die zur Gründung von Trivium führten. Dahinter stand der Gedanke, dass der finanzielle Aufwand und das verlegerische Risiko bei der Übersetzung von Artikeln geringer sein würden als bei Büchern. Außerdem ließe sich durch die Übersetzung von kurzen Texten – Zeitschriftenartikel – die oft sehr lange Zeitverzögerung im Transfer und in der Rezeption der Entwicklung der Forschung im Nachbarland verringern.

Diese Überlegungen verbanden sich dann mit solchen zur Sprachenpolitik in den Geistes- und Sozialwissenschaften in Europa. Langjährige Partner der FMSH, die DVA-Stiftung und die Robert Bosch Stiftung hatten seit mehreren Jahren Untersuchungen über die wissenschaftliche Kommunikation zwischen Deutschland und Frankreich gefördert. Die Frage der Sprachen und Übersetzungen stand dabei im Mittelpunkt. In einer Studie von Fritz Nies aus dem Jahre 2002[2] werden am Beispiel verschiedener geistes- und sozialwissenschaftlicher Fächer sowohl die Intensität wie auch die Lücken in der Kommunikation, dem Transfer und der Rezeption zwischen den deutschen und französischen fachwissenschaftlichen „communities“ analysiert. Von den Ergebnissen dieser Studie ausgehend wurde von der Bosch-Stiftung und der DVA-Stiftung, dem Deutsch-französischen Institut in Ludwigsburg und der FMSH in Berlin im Jahr 2004 ein Kongress zur Sprachenfrage in der europäischen Wissenschaftskooperation organisiert, und zwar mit besonderer Blickrichtung auf die deutsch-französische Zusammenarbeit[3]. Zentrale Ergebnisse der Diskussionen waren zum einen die wissenschaftlich begründete Notwendigkeit, in den Geistes- und Sozialwissenschaften die bedeutenden Wissenschaftssprachen zu erhalten und zu fördern, und zum anderen – als Korrelat dazu – die Forderung, die transnationale Wissenschaftskommunikation verstärkt durch mehr Übersetzungen zu fördern und zu intensivieren.

Von diesen Überlegungen zur Realisierung der Idee waren dann nicht nur einige Schritte nötig, sondern vor allem Partner. Einmal Institutionen: neben den eben genannten deutschen Stiftungen das französische Kulturministerium und dann vor allem die Deutsche Forschungsgemeinschaft und die Agence nationale de la recherche in Frankreich. Dann auch Personen mit besonderem Engagement und den mir selbst fehlenden Kompetenzen. Ich nenne hier nur Gudrun Gersmann vom DHI Paris mit ihrer langen Erfahrung im Bereich digitaler Medien und Instrumente für die Forschung. Frau Gersmann hat, damals noch von der Universität Köln aus, gemeinsam mit der FMSH den Projektantrag für Trivium in das deutsch-französische Förderprogramm von DFG und ANR eingebracht und das Unternehmen dann als Direktorin des DHI Paris gemeinsam mit mir verwirklicht.

MK : Was ist das Besondere an Trivium?

 HB: Im Vergleich zu „normalen“ wissenschaftlichen Zeitschriften ist das Besondere an Trivium, dass hier keine Originalbeiträge publiziert werden, sondern ausschließlich Übersetzungen von Texten, die schon in Zeitschriften oder auch Sammelbänden in Frankreich oder Deutschland veröffentlicht worden sind. Das Besondere besteht also einerseits in der Übersetzung, andererseits aber auch in der Zusammenstellung von französischen und deutschen Beiträgen zu einer bestimmten Thematik.

Trivium erscheint in Form von Themenheften (durchschnittlich drei pro Jahr), die in der Regel von je einem deutschen und einem französischen wissenschaftlichen Herausgeber betreut werden. Trivium wird herausgegeben von den Editions de la Maison des sciences de l’Homme in Paris, in Verbindung mit mehreren deutschen und französischen Institutionen, darunter an erster Stelle das DHI Paris. Der wissenschaftliche Beirat der Zeitschrift entscheidet mit der Redaktion und den jeweiligen Herausgebern über die Auswahl der zu übersetzenden Artikel. Die erste Ausgabe ist im Mai 2008 veröffentlicht worden; die Zeitschrift ist frei im Internet zugänglich: http://trivium.revues.org/

 MK: Was genau bedeutet denn der Name Trivium?

HB: Der volle Name der Zeitschrift ist: Trivium. Revue franco-allemande de sciences humaines et sociales / Deutsch-französische Zeitschrift für Geistes- und Sozialwissenschaften. Im Lateinischen ist Trivium der Ort, wo drei Wege zusammenstoßen, eine Wegekreuzung. In der mittelalterlichen Universität bezeichnete Trivium die drei grammatisch-rhetorischen Fächer (Dialektik, Grammatik, Rhetorik) der sieben artes liberales, also den Dreiweg zur sprachlichen Bildung, zusammen mit dem Quadrivium (Vierweg: Arithmetik, Geometrie, Astronomie, Musik) als Propädeutik für die höheren Fakultäten (Theologie, Recht, Medizin). Besser als der Name Bivium (Zweiweg) es hätte tun können, entspricht der Begriff Trivium dem, was wir mit dieser ‚zweiseitigen’, deutsch-französischen Zeitschrift tun wollen. Einerseits durch den Bezug auf die Bedeutung der Sprache in der Bildung, andererseits dadurch, dass der ‚Dreiweg’ über das rein Deutsch-Französische hinausweist.

Screenshot von Trivium

Screenshot von Trivium

MK: Warum wurde Trivium als elektronische Zeitschrift konzipiert?

HB: Wollte man die Arbeitsschwerpunkte dieser Zeitschrift nicht auf eine Disziplin einschränken, sondern den doch sehr weiten Bereich der unterschiedlichen Wissenschaftsgebiete abdecken, in denen die Begrifflichkeit und das Denken vorwiegend durch die Nationalsprachen geprägt sind, dann konnte diese Zeitschrift vom wirtschaftlichen Standpunkt aus gesehen nicht mit einem festen Abonnentenkreis rechnen, der die erheblichen Kosten für die Übersetzungen, die Redaktion, den Druck und den Vertrieb getragen hätte. Daher bot sich als einzige Möglichkeit die einer rein elektronischen, frei zugänglichen Zeitschrift an. Die durch private und öffentliche Zuwendungen zu deckenden Kosten des Unternehmens ließen sich allein durch den erwarteten Nutzen für die Wissenschaft rechtfertigen. Die Zeitschrift musste also als eine Art Instrument oder Infrastrukturelement entwickelt werden, dessen sich die Wissenschaftler, insbesondere die an der deutsch-französischen Kooperation interessierten, bedienen und – im besten Sinne – bemächtigen würden. Diese deutsch-französische Initiative sollte zugleich als Modell für analoge Übersetzungsinitiativen zwischen andere Sprachgemeinschaften dienen können.

MK: Wie positioniert sich Trivium in der deutschen und französischen Fachcommunity? Wen möchte Trivium ansprechen, Studierende, Doktoranden, Forscher?

HB: Dem ursprünglichen Konzept entsprechend wendet Trivium sich in erster Linie an Studenten, Hochschullehrer und Wissenschaftler, die aufgrund mangelnder oder unzureichender Kenntnisse des Deutschen, bzw. des Französischen, Publikationen in diesen Sprachen nicht oder nur selten, da mit großer Mühe verbunden, lesen. Man denkt dabei spontan wohl zunächst an das akademische Publikum in Frankreich und Deutschland, und in zweiter Linie an Leser in anderen deutsch- und französischsprachigen Ländern. Trivium richtet sich jedoch darüber hinaus an Wissenschaftler und Studenten in – potentiell – allen Ländern der Welt, die zumindest eine der beiden Sprachen lesen, in denen die Zeitschrift ihre Übersetzungen veröffentlicht. Die Zugriffsstatistiken zeigen, dass die Leserschaft von Trivium weit über die Welt verteilt ist. Auch hat sich gezeigt, dass Trivium durchaus auch regelmäßig von Wissenschaftlern und Studenten konsultiert wird, die beider Sprachen mächtig sind. Das liegt nicht nur daran, dass die von unserer Zeitschrift publizierten Texte im Internet direkt zugänglich sind. Entscheidender ist wohl, dass Trivium forschungsrelevante thematische Dossiers anbietet, die nach wissenschaftlichen Kriterien zusammengestellt und von den jeweiligen Herausgebern mit einer ausführlichen Einleitung in den Themenschwerpunkt versehen werden. Themenhefte von Trivium werden, wie der Redaktion bekannt worden ist, auch in der Lehre an Universitäten eingesetzt.

MK: Einmal ketzerisch gefragt: warum sind Übersetzungen in den Geisteswissenschaften auch heute noch so wichtig?

HB: Die Konzeptualisierung in den Geistes- und Sozialwissenschaften, deren Gegenstand Mensch und Gesellschaft sind, ist (insbesondere in den bedeutenden Wissenschaftsgemeinschaften) eng verknüpft mit der jeweiligen Nationalsprache. In ihr kommen Denken und Erfahrung des Einzelnen wie der Gesellschaft zum Ausdruck, in ihr formuliert der Forscher seine Hypothesen, Analysen und Erklärungen, und in ihr stellt er sie den Fachwissenschaftlern wie auch einem breiteren Publikum vor.

Auch wenn wissenschaftliche Kommunikation und wissenschaftlicher Austausch in Europa und international auf eine lingua franca – heute Englisch – nicht verzichten können, ist für eine wirkliche wissenschaftliche Kommunikation und Kooperation zwischen Forschern aus unterschiedlichen Sprachgemeinschaften der systematische Rückgriff auf eine dritte Sprache nicht ausreichend und im Grunde nur ein – häufig allerdings unumgänglicher – Notbehelf. Im Rahmen der internationalen Kooperation hängt die Qualität der Forschungsarbeit in den Geistes- und Sozialwissenschaften in einem nicht zu vernachlässigenden Umfang ab zum einen von guten Kenntnissen in der Sprache des Partners, zum anderen von der (streng wissenschaftlichen Kriterien genügenden) Qualität der Übersetzungen. Heute ist die Qualität der Forschung, und damit auch der Lehre, durch den verhängnisvollen Trend bedroht, dass viele meinen, man brauche nicht mehr zur Kenntnis zu nehmen, was nicht auf Englisch publiziert ist. Übersetzungen sind ein Gegenmittel, die Mehrsprachigkeit zur Voraussetzung für die Zulassung zum Promotionsstudium (spätestens!) zu machen wäre ein anderes.

MK : Welche Themenschwerpunkte wurden bisher bei Trivium behandelt und wie werden diese ausgewählt? Kann jeder einen Vorschlag machen?

HB : Wir haben bisher neun Themenhefte veröffentlich, jedes Mal mit einem anderen Schwerpunkt. Die Spannweite reicht von den „orientalischen“ Religionen in der griechisch-römischen Antike (Nr. 4) bis zu Max Webers Soziologie der Bürokratie (Nr. 7), dem iconic turn in den Sozialwissenschaften (Nr. 1), oder, um ein anderes Beispiel zu nennen, bis zu der in Frankreich entwickelten Soziologie der Konventionen (Nr. 5). Andere Themen waren die subjektiven Rechte und die Menschenrechte (Nr. 3), die Formen symbolischer Kommunikation im Mittelalter (Nr. 2), das Verhältnis von Ästhetik und Kunstwissenschaft (mit einer ganzen Reihe von Texten aus der ersten Hälfte des 20. Jahrhunderts) (Nr. 5), der Wissenstransfer als ein Aspekt der Beziehungen zwischen lateinisch-christlicher und arabisch-islamischer Welt zwischen dem 9. und dem 15. Jahrhundert (Nr. 8) und zuletzt das Problem der Zeit und der Zeitwahrnehmungen in den Sozialwissenschaften (Nr. 9).

Vorschläge können von jedermann gemacht werden; natürlich müssen die Vorschläge dem besonderen Format und der Zielsetzung der Zeitschrift entsprechen. Hinweise dazu gibt es auf der Homepage von Trivium.

Blog der Zeitschrift TriviumMK: Wie lauten die Themen für die nächsten Hefte bei Trivium?

HB: Die beiden nächsten Nummern behandeln das Thema der „Lesbarkeit/Lisibilité“ (Nr. 10) und dann „Flaubert orientalischen Realismus“ (Nr. 11). Danach geht es einmal um Emile Durkheim, dann um Forschungen zum Alten Reich und danach um die Entwicklung der Kultursoziologie.

MK: Gibt es einen Newsletter mit der Ankündigung der neuesten Nummer oder wie kann man von den neuen Ausgaben erfahren?

HB: Ja, es gibt einen Newsletter. Unter folgender Adresse kann man ihn abonnieren: http://trivium.revues.org/?page=lettre

Außer dem gibt es ein Blog, und Trivium ist auch auf Facebook präsent.

MK: Herr Bruhns, vielen Dank für das Interview.

 

Hinnerk Bruhns hat die Fragen schriftlich beantwortet.

 

Kontakt:

Trivium
Fondation Maison des Sciences de l’Homme
190, avenue de France
75013 Paris

trivium@msh-paris.fr

bruhns[at]msh-paris.fr

 


 

  1. http://www.editions-msh.fr/info/?fa=text56 und http://www.editions-msh.fr/collections/?collection_id=574
  2. Die wichtigsten Beiträge zu dieser Veranstaltung sind in einem Sammelband veröffentlicht worden: Fritz Nies (Hrsg.), unter Mitwirkung von Erika Mursa, Europa denkt mehrsprachig. Exemplarisch: deutsche und französische Kulturwissenschaften / L’Europe pense en plusieurs langues. Exemplaires: les Sciences de l’Homme en France et en Allemagne, Tübingen, Gunter Narr Verlag, 2005.((Fritz Nies (Hrsg.): Spiel ohne Grenzen? Zum deutsch-französischen Transfer in den Geistes- und Sozialwissenschaften, Gunter Narr Verlag, Tübingen 2002; französische Übersetzung: Fritz Nies (dir.), L’enjeux scientifiques des traductions : échanges franco-allemandes en sciences humaines et sociales, Paris, Editions de la Maison des sciences de l’homme, 2004.
  3. Die wichtigsten Beiträge zu dieser Veranstaltung sind in einem Sammelband veröffentlicht worden: Fritz Nies (Hrsg.), unter Mitwirkung von Erika Mursa, Europa denkt mehrsprachig. Exemplarisch: deutsche und französische Kulturwissenschaften / L’Europe pense en plusieurs langues. Exemplaires: les Sciences de l’Homme en France et en Allemagne, Tübingen, Gunter Narr Verlag, 2005.

Quelle: http://dhdhi.hypotheses.org/726

Weiterlesen

Forschungsseminar “La Première Guerre mondiale, guerre du XIXe, guerre du XXe siècle” am DHIP

Am 12. Dezember fand die erste Sitzung des an der EHESS unter Leitung von Stéphane Audoin-Rouzeau organisierten Forschungsseminars „La Première Guerre mondiale, guerre du XIXe, guerre du XXe siècle“ am DHI Paris statt. In der Vorlesungszeit stellen an jedem ersten Montag im Monat hochkarätige Referenten ihre aktuellen Forschungsprojekte zur (Vor-)Geschichte des Ersten Weltkriegs und seiner Nachwirkungen vor. Externe Seminarteilnehmer sind jederzeit herzlich willkommen. Den Anfang machte Bruno Cabanes (Yale University) mit einem Werkstattbericht zu seinem laufenden Vorhaben „La redéfinition des droits de l’homme après la Grande Guerre“ (Redefinition der Menschenrechte nach dem Ersten Weltkrieg), in dem es dem profilierten Experten für die Geschichte des Kriegsendes 1918 u.a. darum geht, eine rechtsgeschichtliche Fragestellung kulturgeschichtlich anzureichern und damit berührungslos nebeneinander stehende Forschungstraditionen zusammen zu bringen. So erlaubt die Analyse der Kriegserfahrungen wichtiger Protagonisten der Menschenrechtsbewegung (z.B. des Kriegsversehrten René Cassin), ihr Engagement zu kontextualisieren und damit besser zu verstehen. Durch Berücksichtigung der besonderen Rolle einflussreicher NGOs avant la lettre betont Cabanes darüber hinaus die besondere Bedeutung zivilgesellschaftlicher, internationaler Organisationen und macht einen großen Schritt hin zu einer transnationalen Geschichte der Menschenrechte. In den nächsten beiden Seminarsitzungen am 2. und 16. Januar 2012 (jeweils 9-11 Uhr) führt Leonard V. Smith den Versuch, Kultur- und Rechtsgeschichte produktiv zusammen zu bringen, weiter. Seine beiden Vorträge, “Wilsonismus und Völkerrecht. Souveränität nach dem Ersten Weltkrieg” (Wilsonisme et droit international. La souverainté après la Grande Guerre) und “Frieden oder Fortsetzung des Krieges? Das Recht der Selbstbestimmung der Völker auf der Friedenskonferenz 1919″ (Paix ou continuation de la guerre? Le droit des peuples à disposer d’eux-mêmes à la conférence de la paix 1919) behandeln eine komplementäre Problemstellung, die ein Schlaglicht auf die so unendlich schwierige Demobilmachung des Rechts nach dem Ende des Krieges wirft. Leonard V. Smith ist Frederick B. Artz Professor am Oberlin College in Ohio. Von ihm sind u.a. erschienen: “The Embattled Self. French Soldiers’ Testimony of the Great War” (Cornell University Press, 2007) und “Between Mutiny and Obedience. The Case of the French Fifth Infantry Division During World War I (Princeton University Press, 1994). Zur Vorbereitung auf die beiden Seminarsitzungen wird sein neuester Aufsatz “The Wilsonian Challenge to International Law,” Journal of the History of International Law, 13 (2011)S. 179-208, ausdrücklich zur Lektüre empfohlen.

Quelle: http://grandeguerre.hypotheses.org/198

Weiterlesen

Ein deutschsprachiges Blogportal für die Geisteswissenschaften: de.hypotheses.org

Wissenschaftliches Bloggen bietet ein großes Potential für die schnelle Publikation, Verbreitung und Diskussion aktueller Forschungsinhalte. Im deutschsprachigen Raum und speziell bei den Geisteswissenschaften wird das noch viel zu wenig erkannt und genutzt. Mit dem Aufbau eines deutschsprachigen Blogportals für die Geisteswissenschaften -  http://de.hypotheses.org -  soll diese Form der wissenschaftlichen Kommunikation nun stärker verbreitet werden. In Anlehnung an das französische Vorbild hypotheses.org wird ein Service eingerichtet, der das Eröffnen von Wissenschaftsblogs aus allen Disziplinen der Humanities erleichtert, diese unter einem Dach versammelt und für eine größere Sichtbarkeit wie auch für die Archivierung der Inhalte sorgt.

Entstanden ist die Idee vor dem Hintergrund des großen Erfolgs des französischsprachigen Blogportals hypotheses.org. Über 60 der derzeit 269 dort versammelten Blogs haben in diesem Sommer von der französischen Nationalbibliothek eine ISSN bekommen und können damit wie Zeitschriften in die Bibliothekskataloge aufgenommen werden[1]. Das Team von hypotheses.org um Marin Dacos und Pierre Mounier stellen die Infrastruktur für das deutschsprachige Portal kostenlos zur Verfügung, ganz im Sinne des Manifests der Digital Humanities, entstanden auf dem Pariser ThatCamp 2010, das Kollaboration in einer solidarischen, offenen, einladenden und frei zugänglichen Praxisgemeinschaft in den Mittelpunkt stellt.

Folgt man dem französischen Beispiel, so sind Wissenschaftsblogs denkbar für Forschergruppen, begleitend zu Seminaren, über Projekte, Ausgrabungen, Zeitschriften oder um die Arbeit von Instituten und Einrichtungen zu präsentieren. Anmelden können sich Forschergruppen und Einzelforscher/innen der Geisteswissenschaften, die über eine universitäre oder institutionelle Anbindung verfügen und die regelmäßig über ihre aktuelle Forschungen schreiben möchten.

Die Blogs laufen auf WordPress. Das Portal ist derzeit in einer Betaversion. Anmeldungen zur Eröffnung eines Blogs oder zur Migration eines bereits bestehenden Blogs sind ab sofort möglich auf der Seite “Blog eröffnen“.

Ein wissenschaftlicher Beirat, bestehend aus Gudrun Gersmann, Peter Haber, Gregor Horstkemper, Martin Huber, Hubertus Kohle, Gerhard Lauer, Claudine Moulin und Eva Pfanzelter, begleitet das Projekt. Über die Auswahl der Beiträge für die Startseite des Blogportals entscheidet die wissenschaftliche Redaktion des Portals, zu der Klaus Graf, Jan Hodel, Eliane Kurmann, Lilian Landes, Enrico Natale, Cornelius Puschmann, Christof Schöch, Anton Tantner, Sacha Zala und ich gehören. Die Redaktion plant den Aufbau eines eigenen „Redaktionsblog“ rund um das Thema geisteswissenschaftliches Bloggen. Die Redaktion twittert ab sofort unter @dehypotheses.

Redaktion und Beirat sei an dieser Stelle für die große Hilfe gedankt, allen voran Peter Haber und Eva Pfanzelter, die bei der Ausarbeitung und Umsetzung des Projekts federführend waren, sowie Klaus Graf für seine wertvollen Hinweise u.a. rund um das Thema Impressum und Urheberrecht. Die technische Umsetzung liegt bei Frédérique Muscinési von hypotheses.org, der an dieser Stelle für ihren großen Einsatz ebenfalls ausdrücklich gedankt sei. Ein Dank geht auch an Miriam Kreis für die Übersetzungsarbeiten und an Gordon Blennemann für seine Hilfe in diesem Zusammenhang.

Am 9. März 2012 wird das Blogportal in München mit einer Tagung über das wissenschaftliche Bloggen, unterstützt durch L.I.S.A., das Wissenschaftsportal der Gerda Henkel Stiftung und das DHI Paris, offiziell an den Start gehen. Am Portal oder der Tagung Interessierte können sich an das DHI Paris wenden unter der Mailadresse blog [at] dhi-paris.fr.

 

Weitere Literatur

Peter Haber, Eine neue Plattform de.hypotheses.org, in: weblog.histnet, 30.11.2011 <http://weblog.hist.net/archives/6001>

Pierre Mounier, Die Werkstatt des Historikers öffnen: Soziale Medien und Wissenschaftsblogs, in: dhdhi.hypotheses.org, 4.11.2011 <http://dhdhi.hypotheses.org/591>

 

 

  1. Siehe dazu Mareike König, Blogging Tricolore. Geisteswissenschaftliche Blogs in Frankreich, in: Archivalia, 11.08.2011

Quelle: http://dhdhi.hypotheses.org/610

Weiterlesen

Die Werkstatt des Historikers öffnen: Soziale Medien und Wissenschaftsblogs

The shoemaker F. A. Sandell in his workshop.

The shoemaker F. A. Sandell in his workshop

Aus dem Französischen übersetzt von Inger Brandt und Mareike König.

In welcher Weise verändern die digitalen Technologien die Arbeitsbedingungen des Historikers? Bereits seit mehreren Jahrzehnten gibt es darauf Antworten. Die Erstellung quantitativer Datenbanken, die Digitalisierung wichtiger Quellen, die kartografische Darstellung und die Analyse sozialer Netzwerke mit IT-Werkzeugen sind dabei die ältesten und wichtigsten Meilensteine. Die Retrodigitalisierung und Online-Veröffentlichung akademischer Literatur der Disziplin, seien es Zeitschriften oder Bücher, stellen eine weitere Etappe in dieser Richtung dar. Die digitale Technologie hat bis heute zugleich den Werkzeugkasten des Historikers – um den schönen Ausdruck aus dem gleichnamigen Blog La Boite à Outil des Historien aufzugreifen – und seine Publikationsmöglichkeiten grundlegend verändert.

Einige berühmte Beispiele aus der Vergangenheit haben Historiker gelehrt, dass nicht immer eindeutig bestimmt werden kann, ab wann es Zeit ist, die „Revolution zu beenden“. Revolutionäre Phänomene nähren sich mitunter selbst. Man kann daher von einer „permanenten Revolution“[1] sprechen, wie es der Soziologe Philippe Breton mit Blick auf das Internet tut. Es sind heute also die neuen Werkzeuge und vor allem die neuen Praktiken der vernetzten Kommunikation, die – nachdem sie seit einigen Jahren immer stärker von der breiten Öffentlichkeit genutzt wurden – seit kurzem auch in den Sozial- und Geisteswissenschaften auftauchen. Es handelt sich um die Werkzeuge des Web 2.0, die sich von der Vorgängergeneration durch ihre einfache Nutzung und durch ihren gleichzeitig unkonzentrierten, horizontalen und unmittelbaren Charakter der Kommunikationspraktiken unterscheiden: Plattformen für content sharing (Dokumente, Fotos, bibliografische Referenzen), Blogs und soziale Netzwerke stellen ein Ensemble an „sozialen Medien“ dar. Deren Anwendung durch Historiker wird zunehmend selbst Gegenstand der Debatte. Das zeigt auch das kürzlich vom Deutschen Historischen Institut Paris organisierte Kolloquium „Im Netz der sozialen Medien – Neue Publikations- und Kommunikationswege in den Geisteswissenschaften“[2]. Es war besonders interessant, im Verlauf des Kolloquiums Wissenschaftler unterschiedlicher Herkunft darüber reden zu hören, wie sie sich die neuen Werkzeuge aneignen, um ihre Kommunikationspraktiken von Grund auf zu erneuern. Man traf dort Historiker wie Peter Haber von der Universität Basel mit seinem Blog bei Hist.net, André Gunthert von der EHESS, der die Plattform Culture visuelle für wissenschaftliche Blogs in visueller Geschichte aufgebaut hat, oder auch Klaus Graf, der das berühmte Weblog Archivalia vorstellte und mit der provokanten These „ein Wissenschaftler ohne Blog ist ein schlechter Wissenschaftler“ für Aufsehen sorgte[3].

Eine Arbeit bei „geöffneter Werkstatt“

Trotz der Polemik kann es interessant sein nachzuvollziehen, welche Rolle ein Wissenschaftsblog bei der Arbeit eines Forschers spielen kann und ab welchem Moment des Forschungsprozesses er eingesetzt wird. Und da es sich offensichtlich um ein Kommunikationsmittel handelt, stellt sich die Frage nach der Einordnung von Blogs im Vergleich zu den traditionellen Publikationen wie Zeitschriften und Büchern, die mittlerweile auch im Internet vertrieben werden. Bei aufmerksamer Betrachtung wissenschaftlicher Blogs wie den gerade erwähnten oder denen auf der von Cléo betriebenen Plattform hypotheses.org gehosteten Blogs kristallisiert sich folgendes Hauptmerkmal heraus: Während die traditionellen Publikationen scharf die interne Kommunikation (Forschungsergebnisse adressiert an Kollegen) von der externen Kommunikation (an die breite Öffentlichkeit gerichtete populärwissenschaftliche Aufbereitung) trennen, neigen die Wissenschaftsblogs dazu, beide Bereiche an einem Veröffentlichungsort zusammenzuführen. In seinem Blog arbeitet der Historiker bei „geöffneter Werkstatt“; er enthüllt seine tagtägliche Arbeitsroutine, seine Lektüren, seine Erkenntnisse, seine Hypothesen, seine Zweifel. Schließlich legt er einen Aspekt seiner Forschung offen, noch „während diese im Entstehen“ ist, wie es bei den Soziologen aus der Schule von Bruno Latour heißt[4]. Das weckt sowohl das Interesse der unmittelbaren Kollegen, die möglichst schnell Zugang zu dieser Information erhalten und diese eventuell nach wissenschaftlichen Gepflogenheiten kritisieren möchten, als auch das Interesse einer breiteren Öffentlichkeit, die aus unterschiedlichen Gründen am jeweiligen Thema interessiert ist. Wie dem auch sei, eines unterscheidet das Blog deutlich von den kanonischen Publikationsformen, die sowohl in der Form als auch im Erscheinungsrhythmus festgelegt sind: und das ist die Freiheit, die der Autor im Hinblick auf Tonfall, Form, Länge, Thema und Publikationsrhythmus hat. Diese große Freiheit der Ausdrucksmöglichkeiten macht dem Wissenschaftler Spaß und motiviert ihn daher zum Schreiben. Gleichzeitig zieht sie eine hybride Leserschaft an, die mit dem Autor ein Gespräch beginnen kann. Das Ergebnis ist erstaunlich: Die wissenschaftlichen Blogs unterscheiden sich stark voneinander; die Forscher, ob allein oder gemeinsam in einem Forschungsteam, veröffentlichen hier alle Arten von Informationen in unterschiedlichen Rhythmen und in variierender Länge. Im Vergleich zu Zeitschriften und anderen konzeptionell stärker eingeschränkten Publikationsformen geben Blogs ein völlig uneinheitliches Bild ab. Sie zeigen das „Sammelsurium des Wissenschaftlers“, wie es Marin Dacos so treffend ausdrückt[5]. Und über genau diese Vielfalt begreift man das Wesen der Blogs erst richtig, indem die verschiedenen Arten von Informationen, die auf den Blogs verbreitet werden, genauer betrachtet.

Am häufigsten findet man dort kurze Anmerkungen zu den Neuigkeiten aus dem Fachgebiet des Autors: Ankündigungen über Kolloquien und Studientage, call for papers, Meldungen über Neuerscheinungen oder Ausstellungen. Oftmals begnügt sich der bloggende Wissenschaftler damit, die Texte der Aufrufe, die Programme der Kolloquien, den Klappentext des erschienenen Werks wiederzugeben, ohne einen besonderen Kommentar hinzuzufügen. Dies ist beispielsweise beim Blog Emma der Fall, das aus dem von Damien Boquet und Piroska Nagy geleiteten Forschungsprogramm zu Emotionen im Mittelalter hervorgegangen ist. Man kann vielleicht nach dem Nutzen eines solchen Blogs fragen, das anscheinend nur aus einer Ansammlung von hier und da erschienen Annoncen besteht. In Wirklichkeit handelt es sich um ein wertvolles Monitoring-Tool, da diese Blogs eine – manchmal in Kategorien geordnete – qualitative Auswahl an Neuigkeiten zu einem Fachgebiet bieten. Für die gleiche Aufgabe könnten auch andere Tools genutzt werden (wie Anzeige-Services oder Ressourcen-Aggregatoren), aber das Blog ist ein ebenso interessanter Informationsträger. Auf hypotheses.org haben einige Blogs diese Vorgehensweise systematisiert, in dem sie „den Radar eingeschaltet“ und „Monitoring-Blogs“ eingerichtet haben. So steht beispielsweise Nuevo Mundo Radar für das wissenschaftliche Monitoring des lateinamerikanischen Raums durch das Redaktionsteam der gleichnamigen Zeitschrift. Es sei angemerkt, dass die Praxis des minimalistischen sharing von Meldungen durch die zunehmende Anzahl von unterstützenden Tools verschiedenster Art eine wunderbare Dynamik besitzt. So ist auch das von Dan Cohen geleitete Center for History and New Media in Washington dabei, mit Pressforward[6] ein Tool basierend auf eben diesem Prinzip zu entwickeln.

Lektürenotizen

Einige Wissenschaftsblogger entscheiden sich, alle oder einen Teil ihrer Auswahl zu kommentieren. Dabei handelt es sich dann um richtige Postings in Form von Kurzberichten, wie man sie beispielsweise im kürzlich von Raphaëlle Bats gestarteten Blog Les Préfaces du Griffon zur Geschichte des Lyoner Verlagswesens im 16. Jahrhundert findet. Diese knappen Notizen, aufgeschrieben und sogleich im Eifer des Gefechts veröffentlicht, diese ersten Kommentare zu einer Veröffentlichung müssen deutlich unterschieden werden von Buchbesprechungen, die in Wirklichkeit eigene Artikel sind und in Zeitschriften veröffentlicht werden. Die verschiedenen Formen decken sich nicht, sondern ergänzen sich vielmehr: Der im Blog veröffentlichte Eintrag bietet den Vorteil der Schnelligkeit und der Freiheit im Tonfall (häufig ist man dort bissiger), während eine Buchbesprechung formal und inhaltlich überprüft wird, und somit oft umfassender und sachlicher ist. Es ist nicht ausgeschlossen, dass das Eine in gewisser Weise der Entwurf für das Andere wird. Beim Blogbeitrag handelt sich dann um eine Art vorbereitende Stufe, die zu einer peer-review-Veröffentlichung führt.

Andere Wissenschaftsblogs bieten ausgearbeitete Notizen, die zwar dem Texttyp entsprechend kurz sind, aber über einen bestimmten Forschungsaspekt Bericht erstatten. Hier wäre Rwanda zu erwähnen, ein vielversprechendes Blog, in dem der Doktorand Rémi Korman von seinen Recherchen in den Archiven Ruandas zur Geschichte des Genozids und dem Gedenken daran berichtet. Er erzählt in seinen Notizen relativ sachlich vom Zustand der Quellen, die er bearbeitet, und zwar in dem Moment, in dem er seine Forschungen durchführt. Es ist einer der Vorteile dieser Art von Online-Publikation, die auf einer sehr simplen Blogtechnik beruht, dass sie von überall her und selbst bei schwieriger Internetverbindung durchgeführt werden kann. Andere Forschergruppen, wie das Team, das sich im Blog Terriat mit „Warteräumen“ (territoires de l’attente) im Migrationsprozess in den amerikanischen und atlantischen Gesellschaften befasst, entscheiden sich eher für kurze Notizen, die historische Quellen wie Fotos und Interviewausschnitte kommentieren. Hier wird das Schriftstück weder durch einen umfassenden Anmerkungsapparat noch durch einen Zweifel an der Kohärenz oder der Konstruktion gestört. Es handelt sich um Notizen, die Tag für Tag in dieser Form im Blog landen und veröffentlicht werden. Im Gegensatz zur Zeitschrift, in der die Artikel lektoriert und von Fachkollegen überprüft werden, handelt es sich beim Blog ausschließlich um das Forschungsjournal des Wissenschaftlers – und um nichts weiter. Aber als solches stellt es eine unschätzbare Quelle für Informationen aus erster Hand dar. Das Blog kann auch kollektiv organisiert sein, was den Charakter von Aimos widerspiegelt. Dort hat sich eine Gruppe junger Wissenschaftler zusammengefunden, die untereinander, aber auch mit einer breiteren Öffentlichkeit, Ressourcen über die Kunst und Bilder der Arbeiter- und Sozialbewegung austauchen wollen.

Das Blog besitzt darüber hinaus gelegentlich auch einen historischen Wert an sich, was das Team vom Centre d’étude des mondes africains deutlich erkannt hat. Sie veröffentlichen in Les Cahiers de Terrain de Raymond Mauny online eine digitalisierte Version der Aufzeichnungen des bekannten Archäologen. Dabei erfolgt die Publikation der einzelnen Aufzeichnungen im gleichen Zeitabstand, in dem sie der Forscher damals notierte… nur 60 Jahre später. Abgesehen von der Neugier, die eine solche Aktion weckt, und dem Geschick, mit dem dieser Teil des wissenschaftlichen Erbes gewürdigt wird, kann man nur erstaunt sein über die historische Kontinuität einer wissenschaftlichen Tradition, die sich so von einem Informationsträger zum nächsten einstellt. Und jenseits der revolutionären Bejahung, die die Entwicklung digitaler Technologien oftmals begleiten: das Wissenschaftsblog oder das online Forschungsjournal ist nichts anderes als ein gemeinsames Ausgrabungsjournal, was gleichzeitig alles und nichts verändert. Im Übrigen wollte Christian Jacob genau das im zweiten Band seiner von ihm herausgegebenen meisterhaften historischen Untersuchung über die „Lieux de Savoirs“[7] erreichen, in dem er ein Kapitel über wissenschaftliche Blogs einforderte.

Eine schizophrene Kommunikation?

Über das Ausgrabungsjournal hinaus entscheiden sich einige Forscherteams, ihre Beiträge stärker zu edieren, indem sie Textstil und Präsentation der Information angleichen. Dies trifft beispielsweise auf das Blog de la Grotte des Fraux zu, das sich mit den Ausgrabungen in der gleichnamigen Höhle im Departement Dordogne befasst. Dieses reich bebilderte Blog berichtet äußerst gewissenhaft vom Fortschritt der Arbeiten in den Tiefen der Grotte. Ein interessanter Fall, da es zugleich eine fachlich sehr spezialisierte Leserschaft (die Texte sind oft sehr technisch) und ein breites Publikum von Liebhabern der Archäologie anspricht:

„Die spezifische Welt der Kunst und der Höhle, mit all den Bildern, Vorstellungswelten und dem Verbotenen, das damit verbunden ist, verkörpert die Schwierigkeiten, mit einem speziellen Forschungsgegenstand konfrontiert zu sein. Da sowohl die wissenschaftliche Gemeinschaft wie auch die Öffentlichkeit nur schwer Zugang zu diesen physischen und geistigen Orten finden, ist es unser Anliegen, den Forschern und der Öffentlichkeit diese Gedankenelemente zur Verfügung zu stellen.

Diese Haltung mag schizophren erscheinen! Wie soll die korrekte Durchführung eines Forschungsvorhabens – das ein Abwägen der Hypothesen, eine Prüfung der Protokolle und eine Bestätigung der Ergebnisse erfordert – mit der Veröffentlichung von vorläufigen Rohdaten, die Gefahr laufen widerlegt zu werden, zusammengeführt werden? Das ist die große Herausforderung in diesem Forschungsblog: möglichst schnelle Verbreitung der Daten auf einem wissenschaftlichen Portal, bei gleichzeitiger Wahrung der Freiheit, sich widersprechen und sein Urteil ändern zu können. Das ist die Idee, die uns an diesem Projekt so fasziniert hat.“

Schizophren gestaltet sich das Projekt Blog de la Grotte des Fraux allerdings keineswegs, ganz im Gegenteil. Denn es wird versucht, im selben editorischen Rahmen zugleich nicht belegte Arbeitshypothesen, bestätigte Ergebnisse und Erläuterungen für ein fachfremdes Publikum zu vereinen. Aus diesem Grund stellt das Blog eines der interessantesten und innovativsten Experimente auf dem Gebiet der wissenschaftlichen Kommunikation dar.

Von einem Blog mit Textentwürfen bis zum stärker ausgearbeiteten Grabungsjournal hat das online Forschungsjournal den Vorteil einer großen Flexibilität, die jedem Autor erlaubt, die Art und Weise der Nutzung seines Blogs selbst festzulegen. Die Distanz zum Blog ist nicht leicht aufzubauen und wird in tausend aufeinanderfolgenden Anpassungen vorgenommen, wie Benoît Kermoal in einem seiner letzten Beiträge seines Blog Enklask/ Enquête, bei dem es wie in seiner gleichnamigen Doktorarbeit um die Geschichte der sozialistischen Bewegung in der Bretagne geht, erkennen lässt.

„Trotz meiner Vorsicht scheinen einige Leser zu glauben, dass die Notizen in diesem Blog meine gesamte Forschungsarbeit ausmachen. Es handelt sich aber lediglich um Skizzen, um Teile eines Puzzles ohne Vorlage, um eine Ansammlung von Legosteinen, die schlecht zusammengefügt sind und noch kein Objekt bilden. Ich mache aber dennoch weiter, und zwar vor allem, um mich im Schreiben zu üben. Ich betreibe diese Form der Übung aber auch deshalb weiter, weil sie mir erlaubt, meine Forschung zu ordnen, zu klassifizieren, gedankliche Pfade zu kreuzen und zu verfolgen und nicht den lähmenden Eindruck zu bekommen, auf der Stelle zu treten.

Das kann dem Leser natürlich als Entwurf erscheinen, als zu skizzenhaft und zweifellos auch als ähnlich egozentrisch wie ein Forschungsjournal, das man für sich behält. Aber Enklask/ Enquête ist kein Notizheft mit Textentwürfen (davon habe ich bereits genug); es ist auch keine Aneinanderreihung von Beiträgen, die zusammen fertige und redigierte Artikel nach den Regeln der Geschichtskunst bilden. Es handelt sich um eine hybride Form, eine Erforschung mehrerer Wege, bevor der richtige gefunden ist. Man sollte sich nicht davor fürchten, wieder zurück zu gehen, sich einzugestehen, dass man sich verlaufen hat oder seine Fehler anzuerkennen. Das Wichtige ist jedoch, mit seinen Forschungen voranzukommen. Eine solche hybride Form impliziert zusätzlich eine Vielzahl von Änderungen im Ton, in der Sichtweise und im Ansatzpunkt.“[8]

Die Archive öffnen?

Der Bereich der Archive spielt eine zentrale Rolle in der Werkstatt des Historikers. Hier tut er sich schwer mit der Preisgabe von Informationen. Die Entdeckungen, die er dort machen kann, könnten ihm möglicherweise einen Wettbewerbsvorteil gegenüber seinen Kollegen verschaffen. Obwohl es für den Historiker oft schwierig ist, Informationen aus „seinen“ Archiven öffentlich zu machen, insbesondere solange seine Arbeit bisher noch nicht in einem oder mehreren Werken veröffentlicht wurde, haben einige Wissenschaftler dennoch beschlossen, bei „offenem Archiv“ zu arbeiten. Ein solcher Fall ist Isabelle Brancourt, die seit mehreren Jahren über das Parlament von Paris  forscht. In ihrem Blog betreibt sie seit zwei Jahren vor allem „die Bereitstellung [ihres] persönlichen Forschungsjournals mit der Analyse der Sammlung des Gerichtsschreibers Jean-Gilbert Delisle, im Dienste des zivilen Urkundsbeamten des Pariser Parlaments in der ersten Hälfte des 18. Jahrhunderts“[9]. Es sind nicht viele Beispiele von Wissenschaftlern bekannt, die ihre Rohdaten während des laufenden Forschungsprozesses zur Verfügung stellen. Die Vorgehensweise ist selten genug, scheint es, so dass sie hier besonders hervorgehoben werden soll, denn sie hinterfragt die gängigste Gewohnheit der Disziplin.

Es wäre schade, diesen Überblick der verschiedenen Nutzungsmöglichkeiten von wissenschaftlichen Blogs abzuschließen, ohne die methodologischen Blogs zu erwähnen, die in mehreren Disziplinen entstehen. Dazu gehören zum Beispiel in der Soziologie Quanti, aber auch in der Geschichtswissenschaft Devenir Historien-ne, oder auch interdisziplinär das Blog Les Aspects concrets de la Thèse, das nicht nur Historiker, sondern auch andere Disziplinen anspricht. Thinking with my fingers: Für die Mehrheit der Blogger wie auch für die Wissenschaftlerin Torill Mortensen, die diesen Titel für ihr Blog gewählt hat, handelt es sich beim wissenschaftlichen Blog zunächst um ein Werkzeug zur Selbstreflexion, da das Blog ihnen erlaubt, durch die Erklärung ihrer Forschung in ihrer Arbeit voran zu kommen. Jedoch sind Blogs nicht trivial: online gestellt, wird es veröffentlicht und weiter verbreitet. Das bringt eine Mehrdeutigkeit mit sich, die von Benoît Kermoal schön zusammengefasst wurde: „An wen richten sich die Beiträge? Das kommt darauf an, mal an mich selbst, mal an alle Leser, manchmal an Doktoranden oder an Liebhaber der lokalen Geschichte oder der Geschichte der Arbeiterbewegung. Aber es ist vor allem eine Arbeit, die mir erlaubt, meine Forschungen zu strukturieren.“[10] Diese Mehrdeutigkeit ist der Preis für die Freiheit und sie kann mit gutem Recht kritisiert werden. Und das wird sie im Übrigen auch oft. Sie macht aber auch den Reichtum eines wissenschaftlichen Blogs aus. Ein Blog kann Kreativität freisetzen, weil es den Schreibenden von jeglichem akademischen Formalismus befreit. Allerdings kann dieser Prozess nur funktionieren, wenn das Blog der öffentlichen Lektüre unterworfen wird, sei es mit Blick auf unterschiedliche oder unbestimmte Empfänger. Es stellt also für Doktoranden wie auch für erfahrene Wissenschaftler ein nicht zu leugnendes Risiko dar. Das ist die Sache jedoch wert.

Autorenversion eines Artikels für die Zeitschrift „Bulletin de la Societe d’histoire moderne et contemporaine“.

Originalversion Ouvrir l’atelier de l’historien: médias sociaux et carnets de recherche en ligne <http://www.homo-numericus.net/spip.php?article304>

 


[1] Philippe Breton, Le culte de l’internet: une menace pour le lien social?, Paris (Editions La Découverte) 2000.

[2] Pierre Mounier, Dans la toile des médias sociaux / Im Netz der sozialen Medien 27-28 Juin 2011, in: Digital Humanities à l’IHA, 24.5.2011, http://dhiha.hypotheses.org/25 .

[3] Mareike König, Tweets und Gedanken zur Tagung “Im Netz der sozialen Medien“, in: Digital Humanities à l’IHA, 11.7.2011, <http://dhiha.hypotheses.org/284>.

[4] Antoine Blanchard, Comment montrer la “science en train de se faire”?, in: La Science, La Cité, 31.5.2008, <http://www.enroweb.com/blogsciences/index.php?2008/05/31/261>.

[5] Marin Dacos, Pierre Mounier, Les Carnets de recherches en ligne. Espace d’une conversation scientifique décentrée, in: Lieux de savoir, Paris (Albin Michel), im Druck, S. ii.

[6] Roy Rosenzweig, Introducing PressForward, in: Center for History and New Media, 24.6.2011, <http://chnm.gmu.edu/news/introducing-pressforward/>.

[7] Christian Jacob (Hg.), Lieux de savoir?, t. 2, Les mains de l’intellect, Paris (Editions Albin Michel) 2011.

[8] Benoît Kermoal, Seulement la partie visible de l’iceberg, Enklask / Enquete, 6.9.2011, <http://enklask.hypotheses.org/257>.

[9] Isabelle Brancourt, Mon „carnet“ Delisle?: Son Journal pour l’année 1730 (I), in: Parlement de Paris (XVIe-XVIIIe siècle), 9.2.2010, <http://parlementdeparis.hypotheses.org/218>.

[10] Benoît Kermoal, Seulement la partie visible de l’iceberg, Enklask / Enquete, 6.9.2011, <http://enklask.hypotheses.org/257>.

Quelle: http://dhdhi.hypotheses.org/591

Weiterlesen

Über den Nutzen von Twitter auf Tagungen: das Beispiel .hist2011

Der digitale Wandel der Geschichte war das Thema der Tagung .hist2011, die im September 2011 in Berlin statt gefunden hat. Es war die dritte Veranstaltung dieser Art nach .hist2003 und .hist2006, organisiert in diesem Jahr von Clio-Online und dem Wissenschafts-Portal L.I.S.A. der Gerda-Henkel-Stiftung. Vorträge, Podiumsdiskussionen und Werkstattberichte wechselten sich ab (bzw. fanden parallel statt) und boten ein sehr vielfältiges Bild dessen, was digitale Geschichte in Deutschland aktuell darstellt.

Unter den zahlreichen Zuhörer/innen waren auch einige Twitterer, die ihre Follower mit Neuigkeiten von der Tagung versorgten oder untereinander diskutierten. Im ausführlichen Tagungsbericht von Stefan Gorißen und Thomas Meyer, erschienen bei H-Soz-u-Kult, liest man jetzt dazu:

„Neben Werkschau und offenen Diskussionen in den Sektionen und Podien wurde der digitale Wandel selbst auch aktiv in twitter und facebook begleitet; wobei bisher nicht ersichtlich ist, zu welchem Nutzen: Haben die Teilnehmer auf den Podien und in den Sektionen doch keinerlei Gelegenheit auf Einwürfe über diese Kanäle zu reagieren.“

Das Argument weist eher auf eine organisatorische Herausforderung als auf ein strukturelles Problem des Kommunikationskanals Twitter hin. Über eine gut platzierte Twitterwall, bei der über einen Beamer die Tweets für alle sichtbar an die Wand projiziert werden, können die Vortragenden die Einwürfe auch lesen und in der Folge dann wenn gewünscht  darauf reagieren. Zeitweise waren im Hauptsaal der Veranstaltung die Tweets zwar über die Leinwand sichtbar, diese hing jedoch hinter dem Podium. Auch hat Diskussionsleiter Peter Haber versucht, Abhilfe zu schaffen und hat seinen Podiumsteilnehmer/innen einige der Tweets vorgelesen, so dass es in diesem Fall Gelegenheit zur Reaktion gab.

Doch davon abgesehen greift das Argument auch generell zu kurz. Denn Twitter hat auf Tagungen nicht nur dann einen Nutzen, wenn die Vortragenden auch auf die Einwürfe reagieren (können). Dazu hier einige Gedanken, gefolgt von einer ersten Auswertung der Tweets zur Tagung .hist2011.

Live und vielstimmig für die interessierte Fachöffentlichkeit zwitschern
Die User von Twitter kommentieren in Echtzeit die Vorträge auf einer Tagung. Sie twittern die wichtigsten Aussagen, bekräftigen oder widersprechen diesen. Sie schreiben über die Stimmung im Raum, über alles, was ihnen zur Tagung einfällt. Sie reichern die Aussagen der Vortragenden und Diskutierenden an z.B. mit Links zu besprochenen Texten, Bildern oder Videos. Sie twittern Fotos von der Veranstaltung und geben damit einen konkreten Einblick, wie es vor Ort aussieht.

Damit schaffen sie einerseits eine zweite Diskussionsebene für die Teilnehmer/innen der Tagung vor Ort. Andererseits berichten die Twitterer auch live von der Tagung an ihre Follower, die nicht präsent sein können. Diese erfahren so in Echtzeit und lange bevor ein Tagungsbericht erscheint von den wichtigsten Aussagen wie auch von der Stimmung auf der Tagung. Damit sind die Tweets zusammengenommen letztlich auch ein micro-gebloggter und mit Fotos und Links angereicherter Tagungsbericht, der live und vielstimmig in die interessierte Fachöffentlichkeit gezwitschert wird und sofort kommentiert werden kann.

Doch das Besondere am Einsatz von Twitter bei Tagungen geht über die live gebloggten Diskussionsaussagen und Stimmungsbilder hinaus: Eine Analyse kann Kommunikations-Netzwerke zeigen und Aufschluss über Prozesse des Wissensaustauschs in Webcommunities geben[1]. Denn die Twitterer führen auch ein virtuelles Gespräch mit anderen Twitterern, die sie persönlich manchmal gar nicht kennen oder über das Twittern dann erst kennen lernen. Wie war das nun bei .hist2011?

Statistik und Auswertung der Tweets zur Tagung .hist2011
Die Tweets zur Tagung .hist2011 sind in der im Anhang eingefügten Excel-Tabelle archiviert und werden damit als Live-Tagungsbericht erneut und dauerhaft publiziert. Die Tweets mit dem hashtag #dothist wurden am 19.9.2011, also vier Tage nach Ende der Tagung, mit dem Programm Archivist gespeichert und archiviert. Es handelt sich insgesamt um 454 Tweets von 66 verschiedenen Twitter-Accounts. Die fünf aktivsten Twitterer waren:

1. portallisa:                89 tweets
2. peha64:                   72 tweets
3. mareike2405:          62 tweets
4. wilkohardenberg:   59 tweets
5. ankrjoe:                   14 tweets

Bemerkenswert ist der große Abstand zwischen Platz 4 und 5, hat doch der User wilkohardenberg ca. viermal so viele Tweets geschickt wie User ankrjoe.

In den Tweets wurde auf 30 verschiedene Websites verwiesen, viele davon auf Sites, auf denen Fotos der Tagung geladen wurde (z.B. yfrog); sechs Mal wurde ein Link auf die Website der Gerda-Henkel-Stiftung gesetzt (siehe Anlage sitestable).

Kommunikations-Netzwerke über Twitter bei .hist2011
Zwei Grafiken visualisieren die Gespräche und Netze zwischen den einzelnen Usern. Diese Visualisierungen wurden von Cornelius Puschmann (Universität Düsseldorf) auf der Basis der extrahierten Tweets mit der open-source Platform gephi erstellt. Ihm sei an dieser Stelle noch mal ausdrücklich dafür gedankt.

Die Grafik 1 zeigt Nachrichten, bei denen ein User gezielt angesprochen wurde. Dabei handelt es sich also um „Gespräche“ zwischen zwei oder mehreren Personen. Da im Laufe eines solchen „Gesprächs“ der hashtag oftmals weggelassen wird, ist dies keine vollständige Statistik, sondern berücksichtigt nur die Nachrichten, bei denen der hashtag #dothist verwendet wurde.

Grafik 1: Gespräche zwischen Usern unter dem hashtag #dothist (Grafik erstellt von Cornelius Puschmann)

Die Größe der Kreise zeigt an, wie viele Nachrichten eine Person bekommen hat. Die Farbtiefe zeigt an, wie viele Nachrichten die Person selbst geschickt hat. User peha64 hat demnach die meisten Nachrichten verschickt und auch die meisten Nachrichten bekommen. Das wird durch die zentrale Position in der Grafik erneut unterstrichen. Zu sehen ist außerdem, dass User portallisa beispielsweise selbst keine Nachrichten verschickt hat. Dies wird dadurch erklärt, dass es sich dabei um einen institutionellen Account handelt, die per se nicht oder selten mit anderen Usern in einen persönlichen Kontakt treten.

Die Grafik 2 zeigt die Retweets unter dem hashtag #dothist an, also die Tweets, die von anderen Usern erneut gepostet wurden. Retweets, so die Erläuterung von Cornelius Puschmann, werden heute nicht mehr nur als selbstloser Akt der Weitergabe einer Information gesehen, sondern haben vor allem eine soziale Funktion. Sie verweisen auf die Relevanz dessen, was eine andere Person tweetet und signalisieren damit Akzeptanz und Bestätigung des Geschriebenen durch den Re-Tweeter.

Grafik 2: Retweets unter #dothist (Grafik erstellt von Cornelius Puschmann)

Grafik 2: Retweets unter #dothist (Grafik erstellt von Cornelius Puschmann)

Die Farbtiefe der Grafik zeigt an, wie viele Retweets gegeben wurden. Die Größe der Kreise zeigt an, wie viele Retweets ein User bekommen hat. So hat der User torstenreimer beispielsweise sehr viele Retweets bekommen, hat aber selbst weniger Nachrichten retweetet. Auch User wilkohardenberg hat mehr Retweets empfangen (18) als gegeben (10), was auf  Zustimmung zu seinen Tweets schließen lässt.

Die Verbindungslinien zeigen an, ob reziprok oder einseitig retweetet wurde. Eine gerade Linie visualisiert ein reziprokes Verhältnis, z.B. zwischen den Usern portallisa und peha63. Eine gekrümmte Linie zeigt an, dass der eine User häufiger Nachrichten eines anderen erneut gesendet hat, als es umgekehrt der Fall war.

Die dunkle Farbe und die zentrale Stellung im Graphen visualisiert hier, so Cornelius Puschmann, dass User mareike2405 die meisten Verbindungen innerhalb der twitternden Personen hatte. Am „effektivsten“ – wenn man so einen Maßstab überhaupt anlegen möchte – war jedoch User torstenreimer, der mit insgesamt nur 13 eigenen Tweets, 16 Retweets bekommen hat. Diese Auswertungen sind jedoch ausschließlich bezogen – das sei noch mal betont – auf die Aktivitäten unter dem hashtag #dothist.

 

Dateien im Anhang


Tagungsberichte und Informationen zu .hist2011

Stefan Gorißen, Thomas Meyer, Tagungsbericht „.hist2011 – Geschichte im digitalen Wandel“, 14.09.2011-15.09.2011, Berlin, in: H-Soz-u-Kult, 13.10.2011, <http://hsozkult.geschichte.hu-berlin.de/tagungsberichte/id=3854>.

Interview mit Georgios Chatzoudis: „Das Verhältnis der Wissenschaftler zur Öffentlichkeit ist ambivalent“, in: Blog der Frankfurter Buchmesse, 10.10.2011, <http://blog.buchmesse.de/blog/de/2011/10/10/interview-georgios-chatzoudis/>.

Silke Jagodzinski, „Digitalisierung ist der neue König Midas“ (Stefan Münker). Die Tagung .hist2011 zur Geschichte im digitalen Wandel (14./15.09.2011, Berlin), in: editura, 20.09.2011, <http://www.editura.de/blog/2011/09/20/%E2%80%9Edigitalisierung-ist-der-neue-k%C3%B6nig-midas%E2%80%9C-stefan-m%C3%BCnker>.

Peter Haber, Gezwitscher aus Berlin, in: hist.net, 18.09.2011, <http://weblog.hist.net/archives/tag/hist2011>.

Website der Tagung .hist2011: <http://www2.hu-berlin.de/historisches-forschungsnetz/tagung/index.php?conference=hist2011&schedConf=hist11>

Sowie mehrere Beiträge bei L.I.S.A., u.a.:

.hist2011 – ein erster Blick zurück
<http://www.lisa.gerda-henkel-stiftung.de/co4ntent.php?nav_id=1814>

Nachlese “.hist2011″ – Posterschau und Interview
<http://www.lisa.gerda-henkel-stiftung.de/content.php?nav_id=1829>

 

  1. 1. Dröge, E., Maghferat, P., Puschmann, C., Verbina, J., & Weller, K. (2011). Konferenz-Tweets. Ein Ansatz zur Analyse der Twitter-Kommunikation bei wissenschaftlichen Konferenzen, in: J. Griesbaum, T. Mandl, & C. Womser-Hacker (Hg.), Information und Wissen: global, sozial und frei? Proceedings of the 12th International Symposium for Information Science (ISI 2011), S. 98-110. Boizenburg: Verlag Werner Hülsbusch. (pdf, bibtex

Quelle: http://dhdhi.hypotheses.org/380

Weiterlesen

Wildern in den Geisteswissenschaften von Antoine Blanchard

Wildern in den Geisteswissenschaften: wenn die digital natives institutionelle Grenzen im Netz ins Wanken bringen

Antoine Blanchard

Antoine Blanchard

Gibt es die „digital natives“ tatsächlich? Haben junge Wissenschaftler ein anderes Verhältnis zum Netz als alteingesessene Forscher? Mein Beitrag will gestützt auf einige Beispiele zeigen, wie die mit den neuen Nutzungsmöglichkeiten vertrauten „Jungen“ von unten das Sprachrecht in den Geisteswissenschaften im Netz neu für sich beanspruchen können (insbesondere in der Wissenschaftsforschung).

Das ist gleichzeitig die Gelegenheit, danach zu fragen, wie eine nützliche digitale Kultur in den Wissenschaften aussehen kann und wie die Institutionen diese Veränderungen wahrnehmen.

Antoine Blanchard

Antoine Blanchard, Ingenieur und Sozialwissenschaftler, bloggt seit 2003 unter dem Pseudonym „Enro“. Er ist Mitbegründer des Projektes C@fé des sciences und Vorsitzender des dazugehörigen Vereins C@fétiers des sciences, der sich für die Verbreitung und Förderung wissenschaftlicher Blogs einsetzt. Er ist darüber hinaus Mitglied der Gruppe OwniSciences und des wissenschaftlichen Beirats von Hypothèses.org. Er beschäftigt sich darüber hinaus mit wissenschaftlicher Kommunikation und Kultur (insbesondere rund um die sich gerade entwickelnde Wissenschaft, die Beziehung zwischen Wissensgesellschaft und dem Netz). 2009 gründete er die Gruppe Deuxième labo, um den Wandlungsprozess der Wissensgesellschaft bei Institutionen aller Art zu begleiten und voranzutreiben.

Links

Intervention dans le cadre du colloque “Dans la toile des médias sociaux / Im Netz der sozialen Medien”, 27-28 juin 2011 : inscription et programme

 

Quelle: http://dhdhi.hypotheses.org/182

Weiterlesen

Zur Tagung Web 2.0 und die Geschichtswissenschaft in Siegen

von Dr. Rüdiger Hohls, Humboldt-Universität zu Berlin

Ende letzter Woche (09.10.2009-10.10.2009)  fand auf Initiative von Angela Schwarz und Jürgen Beine an der Universität Siegen eine Tagung unter dem Titel «Web 2.0 und Geschichtswissenschaft. „Social Networking“ als Herausforderung und Paradigma» statt. Schon im Vorfeld der Veranstaltung wiesen die Organisatoren darauf hin, dass die mit dem Begriff Web 2.0 umrissenen Konzeptionen und Internetapplikationen nicht exakt festgelegt seien, jedoch meist eine Reihe interaktiver und kollaborativer Elemente des Internets damit assoziiert würden. Unter „Soziale Netzwerken“ werden hier indifferente Formen von netzbasierten Gemeinschaften angesehen, welche technisch durch Web-2.0-Anwendungen oder Portale gestiftet werden. Auf der technischen Ebene werden damit vor allem Wikis und Blogs verbunden, jedoch ging es den Organisatoren der Tagung weniger um technische Aspekte als vielmehr um Formen der sozialen und kulturellen Aneignungen und um die Veränderung geschichtswissenschaftlicher Diskurse und Methoden, wenn sich die bisherige eindeutige Beziehung zwischen Text und Autor durch Web 2.0-Anwendungen aufzulösen beginnt. Den beiden Organisatoren ist für ihre Initiative zu danken, denn bisher haben sich vor allem einzelne wissenschaftliche Infrastruktureinrichtungen wie Bibliotheken oder Gedächtniseinrichtungen und Erinnerungsorte wie Museen des Themas angenommen. Einzelne Bibliotheken (u.a. BSB München) und Museen (u.a. Dresdener Gemäldegalerie) verfügen sogar über eine virtuelle Existenz in der Online-Welt von Second Life.

Peter Haber hat in Weblog histnet.ch schon eine erste Zusammenfassung und Einschätzung der spannenden Siegener Tagung geliefert, weshalb ich hier auf einen nochmaligen Bericht verzichten kann (s. a. Tagungsankündigung). Aus der Perspektive eines Historikers und Akteurs der Web 1.0-Generation sowie als Begleiter der sich über viele Jahre erstreckenden Informatisierung unserer Disziplin möchte ich jedoch einige Anmerkungen ergänzen, die allerdings nur zum Teil einen unmittelbaren Bezug zu Vorträgen und Diskussionen auf der Siegener Tagung haben.

Im Verlauf der Veranstaltung wurden viele Fragen aufgeworfen und nicht selten spekulative Szenarien entworfen. Letzteres vor allem wohl auch deshalb, weil es allen Teilnehmern mehr oder weniger noch an fundierten Erfahrungen im fachlichen Kontext mit echten Web 2.0-Anwendungen mangelt, die empirisch valide abgeklopft werden können, denn diese sind in den Geschichtswissenschaften bisher eher Mangelware. Viele der im Verlauf der Tagung angeführten und diskutierten Beispiele hatten zwar etwas mit „Geschichte“ und „historischen Quellen“ zu tun, aber wenig mit den gängigen Fragestellungen, mit virulenten Konzepten und konkreten Forschungsvorhaben der professionell an Hochschulen und Forschungseinrichtungen betriebenen „Geschichtswissenschaften“. Deshalb wäre es passender gewesen, wenn im Veranstaltungstitel entweder vereinfachend „Geschichte“ wegen der unübersehbaren Nähe zum laienhistorischen Engagement oder der Plural „Geschichtswissenschaften“ angesichts der epochalen, regionalen und thematischen Spezialisierung gestanden hätte. Es macht nämlich einen großen Unterschied, über welche Zielgruppe, welche Kohorten und über welchen Erfahrungs- und Referenzraum der Akteure und Rezipienten diskutiert wird. Die kommunikativen Prozesse innerhalb einer spezialisierten und vergleichsweise homogenen Expertenkultur folgen anderen Erwartungen und Regeln als die in einer Lehr- und Vermittlungssituation von Seminaren und wiederum anderen, wenn es um Teilhabe und Integration eines historisch interessierten Laienpublikums geht. Web 2.0 scheint mir derzeit vor allem Anwendungen bereitzustellen, die für eine Wiederbelebung von Geschichtswerkstätten im globalen Dorf des Internets besonders geeignet sind, also für eine neue Art partizipatorischer „Geschichte von unten“. Für dieses Phänomen liefert dann der divergente systemtheoretische „Netzwerk“-Begriff aus der Soziologie geeignete Anknüpfungspunkte. Diese kritische Einschätzung schließt nicht aus, dass es sinnvolle und hoffentlich auch erfolgreiche Web 2.0-Anwendungen unter „kontrollierten“ Bedingungen, wie es Manfred Thaller ausdrückte, in den Geschichtswissenschaften geben wird. Mit Docupedia-Zeitgeschichte bemühen wir uns, eine solche Anwendung zu etablieren. Und diese Lösung darf dann auch gerne, wie Peter Haber es tat, mit dem Label „Web 1.5“ charakterisiert werden.

Aktuelle Debatten um Web 2.0-Anwendungen in den Wissenschaften erinnern mich auf vielen Ebenen (u.a. habituelle Formen, Selbstreferenzialität, Inklusions-/Exklusionsschemata, generatives Muster) an die Diskussionen zwischen Enthusiasten und Traditionalisten bei der Einführung und Etablierung von Web 1.0-Diensten und ‑Publikationsverfahren in unserem Fach und in den zugehörigen Infrastruktureinrichtungen (Bibliotheken) vor mehr als zehn Jahren. Entlang einer imaginären (generativen) Grenze scheint ein Graben zwischen experimentierfreudigen Enthusiasten und zurückhaltenden Praktikern der historischen Fachinformation zu verlaufen, wobei die große Mehrheit der Historikerinnen und Historiker noch gar nicht in die Debatte einbezogen wurde und sich vermutlich auch nicht einbeziehen lassen wird. Inspiriert von Wikipedia zeigt sich die eine Seite begeistert von der Vorstellung eines stetig anwachsenden „User Generated Content“ in den Geschichtswissenschaften und den damit einhergehenden „Community-Building“-Prozessen, an denen sich ein jeder fortwährend und überall beteiligen könne. Nur wenn diese Schlagworte eingelöst würden, könne überhaupt von Web 2.0-Anwendungen gesprochen werden, und alles andere ist mehr oder weniger vormodern und uninteressant. Diese selbstreferentielle Definitionshoheit funktioniert in Form einer affirmativen Aufladung, die ihre normative Kraft und Energie aus dem unbestreitbaren Erfolg von Wikipedia zieht. Ideologiekritische Einwände scheinen gegenwärtig noch schlicht abzuprallen. Gut möglich, dass es einer solchen selbstreferentiellen Begrenzung bedarf, um die selbstgesteckten Ziele zügig erreichen zu können und sich dabei nicht durch Eingehen auf Einwände und irgendwelche Ablenkungen aus dem Takt bringen zu lassen. Aus meiner Sicht handelt es sich bei den zahlreichen Artikeln, Beiträgen und Rezensionen, die fortlaufend in Fachzeitschriften oder elektronischen Foren veröffentlicht werden, selbstredend ebenfalls um „User Generated Content“, wenn auch überwiegend nur von einer Autorin oder einem Autor verfasst. Und angesichts der Tendenz zu neopositivistischen „Häppchen-Texten“ der originären Hyper-Text- und Web 2.0-Sphäre, die sich angeblich durch das komplementäre Engagement vieler laufend verbessern, sei hier kritisch nachgefragt, was denn einen publikationswürdigen geschichtswissenschaftlichen Text auszeichnet? Etwa der „neutral point of view“, wie ihn Wikipedia einfordert? Und ist bei getwitterten wissenschaftlichen Minitexten nicht längst die Grenze zum unzumutbaren Spam überschritten worden?

Eine letzte Anmerkung zu den neuen bzw. veränderten sozialen und kulturellen Kompetenzen, den sogenannten Soft Skills, die von den Enthusiasten der neuen „sozialen Medien“ häufig angemahnt werden. Studierenden und Absolventen der Universitäten fehle es an notwendigen Informationskompetenzen und weiteren Sekundärqualifikationen angesichts des aufscheinenden Web 2.0-Zeitalters. Passende Angebote sollten vermehrt in den universitären Lehrkanon aufgenommen werden, so die Forderung. Einerseits stimmt diese Feststellung so nicht, denn längst haben andere Schreibformen jenseits der traditionellen Haus- und Seminararbeit Einzug in die Universitäten gehalten, und unterschiedliche Lehrformate werden seit Jahren von vielen erprobt. Andererseits werden weitergehende Wünsche vor dem Hintergrund der laufenden Diskussion um die Studierfähigkeit vieler Bachelor- und Masterstudiengänge angesichts straffer Stundenpläne, die wenige Freiräume lassen, und mit fachwissenschaftlichen Inhalten vollgestopfte Curriculare, wohl weitgehend unbeachtet verhallen. Anders stellt sich dies im Rahmen spezialisierter Studiengänge wie „Public History“ oder „Fachjournalistik Geschichte” dar, deren Zahl zuletzt zugenommen hat, die jedoch ausdrücklich ergänzend zur Aufgabe der Vermittlung des eigentlichen Kerngeschäfts der Geschichtswissenschaft konzipiert sind.

Weiterlesen

Nachschlagewerk Internet? Herausforderungen an Bibliotheken, Verlage und Forschungseinrichtungen

Bericht über die Veranstaltung des Projekts Docupedia-Zeitgeschichte am 16.04.2009 am Zentrum für Zeithistorische Forschung in Potsdam

Online-Nachschlagewerke zum Recherchieren von Fakten und zum schnellen Einstieg in verschiedene Forschungsbereiche, die noch dazu kostenlos zur Verfügung stehen, sind ein aus Sicht der Nutzer optimales Produkt. In dieser Hinsicht herrschte unter den Teilnehmern der Veranstaltung „Nachschlagewerk Internet?”, veranstaltet vom Projekt Docupedia-Zeitgeschichte am 16.04.2009 am ZZF Potsdam, auch weitgehend Einigkeit. Schwieriger zu beantworten war hingegen die Frage, wer die Kosten der redaktionellen und technischen Aufbereitung von gesichertem Wissen in Online-Nachschlagewerken trägt, sofern man sich nicht allein auf freie Plattformen wie die Wikipedia verlassen will.

Die Teilnehmer des Podiumsgesprächs, Rüdiger Hohls von der Humboldt-Universität Berlin und Ulrich Johannes Schneider von der Universitätsbibliothek Leipzig, stellten im Verlauf des Podiumsgesprächs verschiedene Modelle vor, wie qualitätsgesicherte Online-Inhalte von Forschungseinrichtungen und Bibliotheken derzeit aufgebaut und angeboten werden. Eine ebenfalls geladene Vertreterin des Verlags Brockhaus / Bibliographisches Institut Leipzig musste leider kurzfristig abgesagen. Dennoch wurde die Verlagsperspektive, nicht nur dank einer im Publikum anwesenden Verlagsmitarbeiterin, von Publikum und Podiumsteilnehmern immer wieder aufgegriffen. Die Reflexion über die Rolle von Verlagen im System des akademischen Publizierens rückte sogar zunehmend in den Mittelpunkt der Diskussion.

Rüdiger Hohls, als Vertreter verschiedener wissenschaftlicher Initiativen im elektronischen Publizieren auf dem Podium, beschrieb zu Beginn das klassische Modell des akademischen Publizierens als weitgehend obsolet. Verlage könnten heute nicht mehr darauf vertrauen, dass es ihnen gelingt, mithilfe von Druckkostenzuschüssen der öffentlichen Hand und hohen Preisen akademische Publikationen in einem kostendeckenden Umfang auf dem Markt abzusetzen. Dafür hätten sich in den vergangenen Jahren zu viele alternative Wege des Publizierens aufseiten der Wissenschaft herausgebildet. Dies gelte für gedruckte Nachschlagewerke ebenso wie für Zeitschriften, die außerdem im Bereich der Naturwissenschaften zu überteuerten Preisen verkauft würden, was bereits deutliche Kürzungen in einigen Bereichen der Bibliotheksetats zur Folge gehabt hätte. Die Verlage hätten jedoch die Entwicklung alternativer elektronischer Produkte und Dienstleistungen schlicht verschlafen, was zum Teil auch die aktuell zu beobachtenden Proteste von Branchenvertretern erklärt.

Ulrich Johannes Schneider, Repräsentant einer großen wissenschaftlichen Bibliothek und ihres Informationsauftrags, formulierte eine ähnliche Kritik: Wenn Verlage im akademischen Bereich mit Druckkostenzuschüssen der öffentlichen Hand kalkulierten, warum beteiligten sie sich dann nicht stärker am Aufbau von wissenschaftsnahen Serviceangeboten? Beispielsweise müsse jedes Projekt an der Universität Leipzig immer wieder von vorne mit dem Aufbau einer Website zwecks Veröffentlichung von Projektergebnissen beginnen. Warum bieten die Verlage nicht von sich aus Infrastrukturen, die Wissenschaftler von Anfang an zum elektronischen Publizieren nutzen können, fragte Schneider. Innovative Angebote der Wissenschaft, Materialsammlungen und Quellen könnten über eine solche Plattform ebenso publiziert werden wie hochwertige Publikationen, deren Abruf kostenpflichtig ist und die dann ggf. auch im Druck erscheinen. Eine solche kombinierte Plattform würde wissenschaftlich wie auch kommerziell einen Sinn ergeben.

Trotz dieser vehement vorgetragenen Kritik an der Rolle von Verlagen im traditionellen akademischen Publizieren wurde in der weiteren Diskussion deutlich, dass die Leistungen von Verlagen aus der Arbeit von Wissenschaft und Bibliothek kaum wegzudenken sind. An einer Verlagspublikation, so Schneider, machen sich Bewertungen fest, und die Verlage seien, so Hohls, mit ihrem Profil häufig eng mit den etablierten Hierarchien einzelner Fachgebiete verknüpft. Institutionelle Veröffentlichungsplattformen, wie Dokumentenserver und Universitätsverlage, die vom Ansatz her die elektronische Veröffentlichung von Publikationen aller Fächer einer Universität übernehmen, können bislang keine vergleichbare Akzeptanz in der Fachöffentlichkeit aufweisen. Vielfältige Bemühungen zur Gründung von Universitätsverlagen haben gezeigt, dass damit nicht unbedingt eine kostengünstigere Infrastruktur des akademischen Publizierens entsteht, wie Schneider ausführte.

An diese Überlegung knüpfte sich im Folgenden eine anregende Diskussion über die Bedeutung des Zielpublikums für die verschiedenen Akteure im Bereich des akademischen Publizierens und die spezifischen Kompetenzen von Verlagen an. Wissenschaft und Bibliotheken gehen stets davon aus, dass publizierte Informationen unabhängig von einem konkreten Zielpublikum bedeutsam seien oder es zumindest einmal werden können. Als Beispiele nannte Schneider die im Rahmen eines Projekts der Universität Leipzig aktuell digitalisierten historischen Studentenzeugnisse oder das von ihm initiierte Dictionary of Intellectual Historians, das sich vorgenommen hat, Ideenhistoriker weltweit zu repräsentieren, auch wenn diese innerhalb Europas gänzlich unbekannt sind. Für Verlage hingegen ist die Definition eines Markts für Produkte und damit die Fokussierung eines Zielpublikums zentral. Verlagsprodukte verkörperten stets die gezielte „Begrenzung” und Auswahl von Informationen, sie entsprächen damit dem weitverbreiteten Bedürfnis nach effektiven Informationsfiltern und vermittelten eine höhere Wertigkeit. Sollte also die Aufgabe von Verlagen vorwiegend darin bestehen, die Zahl der verfügbaren Publikationen zu reduzieren und damit der wesentlichen Information den Vorrang vor der unwesentlichen zu sichern, wie aus dem Publikum angemerkt wurde?

Moderator Jürgen Danyel wies auf eine eher gegenläufige Entwicklung hin, die derzeit traditionelle wie auch alternative Publikationsmodelle relativiert, und das nicht nur im akademischen Bereich. So entsteht im Zuge der schnell fortschreitenden Massendigitalisierung von Bibliotheksbeständen durch Google weltweit ein neues Zugriffsmodell auf qualitätsgesicherte wissenschaftliche Inhalte. Wie stellen sich denn, so fragte Danyel, Wissenschaft und Bibliotheken auf diese Herausforderung ein?

Aus Sicht der Bibliothek, so Schneider, müsse man das Google-Projekt eigentlich befürworten. Für die Informationsbereitstellung, die Erschließung der Inhalte für die interessierte Öffentlichkeit bedeute die Google-Digitalisierung einen großen Sprung, der ohne die kommerzielle Motivation des Unternehmens wohl nicht so schnell erfolgt wäre. Für Bibliotheken, die jetzt per Lizenz digitale Inhalte zurückkaufen müssten, über die sie in analoger Form selbst verfügen, wäre dies natürlich bitter und die Monopolstellung Googles ein großes Problem. Aber wenn man diese Aspekte in den Griff bekäme, spekulierte Schneider, wäre ein großer Teil des bisherigen institutionellen Designs der Bibliotheken vermutlich in Zukunft überflüssig. Rüdiger Hohls stimmte dem zu und ergänzte, dass auch andere klassische Bibliotheksdienstleistungen wie beispielsweise das Katalogisieren derzeit am schnellsten durch kommerzielle Unternehmen wie beispielsweise OCLC weiterentwickelt würden. Auch hier werden ursprünglich öffentlich finanzierte Datenbestände zu einem hochwertigen, fortan aber kommerziellen Informationsangebot zusammengefasst. Angesichts dieser globalen Entwicklungen, so Hohls, werde sich die Frontstellung zwischen den Befürwortern freier Open Access und kommerzieller Verlagsangebote deutlich relativieren, sofern Anbieter wie OCLC oder Google preislich realistische Lizenzmodelle für diese globalen Informationsschätze bereitstellen.

So entfernten sich die Diskussionen auf der Veranstaltung relativ schnell vom konkreten Thema des „Nachschlagens” und bewegten sich eher in Richtung eines Gesprächs über die Rolle von Verlagen und globale Geschäftsmodelle für die Online-Bereitstellung akademischer Publikationen. Es gelang dennoch, den Anwesenden einige der aktuellen Bruchstellen und Schnittflächen im Verhältnis von Bibliotheken, Forschungseinrichtungen und Verlagen plastisch vor Augen zu führen. Die interessierten Nachfragen aus dem Publikum bestärkten die Veranstalter vom Projekt Docupedia-Zeitgeschichte darin, weitere Workshops zu Themenbereichen aus dem Projektumfeld vorzubereiten. Vielleicht wäre ein weiteres Podiumsgespräch vielversprechend, diesmal dann ausschließlich mit Repräsentanten aus dem Bereich der Wissenschaftsverlage besetzt. Denn bekanntlich sind Positionen und Geschäftsmodelle der Verlagswelt vielfältiger, als es die Rhetorik des Branchenverbandes zuweilen vermuten lässt. Allen Mitwirkenden an dieser Veranstaltung sei an dieser Stelle für ihre engagierte Teilnahme noch einmal herzlich gedankt.

Weiterlesen

Docupedia-Zeitgeschichte auf der Konferenz „Zeitgeschichte schreiben in der Gegenwart. Narrative – Medien – Adressaten”

zeitgeschichte_schreibenDen Veränderungen nachzuspüren, denen die Zeitgeschichtsschreibung am Beginn des 21. Jahrhunderts unterworfen ist, war Ziel einer gut besuchten Konferenz des Zentrums für Zeithistorische Forschung Potsdam am 20. und 21.03.2009 (Programm). Neben Fragen nach veränderten Darstellungsformen und Konzepten der Zeitgeschichtsschreibung in den klassischen Medien Buch und Zeitschriftenartikel wurde auf der Veranstaltung auch die Rückwirkung digitaler und vernetzter Technologien auf die Produktion und Rezeption zeithistorischer Geschichtswissenschaft behandelt. Einige subjektive Eindrücke seien hier kurz festgehalten.

Wie sehr der technologische Wandel insbesondere im Bereich der Medien die Arbeit der Zeitgeschichte verändert hat und weiterhin verändern wird, wurde in fast allen Panels der Tagung durchaus kontrovers diskutiert. Betont wurde dabei unter anderem, dass mit dem Übergang zur elektronischen Kommunikation seit etwa Mitte der neunziger Jahre die Überlieferung wichtiger Quellen störanfälliger wurde. Das Web 1.0, wenn man so die vergangenen 15 Jahre des Internets beschreiben will, die vor allem durch den Aufbau einer Masseninfrastruktur für Online-Kommunikation gekennzeichnet waren, wurde von einigen Konferenzteilnehmern als neues „Dark Age” beschworen. Die formative Phase des Internets sei praktisch kaum archiviert, und Historikerinnen und Historiker könnten auch in naher Zukunft mit dem Verlust zentraler Quellenbestände konfrontiert sein, wenn von idiosynkratischen Homepages und überquellenden privaten E-Mail-Boxen, aber auch von der elektronischen Kommunikation in Institutionen nur noch wenig bis nichts mehr übrig geblieben sei. Die Rekonstruktion historisch bedeutsamer Entscheidungsprozesse als wichtige Aufgabe von Zeithistorikerinnen und -historikern werde deshalb zukünftig schwieriger, auch wenn Archivare bereits begonnen hätten, Konzepte zur Sicherung dieses Quellenmaterials zu erarbeiten.

Dieser eher skeptischen Analyse eines schon erlittenen oder weiterhin drohenden Verlustes wurden auf der Tagung aber auch die neuen Chancen des „Suchens und Findens” und die Entstehung einer neuen, vielfach größeren Überlieferungsschicht massenhafter Netzpublikationen entgegengehalten. Viel mehr als noch in den neunziger Jahren wird Massenkommunikation heute gespeichert, weiterverwendet und ausgewertet. Das „Gedächtnis” des Internet ist im Web 2.0 deutlich stärker ausgeprägt, allerdings auch weitgehend öffentlicher Kontrolle entzogen. Niemand kann abschätzen, ob die Unternehmen und Organisationen, die heute vorbildlose Datenbestände bereitstellen (man denke nur an YouTube) dies auch zukünftig tun werden. Die Zeitgeschichtsschreibung, ebenso wie die Archivwissenschaft, muss hier dringend Standards für den Umgang mit der entstehenden digitalen Online-Überlieferung entwickeln. Vielleicht lassen sich hier – ähnlich wie bereits vor einigen Jahren im Zuge des „visual turn” und der Frage des geschichtswissenschaftlichen Umgangs mit Bildmaterialien – grundlegende Desiderate für die Methodik der Geschichtsschreibung formulieren. Mehr noch: Wahrscheinlich ist eine im Kontext der „digitalen Wende” erneuerte Methodik der Zeitgeschichte nicht nur möglich, sondern unumgänglich, denn dem Verlust der Quellen entspricht auf der anderen Seite ihre neue Überfülle. Die Zeitgeschichte steht deshalb nicht nur vor der Frage, wie eine Quellenkritik der Online-Überlieferung aussehen könnte. Vielmehr wird sie Strategien entwickeln und begründen müssen, wie die Flut verfügbarer Informationen hierarchisiert und geordnet werden kann.

Probleme des kollaborativen Arbeitens an wissenschaftlichen Inhalten, wie sie auch unser Projekt Docupedia-Zeitgeschichte beschäftigen, wurden auf der Tagung immer wieder angesprochen. Explizit tat dies Peter Haber am Freitagnachmittag. Haber gab in seinem Vortrag zunächst eine Übersicht über die Tradition „nicht-linearer” Texte, also von Texten, die beim Lesen nicht unbedingt die Kenntnis vorhergehender bzw. noch folgender Informationen über den behandelten Gegenstand voraussetzen. Als klassische Beispiele nannte Haber die Kommentarbereiche und Apparate von wissenschaftlichen Artikeln oder auch Textbooks und Materialsammlungen für die Lehre, die Fragmente aus anderen Texten zu neuen Einheiten zusammenstellen. Insbesondere hier sah Haber Ansatzpunkte für die kollaborative Erstellung von wissenschaftlichen Inhalten; zumal auch die Rezeption von Fachtexten im Netz, wie sie zumeist beim schnellen Recherchieren von brauchbaren Inhalten für die eigene Argumentation stattfindet, punktuell und nicht-linear erfolgt.

Die Bedeutung des Autors und der Autorin als Instanz der Produktion wissenschaftlicher Inhalte, deren Leistung auch zur leichteren Rezeption dieser Inhalte beiträgt, wurde von verschiedenen Konferenzteilnehmern hervorgehoben. Eher eine Ausnahme bildete in dieser Hinsicht die im Ton einer Warnung vorgetragene Einschätzung des Verlagsvertreters in der Abschlussdiskussion, dass mit der Durchsetzung neuer Nutzungsregimes (Google, Creative Commons, Open Access) und dem Erfolg weitgehend anonymer Plattformen zur Wissensaggregierung (Wikipedia) der Autor zunächst enteignet und dann überflüssig würde. Eher zeigte sich, so zum Beispiel in der angeregten Diskussion nach der Projektpräsentation von Docupedia-Zeitgeschichte durch Jürgen Danyel, dass die Chancen von Wikis und andere Plattformen des Web 2.0 für die Wissenschaft gerade in der Unterstützung des Autors gesehen werden. Diese Techniken erlauben theoretisch, den informellen wissenschaftlichen Austausch über Personen, Literatur und Ergebnisse festzuhalten, der die Produktion von wissenschaftlichen Texten begleitet. Diese ganz überwiegend „nicht-linearen” Texte, z.B. Kommentare, Literaturhinweise, Hinweise auf Projekte und Wissenschaftler, kann ein Autor dann im selben Publikationssystem  zur Weiterentwicklung seines Textes nutzen. Vor allem diese Möglichkeit von „Zeitgeschichte schreiben in der Gegenwart” soll zukünftig im Projekt Docupedia-Zeitgeschichte untersucht und erprobt werden.

Ein ausführlicher Tagungsbericht wird in Kürze auf H-Soz-u-Kult erscheinen.

Weiterlesen

Bericht über das Arbeitsgespräch mit Björn Hoffmann, Meyers Lexikon Online am 26.01.2009 in der Humboldt-Universität zu Berlin

meyer_logo1Mit über 150.000 Artikeln und rund 5 Millionen Bildern ist Meyers Lexikon Online das derzeit umfangreichste frei zugängliche Online-Nachschlagewerk im deutschsprachigen Raum, dessen Inhalte, anders als im Falle der Wikipedia, von einer Redaktion herausgegeben und geprüft werden. 2006 stellte der Verlag Bibliographisches Institut & F. A. Brockhaus AG die Inhalte der 10. Auflage von Meyers 24-bändigen Lexikon komplett ins Netz und beendete die Produktion der gedruckten Ausgabe. Seit 2007 können Leser und Nutzer an den Artikeln im Netz mitschreiben, die dann durch die Lexikonredaktion geprüft werden.

Aktuell steht das Projekts leider vor dem Aus, da der Verlag kürzlich den Verkauf der Marken Brockhaus und Meyer und die Trennung vom Geschäft mit lexikalischen Nachschlagewerken bekannt gab. Die Schließung des Lexikon Portals wurde für den 31. Januar 2009 angekündigt. In dem Arbeitsgespräch, das das Docupedia-Zeitgeschichte Team mit dem Leiter des Bereichs Online-Publishing im Verlag und Absolventen der Humboldt-Universität Björn Hoffmann führte, ging es jedoch im Wesentlichen nicht um die verlagspolitischen Entscheidungen. Stattdessen drehten sich die Fragen um technische und redaktionelle Erfahrungen aus über drei Jahren Arbeit mit einem Wiki-gestützten Online-Lexikon und möglicherweise daraus entstehenden Konsequenzen für die Umsetzung des Projekts Docupedia-Zeitgeschichte.

Meyers Lexikon Online hat die Zielsetzung, lexikalisch relevante und redaktionell geprüfte Inhalte anzubieten. Insbesondere dieses Merkmal der Verlässlichkeit wurde in vielen Kommentaren durch Nutzer des Lexikons immer wieder positiv hervorgehoben, berichtete Hoffmann. Das Verlagsangebot hätte sich so klar gegenüber der populären Wikipedia positioniert. Eine Nachfrage nach qualitätsgesicherten Inhalten, von Nutzern sicherlich oft auch ergänzend zur Wikipedia herangezogen, hätte sich immer wieder bestätigt. Meyers Lexikon Online kann derzeit sechs bis sieben Millionen Zugriffe (Page-Impressions) monatlich aufweisen und dies, so Hoffmann, ohne intensive Werbemaßnahmen des Verlags. Über 90 Prozent der Nutzer kämen über Suchmaschinen, bzw. Google. Spitzenwerte erreicht die Nutzung regelmäßig am späten Nachmittag, der „typischen Hausaufgabenzeit“, wie Hoffmann erläuterte.

In technischer Hinsicht setzte Meyers Lexikon Online von Beginn an auf eine Wiki-Plattform. Zunächst kam das von der Wikipedia bekannte MediaWiki, dann seit 2008 das eher im Unternehmensbereich verbreitete System Confluence der Firma Atlassian zum Einsatz. Den Wechsel auf Confluence begründete Hoffmann mit der besseren Abbildbarkeit von Redaktionsprozessen sowie der, aus Firmensicht, langfristig sichereren Unterstützung durch den Anbieter. Auch wären lokale Suchfunktionen, die insbesondere für die Redaktion ein wichtiges Arbeitsmittel darstellen, in MediaWiki nicht so differenziert wie benötigt umzusetzen gewesen. Die Confluence Oberfläche stelle zudem wesentlich mehr Möglichkeiten bereit, den teilweise sehr detaillierten Anforderungen von Content- und Werbepartnern nachzukommen. Zusätzliche Features, wie der in Confluence von Anfang an vorhandene „Rich-Text Editor“, wären hingegen durch die Entwicklung vergleichbarer Extensions für MediaWiki nicht mehr so entscheidend. Auch stelle das vor allem als Intranet-Wiki entwickelte Confluence für vergleichbare Web-Performance größere Hardwareanforderungen.

Unter redaktionellen Gesichtspunkten konnte im Zuge des Aufbaus des Online-Angebots eine aus dem Print-Bereich kommende 60-köpfige Lexikonredaktion erfolgreich auf Anforderungen des Online-Publizierens umgestellt werden. Eine Aufgabe der Redaktion ist es seither, laufend Beiträge und Änderungen zu prüfen, die im „Werkstattbereich“ des Lexikons entstehen, diese ggf. zu bearbeiten und sie dann im „Wissensbereich“ zu publizieren. Beide genannten Bereiche des Lexikons, inklusive aller überarbeiteten Versionen der Artikel, sind öffentlich zugänglich. Nur im „Werkstattbereich“ haben angemeldete Nutzer auch Schreibrechte an den Artikeln. Technisch wurden „Werkstatt-“ und „Wissensbereich“ im Wiki-System durch Einsatz unterschiedlicher Namensräume realisiert. Damit Verlinkungen, die im Werkstattbereich angelegt wurden, immer auf Artikel im Wissensbereich verweisen, wurde eine Software zur automatischen Korrektur der angegebenen Adressen eingesetzt (s. dazu auch den Blog Beitrag von B. Hoffmann).

Bewährt hätte sich ebenfalls, wie Hoffmann es nannte, die „Kathedralarchitektur“ der Redaktion, in der Zuständigkeiten und Aufgaben zentral festgelegt werden. So können einerseits Marginalien aus dem laufenden Betrieb des Portals bereits früh abgefangen werden, bevor sich die eigentlichen Redaktionsmitglieder damit beschäftigen müssen. Andererseits ist so die schnelle Bearbeitung von zuletzt rund 1.000 Nutzerbeiträgen im Jahr möglich. Als schwierig hätte sich jedoch die redaktionelle Nachverfolgung der sehr zahlreichen Beiträge auf den Diskussionsseiten einzelner Artikel herausgestellt. Hier wären nur selten Beiträge zu verzeichnen gewesen, aus denen unmittelbar Hinweise zur redaktionellen Bearbeitung oder Erstellung von Artikeln resultierten.

Insgesamt sah Hoffmann das für Meyers Lexikon Online entwickelte Modell der Kooperation zwischen Redaktion und Nutzeröffentlichkeit als sehr erfolgreich an. Viele Themen, die im „klassischen“ Lexikon nicht vorgesehen waren, wären erst durch Nutzerbeteiligung hinzugekommen. Für die Bearbeitung von Themen außerhalb des fachlichen Kompetenzbereichs der Redaktion wurden einzelne Experten als Autoren eingesetzt, die Themenvorschläge von Nutzern zu Artikeln ausarbeiteten. Einzelne Autoren wurden zur Veröffentlichung von Artikeln in Eigenverantwortung berechtigt, der Kreis der verantwortlichen Mitwirkenden so sukzessive erweitert. Die stärkere Beteiligung von Wissenschaftlern oder auch Institutionen, die Verantwortung für einzelne Bereiche des Lexikons übernehmen, ist im Projekt angedacht, wurde aber noch nicht umgesetzt.

Gefragt nach häufigen Problemen, die sich beim Betrieb des Portals herausstellten, wies Hoffmann auf den bekannterweise schwierigen Umgang im hochgeladenen Bildern hin. Aufgrund der komplizierten Urheberrechtslage beschäftigte der Verlag hier einen speziell ausgebildeten Mitarbeiter, der jedes hochgeladene Bild vor Veröffentlichung auf seine Verwendbarkeit prüfe. Viel Arbeit machen auch sehr spezielle Themenvorschläge von Nutzern, die dann erst einmal durch die Redaktion ausgearbeitet werden müssen. Die Möglichkeit zur Gestaltung einzelner Teilnehmerprofile (Homepages) wurde von den registrierten Nutzern kaum wahrgenommen. Möglicherweise ist dies aber auch der in dieser Hinsicht schlechten Usability des Angebots geschuldet, da der Zugang zu dieser Funktion schwer zu finden ist.

Insgesamt bestätigten sich in dem Gespräch mit Björn Hoffmann viele Überlegungen, die auch im des Projekt Docupedia-Zeitgeschichte diskutiert werden. So war es erfreulich zu hören, dass trotz des sehr breiten Angebots der Wikipedia noch ausreichend Nachfrage für redaktionsgeprüfte Inhalte in vielen Themenbereichen besteht. Auch das Modell eines „Werkstatt-“ und eines geprüften „Wissensbereichs“ wird sich, leicht modifiziert, in Docupedia-Zeitgeschichte wiederfinden. Die Arbeitsteilung zwischen einer zentralen Online-Redaktion und einem erweiterten Kreis von Redakteuren hat sich auch in anderen wissenschaftsnahen Informationsangeboten, wie beispielsweise H-Soz-u-Kult, bewährt. Ob man allerdings in einem auf die unbezahlte engagierte Mitwirkung aus der Fachöffentlichkeit angewiesenen Projekt ein ähnliches Verfahren der zentralen Steuerung von Aufgaben umsetzen kann, erscheint fraglich. Sicher ist auf jeden Fall, dass Docupedia-Zeitgeschichte nicht mit 150.000 Artikeln und einem großen Stab von Redakteuren starten wird. Bis der Umstieg auf ein Enterprise Wiki wie Confluence nötig wird, kann also noch etwas Zeit vergehen.

Nachtrag:

Das MLO-Portal wurde am 23.03.2009 abgeschaltet (s. http://blog.meyers.de/576-meyers-lexikon-online-wird-abgeschaltet ). Meyers Medien (http://medien.meyers.de/), der Meyers online-Blog (http://blog.meyers.de/) und die Verlagswebseite (http://www.meyers.de/) bleiben zunächst noch erhalten.

Weiterlesen
1 8 9 10