Über den Nutzen von Twitter auf Tagungen: das Beispiel .hist2011

Der digitale Wandel der Geschichte war das Thema der Tagung .hist2011, die im September 2011 in Berlin statt gefunden hat. Es war die dritte Veranstaltung dieser Art nach .hist2003 und .hist2006, organisiert in diesem Jahr von Clio-Online und dem Wissenschafts-Portal L.I.S.A. der Gerda-Henkel-Stiftung. Vorträge, Podiumsdiskussionen und Werkstattberichte wechselten sich ab (bzw. fanden parallel statt) und boten ein sehr vielfältiges Bild dessen, was digitale Geschichte in Deutschland aktuell darstellt.

Unter den zahlreichen Zuhörer/innen waren auch einige Twitterer, die ihre Follower mit Neuigkeiten von der Tagung versorgten oder untereinander diskutierten. Im ausführlichen Tagungsbericht von Stefan Gorißen und Thomas Meyer, erschienen bei H-Soz-u-Kult, liest man jetzt dazu:

„Neben Werkschau und offenen Diskussionen in den Sektionen und Podien wurde der digitale Wandel selbst auch aktiv in twitter und facebook begleitet; wobei bisher nicht ersichtlich ist, zu welchem Nutzen: Haben die Teilnehmer auf den Podien und in den Sektionen doch keinerlei Gelegenheit auf Einwürfe über diese Kanäle zu reagieren.“

Das Argument weist eher auf eine organisatorische Herausforderung als auf ein strukturelles Problem des Kommunikationskanals Twitter hin. Über eine gut platzierte Twitterwall, bei der über einen Beamer die Tweets für alle sichtbar an die Wand projiziert werden, können die Vortragenden die Einwürfe auch lesen und in der Folge dann wenn gewünscht  darauf reagieren. Zeitweise waren im Hauptsaal der Veranstaltung die Tweets zwar über die Leinwand sichtbar, diese hing jedoch hinter dem Podium. Auch hat Diskussionsleiter Peter Haber versucht, Abhilfe zu schaffen und hat seinen Podiumsteilnehmer/innen einige der Tweets vorgelesen, so dass es in diesem Fall Gelegenheit zur Reaktion gab.

Doch davon abgesehen greift das Argument auch generell zu kurz. Denn Twitter hat auf Tagungen nicht nur dann einen Nutzen, wenn die Vortragenden auch auf die Einwürfe reagieren (können). Dazu hier einige Gedanken, gefolgt von einer ersten Auswertung der Tweets zur Tagung .hist2011.

Live und vielstimmig für die interessierte Fachöffentlichkeit zwitschern
Die User von Twitter kommentieren in Echtzeit die Vorträge auf einer Tagung. Sie twittern die wichtigsten Aussagen, bekräftigen oder widersprechen diesen. Sie schreiben über die Stimmung im Raum, über alles, was ihnen zur Tagung einfällt. Sie reichern die Aussagen der Vortragenden und Diskutierenden an z.B. mit Links zu besprochenen Texten, Bildern oder Videos. Sie twittern Fotos von der Veranstaltung und geben damit einen konkreten Einblick, wie es vor Ort aussieht.

Damit schaffen sie einerseits eine zweite Diskussionsebene für die Teilnehmer/innen der Tagung vor Ort. Andererseits berichten die Twitterer auch live von der Tagung an ihre Follower, die nicht präsent sein können. Diese erfahren so in Echtzeit und lange bevor ein Tagungsbericht erscheint von den wichtigsten Aussagen wie auch von der Stimmung auf der Tagung. Damit sind die Tweets zusammengenommen letztlich auch ein micro-gebloggter und mit Fotos und Links angereicherter Tagungsbericht, der live und vielstimmig in die interessierte Fachöffentlichkeit gezwitschert wird und sofort kommentiert werden kann.

Doch das Besondere am Einsatz von Twitter bei Tagungen geht über die live gebloggten Diskussionsaussagen und Stimmungsbilder hinaus: Eine Analyse kann Kommunikations-Netzwerke zeigen und Aufschluss über Prozesse des Wissensaustauschs in Webcommunities geben[1]. Denn die Twitterer führen auch ein virtuelles Gespräch mit anderen Twitterern, die sie persönlich manchmal gar nicht kennen oder über das Twittern dann erst kennen lernen. Wie war das nun bei .hist2011?

Statistik und Auswertung der Tweets zur Tagung .hist2011
Die Tweets zur Tagung .hist2011 sind in der im Anhang eingefügten Excel-Tabelle archiviert und werden damit als Live-Tagungsbericht erneut und dauerhaft publiziert. Die Tweets mit dem hashtag #dothist wurden am 19.9.2011, also vier Tage nach Ende der Tagung, mit dem Programm Archivist gespeichert und archiviert. Es handelt sich insgesamt um 454 Tweets von 66 verschiedenen Twitter-Accounts. Die fünf aktivsten Twitterer waren:

1. portallisa:                89 tweets
2. peha64:                   72 tweets
3. mareike2405:          62 tweets
4. wilkohardenberg:   59 tweets
5. ankrjoe:                   14 tweets

Bemerkenswert ist der große Abstand zwischen Platz 4 und 5, hat doch der User wilkohardenberg ca. viermal so viele Tweets geschickt wie User ankrjoe.

In den Tweets wurde auf 30 verschiedene Websites verwiesen, viele davon auf Sites, auf denen Fotos der Tagung geladen wurde (z.B. yfrog); sechs Mal wurde ein Link auf die Website der Gerda-Henkel-Stiftung gesetzt (siehe Anlage sitestable).

Kommunikations-Netzwerke über Twitter bei .hist2011
Zwei Grafiken visualisieren die Gespräche und Netze zwischen den einzelnen Usern. Diese Visualisierungen wurden von Cornelius Puschmann (Universität Düsseldorf) auf der Basis der extrahierten Tweets mit der open-source Platform gephi erstellt. Ihm sei an dieser Stelle noch mal ausdrücklich dafür gedankt.

Die Grafik 1 zeigt Nachrichten, bei denen ein User gezielt angesprochen wurde. Dabei handelt es sich also um „Gespräche“ zwischen zwei oder mehreren Personen. Da im Laufe eines solchen „Gesprächs“ der hashtag oftmals weggelassen wird, ist dies keine vollständige Statistik, sondern berücksichtigt nur die Nachrichten, bei denen der hashtag #dothist verwendet wurde.

Grafik 1: Gespräche zwischen Usern unter dem hashtag #dothist (Grafik erstellt von Cornelius Puschmann)

Die Größe der Kreise zeigt an, wie viele Nachrichten eine Person bekommen hat. Die Farbtiefe zeigt an, wie viele Nachrichten die Person selbst geschickt hat. User peha64 hat demnach die meisten Nachrichten verschickt und auch die meisten Nachrichten bekommen. Das wird durch die zentrale Position in der Grafik erneut unterstrichen. Zu sehen ist außerdem, dass User portallisa beispielsweise selbst keine Nachrichten verschickt hat. Dies wird dadurch erklärt, dass es sich dabei um einen institutionellen Account handelt, die per se nicht oder selten mit anderen Usern in einen persönlichen Kontakt treten.

Die Grafik 2 zeigt die Retweets unter dem hashtag #dothist an, also die Tweets, die von anderen Usern erneut gepostet wurden. Retweets, so die Erläuterung von Cornelius Puschmann, werden heute nicht mehr nur als selbstloser Akt der Weitergabe einer Information gesehen, sondern haben vor allem eine soziale Funktion. Sie verweisen auf die Relevanz dessen, was eine andere Person tweetet und signalisieren damit Akzeptanz und Bestätigung des Geschriebenen durch den Re-Tweeter.

Grafik 2: Retweets unter #dothist (Grafik erstellt von Cornelius Puschmann)

Grafik 2: Retweets unter #dothist (Grafik erstellt von Cornelius Puschmann)

Die Farbtiefe der Grafik zeigt an, wie viele Retweets gegeben wurden. Die Größe der Kreise zeigt an, wie viele Retweets ein User bekommen hat. So hat der User torstenreimer beispielsweise sehr viele Retweets bekommen, hat aber selbst weniger Nachrichten retweetet. Auch User wilkohardenberg hat mehr Retweets empfangen (18) als gegeben (10), was auf  Zustimmung zu seinen Tweets schließen lässt.

Die Verbindungslinien zeigen an, ob reziprok oder einseitig retweetet wurde. Eine gerade Linie visualisiert ein reziprokes Verhältnis, z.B. zwischen den Usern portallisa und peha63. Eine gekrümmte Linie zeigt an, dass der eine User häufiger Nachrichten eines anderen erneut gesendet hat, als es umgekehrt der Fall war.

Die dunkle Farbe und die zentrale Stellung im Graphen visualisiert hier, so Cornelius Puschmann, dass User mareike2405 die meisten Verbindungen innerhalb der twitternden Personen hatte. Am „effektivsten“ – wenn man so einen Maßstab überhaupt anlegen möchte – war jedoch User torstenreimer, der mit insgesamt nur 13 eigenen Tweets, 16 Retweets bekommen hat. Diese Auswertungen sind jedoch ausschließlich bezogen – das sei noch mal betont – auf die Aktivitäten unter dem hashtag #dothist.

 

Dateien im Anhang


Tagungsberichte und Informationen zu .hist2011

Stefan Gorißen, Thomas Meyer, Tagungsbericht „.hist2011 – Geschichte im digitalen Wandel“, 14.09.2011-15.09.2011, Berlin, in: H-Soz-u-Kult, 13.10.2011, <http://hsozkult.geschichte.hu-berlin.de/tagungsberichte/id=3854>.

Interview mit Georgios Chatzoudis: „Das Verhältnis der Wissenschaftler zur Öffentlichkeit ist ambivalent“, in: Blog der Frankfurter Buchmesse, 10.10.2011, <http://blog.buchmesse.de/blog/de/2011/10/10/interview-georgios-chatzoudis/>.

Silke Jagodzinski, „Digitalisierung ist der neue König Midas“ (Stefan Münker). Die Tagung .hist2011 zur Geschichte im digitalen Wandel (14./15.09.2011, Berlin), in: editura, 20.09.2011, <http://www.editura.de/blog/2011/09/20/%E2%80%9Edigitalisierung-ist-der-neue-k%C3%B6nig-midas%E2%80%9C-stefan-m%C3%BCnker>.

Peter Haber, Gezwitscher aus Berlin, in: hist.net, 18.09.2011, <http://weblog.hist.net/archives/tag/hist2011>.

Website der Tagung .hist2011: <http://www2.hu-berlin.de/historisches-forschungsnetz/tagung/index.php?conference=hist2011&schedConf=hist11>

Sowie mehrere Beiträge bei L.I.S.A., u.a.:

.hist2011 – ein erster Blick zurück
<http://www.lisa.gerda-henkel-stiftung.de/co4ntent.php?nav_id=1814>

Nachlese “.hist2011″ – Posterschau und Interview
<http://www.lisa.gerda-henkel-stiftung.de/content.php?nav_id=1829>

 

  1. 1. Dröge, E., Maghferat, P., Puschmann, C., Verbina, J., & Weller, K. (2011). Konferenz-Tweets. Ein Ansatz zur Analyse der Twitter-Kommunikation bei wissenschaftlichen Konferenzen, in: J. Griesbaum, T. Mandl, & C. Womser-Hacker (Hg.), Information und Wissen: global, sozial und frei? Proceedings of the 12th International Symposium for Information Science (ISI 2011), S. 98-110. Boizenburg: Verlag Werner Hülsbusch. (pdf, bibtex

Quelle: http://dhdhi.hypotheses.org/380

Weiterlesen

Wildern in den Geisteswissenschaften von Antoine Blanchard

Wildern in den Geisteswissenschaften: wenn die digital natives institutionelle Grenzen im Netz ins Wanken bringen

Antoine Blanchard

Antoine Blanchard

Gibt es die „digital natives“ tatsächlich? Haben junge Wissenschaftler ein anderes Verhältnis zum Netz als alteingesessene Forscher? Mein Beitrag will gestützt auf einige Beispiele zeigen, wie die mit den neuen Nutzungsmöglichkeiten vertrauten „Jungen“ von unten das Sprachrecht in den Geisteswissenschaften im Netz neu für sich beanspruchen können (insbesondere in der Wissenschaftsforschung).

Das ist gleichzeitig die Gelegenheit, danach zu fragen, wie eine nützliche digitale Kultur in den Wissenschaften aussehen kann und wie die Institutionen diese Veränderungen wahrnehmen.

Antoine Blanchard

Antoine Blanchard, Ingenieur und Sozialwissenschaftler, bloggt seit 2003 unter dem Pseudonym „Enro“. Er ist Mitbegründer des Projektes C@fé des sciences und Vorsitzender des dazugehörigen Vereins C@fétiers des sciences, der sich für die Verbreitung und Förderung wissenschaftlicher Blogs einsetzt. Er ist darüber hinaus Mitglied der Gruppe OwniSciences und des wissenschaftlichen Beirats von Hypothèses.org. Er beschäftigt sich darüber hinaus mit wissenschaftlicher Kommunikation und Kultur (insbesondere rund um die sich gerade entwickelnde Wissenschaft, die Beziehung zwischen Wissensgesellschaft und dem Netz). 2009 gründete er die Gruppe Deuxième labo, um den Wandlungsprozess der Wissensgesellschaft bei Institutionen aller Art zu begleiten und voranzutreiben.

Links

Intervention dans le cadre du colloque “Dans la toile des médias sociaux / Im Netz der sozialen Medien”, 27-28 juin 2011 : inscription et programme

 

Quelle: http://dhdhi.hypotheses.org/182

Weiterlesen

Zur Tagung Web 2.0 und die Geschichtswissenschaft in Siegen

von Dr. Rüdiger Hohls, Humboldt-Universität zu Berlin

Ende letzter Woche (09.10.2009-10.10.2009)  fand auf Initiative von Angela Schwarz und Jürgen Beine an der Universität Siegen eine Tagung unter dem Titel «Web 2.0 und Geschichtswissenschaft. „Social Networking“ als Herausforderung und Paradigma» statt. Schon im Vorfeld der Veranstaltung wiesen die Organisatoren darauf hin, dass die mit dem Begriff Web 2.0 umrissenen Konzeptionen und Internetapplikationen nicht exakt festgelegt seien, jedoch meist eine Reihe interaktiver und kollaborativer Elemente des Internets damit assoziiert würden. Unter „Soziale Netzwerken“ werden hier indifferente Formen von netzbasierten Gemeinschaften angesehen, welche technisch durch Web-2.0-Anwendungen oder Portale gestiftet werden. Auf der technischen Ebene werden damit vor allem Wikis und Blogs verbunden, jedoch ging es den Organisatoren der Tagung weniger um technische Aspekte als vielmehr um Formen der sozialen und kulturellen Aneignungen und um die Veränderung geschichtswissenschaftlicher Diskurse und Methoden, wenn sich die bisherige eindeutige Beziehung zwischen Text und Autor durch Web 2.0-Anwendungen aufzulösen beginnt. Den beiden Organisatoren ist für ihre Initiative zu danken, denn bisher haben sich vor allem einzelne wissenschaftliche Infrastruktureinrichtungen wie Bibliotheken oder Gedächtniseinrichtungen und Erinnerungsorte wie Museen des Themas angenommen. Einzelne Bibliotheken (u.a. BSB München) und Museen (u.a. Dresdener Gemäldegalerie) verfügen sogar über eine virtuelle Existenz in der Online-Welt von Second Life.

Peter Haber hat in Weblog histnet.ch schon eine erste Zusammenfassung und Einschätzung der spannenden Siegener Tagung geliefert, weshalb ich hier auf einen nochmaligen Bericht verzichten kann (s. a. Tagungsankündigung). Aus der Perspektive eines Historikers und Akteurs der Web 1.0-Generation sowie als Begleiter der sich über viele Jahre erstreckenden Informatisierung unserer Disziplin möchte ich jedoch einige Anmerkungen ergänzen, die allerdings nur zum Teil einen unmittelbaren Bezug zu Vorträgen und Diskussionen auf der Siegener Tagung haben.

Im Verlauf der Veranstaltung wurden viele Fragen aufgeworfen und nicht selten spekulative Szenarien entworfen. Letzteres vor allem wohl auch deshalb, weil es allen Teilnehmern mehr oder weniger noch an fundierten Erfahrungen im fachlichen Kontext mit echten Web 2.0-Anwendungen mangelt, die empirisch valide abgeklopft werden können, denn diese sind in den Geschichtswissenschaften bisher eher Mangelware. Viele der im Verlauf der Tagung angeführten und diskutierten Beispiele hatten zwar etwas mit „Geschichte“ und „historischen Quellen“ zu tun, aber wenig mit den gängigen Fragestellungen, mit virulenten Konzepten und konkreten Forschungsvorhaben der professionell an Hochschulen und Forschungseinrichtungen betriebenen „Geschichtswissenschaften“. Deshalb wäre es passender gewesen, wenn im Veranstaltungstitel entweder vereinfachend „Geschichte“ wegen der unübersehbaren Nähe zum laienhistorischen Engagement oder der Plural „Geschichtswissenschaften“ angesichts der epochalen, regionalen und thematischen Spezialisierung gestanden hätte. Es macht nämlich einen großen Unterschied, über welche Zielgruppe, welche Kohorten und über welchen Erfahrungs- und Referenzraum der Akteure und Rezipienten diskutiert wird. Die kommunikativen Prozesse innerhalb einer spezialisierten und vergleichsweise homogenen Expertenkultur folgen anderen Erwartungen und Regeln als die in einer Lehr- und Vermittlungssituation von Seminaren und wiederum anderen, wenn es um Teilhabe und Integration eines historisch interessierten Laienpublikums geht. Web 2.0 scheint mir derzeit vor allem Anwendungen bereitzustellen, die für eine Wiederbelebung von Geschichtswerkstätten im globalen Dorf des Internets besonders geeignet sind, also für eine neue Art partizipatorischer „Geschichte von unten“. Für dieses Phänomen liefert dann der divergente systemtheoretische „Netzwerk“-Begriff aus der Soziologie geeignete Anknüpfungspunkte. Diese kritische Einschätzung schließt nicht aus, dass es sinnvolle und hoffentlich auch erfolgreiche Web 2.0-Anwendungen unter „kontrollierten“ Bedingungen, wie es Manfred Thaller ausdrückte, in den Geschichtswissenschaften geben wird. Mit Docupedia-Zeitgeschichte bemühen wir uns, eine solche Anwendung zu etablieren. Und diese Lösung darf dann auch gerne, wie Peter Haber es tat, mit dem Label „Web 1.5“ charakterisiert werden.

Aktuelle Debatten um Web 2.0-Anwendungen in den Wissenschaften erinnern mich auf vielen Ebenen (u.a. habituelle Formen, Selbstreferenzialität, Inklusions-/Exklusionsschemata, generatives Muster) an die Diskussionen zwischen Enthusiasten und Traditionalisten bei der Einführung und Etablierung von Web 1.0-Diensten und ‑Publikationsverfahren in unserem Fach und in den zugehörigen Infrastruktureinrichtungen (Bibliotheken) vor mehr als zehn Jahren. Entlang einer imaginären (generativen) Grenze scheint ein Graben zwischen experimentierfreudigen Enthusiasten und zurückhaltenden Praktikern der historischen Fachinformation zu verlaufen, wobei die große Mehrheit der Historikerinnen und Historiker noch gar nicht in die Debatte einbezogen wurde und sich vermutlich auch nicht einbeziehen lassen wird. Inspiriert von Wikipedia zeigt sich die eine Seite begeistert von der Vorstellung eines stetig anwachsenden „User Generated Content“ in den Geschichtswissenschaften und den damit einhergehenden „Community-Building“-Prozessen, an denen sich ein jeder fortwährend und überall beteiligen könne. Nur wenn diese Schlagworte eingelöst würden, könne überhaupt von Web 2.0-Anwendungen gesprochen werden, und alles andere ist mehr oder weniger vormodern und uninteressant. Diese selbstreferentielle Definitionshoheit funktioniert in Form einer affirmativen Aufladung, die ihre normative Kraft und Energie aus dem unbestreitbaren Erfolg von Wikipedia zieht. Ideologiekritische Einwände scheinen gegenwärtig noch schlicht abzuprallen. Gut möglich, dass es einer solchen selbstreferentiellen Begrenzung bedarf, um die selbstgesteckten Ziele zügig erreichen zu können und sich dabei nicht durch Eingehen auf Einwände und irgendwelche Ablenkungen aus dem Takt bringen zu lassen. Aus meiner Sicht handelt es sich bei den zahlreichen Artikeln, Beiträgen und Rezensionen, die fortlaufend in Fachzeitschriften oder elektronischen Foren veröffentlicht werden, selbstredend ebenfalls um „User Generated Content“, wenn auch überwiegend nur von einer Autorin oder einem Autor verfasst. Und angesichts der Tendenz zu neopositivistischen „Häppchen-Texten“ der originären Hyper-Text- und Web 2.0-Sphäre, die sich angeblich durch das komplementäre Engagement vieler laufend verbessern, sei hier kritisch nachgefragt, was denn einen publikationswürdigen geschichtswissenschaftlichen Text auszeichnet? Etwa der „neutral point of view“, wie ihn Wikipedia einfordert? Und ist bei getwitterten wissenschaftlichen Minitexten nicht längst die Grenze zum unzumutbaren Spam überschritten worden?

Eine letzte Anmerkung zu den neuen bzw. veränderten sozialen und kulturellen Kompetenzen, den sogenannten Soft Skills, die von den Enthusiasten der neuen „sozialen Medien“ häufig angemahnt werden. Studierenden und Absolventen der Universitäten fehle es an notwendigen Informationskompetenzen und weiteren Sekundärqualifikationen angesichts des aufscheinenden Web 2.0-Zeitalters. Passende Angebote sollten vermehrt in den universitären Lehrkanon aufgenommen werden, so die Forderung. Einerseits stimmt diese Feststellung so nicht, denn längst haben andere Schreibformen jenseits der traditionellen Haus- und Seminararbeit Einzug in die Universitäten gehalten, und unterschiedliche Lehrformate werden seit Jahren von vielen erprobt. Andererseits werden weitergehende Wünsche vor dem Hintergrund der laufenden Diskussion um die Studierfähigkeit vieler Bachelor- und Masterstudiengänge angesichts straffer Stundenpläne, die wenige Freiräume lassen, und mit fachwissenschaftlichen Inhalten vollgestopfte Curriculare, wohl weitgehend unbeachtet verhallen. Anders stellt sich dies im Rahmen spezialisierter Studiengänge wie „Public History“ oder „Fachjournalistik Geschichte” dar, deren Zahl zuletzt zugenommen hat, die jedoch ausdrücklich ergänzend zur Aufgabe der Vermittlung des eigentlichen Kerngeschäfts der Geschichtswissenschaft konzipiert sind.

Weiterlesen

Nachschlagewerk Internet? Herausforderungen an Bibliotheken, Verlage und Forschungseinrichtungen

Bericht über die Veranstaltung des Projekts Docupedia-Zeitgeschichte am 16.04.2009 am Zentrum für Zeithistorische Forschung in Potsdam

Online-Nachschlagewerke zum Recherchieren von Fakten und zum schnellen Einstieg in verschiedene Forschungsbereiche, die noch dazu kostenlos zur Verfügung stehen, sind ein aus Sicht der Nutzer optimales Produkt. In dieser Hinsicht herrschte unter den Teilnehmern der Veranstaltung „Nachschlagewerk Internet?”, veranstaltet vom Projekt Docupedia-Zeitgeschichte am 16.04.2009 am ZZF Potsdam, auch weitgehend Einigkeit. Schwieriger zu beantworten war hingegen die Frage, wer die Kosten der redaktionellen und technischen Aufbereitung von gesichertem Wissen in Online-Nachschlagewerken trägt, sofern man sich nicht allein auf freie Plattformen wie die Wikipedia verlassen will.

Die Teilnehmer des Podiumsgesprächs, Rüdiger Hohls von der Humboldt-Universität Berlin und Ulrich Johannes Schneider von der Universitätsbibliothek Leipzig, stellten im Verlauf des Podiumsgesprächs verschiedene Modelle vor, wie qualitätsgesicherte Online-Inhalte von Forschungseinrichtungen und Bibliotheken derzeit aufgebaut und angeboten werden. Eine ebenfalls geladene Vertreterin des Verlags Brockhaus / Bibliographisches Institut Leipzig musste leider kurzfristig abgesagen. Dennoch wurde die Verlagsperspektive, nicht nur dank einer im Publikum anwesenden Verlagsmitarbeiterin, von Publikum und Podiumsteilnehmern immer wieder aufgegriffen. Die Reflexion über die Rolle von Verlagen im System des akademischen Publizierens rückte sogar zunehmend in den Mittelpunkt der Diskussion.

Rüdiger Hohls, als Vertreter verschiedener wissenschaftlicher Initiativen im elektronischen Publizieren auf dem Podium, beschrieb zu Beginn das klassische Modell des akademischen Publizierens als weitgehend obsolet. Verlage könnten heute nicht mehr darauf vertrauen, dass es ihnen gelingt, mithilfe von Druckkostenzuschüssen der öffentlichen Hand und hohen Preisen akademische Publikationen in einem kostendeckenden Umfang auf dem Markt abzusetzen. Dafür hätten sich in den vergangenen Jahren zu viele alternative Wege des Publizierens aufseiten der Wissenschaft herausgebildet. Dies gelte für gedruckte Nachschlagewerke ebenso wie für Zeitschriften, die außerdem im Bereich der Naturwissenschaften zu überteuerten Preisen verkauft würden, was bereits deutliche Kürzungen in einigen Bereichen der Bibliotheksetats zur Folge gehabt hätte. Die Verlage hätten jedoch die Entwicklung alternativer elektronischer Produkte und Dienstleistungen schlicht verschlafen, was zum Teil auch die aktuell zu beobachtenden Proteste von Branchenvertretern erklärt.

Ulrich Johannes Schneider, Repräsentant einer großen wissenschaftlichen Bibliothek und ihres Informationsauftrags, formulierte eine ähnliche Kritik: Wenn Verlage im akademischen Bereich mit Druckkostenzuschüssen der öffentlichen Hand kalkulierten, warum beteiligten sie sich dann nicht stärker am Aufbau von wissenschaftsnahen Serviceangeboten? Beispielsweise müsse jedes Projekt an der Universität Leipzig immer wieder von vorne mit dem Aufbau einer Website zwecks Veröffentlichung von Projektergebnissen beginnen. Warum bieten die Verlage nicht von sich aus Infrastrukturen, die Wissenschaftler von Anfang an zum elektronischen Publizieren nutzen können, fragte Schneider. Innovative Angebote der Wissenschaft, Materialsammlungen und Quellen könnten über eine solche Plattform ebenso publiziert werden wie hochwertige Publikationen, deren Abruf kostenpflichtig ist und die dann ggf. auch im Druck erscheinen. Eine solche kombinierte Plattform würde wissenschaftlich wie auch kommerziell einen Sinn ergeben.

Trotz dieser vehement vorgetragenen Kritik an der Rolle von Verlagen im traditionellen akademischen Publizieren wurde in der weiteren Diskussion deutlich, dass die Leistungen von Verlagen aus der Arbeit von Wissenschaft und Bibliothek kaum wegzudenken sind. An einer Verlagspublikation, so Schneider, machen sich Bewertungen fest, und die Verlage seien, so Hohls, mit ihrem Profil häufig eng mit den etablierten Hierarchien einzelner Fachgebiete verknüpft. Institutionelle Veröffentlichungsplattformen, wie Dokumentenserver und Universitätsverlage, die vom Ansatz her die elektronische Veröffentlichung von Publikationen aller Fächer einer Universität übernehmen, können bislang keine vergleichbare Akzeptanz in der Fachöffentlichkeit aufweisen. Vielfältige Bemühungen zur Gründung von Universitätsverlagen haben gezeigt, dass damit nicht unbedingt eine kostengünstigere Infrastruktur des akademischen Publizierens entsteht, wie Schneider ausführte.

An diese Überlegung knüpfte sich im Folgenden eine anregende Diskussion über die Bedeutung des Zielpublikums für die verschiedenen Akteure im Bereich des akademischen Publizierens und die spezifischen Kompetenzen von Verlagen an. Wissenschaft und Bibliotheken gehen stets davon aus, dass publizierte Informationen unabhängig von einem konkreten Zielpublikum bedeutsam seien oder es zumindest einmal werden können. Als Beispiele nannte Schneider die im Rahmen eines Projekts der Universität Leipzig aktuell digitalisierten historischen Studentenzeugnisse oder das von ihm initiierte Dictionary of Intellectual Historians, das sich vorgenommen hat, Ideenhistoriker weltweit zu repräsentieren, auch wenn diese innerhalb Europas gänzlich unbekannt sind. Für Verlage hingegen ist die Definition eines Markts für Produkte und damit die Fokussierung eines Zielpublikums zentral. Verlagsprodukte verkörperten stets die gezielte „Begrenzung” und Auswahl von Informationen, sie entsprächen damit dem weitverbreiteten Bedürfnis nach effektiven Informationsfiltern und vermittelten eine höhere Wertigkeit. Sollte also die Aufgabe von Verlagen vorwiegend darin bestehen, die Zahl der verfügbaren Publikationen zu reduzieren und damit der wesentlichen Information den Vorrang vor der unwesentlichen zu sichern, wie aus dem Publikum angemerkt wurde?

Moderator Jürgen Danyel wies auf eine eher gegenläufige Entwicklung hin, die derzeit traditionelle wie auch alternative Publikationsmodelle relativiert, und das nicht nur im akademischen Bereich. So entsteht im Zuge der schnell fortschreitenden Massendigitalisierung von Bibliotheksbeständen durch Google weltweit ein neues Zugriffsmodell auf qualitätsgesicherte wissenschaftliche Inhalte. Wie stellen sich denn, so fragte Danyel, Wissenschaft und Bibliotheken auf diese Herausforderung ein?

Aus Sicht der Bibliothek, so Schneider, müsse man das Google-Projekt eigentlich befürworten. Für die Informationsbereitstellung, die Erschließung der Inhalte für die interessierte Öffentlichkeit bedeute die Google-Digitalisierung einen großen Sprung, der ohne die kommerzielle Motivation des Unternehmens wohl nicht so schnell erfolgt wäre. Für Bibliotheken, die jetzt per Lizenz digitale Inhalte zurückkaufen müssten, über die sie in analoger Form selbst verfügen, wäre dies natürlich bitter und die Monopolstellung Googles ein großes Problem. Aber wenn man diese Aspekte in den Griff bekäme, spekulierte Schneider, wäre ein großer Teil des bisherigen institutionellen Designs der Bibliotheken vermutlich in Zukunft überflüssig. Rüdiger Hohls stimmte dem zu und ergänzte, dass auch andere klassische Bibliotheksdienstleistungen wie beispielsweise das Katalogisieren derzeit am schnellsten durch kommerzielle Unternehmen wie beispielsweise OCLC weiterentwickelt würden. Auch hier werden ursprünglich öffentlich finanzierte Datenbestände zu einem hochwertigen, fortan aber kommerziellen Informationsangebot zusammengefasst. Angesichts dieser globalen Entwicklungen, so Hohls, werde sich die Frontstellung zwischen den Befürwortern freier Open Access und kommerzieller Verlagsangebote deutlich relativieren, sofern Anbieter wie OCLC oder Google preislich realistische Lizenzmodelle für diese globalen Informationsschätze bereitstellen.

So entfernten sich die Diskussionen auf der Veranstaltung relativ schnell vom konkreten Thema des „Nachschlagens” und bewegten sich eher in Richtung eines Gesprächs über die Rolle von Verlagen und globale Geschäftsmodelle für die Online-Bereitstellung akademischer Publikationen. Es gelang dennoch, den Anwesenden einige der aktuellen Bruchstellen und Schnittflächen im Verhältnis von Bibliotheken, Forschungseinrichtungen und Verlagen plastisch vor Augen zu führen. Die interessierten Nachfragen aus dem Publikum bestärkten die Veranstalter vom Projekt Docupedia-Zeitgeschichte darin, weitere Workshops zu Themenbereichen aus dem Projektumfeld vorzubereiten. Vielleicht wäre ein weiteres Podiumsgespräch vielversprechend, diesmal dann ausschließlich mit Repräsentanten aus dem Bereich der Wissenschaftsverlage besetzt. Denn bekanntlich sind Positionen und Geschäftsmodelle der Verlagswelt vielfältiger, als es die Rhetorik des Branchenverbandes zuweilen vermuten lässt. Allen Mitwirkenden an dieser Veranstaltung sei an dieser Stelle für ihre engagierte Teilnahme noch einmal herzlich gedankt.

Weiterlesen

Docupedia-Zeitgeschichte auf der Konferenz „Zeitgeschichte schreiben in der Gegenwart. Narrative – Medien – Adressaten”

zeitgeschichte_schreibenDen Veränderungen nachzuspüren, denen die Zeitgeschichtsschreibung am Beginn des 21. Jahrhunderts unterworfen ist, war Ziel einer gut besuchten Konferenz des Zentrums für Zeithistorische Forschung Potsdam am 20. und 21.03.2009 (Programm). Neben Fragen nach veränderten Darstellungsformen und Konzepten der Zeitgeschichtsschreibung in den klassischen Medien Buch und Zeitschriftenartikel wurde auf der Veranstaltung auch die Rückwirkung digitaler und vernetzter Technologien auf die Produktion und Rezeption zeithistorischer Geschichtswissenschaft behandelt. Einige subjektive Eindrücke seien hier kurz festgehalten.

Wie sehr der technologische Wandel insbesondere im Bereich der Medien die Arbeit der Zeitgeschichte verändert hat und weiterhin verändern wird, wurde in fast allen Panels der Tagung durchaus kontrovers diskutiert. Betont wurde dabei unter anderem, dass mit dem Übergang zur elektronischen Kommunikation seit etwa Mitte der neunziger Jahre die Überlieferung wichtiger Quellen störanfälliger wurde. Das Web 1.0, wenn man so die vergangenen 15 Jahre des Internets beschreiben will, die vor allem durch den Aufbau einer Masseninfrastruktur für Online-Kommunikation gekennzeichnet waren, wurde von einigen Konferenzteilnehmern als neues „Dark Age” beschworen. Die formative Phase des Internets sei praktisch kaum archiviert, und Historikerinnen und Historiker könnten auch in naher Zukunft mit dem Verlust zentraler Quellenbestände konfrontiert sein, wenn von idiosynkratischen Homepages und überquellenden privaten E-Mail-Boxen, aber auch von der elektronischen Kommunikation in Institutionen nur noch wenig bis nichts mehr übrig geblieben sei. Die Rekonstruktion historisch bedeutsamer Entscheidungsprozesse als wichtige Aufgabe von Zeithistorikerinnen und -historikern werde deshalb zukünftig schwieriger, auch wenn Archivare bereits begonnen hätten, Konzepte zur Sicherung dieses Quellenmaterials zu erarbeiten.

Dieser eher skeptischen Analyse eines schon erlittenen oder weiterhin drohenden Verlustes wurden auf der Tagung aber auch die neuen Chancen des „Suchens und Findens” und die Entstehung einer neuen, vielfach größeren Überlieferungsschicht massenhafter Netzpublikationen entgegengehalten. Viel mehr als noch in den neunziger Jahren wird Massenkommunikation heute gespeichert, weiterverwendet und ausgewertet. Das „Gedächtnis” des Internet ist im Web 2.0 deutlich stärker ausgeprägt, allerdings auch weitgehend öffentlicher Kontrolle entzogen. Niemand kann abschätzen, ob die Unternehmen und Organisationen, die heute vorbildlose Datenbestände bereitstellen (man denke nur an YouTube) dies auch zukünftig tun werden. Die Zeitgeschichtsschreibung, ebenso wie die Archivwissenschaft, muss hier dringend Standards für den Umgang mit der entstehenden digitalen Online-Überlieferung entwickeln. Vielleicht lassen sich hier – ähnlich wie bereits vor einigen Jahren im Zuge des „visual turn” und der Frage des geschichtswissenschaftlichen Umgangs mit Bildmaterialien – grundlegende Desiderate für die Methodik der Geschichtsschreibung formulieren. Mehr noch: Wahrscheinlich ist eine im Kontext der „digitalen Wende” erneuerte Methodik der Zeitgeschichte nicht nur möglich, sondern unumgänglich, denn dem Verlust der Quellen entspricht auf der anderen Seite ihre neue Überfülle. Die Zeitgeschichte steht deshalb nicht nur vor der Frage, wie eine Quellenkritik der Online-Überlieferung aussehen könnte. Vielmehr wird sie Strategien entwickeln und begründen müssen, wie die Flut verfügbarer Informationen hierarchisiert und geordnet werden kann.

Probleme des kollaborativen Arbeitens an wissenschaftlichen Inhalten, wie sie auch unser Projekt Docupedia-Zeitgeschichte beschäftigen, wurden auf der Tagung immer wieder angesprochen. Explizit tat dies Peter Haber am Freitagnachmittag. Haber gab in seinem Vortrag zunächst eine Übersicht über die Tradition „nicht-linearer” Texte, also von Texten, die beim Lesen nicht unbedingt die Kenntnis vorhergehender bzw. noch folgender Informationen über den behandelten Gegenstand voraussetzen. Als klassische Beispiele nannte Haber die Kommentarbereiche und Apparate von wissenschaftlichen Artikeln oder auch Textbooks und Materialsammlungen für die Lehre, die Fragmente aus anderen Texten zu neuen Einheiten zusammenstellen. Insbesondere hier sah Haber Ansatzpunkte für die kollaborative Erstellung von wissenschaftlichen Inhalten; zumal auch die Rezeption von Fachtexten im Netz, wie sie zumeist beim schnellen Recherchieren von brauchbaren Inhalten für die eigene Argumentation stattfindet, punktuell und nicht-linear erfolgt.

Die Bedeutung des Autors und der Autorin als Instanz der Produktion wissenschaftlicher Inhalte, deren Leistung auch zur leichteren Rezeption dieser Inhalte beiträgt, wurde von verschiedenen Konferenzteilnehmern hervorgehoben. Eher eine Ausnahme bildete in dieser Hinsicht die im Ton einer Warnung vorgetragene Einschätzung des Verlagsvertreters in der Abschlussdiskussion, dass mit der Durchsetzung neuer Nutzungsregimes (Google, Creative Commons, Open Access) und dem Erfolg weitgehend anonymer Plattformen zur Wissensaggregierung (Wikipedia) der Autor zunächst enteignet und dann überflüssig würde. Eher zeigte sich, so zum Beispiel in der angeregten Diskussion nach der Projektpräsentation von Docupedia-Zeitgeschichte durch Jürgen Danyel, dass die Chancen von Wikis und andere Plattformen des Web 2.0 für die Wissenschaft gerade in der Unterstützung des Autors gesehen werden. Diese Techniken erlauben theoretisch, den informellen wissenschaftlichen Austausch über Personen, Literatur und Ergebnisse festzuhalten, der die Produktion von wissenschaftlichen Texten begleitet. Diese ganz überwiegend „nicht-linearen” Texte, z.B. Kommentare, Literaturhinweise, Hinweise auf Projekte und Wissenschaftler, kann ein Autor dann im selben Publikationssystem  zur Weiterentwicklung seines Textes nutzen. Vor allem diese Möglichkeit von „Zeitgeschichte schreiben in der Gegenwart” soll zukünftig im Projekt Docupedia-Zeitgeschichte untersucht und erprobt werden.

Ein ausführlicher Tagungsbericht wird in Kürze auf H-Soz-u-Kult erscheinen.

Weiterlesen

Bericht über das Arbeitsgespräch mit Björn Hoffmann, Meyers Lexikon Online am 26.01.2009 in der Humboldt-Universität zu Berlin

meyer_logo1Mit über 150.000 Artikeln und rund 5 Millionen Bildern ist Meyers Lexikon Online das derzeit umfangreichste frei zugängliche Online-Nachschlagewerk im deutschsprachigen Raum, dessen Inhalte, anders als im Falle der Wikipedia, von einer Redaktion herausgegeben und geprüft werden. 2006 stellte der Verlag Bibliographisches Institut & F. A. Brockhaus AG die Inhalte der 10. Auflage von Meyers 24-bändigen Lexikon komplett ins Netz und beendete die Produktion der gedruckten Ausgabe. Seit 2007 können Leser und Nutzer an den Artikeln im Netz mitschreiben, die dann durch die Lexikonredaktion geprüft werden.

Aktuell steht das Projekts leider vor dem Aus, da der Verlag kürzlich den Verkauf der Marken Brockhaus und Meyer und die Trennung vom Geschäft mit lexikalischen Nachschlagewerken bekannt gab. Die Schließung des Lexikon Portals wurde für den 31. Januar 2009 angekündigt. In dem Arbeitsgespräch, das das Docupedia-Zeitgeschichte Team mit dem Leiter des Bereichs Online-Publishing im Verlag und Absolventen der Humboldt-Universität Björn Hoffmann führte, ging es jedoch im Wesentlichen nicht um die verlagspolitischen Entscheidungen. Stattdessen drehten sich die Fragen um technische und redaktionelle Erfahrungen aus über drei Jahren Arbeit mit einem Wiki-gestützten Online-Lexikon und möglicherweise daraus entstehenden Konsequenzen für die Umsetzung des Projekts Docupedia-Zeitgeschichte.

Meyers Lexikon Online hat die Zielsetzung, lexikalisch relevante und redaktionell geprüfte Inhalte anzubieten. Insbesondere dieses Merkmal der Verlässlichkeit wurde in vielen Kommentaren durch Nutzer des Lexikons immer wieder positiv hervorgehoben, berichtete Hoffmann. Das Verlagsangebot hätte sich so klar gegenüber der populären Wikipedia positioniert. Eine Nachfrage nach qualitätsgesicherten Inhalten, von Nutzern sicherlich oft auch ergänzend zur Wikipedia herangezogen, hätte sich immer wieder bestätigt. Meyers Lexikon Online kann derzeit sechs bis sieben Millionen Zugriffe (Page-Impressions) monatlich aufweisen und dies, so Hoffmann, ohne intensive Werbemaßnahmen des Verlags. Über 90 Prozent der Nutzer kämen über Suchmaschinen, bzw. Google. Spitzenwerte erreicht die Nutzung regelmäßig am späten Nachmittag, der „typischen Hausaufgabenzeit“, wie Hoffmann erläuterte.

In technischer Hinsicht setzte Meyers Lexikon Online von Beginn an auf eine Wiki-Plattform. Zunächst kam das von der Wikipedia bekannte MediaWiki, dann seit 2008 das eher im Unternehmensbereich verbreitete System Confluence der Firma Atlassian zum Einsatz. Den Wechsel auf Confluence begründete Hoffmann mit der besseren Abbildbarkeit von Redaktionsprozessen sowie der, aus Firmensicht, langfristig sichereren Unterstützung durch den Anbieter. Auch wären lokale Suchfunktionen, die insbesondere für die Redaktion ein wichtiges Arbeitsmittel darstellen, in MediaWiki nicht so differenziert wie benötigt umzusetzen gewesen. Die Confluence Oberfläche stelle zudem wesentlich mehr Möglichkeiten bereit, den teilweise sehr detaillierten Anforderungen von Content- und Werbepartnern nachzukommen. Zusätzliche Features, wie der in Confluence von Anfang an vorhandene „Rich-Text Editor“, wären hingegen durch die Entwicklung vergleichbarer Extensions für MediaWiki nicht mehr so entscheidend. Auch stelle das vor allem als Intranet-Wiki entwickelte Confluence für vergleichbare Web-Performance größere Hardwareanforderungen.

Unter redaktionellen Gesichtspunkten konnte im Zuge des Aufbaus des Online-Angebots eine aus dem Print-Bereich kommende 60-köpfige Lexikonredaktion erfolgreich auf Anforderungen des Online-Publizierens umgestellt werden. Eine Aufgabe der Redaktion ist es seither, laufend Beiträge und Änderungen zu prüfen, die im „Werkstattbereich“ des Lexikons entstehen, diese ggf. zu bearbeiten und sie dann im „Wissensbereich“ zu publizieren. Beide genannten Bereiche des Lexikons, inklusive aller überarbeiteten Versionen der Artikel, sind öffentlich zugänglich. Nur im „Werkstattbereich“ haben angemeldete Nutzer auch Schreibrechte an den Artikeln. Technisch wurden „Werkstatt-“ und „Wissensbereich“ im Wiki-System durch Einsatz unterschiedlicher Namensräume realisiert. Damit Verlinkungen, die im Werkstattbereich angelegt wurden, immer auf Artikel im Wissensbereich verweisen, wurde eine Software zur automatischen Korrektur der angegebenen Adressen eingesetzt (s. dazu auch den Blog Beitrag von B. Hoffmann).

Bewährt hätte sich ebenfalls, wie Hoffmann es nannte, die „Kathedralarchitektur“ der Redaktion, in der Zuständigkeiten und Aufgaben zentral festgelegt werden. So können einerseits Marginalien aus dem laufenden Betrieb des Portals bereits früh abgefangen werden, bevor sich die eigentlichen Redaktionsmitglieder damit beschäftigen müssen. Andererseits ist so die schnelle Bearbeitung von zuletzt rund 1.000 Nutzerbeiträgen im Jahr möglich. Als schwierig hätte sich jedoch die redaktionelle Nachverfolgung der sehr zahlreichen Beiträge auf den Diskussionsseiten einzelner Artikel herausgestellt. Hier wären nur selten Beiträge zu verzeichnen gewesen, aus denen unmittelbar Hinweise zur redaktionellen Bearbeitung oder Erstellung von Artikeln resultierten.

Insgesamt sah Hoffmann das für Meyers Lexikon Online entwickelte Modell der Kooperation zwischen Redaktion und Nutzeröffentlichkeit als sehr erfolgreich an. Viele Themen, die im „klassischen“ Lexikon nicht vorgesehen waren, wären erst durch Nutzerbeteiligung hinzugekommen. Für die Bearbeitung von Themen außerhalb des fachlichen Kompetenzbereichs der Redaktion wurden einzelne Experten als Autoren eingesetzt, die Themenvorschläge von Nutzern zu Artikeln ausarbeiteten. Einzelne Autoren wurden zur Veröffentlichung von Artikeln in Eigenverantwortung berechtigt, der Kreis der verantwortlichen Mitwirkenden so sukzessive erweitert. Die stärkere Beteiligung von Wissenschaftlern oder auch Institutionen, die Verantwortung für einzelne Bereiche des Lexikons übernehmen, ist im Projekt angedacht, wurde aber noch nicht umgesetzt.

Gefragt nach häufigen Problemen, die sich beim Betrieb des Portals herausstellten, wies Hoffmann auf den bekannterweise schwierigen Umgang im hochgeladenen Bildern hin. Aufgrund der komplizierten Urheberrechtslage beschäftigte der Verlag hier einen speziell ausgebildeten Mitarbeiter, der jedes hochgeladene Bild vor Veröffentlichung auf seine Verwendbarkeit prüfe. Viel Arbeit machen auch sehr spezielle Themenvorschläge von Nutzern, die dann erst einmal durch die Redaktion ausgearbeitet werden müssen. Die Möglichkeit zur Gestaltung einzelner Teilnehmerprofile (Homepages) wurde von den registrierten Nutzern kaum wahrgenommen. Möglicherweise ist dies aber auch der in dieser Hinsicht schlechten Usability des Angebots geschuldet, da der Zugang zu dieser Funktion schwer zu finden ist.

Insgesamt bestätigten sich in dem Gespräch mit Björn Hoffmann viele Überlegungen, die auch im des Projekt Docupedia-Zeitgeschichte diskutiert werden. So war es erfreulich zu hören, dass trotz des sehr breiten Angebots der Wikipedia noch ausreichend Nachfrage für redaktionsgeprüfte Inhalte in vielen Themenbereichen besteht. Auch das Modell eines „Werkstatt-“ und eines geprüften „Wissensbereichs“ wird sich, leicht modifiziert, in Docupedia-Zeitgeschichte wiederfinden. Die Arbeitsteilung zwischen einer zentralen Online-Redaktion und einem erweiterten Kreis von Redakteuren hat sich auch in anderen wissenschaftsnahen Informationsangeboten, wie beispielsweise H-Soz-u-Kult, bewährt. Ob man allerdings in einem auf die unbezahlte engagierte Mitwirkung aus der Fachöffentlichkeit angewiesenen Projekt ein ähnliches Verfahren der zentralen Steuerung von Aufgaben umsetzen kann, erscheint fraglich. Sicher ist auf jeden Fall, dass Docupedia-Zeitgeschichte nicht mit 150.000 Artikeln und einem großen Stab von Redakteuren starten wird. Bis der Umstieg auf ein Enterprise Wiki wie Confluence nötig wird, kann also noch etwas Zeit vergehen.

Nachtrag:

Das MLO-Portal wurde am 23.03.2009 abgeschaltet (s. http://blog.meyers.de/576-meyers-lexikon-online-wird-abgeschaltet ). Meyers Medien (http://medien.meyers.de/), der Meyers online-Blog (http://blog.meyers.de/) und die Verlagswebseite (http://www.meyers.de/) bleiben zunächst noch erhalten.

Weiterlesen
1 8 9 10