Nachschlagewerk Internet? Herausforderungen an Bibliotheken, Verlage und Forschungseinrichtungen

Bericht über die Veranstaltung des Projekts Docupedia-Zeitgeschichte am 16.04.2009 am Zentrum für Zeithistorische Forschung in Potsdam

Online-Nachschlagewerke zum Recherchieren von Fakten und zum schnellen Einstieg in verschiedene Forschungsbereiche, die noch dazu kostenlos zur Verfügung stehen, sind ein aus Sicht der Nutzer optimales Produkt. In dieser Hinsicht herrschte unter den Teilnehmern der Veranstaltung „Nachschlagewerk Internet?”, veranstaltet vom Projekt Docupedia-Zeitgeschichte am 16.04.2009 am ZZF Potsdam, auch weitgehend Einigkeit. Schwieriger zu beantworten war hingegen die Frage, wer die Kosten der redaktionellen und technischen Aufbereitung von gesichertem Wissen in Online-Nachschlagewerken trägt, sofern man sich nicht allein auf freie Plattformen wie die Wikipedia verlassen will.

Die Teilnehmer des Podiumsgesprächs, Rüdiger Hohls von der Humboldt-Universität Berlin und Ulrich Johannes Schneider von der Universitätsbibliothek Leipzig, stellten im Verlauf des Podiumsgesprächs verschiedene Modelle vor, wie qualitätsgesicherte Online-Inhalte von Forschungseinrichtungen und Bibliotheken derzeit aufgebaut und angeboten werden. Eine ebenfalls geladene Vertreterin des Verlags Brockhaus / Bibliographisches Institut Leipzig musste leider kurzfristig abgesagen. Dennoch wurde die Verlagsperspektive, nicht nur dank einer im Publikum anwesenden Verlagsmitarbeiterin, von Publikum und Podiumsteilnehmern immer wieder aufgegriffen. Die Reflexion über die Rolle von Verlagen im System des akademischen Publizierens rückte sogar zunehmend in den Mittelpunkt der Diskussion.

Rüdiger Hohls, als Vertreter verschiedener wissenschaftlicher Initiativen im elektronischen Publizieren auf dem Podium, beschrieb zu Beginn das klassische Modell des akademischen Publizierens als weitgehend obsolet. Verlage könnten heute nicht mehr darauf vertrauen, dass es ihnen gelingt, mithilfe von Druckkostenzuschüssen der öffentlichen Hand und hohen Preisen akademische Publikationen in einem kostendeckenden Umfang auf dem Markt abzusetzen. Dafür hätten sich in den vergangenen Jahren zu viele alternative Wege des Publizierens aufseiten der Wissenschaft herausgebildet. Dies gelte für gedruckte Nachschlagewerke ebenso wie für Zeitschriften, die außerdem im Bereich der Naturwissenschaften zu überteuerten Preisen verkauft würden, was bereits deutliche Kürzungen in einigen Bereichen der Bibliotheksetats zur Folge gehabt hätte. Die Verlage hätten jedoch die Entwicklung alternativer elektronischer Produkte und Dienstleistungen schlicht verschlafen, was zum Teil auch die aktuell zu beobachtenden Proteste von Branchenvertretern erklärt.

Ulrich Johannes Schneider, Repräsentant einer großen wissenschaftlichen Bibliothek und ihres Informationsauftrags, formulierte eine ähnliche Kritik: Wenn Verlage im akademischen Bereich mit Druckkostenzuschüssen der öffentlichen Hand kalkulierten, warum beteiligten sie sich dann nicht stärker am Aufbau von wissenschaftsnahen Serviceangeboten? Beispielsweise müsse jedes Projekt an der Universität Leipzig immer wieder von vorne mit dem Aufbau einer Website zwecks Veröffentlichung von Projektergebnissen beginnen. Warum bieten die Verlage nicht von sich aus Infrastrukturen, die Wissenschaftler von Anfang an zum elektronischen Publizieren nutzen können, fragte Schneider. Innovative Angebote der Wissenschaft, Materialsammlungen und Quellen könnten über eine solche Plattform ebenso publiziert werden wie hochwertige Publikationen, deren Abruf kostenpflichtig ist und die dann ggf. auch im Druck erscheinen. Eine solche kombinierte Plattform würde wissenschaftlich wie auch kommerziell einen Sinn ergeben.

Trotz dieser vehement vorgetragenen Kritik an der Rolle von Verlagen im traditionellen akademischen Publizieren wurde in der weiteren Diskussion deutlich, dass die Leistungen von Verlagen aus der Arbeit von Wissenschaft und Bibliothek kaum wegzudenken sind. An einer Verlagspublikation, so Schneider, machen sich Bewertungen fest, und die Verlage seien, so Hohls, mit ihrem Profil häufig eng mit den etablierten Hierarchien einzelner Fachgebiete verknüpft. Institutionelle Veröffentlichungsplattformen, wie Dokumentenserver und Universitätsverlage, die vom Ansatz her die elektronische Veröffentlichung von Publikationen aller Fächer einer Universität übernehmen, können bislang keine vergleichbare Akzeptanz in der Fachöffentlichkeit aufweisen. Vielfältige Bemühungen zur Gründung von Universitätsverlagen haben gezeigt, dass damit nicht unbedingt eine kostengünstigere Infrastruktur des akademischen Publizierens entsteht, wie Schneider ausführte.

An diese Überlegung knüpfte sich im Folgenden eine anregende Diskussion über die Bedeutung des Zielpublikums für die verschiedenen Akteure im Bereich des akademischen Publizierens und die spezifischen Kompetenzen von Verlagen an. Wissenschaft und Bibliotheken gehen stets davon aus, dass publizierte Informationen unabhängig von einem konkreten Zielpublikum bedeutsam seien oder es zumindest einmal werden können. Als Beispiele nannte Schneider die im Rahmen eines Projekts der Universität Leipzig aktuell digitalisierten historischen Studentenzeugnisse oder das von ihm initiierte Dictionary of Intellectual Historians, das sich vorgenommen hat, Ideenhistoriker weltweit zu repräsentieren, auch wenn diese innerhalb Europas gänzlich unbekannt sind. Für Verlage hingegen ist die Definition eines Markts für Produkte und damit die Fokussierung eines Zielpublikums zentral. Verlagsprodukte verkörperten stets die gezielte „Begrenzung” und Auswahl von Informationen, sie entsprächen damit dem weitverbreiteten Bedürfnis nach effektiven Informationsfiltern und vermittelten eine höhere Wertigkeit. Sollte also die Aufgabe von Verlagen vorwiegend darin bestehen, die Zahl der verfügbaren Publikationen zu reduzieren und damit der wesentlichen Information den Vorrang vor der unwesentlichen zu sichern, wie aus dem Publikum angemerkt wurde?

Moderator Jürgen Danyel wies auf eine eher gegenläufige Entwicklung hin, die derzeit traditionelle wie auch alternative Publikationsmodelle relativiert, und das nicht nur im akademischen Bereich. So entsteht im Zuge der schnell fortschreitenden Massendigitalisierung von Bibliotheksbeständen durch Google weltweit ein neues Zugriffsmodell auf qualitätsgesicherte wissenschaftliche Inhalte. Wie stellen sich denn, so fragte Danyel, Wissenschaft und Bibliotheken auf diese Herausforderung ein?

Aus Sicht der Bibliothek, so Schneider, müsse man das Google-Projekt eigentlich befürworten. Für die Informationsbereitstellung, die Erschließung der Inhalte für die interessierte Öffentlichkeit bedeute die Google-Digitalisierung einen großen Sprung, der ohne die kommerzielle Motivation des Unternehmens wohl nicht so schnell erfolgt wäre. Für Bibliotheken, die jetzt per Lizenz digitale Inhalte zurückkaufen müssten, über die sie in analoger Form selbst verfügen, wäre dies natürlich bitter und die Monopolstellung Googles ein großes Problem. Aber wenn man diese Aspekte in den Griff bekäme, spekulierte Schneider, wäre ein großer Teil des bisherigen institutionellen Designs der Bibliotheken vermutlich in Zukunft überflüssig. Rüdiger Hohls stimmte dem zu und ergänzte, dass auch andere klassische Bibliotheksdienstleistungen wie beispielsweise das Katalogisieren derzeit am schnellsten durch kommerzielle Unternehmen wie beispielsweise OCLC weiterentwickelt würden. Auch hier werden ursprünglich öffentlich finanzierte Datenbestände zu einem hochwertigen, fortan aber kommerziellen Informationsangebot zusammengefasst. Angesichts dieser globalen Entwicklungen, so Hohls, werde sich die Frontstellung zwischen den Befürwortern freier Open Access und kommerzieller Verlagsangebote deutlich relativieren, sofern Anbieter wie OCLC oder Google preislich realistische Lizenzmodelle für diese globalen Informationsschätze bereitstellen.

So entfernten sich die Diskussionen auf der Veranstaltung relativ schnell vom konkreten Thema des „Nachschlagens” und bewegten sich eher in Richtung eines Gesprächs über die Rolle von Verlagen und globale Geschäftsmodelle für die Online-Bereitstellung akademischer Publikationen. Es gelang dennoch, den Anwesenden einige der aktuellen Bruchstellen und Schnittflächen im Verhältnis von Bibliotheken, Forschungseinrichtungen und Verlagen plastisch vor Augen zu führen. Die interessierten Nachfragen aus dem Publikum bestärkten die Veranstalter vom Projekt Docupedia-Zeitgeschichte darin, weitere Workshops zu Themenbereichen aus dem Projektumfeld vorzubereiten. Vielleicht wäre ein weiteres Podiumsgespräch vielversprechend, diesmal dann ausschließlich mit Repräsentanten aus dem Bereich der Wissenschaftsverlage besetzt. Denn bekanntlich sind Positionen und Geschäftsmodelle der Verlagswelt vielfältiger, als es die Rhetorik des Branchenverbandes zuweilen vermuten lässt. Allen Mitwirkenden an dieser Veranstaltung sei an dieser Stelle für ihre engagierte Teilnahme noch einmal herzlich gedankt.

Weiterlesen

Docupedia-Zeitgeschichte auf der Konferenz „Zeitgeschichte schreiben in der Gegenwart. Narrative – Medien – Adressaten”

zeitgeschichte_schreibenDen Veränderungen nachzuspüren, denen die Zeitgeschichtsschreibung am Beginn des 21. Jahrhunderts unterworfen ist, war Ziel einer gut besuchten Konferenz des Zentrums für Zeithistorische Forschung Potsdam am 20. und 21.03.2009 (Programm). Neben Fragen nach veränderten Darstellungsformen und Konzepten der Zeitgeschichtsschreibung in den klassischen Medien Buch und Zeitschriftenartikel wurde auf der Veranstaltung auch die Rückwirkung digitaler und vernetzter Technologien auf die Produktion und Rezeption zeithistorischer Geschichtswissenschaft behandelt. Einige subjektive Eindrücke seien hier kurz festgehalten.

Wie sehr der technologische Wandel insbesondere im Bereich der Medien die Arbeit der Zeitgeschichte verändert hat und weiterhin verändern wird, wurde in fast allen Panels der Tagung durchaus kontrovers diskutiert. Betont wurde dabei unter anderem, dass mit dem Übergang zur elektronischen Kommunikation seit etwa Mitte der neunziger Jahre die Überlieferung wichtiger Quellen störanfälliger wurde. Das Web 1.0, wenn man so die vergangenen 15 Jahre des Internets beschreiben will, die vor allem durch den Aufbau einer Masseninfrastruktur für Online-Kommunikation gekennzeichnet waren, wurde von einigen Konferenzteilnehmern als neues „Dark Age” beschworen. Die formative Phase des Internets sei praktisch kaum archiviert, und Historikerinnen und Historiker könnten auch in naher Zukunft mit dem Verlust zentraler Quellenbestände konfrontiert sein, wenn von idiosynkratischen Homepages und überquellenden privaten E-Mail-Boxen, aber auch von der elektronischen Kommunikation in Institutionen nur noch wenig bis nichts mehr übrig geblieben sei. Die Rekonstruktion historisch bedeutsamer Entscheidungsprozesse als wichtige Aufgabe von Zeithistorikerinnen und -historikern werde deshalb zukünftig schwieriger, auch wenn Archivare bereits begonnen hätten, Konzepte zur Sicherung dieses Quellenmaterials zu erarbeiten.

Dieser eher skeptischen Analyse eines schon erlittenen oder weiterhin drohenden Verlustes wurden auf der Tagung aber auch die neuen Chancen des „Suchens und Findens” und die Entstehung einer neuen, vielfach größeren Überlieferungsschicht massenhafter Netzpublikationen entgegengehalten. Viel mehr als noch in den neunziger Jahren wird Massenkommunikation heute gespeichert, weiterverwendet und ausgewertet. Das „Gedächtnis” des Internet ist im Web 2.0 deutlich stärker ausgeprägt, allerdings auch weitgehend öffentlicher Kontrolle entzogen. Niemand kann abschätzen, ob die Unternehmen und Organisationen, die heute vorbildlose Datenbestände bereitstellen (man denke nur an YouTube) dies auch zukünftig tun werden. Die Zeitgeschichtsschreibung, ebenso wie die Archivwissenschaft, muss hier dringend Standards für den Umgang mit der entstehenden digitalen Online-Überlieferung entwickeln. Vielleicht lassen sich hier – ähnlich wie bereits vor einigen Jahren im Zuge des „visual turn” und der Frage des geschichtswissenschaftlichen Umgangs mit Bildmaterialien – grundlegende Desiderate für die Methodik der Geschichtsschreibung formulieren. Mehr noch: Wahrscheinlich ist eine im Kontext der „digitalen Wende” erneuerte Methodik der Zeitgeschichte nicht nur möglich, sondern unumgänglich, denn dem Verlust der Quellen entspricht auf der anderen Seite ihre neue Überfülle. Die Zeitgeschichte steht deshalb nicht nur vor der Frage, wie eine Quellenkritik der Online-Überlieferung aussehen könnte. Vielmehr wird sie Strategien entwickeln und begründen müssen, wie die Flut verfügbarer Informationen hierarchisiert und geordnet werden kann.

Probleme des kollaborativen Arbeitens an wissenschaftlichen Inhalten, wie sie auch unser Projekt Docupedia-Zeitgeschichte beschäftigen, wurden auf der Tagung immer wieder angesprochen. Explizit tat dies Peter Haber am Freitagnachmittag. Haber gab in seinem Vortrag zunächst eine Übersicht über die Tradition „nicht-linearer” Texte, also von Texten, die beim Lesen nicht unbedingt die Kenntnis vorhergehender bzw. noch folgender Informationen über den behandelten Gegenstand voraussetzen. Als klassische Beispiele nannte Haber die Kommentarbereiche und Apparate von wissenschaftlichen Artikeln oder auch Textbooks und Materialsammlungen für die Lehre, die Fragmente aus anderen Texten zu neuen Einheiten zusammenstellen. Insbesondere hier sah Haber Ansatzpunkte für die kollaborative Erstellung von wissenschaftlichen Inhalten; zumal auch die Rezeption von Fachtexten im Netz, wie sie zumeist beim schnellen Recherchieren von brauchbaren Inhalten für die eigene Argumentation stattfindet, punktuell und nicht-linear erfolgt.

Die Bedeutung des Autors und der Autorin als Instanz der Produktion wissenschaftlicher Inhalte, deren Leistung auch zur leichteren Rezeption dieser Inhalte beiträgt, wurde von verschiedenen Konferenzteilnehmern hervorgehoben. Eher eine Ausnahme bildete in dieser Hinsicht die im Ton einer Warnung vorgetragene Einschätzung des Verlagsvertreters in der Abschlussdiskussion, dass mit der Durchsetzung neuer Nutzungsregimes (Google, Creative Commons, Open Access) und dem Erfolg weitgehend anonymer Plattformen zur Wissensaggregierung (Wikipedia) der Autor zunächst enteignet und dann überflüssig würde. Eher zeigte sich, so zum Beispiel in der angeregten Diskussion nach der Projektpräsentation von Docupedia-Zeitgeschichte durch Jürgen Danyel, dass die Chancen von Wikis und andere Plattformen des Web 2.0 für die Wissenschaft gerade in der Unterstützung des Autors gesehen werden. Diese Techniken erlauben theoretisch, den informellen wissenschaftlichen Austausch über Personen, Literatur und Ergebnisse festzuhalten, der die Produktion von wissenschaftlichen Texten begleitet. Diese ganz überwiegend „nicht-linearen” Texte, z.B. Kommentare, Literaturhinweise, Hinweise auf Projekte und Wissenschaftler, kann ein Autor dann im selben Publikationssystem  zur Weiterentwicklung seines Textes nutzen. Vor allem diese Möglichkeit von „Zeitgeschichte schreiben in der Gegenwart” soll zukünftig im Projekt Docupedia-Zeitgeschichte untersucht und erprobt werden.

Ein ausführlicher Tagungsbericht wird in Kürze auf H-Soz-u-Kult erscheinen.

Weiterlesen

Bericht über das Arbeitsgespräch mit Björn Hoffmann, Meyers Lexikon Online am 26.01.2009 in der Humboldt-Universität zu Berlin

meyer_logo1Mit über 150.000 Artikeln und rund 5 Millionen Bildern ist Meyers Lexikon Online das derzeit umfangreichste frei zugängliche Online-Nachschlagewerk im deutschsprachigen Raum, dessen Inhalte, anders als im Falle der Wikipedia, von einer Redaktion herausgegeben und geprüft werden. 2006 stellte der Verlag Bibliographisches Institut & F. A. Brockhaus AG die Inhalte der 10. Auflage von Meyers 24-bändigen Lexikon komplett ins Netz und beendete die Produktion der gedruckten Ausgabe. Seit 2007 können Leser und Nutzer an den Artikeln im Netz mitschreiben, die dann durch die Lexikonredaktion geprüft werden.

Aktuell steht das Projekts leider vor dem Aus, da der Verlag kürzlich den Verkauf der Marken Brockhaus und Meyer und die Trennung vom Geschäft mit lexikalischen Nachschlagewerken bekannt gab. Die Schließung des Lexikon Portals wurde für den 31. Januar 2009 angekündigt. In dem Arbeitsgespräch, das das Docupedia-Zeitgeschichte Team mit dem Leiter des Bereichs Online-Publishing im Verlag und Absolventen der Humboldt-Universität Björn Hoffmann führte, ging es jedoch im Wesentlichen nicht um die verlagspolitischen Entscheidungen. Stattdessen drehten sich die Fragen um technische und redaktionelle Erfahrungen aus über drei Jahren Arbeit mit einem Wiki-gestützten Online-Lexikon und möglicherweise daraus entstehenden Konsequenzen für die Umsetzung des Projekts Docupedia-Zeitgeschichte.

Meyers Lexikon Online hat die Zielsetzung, lexikalisch relevante und redaktionell geprüfte Inhalte anzubieten. Insbesondere dieses Merkmal der Verlässlichkeit wurde in vielen Kommentaren durch Nutzer des Lexikons immer wieder positiv hervorgehoben, berichtete Hoffmann. Das Verlagsangebot hätte sich so klar gegenüber der populären Wikipedia positioniert. Eine Nachfrage nach qualitätsgesicherten Inhalten, von Nutzern sicherlich oft auch ergänzend zur Wikipedia herangezogen, hätte sich immer wieder bestätigt. Meyers Lexikon Online kann derzeit sechs bis sieben Millionen Zugriffe (Page-Impressions) monatlich aufweisen und dies, so Hoffmann, ohne intensive Werbemaßnahmen des Verlags. Über 90 Prozent der Nutzer kämen über Suchmaschinen, bzw. Google. Spitzenwerte erreicht die Nutzung regelmäßig am späten Nachmittag, der „typischen Hausaufgabenzeit“, wie Hoffmann erläuterte.

In technischer Hinsicht setzte Meyers Lexikon Online von Beginn an auf eine Wiki-Plattform. Zunächst kam das von der Wikipedia bekannte MediaWiki, dann seit 2008 das eher im Unternehmensbereich verbreitete System Confluence der Firma Atlassian zum Einsatz. Den Wechsel auf Confluence begründete Hoffmann mit der besseren Abbildbarkeit von Redaktionsprozessen sowie der, aus Firmensicht, langfristig sichereren Unterstützung durch den Anbieter. Auch wären lokale Suchfunktionen, die insbesondere für die Redaktion ein wichtiges Arbeitsmittel darstellen, in MediaWiki nicht so differenziert wie benötigt umzusetzen gewesen. Die Confluence Oberfläche stelle zudem wesentlich mehr Möglichkeiten bereit, den teilweise sehr detaillierten Anforderungen von Content- und Werbepartnern nachzukommen. Zusätzliche Features, wie der in Confluence von Anfang an vorhandene „Rich-Text Editor“, wären hingegen durch die Entwicklung vergleichbarer Extensions für MediaWiki nicht mehr so entscheidend. Auch stelle das vor allem als Intranet-Wiki entwickelte Confluence für vergleichbare Web-Performance größere Hardwareanforderungen.

Unter redaktionellen Gesichtspunkten konnte im Zuge des Aufbaus des Online-Angebots eine aus dem Print-Bereich kommende 60-köpfige Lexikonredaktion erfolgreich auf Anforderungen des Online-Publizierens umgestellt werden. Eine Aufgabe der Redaktion ist es seither, laufend Beiträge und Änderungen zu prüfen, die im „Werkstattbereich“ des Lexikons entstehen, diese ggf. zu bearbeiten und sie dann im „Wissensbereich“ zu publizieren. Beide genannten Bereiche des Lexikons, inklusive aller überarbeiteten Versionen der Artikel, sind öffentlich zugänglich. Nur im „Werkstattbereich“ haben angemeldete Nutzer auch Schreibrechte an den Artikeln. Technisch wurden „Werkstatt-“ und „Wissensbereich“ im Wiki-System durch Einsatz unterschiedlicher Namensräume realisiert. Damit Verlinkungen, die im Werkstattbereich angelegt wurden, immer auf Artikel im Wissensbereich verweisen, wurde eine Software zur automatischen Korrektur der angegebenen Adressen eingesetzt (s. dazu auch den Blog Beitrag von B. Hoffmann).

Bewährt hätte sich ebenfalls, wie Hoffmann es nannte, die „Kathedralarchitektur“ der Redaktion, in der Zuständigkeiten und Aufgaben zentral festgelegt werden. So können einerseits Marginalien aus dem laufenden Betrieb des Portals bereits früh abgefangen werden, bevor sich die eigentlichen Redaktionsmitglieder damit beschäftigen müssen. Andererseits ist so die schnelle Bearbeitung von zuletzt rund 1.000 Nutzerbeiträgen im Jahr möglich. Als schwierig hätte sich jedoch die redaktionelle Nachverfolgung der sehr zahlreichen Beiträge auf den Diskussionsseiten einzelner Artikel herausgestellt. Hier wären nur selten Beiträge zu verzeichnen gewesen, aus denen unmittelbar Hinweise zur redaktionellen Bearbeitung oder Erstellung von Artikeln resultierten.

Insgesamt sah Hoffmann das für Meyers Lexikon Online entwickelte Modell der Kooperation zwischen Redaktion und Nutzeröffentlichkeit als sehr erfolgreich an. Viele Themen, die im „klassischen“ Lexikon nicht vorgesehen waren, wären erst durch Nutzerbeteiligung hinzugekommen. Für die Bearbeitung von Themen außerhalb des fachlichen Kompetenzbereichs der Redaktion wurden einzelne Experten als Autoren eingesetzt, die Themenvorschläge von Nutzern zu Artikeln ausarbeiteten. Einzelne Autoren wurden zur Veröffentlichung von Artikeln in Eigenverantwortung berechtigt, der Kreis der verantwortlichen Mitwirkenden so sukzessive erweitert. Die stärkere Beteiligung von Wissenschaftlern oder auch Institutionen, die Verantwortung für einzelne Bereiche des Lexikons übernehmen, ist im Projekt angedacht, wurde aber noch nicht umgesetzt.

Gefragt nach häufigen Problemen, die sich beim Betrieb des Portals herausstellten, wies Hoffmann auf den bekannterweise schwierigen Umgang im hochgeladenen Bildern hin. Aufgrund der komplizierten Urheberrechtslage beschäftigte der Verlag hier einen speziell ausgebildeten Mitarbeiter, der jedes hochgeladene Bild vor Veröffentlichung auf seine Verwendbarkeit prüfe. Viel Arbeit machen auch sehr spezielle Themenvorschläge von Nutzern, die dann erst einmal durch die Redaktion ausgearbeitet werden müssen. Die Möglichkeit zur Gestaltung einzelner Teilnehmerprofile (Homepages) wurde von den registrierten Nutzern kaum wahrgenommen. Möglicherweise ist dies aber auch der in dieser Hinsicht schlechten Usability des Angebots geschuldet, da der Zugang zu dieser Funktion schwer zu finden ist.

Insgesamt bestätigten sich in dem Gespräch mit Björn Hoffmann viele Überlegungen, die auch im des Projekt Docupedia-Zeitgeschichte diskutiert werden. So war es erfreulich zu hören, dass trotz des sehr breiten Angebots der Wikipedia noch ausreichend Nachfrage für redaktionsgeprüfte Inhalte in vielen Themenbereichen besteht. Auch das Modell eines „Werkstatt-“ und eines geprüften „Wissensbereichs“ wird sich, leicht modifiziert, in Docupedia-Zeitgeschichte wiederfinden. Die Arbeitsteilung zwischen einer zentralen Online-Redaktion und einem erweiterten Kreis von Redakteuren hat sich auch in anderen wissenschaftsnahen Informationsangeboten, wie beispielsweise H-Soz-u-Kult, bewährt. Ob man allerdings in einem auf die unbezahlte engagierte Mitwirkung aus der Fachöffentlichkeit angewiesenen Projekt ein ähnliches Verfahren der zentralen Steuerung von Aufgaben umsetzen kann, erscheint fraglich. Sicher ist auf jeden Fall, dass Docupedia-Zeitgeschichte nicht mit 150.000 Artikeln und einem großen Stab von Redakteuren starten wird. Bis der Umstieg auf ein Enterprise Wiki wie Confluence nötig wird, kann also noch etwas Zeit vergehen.

Nachtrag:

Das MLO-Portal wurde am 23.03.2009 abgeschaltet (s. http://blog.meyers.de/576-meyers-lexikon-online-wird-abgeschaltet ). Meyers Medien (http://medien.meyers.de/), der Meyers online-Blog (http://blog.meyers.de/) und die Verlagswebseite (http://www.meyers.de/) bleiben zunächst noch erhalten.

Weiterlesen
1 9 10 11