“RaderGate” – Was die Debatte um Plagiate aus der Wikipedia übersieht

Fomfr pranger

Pranger im Foltermuseum in Freiburg im Breisgau

 

Vor drei Tagen ging die Nachricht durch die Medien, dass zwei Historiker unter Plagiatsverdacht stehen. Das Buch “Große Seeschlachten: Wendepunkte der Weltgeschichte von Salamis bis Skagerrak” (C.H. Beck Verlag) soll von den Autoren Arne Karsten und Olaf Rader in großen Teilen sogar wörtlich aus der Wikipedia stammen. Näheres zu den Umständen findet man z.B. bei Spreeblick.

Jetzt wird der Fall diskutiert. Vom “Diebstahl geistigen Eigentums” ist die Rede, von Verletzung wissenschaftlicher Standards, man sei “beim Abschreiben aus Wikipedia erwischt worden”. Es ist von einer Rufschädigung der Autoren und des Verlags die Rede. Von “digitaler Denunziation” ist zu lesen. Es geht schon wieder mal wild durcheinander im bürgerlichen Empörungszirkus. Dazu drei Anmerkungen.

1. Man darf von Wikipedia  “abschreiben” – auch zu kommerziellen Zwecken

Arne Karsten und Olaf Rader haben erst einmal nichts Verbotenes gemacht. Die Inhalte der Plattform sind freies Wissen und unterliegen der Creative Commons Lizenz CC-BY-SA 3.0. Diese regelt zwei Dinge: Man darf die Inhalte frei verwenden, wenn man den Namen des Urhebers bzw. Rechteinhabers an entsprechender Stelle in der richtigen Form nennt und die Inhalte unter derselben Lizenz weitergibt. Das bedeutet aber auch, dass die Inhalte verändert, kopiert, in Bücher gepackt und verkauft werden dürfen.

Die Wikimedia Foundation, als Trägerin der Wikipedia, hat diese Lizenz bewusst ausgewählt und eine intensive Debatte der Wikipedia-Community hat vor einigen Jahren noch einmal bestätigt, dass die kommerzielle Nutzung der Wikipedia-Texte nicht ausgeschlossen werden soll. Dafür gibt es eine ganz einfache Begründung: Das Verbot der kommerziellen Nutzung verhindert die Verbreitung freien Wissens, dem Ziel der Wikipedia und ihrer Schwesterprojekten.

Von “Diebstahl geistigen Eigentums” kann man daher gar nicht so leicht sprechen. Genaugenommen war der Begriff “Diebstahl” im Bereich der Wissensvermittlung immer schon falsch. Aber in jedem Fall – man ahnt es schon – kann man von einem Lizenzverstoß ausgehen. Doch dazu gleich.

2. Die Neuordnung von Wissen ist eine eigene Leistung

Die Scientific Community forciert in der laufenden Diskussion über das Buch “Große Seeschlachten” zwei Fragen: Sind beim “Abschreiben” wissenschaftliche Standards verletzt worden? Und: Hat das vorliegende Werk einen neuen Erkenntniswert?

Die erste Frage ist schnell beantwortet. Es ist zu prüfen, ob die Quellen den allgemeinen Standards entsprechend belegt werden. Ist das nicht geschehen, ist der Fall klar: Standard verletzt. Rüge. Marginalisierung in der Scientific Community. Fertig ist der Lack.

Was die wenigsten wissen: Auch Wikipedia hat über die Jahre sehr strenge Regelungen für Quellenbelege eingeführt. Ihre Einträge sind nicht selten besser belegt als manche Seminararbeit zum selben Thema.

Die zweite Frage,  nach dem Erkenntniswert oder dem Wert generell, ist natürlich komplexer. Ob die “Großen Seeschlachten” von Arne Karsten und Olaf Rader ein großer Wurf sind oder zumindest eine gute Einführung können nur die Leserinnen und Leser entscheiden. Es wäre jedoch fatal, wenn der aktuelle Fall dazu benutzt würde, die Arbeit in und mit der Wikipedia wieder einmal so zu drehen, dass am Ende eine akademische Zweiklassengesellschaft herauskommt.

Diese Sorge kommt nicht von ungefähr, denn in der Welt strukturkonservativer Wissenschaftler und Journalisten gibt es bekanntlich zwei Sorten von Akademikern: Die eigentlichen Fach-Wissenschaftler und Experten einerseits und den ganzen Rest von einfachen Vermittlern, Lehrern, Laien und Populärwissenschaftler andererseits. Alle, die nicht für die Scientific Community schreiben, stehen unter Generalverdacht, doch eigentlich keine eigene und wertige Leistung zu bringen. Dasselbe Verdikt trifft konsequenterweise auch gelungene Kompilationen oder Remixes.

Dabei ist die Sicherung, Aufarbeitung und Verbreitung von Wissen eine Kunst, die nicht weniger wichtig ist, als die dann doch oft sehr handwerklich zu bewältigende Forschungsarbeit von Fachwissenschaftlern. Und das gilt nicht zuletzt sondern auch für die Wikipedia. Das kollektive Zusammenstellen von Wissen in über 280 Sprachen und Kulturen ist ein ungeheurer Lern- und Gestaltungsprozess. Ausgeführt von Menschen, die oft selbst einen sehr hohen Bildungsstand haben.

Und wenn jemand aus dem gesammelten Weltwissen Einzelfragen herausgreift und beispielsweise  Seeschlachten darstellen und besprechen will, kann das eine eigene Leistung sein. Ob sie das in dem konkreten Fall ist, bleibt zu untersuchen. Doch ohne den Inhalt zu kennen, wird pauschal davon gesprochen, dass Karsten und Rader beim “Abschreiben von der Wikipedia erwischt worden”. Wie ein kleiner Schulbub beim Unterschleif. “Das macht man nicht!”

Doch das kann sehr sinnvoll sein, wenn man es richtig macht und nicht gegen geltendes Recht verstößt.

3. Das Buch ist mangelhaft, weil es einen Rechtsmangel hat

Die Kunden des C.H. Beck Verlags haben ein Buch gekauft. Die Inhalte dieses Buches sind urheberrechtlich geschützt. Sie dürfen also nicht ohne Genehmigung des Verlags kopiert, verändert, verbreitet werden.

Sobald die Inhalte des Buches zu großen Teilen aus Inhalten mit einer freien Lizenz bestehen, sieht die Sache anders aus. Diskutiert wird bislang nur, inwieweit Quellen aus wissenschaftlicher Sicht nachgewiesen werden müssen – zum Zweck der Überprüfbarkeit oder zum Nachweise der intellektuellen Eigenleistung. Der Hammer hängt für die Wikipedia aber beim Umgang mit ihren freien Lizenzen.

Es ist legitim, aus Wikipedia in einem kleineren Umfang zu zitieren. Wenn aber größere Teile  übernommen werden, muss klar dargestellt werden, welche Teile aus der Wikipedia kommen und demnach frei verwendet werden können. In diesem Fall: Welche Teile stehen unter der Creative Commons CC-BY-SA 3.0? Auf gar keinen Fall, darf der Urheber (in dem Fall die Rechteinhaberin Wikimedia Foundation ) verschwiegen und der Inhalt unter eine andere Lizenz gestellt werden. Der Verlag hat damit ein Produkt mit Rechtsmängeln verkauft und einen klaren Rechtsbruch begangen.

Normalerweise sichern sich hier Verlage über die Autorenverträge ab. Dort ist meist formuliert, dass alle Rechte an den Verlag übergehen und die Autoren bei der Übergabe diese Rechte auch besitzen müssen. Deswegen wird C. H. Beck nun auch Arne Karsten und Olaf Rader mit seinen Anwälten bearbeiten. Das Problem ist damit aber nicht gelöst. Das Werk muss vom Markt. Die Wikimedia Foundation kann abmahnen und klagen. Vielleicht sollte sie das in diesem Fall endlich mal machen, um am Ende die Stellung freier Lizenzen zu stärken.

Und für die Zukunft gilt: Es wird immer weniger Bücher geben, die zu großen Teilen aus Inhalten mit freien Lizenzen bestehen oder noch schlimmer, der Anteil an Büchern, von denen man nicht sagen kann, inwieweit sie aus freien Inhalten bestehen, wird größer. Das hat schlicht mit der Tatsache zu tun, wie sich mit dem Web unsere Arbeitsweise ändert. Und das Risiko für Verlage wird unvermeidlich steigen. Und so wäre es viel einfacher, wenn der C. H. Beck-Verlag seine Buchinhalte generell unter eine freie Lizenz stellen würde. Das wäre auch kein Problem. Man könnte das Seeschlachten-Buch einfach unter die Creative Commons Lizenz stellen und die Welt wäre in Ordnung. Man würde auch keinen Cent weniger verdienen und die Wikipedia-Community hätte nichts dagegen. Doch das wäre zu einfach. Und zu revolutionär.

Deswegen wird weiter rummoralisiert, es werden Qualitätsdebatten geführt und Handlungen kriminalisiert, die es nicht sind. Über relevante Rechtsverstöße bei der kommerziellen Nutzung freien Wissens dagegen wird in den Medien auffällig geschwiegen. Weil alle betroffen sind.

Für Historikerinnen und Historiker bleibt da nur, künftig die richtigen Gewichte zu setzen und einen klaren Blick zu behalten. Sie brauchen ein Umfeld, das gelernt hat, mit freiem Wissen und freien Lizenzen offen und ehrlich umzugehen.
Und sie müssen selbst ihre Lage angesichts der Medienrevolution neu bestimmen und flexibel darauf reagieren. Die Berufe und Arbeitsweisen in den Sozialwissenschaften werden durch das Web verändert.  Wir werden zunehmend im Web Wissen zur Verfügung stellen und besprechen um ab und zu ein gedrucktes Buch daraus machen. Hier drehen sich die Verhältnisse zwischen Print- und Digitalmedien um.
Und auch das zeigt “RaderGate” (Klaus Graf): Fachwissenschaftler sind zwar weiterhin nötig, die Qualitätssicherung wird aber künftig in der Weböffentlichkeit organisiert.

Auch lesenswert:


Einsortiert unter:Medien

Quelle: http://kritischegeschichte.wordpress.com/2014/04/26/radergate-was-die-debatte-um-plagiate-aus-der-wikipedia-ubersieht/

Weiterlesen

Archivwesen: Kommunalarchiv Minden stellt Digitalisate in Wiki-Commons online

http://commons.wikimedia.org/wiki/Category:Documents_from_the_Kommunalarchiv_Minden Ein Vorbild für andere nicht nur kommunale Archive ist das Bereitstellen von Digitalisaten in Wikipedia. Das Mindener Archiv geht hierbei mit gutem Beispiel voran und hat auch eigene Lizenztemplates entwickelt. Das Kommunalarchiv beteiligte sich vertreten durch einzelne seiner Mitarbeiter in der Vergangenheit beispielsweise auch am GenWiki (e.g. http://wiki-de.genealogy.net/Minden/Adressbuch_1857) Via Archivalia [21.02.2014], http://archiv.twoday.net/stories/706565667

Quelle: http://www.einsichten-online.de/2014/02/4971/

Weiterlesen

09. Brockhaus und die Fragilität des Wissens

Brockhaus_Lexikon_17_Bande_WK_01Aufräumarbeiten in der Vergangenheit

Wieder einmal klappt er zu, der Sargdeckel des Veralteten. Ein historisches Kapitel wird beschlossen, ein lange Zeit vertrautes Element verabschiedet sich aus der Wirklichkeit, ein bislang selbstverständliches Phänomen verlässt das Hier und Jetzt – und lenkt damit unseren Blick auf eben diese Wirklichkeit, in der wir leben.  Den Brockhaus wird es in Zukunft nicht mehr geben. Nach mehr als 200 Jahren wird dieser einst als unverzichtbar geltende Hort des Wissens, der in keinem sich selbst als bildungsbürgerlich verstehenden Haushalt fehlen durfte, der Entropie der Geschichte zum Opfer fallen. Oder muss man genau genommen nicht davon sprechen, dass es ihn schon länger nicht mehr gibt? Denn die wirtschaftlichen Probleme und zurückgehenden Absatzzahlen, in denen die sinkende Bedeutung dieses Nachschlagewerks ihren unerbittlichen Ausdruck findet, sind ja nicht über Nacht aufgetaucht. Schon länger schwächelt der Brockhaus, weshalb die nun getroffene Ankündigung wie die Hinnahme einer schon länger bestehenden Tatsache anmutet. Die Entwicklungen der jüngeren Zeit – 2012 wurde bereits bekannt gegeben, dass die altehrwürdige „Enyclopaedia Britannica“ nur noch digital erscheint – sind wohl eher Aufräumarbeiten in den Halden einer abgeschlossenen Vergangenheit. Die Reaktionen auf das Brockhaus-Ende sind daher auch weniger durch ein kulturpessimistisches „Was soll jetzt werden?“ als vielmehr durch ein erleichtertes „Wurde aber auch Zeit“ geprägt.

Mit was für einer Veränderung haben wie es hier zu tun? Handelt es sich um eine Verschiebung lexikalischen Wissens vom Bücherregal auf den Bildschirm? Oder wird hier das gewinnorientierte Verlagsunternehmen durch die kollaborative Schwarmintelligenz abgelöst? Oder überholt die Hochgeschwindigkeit des Virtuellen die Trägheit des Gedruckten? Ohne Frage sind all das Faktoren, die sich am Beispiel des Endes klassischer Enzyklopädien beobachten lassen. Schließlich ist es nur zu offensichtlich, dass in der derzeitig vorherrschenden Lexikalisierung von Wissen eine Transformation stattgefunden hat (und weiterhin stattfindet), dass teure und verhältnismäßig schwerfällige Buchprodukte nicht mehr mit kostenlosen und flexiblen Internetangeboten konkurrieren können und dass die Ansprüche an Verfügbarkeit und Aktualisierbarkeit des Wissens einer unübersehbaren Beschleunigung unterliegen.

Beständige Anpassung

Aber ist das aktuelle Ereignis des Brockhaus-Endes tatsächlich ein Indiz für den Abschluss einer historischen Entwicklung? Wir haben es mit dem Ende eines Wirtschaftsunternehmens zu tun, aber nicht – in einem tragischen Sinn – mit dem Ende eines Kapitels der Kulturgeschichte oder – in einem emphatischen Sinn – mit einem Beleg für eine Revolution des Wissens. Wir sind vielmehr Zeugen einer erneuten Transformation der Wissensorganisation, von der einst auch Brockhaus profitierte. Denn das seit 1808 erscheinende Konversationslexikon war wahrlich nicht das erste seiner Art. Schon ein Jahrhundert zuvor hatte sich das nur als „Hübner“ bekannte „Reale Staats- Zeitungs- und Conversationslexicon“ etabliert. Es war um 1700 aus der Notwenigkeit heraus entstanden, die im noch relativ jungen Medium der Zeitung behandelte Welt der Gegenwart zu thematisieren. Wissen sollte sich also nicht mehr nur auf klassische und gewissermaßen ewig gültige Inhalte beziehen, sondern hatte nun auch das Hier und Jetzt zu behandeln. Denn die Welt, wie sie der Leserschaft in der periodisch erscheinenden Zeitung vor Augen trat, war durchzogen von Phänomenen, Personen, Ereignissen, Institutionen und Begriffen, die nicht ohne weiteres verständlich waren. Die Gattung des Zeitungs- und Konversationslexikons sollte hier Abhilfe schaffen.

Schon dieses neue Informationsmedium lebte von der Beschleunigung des Wissens, denn Voraussetzung seines Erfolgs war, dass es sich an die permanent verändernde Gegenwart anpasste und in beständig verbesserten Auflagen erschien. Andere Enzyklopädien, die seit dem 16. Jahrhundert (und auch noch parallel zu den neuen Konversationslexika im 18. Jahrhundert) erschienen, waren Einmalprodukte. Sie traten mit dem hypertrophen Anspruch auf, das Wissen der Welt in einer letztlich vollständigen und vor allem dauerhaft gültigen Form zu versammeln. Aber selbst bei diesen einmalig erscheinenden Enzyklopädien lassen sich Phänomene nicht übersehen, die einer Dynamisierung des Wissens dienen sollten. Denn hatten ältere Exemplare noch auf ein topisches und systematisches Wissensverständnis gesetzt, indem sie ihre Inhalte in Themenbereichen anordneten, sprengten spätere Veröffentlichungen diese Einheit auf. Sie gingen zu einer alphabetischen Organisation des Wissenskosmos über, wodurch keinerlei inhaltlicher Zusammenhang mehr sichtbar wurde. Die Einheit des Wissens wurde geradezu zerfetzt, indem man sie der zufälligen Zuordnung der Buchstabenfolge überließ. Dadurch konnten solche Lexika aber zugleich als schnellere Nachschlagewerke genutzt werden, die überhaupt nicht mehr die Intention hatten, zur Gänze gelesen zu werden.

Die Beständigkeit des Unbeständigen

Vor diesem Hintergrund ist das Ende des Brockhaus überhaupt kein Ende. Der Wandel des Mediums und die zunehmende Dynamisierung des Wissens sind nur konsequente Fortsetzungen von Prozessen, die schon seit Längerem zugange sind. Aufschlussreicher ist daher möglicherweise die Frage nach der Kultur, die Wissen für sich in einer bestimmten lexikalischen Form organisiert. Wenn das Wikipedia-Prinzip inzwischen das Brockhaus-Prinzip abgelöst hat, dann überwindet hier nicht nur das schnellere Internet das langsamere Buch. Dann wird vor allem eine Unbeständigkeit und Unsicherheit des Wissens etabliert, die wesentlich bedeutsamer zu sein scheint. Der gedruckte Brockhaus arbeitete mit einer Verbindung von Zeit und Wissen, die wenn schon nicht auf Ewigkeit, dann zumindest auf Dauerhaftigkeit setzte. Wissen war stabil – oder hatte zumindest stabil zu erscheinen. Demgegenüber funktioniert Wikipedia nicht nur auf der Basis des Prinzips, dass Wissen immer aktualisiert werden muss, sondern dass es sich von den Grundlagen bis in die kleinsten Verästelungen hinein beständig verändern können muss. Die Fragilität des Wissens tritt an die Stelle der Stabilität. Und wenn man sich der Beständigkeit des Wissens über die Welt unsicher geworden ist, dann macht seine Materialisierung in Papierform auch keinen Sinn mehr. Wenn das Ende des Brockhaus also etwas über unsere Wirklichkeit verrät, dann über den fragilen Status des Wissens.


Einsortiert unter:Geschichtskultur, Geschichtsmedien Tagged: Brockhaus, Enzyklopädie, Wikipedia, Wissen

Quelle: https://achimlandwehr.wordpress.com/2013/06/17/09-brockhaus-und-die-fragilitat-des-wissens/

Weiterlesen

re:publica 2013 – Nerds im Elfenbeinturm


Vom 6.-8. Mai waren Charlotte Jahnz und Sascha Foerster für die Max Weber Stiftung in Berlin bei der Konferenz re:publica 2013. Sie begann vor 7 Jahren als Blogger-Treffen und hat sich mittlerweile zur wichtigsten europäischen Internet-Konferenzen mit über 5000 Teilnehmern und mehreren hundert Rednern entwickelt. 

Session "Geschichte des Computers" (CC-BY 3.0 Sascha Foerster)

Session “Geschichte des Computers” (CC-BY 3.0 Sascha Foerster)

Aus der Fülle des Programms möchte ich einige interessante Vorträge, Projekte und Themen der Konferenz vorstellen und persönlich kommentieren, besonders in Hinblick darauf, wie die digitalen Entwicklungen Wissenschaft verändern. Falls entsprechende Aufzeichnungen vorhanden sind, werden diese verlinkt. Weitere Themen, Thesen und Zusammenfassungen von Vorträgen können gerne in den Kommentaren ergänzt werden. Mehr Informationen zur Konferenz gibt es unter http://re-publica.de. Dies ist natürlich eine persönliche Auswahl aus der Vielzahl der Themen, die bei der Konferenz behandelt wurden. Wer Konferenzmitschnitte anschauen möchte, findet hier eine Übersichtsseite mit den Sessions und den entsprechenden Videos zum Anschauen.

Open Data, Open Access und Digital Humanities

Nicht nur in der Verwaltung sondern auch in der Forschung fallen viele Daten an, die oft nach Abschluss des Projekts verloren gehen. Im Vortrag “Die maschinenlesbare Regierung” wurde gefordert solche Daten, die bei öffentlich geförderten Projekten anfallen, unter einer verbreiteten freien Lizenz, zum Beispiel “CreativeCommons” (bzw. ähnliche) und maschinenlesbar zugänglich zu machen. Zum einen ermögliche dies die genauere Replikation und Überprüfung von Studien, zum anderen könnten diese Daten für weitere innovative und gesellschaftsdienliche Zwecke genutzt werden. Persönliche Daten sollen dabei geschützt bleiben und nicht veröffentlicht werden.

Nach Möglichkeit sollen bekannte und verbreitete freie Lizenzen für die Datenveröffentlichung verwendet werden. Maschinenlesbar bedeutet, dass diese Daten nicht als PDF “ausgedruckt” (Zitat: “Schnarchdaten”), sondern in Rohformaten veröffentlicht werden, die automatisiert gelesen und weiterverarbeitet werden können. PDF-Dateien sind für solche Zwecke denkbar schlecht geeignet, da die Rohinformationen dort erst wieder aufwendig extrahiert werden müssen.

Es wurden Forderungen gestellt, die Veröffentlichung von Verwaltungs- und Forschungsdaten gesetzlich verpflichtend zu machen. Entsprechende Gesetze sollen baldmöglichst “installiert werden”.

Links:

re:publica 2013 Session: Die maschinenlesbare Regierung – Eine kritische Analyse zur Gegenwart von Open Data und Open Goverment in Deutschland

Definition von “Offenes Wissen”
http://opendefinition.org/okd/deutsch/

http://de.wikipedia.org/wiki/Open_Data

re:publica 2013 Aufzeichnung: How radical are Open Access and the Digital Humanities?
http://www.youtube.com/watch?v=-9d0KM1I0aw

re:publica 2013 Aufzeichnung: OpenData, was hat das mit mir zu tun?
http://www.youtube.com/watch?v=QBSNr6UXIJg

re:publica 2013 Aufzeichnung: Datenbeifreiung, selbst gemacht. (Tools für Open Data)
http://www.youtube.com/watch?v=vWerZQFj4Xc

Crowdfounding, Crowdsourcing und Wissenschaftskommunikation

Ein Beispiel für gute Wissenschaftskommunikation war die Session zur Grundlagenforschung des CERN. Im Vortrag zeigten Henning Krause (Helmholtz-Gemeinschaft) und seine Kolleginnen und Kollegen vom CERN, wie es zur Entdeckung des Higgs-Teilchens kam. Fast alle Institute nutzen die Kanäle Blogs, Facebook, Twitter, teils auch Podcasts oder öffentliche Google Hangouts zur Wissenschaftskommunikation. In der Diskussion wurde später kritisch nachgehakt, ob die Entdeckung des Higgs-Teilchens den enormen finanziellen Aufwand von 6 Milliarden Euro für den Teilchenbeschleuniger LHC rechtfertige. Gerade wegen des hohen finanziellen Aufwands spiele es eine wichtige Rolle, der Öffentlichkeit die Forschungsergebnisse zu vermitteln und so weiter für die Notwendigkeit der Grundlagenforschung zu werben, wurde erwidert. Da am CERN durch Tim Berners-Lee auch die Grundlagen für das WWW geschaffen wurden, konnte man mit Verständnis unter den technikbegeisterten Zuschauern rechnen. Die enorme Datenverarbeitungskapazität, die nur durch ein weltweites Cluster von Rechner bereit gestellt werden können, zeigten auch, dass durch Grundlagenforschung aktuelle technische Entwicklungen voran gebracht werden können.

Zwischen den Sessions gab es immer wieder Gelegenheit persönlich mit Kollegen zu sprechen, unter anderem habe ich mit Thorsten Witt gesprochen, der für “Wissenschaft im Dialog” das Projekt www.sciencestarter.de leitet. Crowdfounding fordert Wissenschaftler/innen dazu auf, sich und ihre Forschung aktiv zu präsentieren, um so Forschungsgelder von einer interessierten Öffentlichkeit zu sammeln. Einerseits gibt es Befürchtungen der Popularisierung von Forschung, andererseits wird so von Anfang an die Wissenschaftskommunikation gefördert. Auch kleinere Projekte bekommen so eine Chance auf Förderung. Neue Projektvorschläge werden gesucht, besonders auch aus den Geistes- und Sozialwissenschaften.

Eine weitere Möglichkeit, die Crowd für die Forschung zu nutzen, besteht darin, ähnlich wie bei der Wikipedia, Forscher/innen dazu zu animieren, sich gegenseitig bei der Lösung von Forschungsproblemen zu unterstützen bzw. Freiwillige zu animieren bei einem interessanten Projekt zu helfen. Ein vergleichsweise einfacher Weg dazu kann eine offene wissenschaftliche Frage in einem Blogbeitrag sein (siehe z.B. die offene Frage und folgende Diskussion im dk-blog), die von anderen Lesern beantwortet wird. Es kann sich aber auch im Großprojekte wie die Digitalisierung historischer Werke handeln, die auch von Nicht-Experten unterstützt wird. Auch hier sind noch Experimente nötig um die entsprechenden Möglichkeiten und Risiken auszuloten.

Thorsten Witt organisiert übrigens ein SciCamp zum Thema “Wissenschaft im Netz”, das am 1. und 2. Juni 2013 in Berlin stattfinden wird.

Links:

re:publica 2013 Aufzeichnung: Faszination Grundlagenforschung: Higgs, Big Data und Teilchenphysik
http://www.youtube.com/watch?v=ceARb5FRy8A

http://www.sciencestarter.de

Passend zum Thema Öffentlichkeitsarbeit und Partizipation:
www.hellojed.de: “Public History: Mehr Öffentlichkeit? Bessere Öffentlichkeit?”

Ähnliche Themen:

re:publica 2013 Aufzeichnung: In, Side, Out of Science (Partizipation in der Wissenschaft)
http://www.youtube.com/watch?v=JZI3peYWGUU

re:publica 2013 Aufzeichnung: Horst Zuse, Die Geschichte des Computers
http://www.youtube.com/watch?v=YAh4Jr5dJcQ

Wikipedia und WikiData

Der Vortrag zu Wikipedia und besonders die kritischen Nachfragen aus dem Publikum zeigen, welche Schwachstellen die Wikipedia momentan hat. Einerseits besteht aus Sicht der Administratoren ein Großteil der Arbeit aus Löschung von unsinnigen Beiträgen, Rückgängigmachung von Vandalismus und Entfernung von Fehlern, die besonders gefährlich sind, da viele, besonders Medien aber auch Wissenschaftler, diese Fehler gegenseitig abschreiben und weiterverbreiteten. Dies wurde an verschiedenen Beispielen gezeigt, u.a. an einem Zahlendreher bei der Länge des Rheins oder einem Eintrag zur Berliner Karl-Marx-Allee. Andererseits werden so auch oft Beiträge und Änderungen gelöscht, die korrekt sind, was zu enormen Frust bei den Nutzern und Autoren führt. Gerade Wissenschaftler, die Spezialisten in ihrem Gebiet sind und Spezial-Artikel durch ihre Expertise auf ein höheres Niveau heben könnten, wenden sich aufgrund der langwierigen Diskussionen mit Administratoren um kleine Anpassungen wieder ab. Dabei sind sich prinzipiell alle Seiten einig, wie wichtig das Projekt Wikipedia ist.

Meiner Meinung nach ist es nicht einfach beide Fehlerarten (falsche Informationen, falsche Löschungen) gleichermaßen zu reduzieren, doch das wird die Aufgabe sein, die die Wikipedia zu lösen hat, um weder (freiwillig arbeitende) Administratoren noch qualitativ hochwertige (ebenfalls freiwillig arbeitend) Beiträger/innen  zu verlieren.

Eine interessante Neuentwicklung ist das Projekt “WikiData“, dass eine Datenbank-Infrastruktur für die Wikipedia bereitstellt. Vielverspechend ist die Möglichkeit, Daten über verschiedene Artikel hinweg an einer zentralen Stelle aktualisieren zu können. Welchen Nutzen dies für Wissenschaftler/innen hat und welche Fragen sich mit diesen Datensätzen beantworten lassen, wird sich erst zeigen, wenn mehr Daten zur Verfügung stehen und einige Forscher damit experimentiert haben. Wer sich für WikiData interessiert, kann schon mal die API testen. Beispielsweise lassen sich auch historische Daten und Fakten in der Datenbank festhalten.

Links:

re:publica 2013 Aufzeichnung: Wikipedia: wo User geblockt, Artikel gelöscht und Reputationen zerstört werden
http://www.youtube.com/watch?v=5iSAl_krauA

http://www.wikidata.org/w/api.php

Digitalisierung und Langzeitarchivierung

Unter dem provokativen aber ernst gemeinten Titel “Das Buch muss überwunden werden – Digitales Utopia oder eher El Dorado?” stand der Vortrag über die “nächste Evolutionsstufe des Buches” und den gegenwärtigen Stand der Digitalisierung. Die Vortragenden vertraten eine klare Position für eine Digitalisierung bis hin zur Abschaffung des Buches in seiner physischen Form. Es wurden Projekte wie die “Deutsche Digitale Bibliothek” und “Europeana.eu“ vorgestellt und die urheberrechtlichen Hintergründe und Probleme erklärt.

Besonders Bücher zwischen 1850 bis 1950 seien vom Papierzerfall bedroht. Die Probleme der digitalen Langzeitarchivierung seien viel besser lösbar bzw. bereits gelöst. Alle Bücher zu digitalisieren, würde nach Schätzungen der Vortragenden 120 Millionen Euro kosten. Selbst wenn es viermal so teuer wäre, so wurde argumentiert, würde es immer noch durch die öffentliche Hand zu stemmen sein.

Zwei Nutzungsszenarien böten sich nach der Digitalisierung an: Zum Ersten könne man die Bücher einfach lesen. Zum Zweiten ließe sich erst nach Digitalisierung eine Volltextsuche durchführen, wie sie beispielsweise bereits von Google ngram angeboten wird.

Auch die Langzeitarchivierung von Blogs ist ein bisher nicht wirklich gelöstes Problem. Zwar gibt es die “Wayback Machine” des “Internet Archives”, doch geht dabei der dynamische Charakter der Blogs verloren, da diese ja meist auf ein Datenbanksystem zurückgreifen. Bereits 45% der Blogs aus der Zeit des Irakkriegs seien verloren gegangen – trotz des bestehenden “Internet Archives”. Das EU-geförderte Projekt “Blogforever” soll hier Abhilfe schaffen, indem es die dynamischen erstellten Blogs archivieren hilft. Es soll in Zukunft als OpenSource-Paket und als Webdienst verfügbar sein.

Ein digitales Archiv des analogen Alltags wird im Projekt “digIT – Graben, Retten, Teilen” beim WDR erstellt. Die Mitarbeiter/innen sammeln vor Ort analoge Videos und Fotos ein, digitalisieren diese und stellen eine Kopie auf ihrer Webseite. Als Beispiel wurde ein Video der Brückenverschiebung 1976 in Düsseldorf gezeigt. Im Workshop suchten die Mitarbeiter nach Ideen für ein besseres Tagging des Materials der Offliner, gegebenenfalls mit Hilfe von Onlinern.

Als Nachteil habe ich auch hier empfunden, dass keine freien Lizenzen verwendet werden, sondern eine Eigenentwicklung des WDR, bei der nur nicht-kommerzielle Archive und Bildungsträger das Material nutzen dürfen. Nicht allen Zuhörern war klar, was CC-Lizenzen sind, wie ein nachfragender Nebenmann mir bewies. Bei einer Nutzung von freien Lizenzen könnten die Digitalisate beispielsweise auch in der Wikipedia eingebunden werden. Bei Beendigung des Projekts werden so die Daten vermutlich nur noch für die eigene Mitarbeiter im WDR-Archiv zu finden sein.

Links:

re:publica 2013 Aufzeichnung: Das Buch muss überwunden werden – Digitales Utopia oder eher El Dorado?
http://www.youtube.com/watch?v=oOcOTE2IP34

re:publica 2013 Session: Blogforever

re:publica 2013 Session: digit.WDR.de – Graben, retten, teilen

Nestor : Digitale Langzeitarchivierung

Internet Archive: Wayback Machine

Best of Blogs, reclaim.fm und Owncloud

Dass Blogs schon lange mehr sind als Online-Tagebücher von Teenager, hat sich noch nicht überall herumgesprochen. Die Best-of-Blog-Awards, vergeben von der Deutschen Welle, zeigen, welche Bedeutung Blogs mittlerweile für die freie Meinungsäußerung weltweit haben. Auch die wissenschaftliche Blogplattform Hypotheses.org, deren deutschen Ableger de.hypotheses.org wir bei der Max Weber Stiftung managen, war nominiert.

Verweisen möchte ich auch auf den Überraschungsvortrag von Sascha Lobo, in dem das Tool reclaim.fm vorgestellt wurde. Es ist noch in der Entwicklung, soll aber dabei helfen die eigenen Daten aus Facebook, Twitter und anderen kommerziellen Diensten zurück in das selbstkontrollierte WordPress-Blog zu bringen, eine Entwicklung, die ich persönlich begrüße. Insgesamt wird immer wieder der Wunsch geäußert aus den kommerziell orientierten sozialen Medien zurück in die Blogosphäre zu kehren. Dort hat man Kontrolle über die eigenen Daten und wird nicht von Großkonzernen für bessere Werbeplatzierungen ausspioniert. Doch vermutlich wird diese Henne-Ei-Diskussion weitergehen, so lange die meisten Kontakte sich in kommerziellen Netzwerken befinden.

Eine freie Alternative zu Dropbox und Co. ist Owncloud. Man kann damit Dateien auf den eigenen Rechnern belassen und trotzdem über verschiedene Geräte synchronisieren, bzw. im Internet teilen. Es ist also eine selbstkontrollierte Datenwolke, bei der man keine “Allgemeinen Geschäftsbedingungen” zum eigenen Nachteil bestätigen muss, ohne dabei irgendeinen funktionellen Nachteil zu haben.

Links:

re:publica 2013 Aufzeichnung: The Bobs Six Winners
http://www.youtube.com/watch?v=EcsaUnQgvhM

re:publica 2013 Aufzeichnung: Sascha Lobo: Überraschungsvortrag II
http://www.youtube.com/watch?v=Raas1BhSIbs

Passend dazu:
http://schmalenstroer.net/blog/2013/05/reclaim-fm-die-eigene-social-media-sicherung/

re:publica 2013 Aufzeichnung: crushing data silos with Owncloud
http://www.youtube.com/watch?v=CwhKl0qvcfA

Workshops: Content, SocialCRM, Social Media

Im Rahmen der re:publica 2013 wurde auch die Konferenz re:campaign abgehalten, die einen Schwerpunkt auf NGOs legt, aber auch für Stiftungen und anderen Organisationen im Internet waren interessante Anregungen dabei.

Die Erstellung einer Content-Strategie für NGO’s wurde im entsprechenden Workshop mit folgenden Schritten beschrieben: Zuerst muss man die bestehenden eigenen Inhalte der Organisationen kennen lernen. Danach sollten Benutzerprofile der Rezipienten erstellt werden, zum Beispiel durch Interviews oder Umfragen. Die Fragen “Was wollen und was brauchen die Nutzer?” sollen so beantwortet werden. Anhand der Organisationsziele lässt sich dann bestimmen, welche konkreten Botschaften gesendet werden sollen. Damit Inhalte (Content) in Organisationen produziert und verteilt werden können, müssen Prozesse und Arbeitsabläufe geplant und strukturiert werden. Dazu gehören auch Kontrollmechanismen und festgelegte Verantwortlichkeiten. Schließlich wird entschieden, auf welchen Plattformen und wie die Inhalte verbreitet werden. Welche Medienformate eignen sich für welche Plattform? Insgesamt sollte es nicht zu textlastig werden. Einstiegsvideos helfen, Emotionen zu wecken, Storytelling macht die Inhalte interessant.

Im Workshop “Von SocialMedia zu SocialCRM” wurden Anregungen und Ideen gesammelt, wie Organisation besser mit ihrem Umfeld interagieren können. Klassische Instrumente der Kundenpflege greifen oft zu kurz, da sie die Sozialen Medien außer Acht lassen. Schwierigkeiten sind unter anderem, dass sich Organisationsziele nicht eins zu eins in die Sozialen Medien übertragen lassen, dass Soziale Medien heterogene Systeme sind, dass die Erfolgsmessung bei Sozialen Medien schwierig zu definieren ist und dass die Folgen nur schwer messbar sind. Es wurde angeregt, dass Mitarbeiter stärker als Menschen hervortreten und die Impulse aus der Community besser aufgegriffen werden sollen.

Die Folien des Workshops “10 Fehler die wir alle machen!” finden sich zum Nachlesen bei Slideshare. Auch hier waren interessante Anregungen für die Social-Media-Strategie von Organisationen dabei.

Links:

re:publica 2013 Workshop: Content Strategy für NGOs – Webinhalte erst strategisch planen, dann publizieren

re:publica 2013 Workshop: Von Social Media Management zu Social CRM

re:publica 2013 Workshop: 10 Fehler die wir alle machen! – Nonprofits und Social Media Stand 2013

Fazit

Insgesamt meinte ich bei den technologiebegeisterten Vortragenden Ungeduld und Frustrationen zu spüren. Vermutlich kämpfen sie schon lange mit den Widerständen und erreichen doch nur geringe  Fortschritte, sowohl in Forschung als auch in Verwaltung. Deren Vertreter verwiesen in der Diskussion wiederum auf Schwierigkeiten bei der Umstellung, Sorgen über die Folgen oder kritisierten und blockierten insgesamt die digitalen Projekte.

Immer, wenn ich mit Menschen außerhalb der re:publica sprach, merkte ich meist schnell, dass die Themen und Stichwörter der Konferenz nur den Wenigsten etwas sagen. Nicht alle wissen, was eine CC-Lizenz ist, und vielen “Nerds” fehlt das Verständnis dafür, das andere nicht genau so gut Bescheid wissen, wie sie selbst, die sie mit mindestens zwei Bildschirmen parallel einem Vortrag folgen. Andererseits gibt es immer noch Vorurteile, wie “Blogs sind doch nur Meinungen von Teenagern” und es wird abgetan, dass dort mittlerweile auch wissenschaftliche Ergebnisse publiziert werden (siehe de.hypotheses.org). Dabei darf man Meinungen keinesfalls gering schätzen, wie man an Beispielen von eingeschränkter Meinungsfreiheit sieht und von Menschen, die sich diese Meinungsfreiheit im Netz, auch gerade durch Blogs, wieder erkämpft haben.

tl;dr: Es bleibt noch viel Aufklärungsarbeit zu leisten. Nerds, kommt raus aus eurem Elfenbeinturm!

Quelle: http://mws.hypotheses.org/2838

Weiterlesen

Social Media Learning (oder: die Vielfalt der heutigen Medien), Präsentation v. Martin Ebner u. Sandra Schön

Die Präsentation des Grazer Universitätsdozenten Martin Ebner gibt einen Überblick über die verschiedenen Facetten des Web 2.0 (Wikis, Blogs, Podcasts, Microblogging etc.) sowie ihrer Einsatzmöglichkeiten im Unterricht.

Quelle: http://www.einsichten-online.de/2013/05/4196/

Weiterlesen

Dossier zu Wikipedia der Bundeszentrale für Politische Bildung

Seit kurzem online (mir seit gestern bekannt): das Online-Dossier zur Wikipedia der Bundeszentrale für Politische Bildung. Mit Beiträgen von bekannten Grössen wie Daniela Pscheida, Wolfgang Ernst, Christian Stegbauer, Christian Pentzold, Johann Niesyto und René König – um nur einige aus der illustren Autorenschar zu nennen. Ach ja, von mir ist auch eine Kleinigkeit mit dabei… […]

Quelle: http://weblog.hist.net/archives/6659

Weiterlesen

[Guest post] Wikipedia & Local History: a case study by Conny Reichling


On February 7, 2013 an UGR Symposium on eLearning took place at the University of Luxembourg at Campus Walferdange. Bob Reuter invited Agnès Prüm (about Moodle), Benoît Majerus (about Twitter) and me to talk about our eLearning experiences in the classroom.

During the summer semester 2011 Sonja Kmec and I animated a seminar using Wikipedia as a tool to work on local history. I presented our experiences at the eLearning colloquium as a case study on “Using Wikipedia as a tool in local history”.

One of the objectives of the seminar was to confront the toolbox (methods of historical analysis and ways of dissemination) of a historian with the possibilities given by the Web 2.0. Compared to the tools a historian would traditionally use, the Web 2.0 blurs the line between author and reader. Everyone can become an author on the Web 2.0 if he or she wishes. Knowledge is travelling faster and is somewhat democratized, providing there is no censorship and there is Internet access. Students were thus encouraged not simply to consume historical texts, but to participate themselves in the production of knowledge. Another purpose of using Wikipedia as a tool for feedback on existing literature and generation of new knowledge was to consolidate the presence of local history on the Internet.

We chose Wikipedia for its dynamic features (as opposed to a blog or a journal) and for its democratic quality control (see TED talk by Jimmy Wales). Students were asked to create or edit a Wikipedia encyclopedia entry about Luxembourgian local history and benefit from the comments added and alterations made to their article in order to complete or correct their final work, which consisted in a traditional scientific essay.

In the course of this experiment with new transmedial methods, Wikipedia became the link between grey literature of difficult access and the Web 2.0 providing information on as good as every subject. Although, the general malaise regarding the use of Wikipedia in an academic environment is still very present in comments made by our students in the anonymous evaluation of your course, such as “I wouldn’t want my work published somewhere else than wiki – meaning a serious webpage” or “Je trouve que le travail sur wikipédia [n’] est absolument pas nécessaire, surtout parce que les profs nous ont interdit d’utiliser ce site”.

Because historiography on Luxembourg – like most local history – is mostly done by laymen and therefore the output consists mainly of so-called grey literature, Sonja and I chose to involve local historians in this project from the start and invited them to attend the seminar by distributing flyers. We recruited 32 participants (13 auditeurs libres and 19 ‘regular’ history students). Although these numbers appeared to be nicely balanced, the students felt somehow threatened by the (mostly) elderly people attending and actively contributing to the seminar. This is very clear from the anonymous evaluation at the end of the term, as the following quotes show: “Zu viele auditeurs libres!!” and “Je pense que le mixe entre étudiants jeunes et séniors était difficile dans ce cours, en particulier à cause du travail sur les ordinateurs.” While some students were obviously more computer literate that most auditeurs libres, this was not the case for all students. While the attending local historians had no qualms about asking for IT advice during class, students did not ask questions during the seminar, but preferred to send emails as to the proper use of Wikipedia afterwards. This may be linked to peer pressure, as their need for help would discriminate them from their own age group or it may be related to their refusal to give up and wish to experiment some more after class.

The participants were to study a geographical site in Luxemburg of their choice and write a few small encyclopedic entries, a bibliography and a scientific paper as well as to discuss their research methods in an oral presentation during the seminar. In order to motivate the students a little bit more, we offered the possibility to publish the best papers – with the author’s name – on a homepage dedicated to this seminar. 5 out of 32 papers met the criteria for publishing, but only two accepted to be published online.

One side product of the seminar consists in the confrontation blurring between historical facts such as learned by the students and the memories (Erinnerung und Gedächtnis) recounted by the older people attending the class. This lead to a more critical understanding of Oral History and written sources, the authority of which were increasingly questioned. Thus we’ve added a session about Oral History and its methods and pitfalls.

Despite the fact that students evidently use Wikipedia very commonly as a source for their work at the university, they are very reluctant when it comes to actually working with Wikipedia. We also noticed that the administrators of Wikipedia are very active and very fast in moderation contributions. The students were free to work on Wikipedia in French, German, English and Luxemburgish, knowing that the Luxembourgian Wikipedians knew about this project and the moderators weren’t quite as severe as on the French Wikipedia for instance where articles not meeting the Wikipedia guidelines would be removed without any warning. On the Luxembourgish Wikipedia, the moderators monitored the entries made by the students and would intervene via comment when things had to be modified.

Most of their critics regarding the students’ Wikipedia contributions concerned the lack of respect of the encyclopedic writing style. Most of the students did indeed copy-paste their scientific papers into the Wikipedia entry without using the proper posting guidelines. This resulted sometimes in heavy editing by more seasoned Wikipedians.

None of the participants was a Wikipedia contributor before the seminar; most remain reluctant towards the active use of Wikipedia. Only a few auditeurs libres and students are still active Wikipedians one year after the seminar took place.

Another idea worth keeping in mind for the years to come is to work closer with the researchers from educational sciences (Bob Reuter) and pick up on their offer to see the seminar scientifically through combining the teaching process with the learning process more thoroughly.

Conny Reichling (on twitter @connyreichling)

 

Quelle: http://majerus.hypotheses.org/645

Weiterlesen

Herr BR Maurers Geschichtsverständnis – oder: Danke, Wikipedia.

SVP-Mann und Neo-Bundespräsident (CH-Version) Maurer bezieht sich in der Neujahrsansprache auf (wen wundert’s?) den Bundesbrief von 1291. Doch die von Maurer zitierte Kernaussage “Einer für alle, alle für einen” stammt – nein, nicht aus dem Bundesbrief und, nein, auch nicht aus Dumas’ “Drei Musketiere” (dort geht der Spruch nämlich anders rum), sondern aus einer Spendenaktion […]

Quelle: http://weblog.hist.net/archives/6590

Weiterlesen

Hier entsteht der neue Wikipedia-Guide für den Unterricht!

Kollege Bernsen (aka eisenmed) drüben bei Medien im Geschichtsunterricht hat meine vier «Regeln» für den Umgang mit Wikipedia im schulischen Unterricht für wenig praxistauglich befunden, was ich gerne entgegennehme. Wir haben dann beschlossen, in unserem Wiki einen «Wikipedia-Guide für den Unterricht» zu erstellen. Jede/r ist herzlich eingeladen, mitzuwirken, sei es mit Textarbeit, Links oder Kommentaren. [...]

Quelle: http://weblog.hist.net/archives/6410

Weiterlesen

Geschichte schreiben im digitalen Zeitalter

Geschichtsschreibung, so stellte Rudolf Vierhaus vor Jahren einmal fest, ist die sprachliche Darstellung von komplexen diachronen und synchronen Zusammenhängen in der Vergangenheit (Vierhaus 1982). Wenn wir also über das Schreiben der Geschichte nachdenken, so bedeutet dies, dass wir über die Möglichkeiten dieser sprachlichen Darstellung unter den Bedingungen digitaler Schreibprozesse und Verbreitungswege nachdenken. Konkret lassen sich [...]

Quelle: http://weblog.hist.net/archives/6369

Weiterlesen