Wie umgehen mit Hatespeech gegen Historiker und Archäologen im Netz?

© Wikipedia "Metal Detector/ Flickr Sam Michel

© Wikipedia „Metal Detector/ Flickr Sam Michel

Auch diesmal ließen sich aus den hunderten Sessions der re:publica größere Entwicklungen und Metathemen zu Internet und Gesellschaft ableiten, die nicht nur die Geister und Gefühle der Digitalverliebten beschäftigen. Der zunehmende Hass im Netz ist ein Punkt, der auch auch Historiker und Archäologen zum Nachdenken und Handeln anregen sollten. Denn Hass lässt sich in den Kommentarspalten auf Facebook- und bei Online-Medien auch gegen sie finden. Aber es gibt Handlungsmöglichkeiten gegen Hatespeech, Lügen und Gerüchte.

Hatespeech gegen Historiker und Archäologen ist nichts Neues, auch wenn die Kommentare in den letzten Jahren um einiges schärfer und gewaltbereiter geworden sind. Neben individuellen Ursachen lassen sich auch zumindest teilgesellschaftliche Tendenzen dafür erkennen, dass die Toleranzgrenze gegenüber Gewalt und gewaltandrohender, abschätziger, beleidigender Sprache steigt. Zudem macht der Unterschied zwischen Kommunikation live oder digital einen großen Unterschied. Digital erscheint weniger persönlich, weniger rechtlich greifbar und das Gegenüber weniger als echte, kränkbare Person.

[...]

Quelle: http://kristinoswald.hypotheses.org/1804

Weiterlesen

Talk „Dem Staub der Jahrhunderte entreißen: Offene Archive!“ – #rpTEN

Auf der re:publica TEN hielten Dr. Antje Diener-Staeckling, Joachim Kemper (ISG Frankfurt) und Elisabeth Steiger (ICARUS/co:op) auf Stage T einen 30-minütigen Talk zu Offenen Archiven.

Zunächst erklärte Herr Kemper, was ein Archiv – im Gegenzug zu Bibliotheken – überhaupt ist. Im Anschluss erläuterte er die Aufgaben und Verantwortung von Archivarinnen und Archivaren und räumte mit Klischees auf, die nur allzu oft in Medien rezipiert werden. Allerdings hob er auch hervor, dass Archive bei der Digitalisierung stark hinter anderen Kultureinrichtungen aus dem sogenannten GLAM-Bereich (galleries, libraries, archives and museums) herhinken. So sind Archive auf Veranstaltungen wie dem Kultur-Hackathon CodingDaVinci stark unterrepräsentiert. PR-Arbeit werde zu häufig unterschätzt und das eigene Haus eher der Verwaltung als der Kulturabteilung zugerechnet.

Doch nicht alles sei schlecht und es gebe einige Vorreiter, denen zu folgen es sich lohne.

[...]

Quelle: http://archivamt.hypotheses.org/3613

Weiterlesen

re:publica 2016: Dem Staub der Jahrhunderte entreißen. Offene Archive!

Offene Archive war dieses Jahr auf DEM großen Event für die deutsche und internationale Netzszene, der 10. Ausgabe der re:publica, mit einer eigenen Session vertreten!  Weiter unten ist die Textfassung unserer Veranstaltung (2. Mai 2016, 14.00-14.30 Uhr) zu  finden. Ebenso stellen  wir die Folien unserer Präsentation hier zur Verfügung – die Audiofassung ist ebenfalls verlinkt; leider ist sie aufgrund technischer Probleme unvollständig (es ist nur die zweite Hälfte zu hören).

ChcFX5KWgAACZcd

Die aktive Teilnahme an der re:publica war für uns eine hervorragende Gelegenheit, der Digitalszene auch die Welt der Archive, deren Probleme und (digitalen) Perspektiven nahe zu bringen – „Dem Staub der Jahrhunderte entreißen“ stand im Gesamtprogramm  als kleiner „Baustein“ neben einigen anderen kulturellen und  nicht wenigen wissenschaftlichen Themen; auch aus dem Feld der Museen und Bibliotheken wurden Beiträge geliefert (und es sei  hier betont: nicht das erste Mal im Rahmen der re:publica).

[...]

Quelle: http://archive20.hypotheses.org/3278

Weiterlesen

Digital Humanities? E-Humanities? Social Humanities?

https://digitalhumanities.princeton.edu/files/2013/03/Screen-shot-2013-03-14-at-10.43.36-AM.pngAngeregt durch den re:publica-Vortrag von Nishant Shah, durch die Digital Humanities Summer School Switzerland 2013 und zahlreiche Diskussionen, die sich sämtlich damit beschäftigten, was die Digital Humanities eigentlich sind und sein wollen, ließ mich diese Frage in den letzten Wochen nicht wieder los. Trotz oder gerade wegen zahlreicher Blogs, Forschungsprojekte und Tagungen unterschiedlichster Fragestellungen scheint das Verständnis von den Digital Humanities zur Zeit sehr uneinheitlich. Nach Marjorie Burghart werden sie durch oratores, bellatores, laboratores als drei Ordnungen vertreten, repräsentieren jedoch kein einheitliches Weltbild, was es erheblich erschwert, Grundlagen für Studiengänge oder Arbeitsweisen in diesem Bereich zu entwickeln und etablieren. Angelehnt an die zwei Phasen der DH nach dem Manifest von Schnapp und Presner und die darauf aufbauende dritte Phase von Berry, würde ich den drei Ordnungen gern die drei Weltbilder der Digital Humanities zur Seite stellen. Diese derzeitigen Formen und Auffassungen von den neuen Geisteswissenschaften sind einer der Gründe für die damit verbundenen Unsicherheiten. Sie basieren darauf, dass die Humanities 2.0 sowohl als digital(isiert)e Geisteswissenschaften in virtuellen Forschungsinfrastrukturen, als enhanced Humanities und als soziale Geisteswissenschaften bezeichnet werden. Jedoch sind diese drei Bedeutungen nicht gleichzusetzen und stellen völlig verschiedene Aspekte der Geisteswissenschaften im Kontext des Social Web in den Mittelpunkt.

digitalisieren, digitalisieren, digitalisieren

Bücher, Handschriften, historische und Kunstobjekte – die Digitalisierungsprojekte allein in Deutschland werden zunehmend unzählbar. Kleine und große Sammlungen werden als Teil des “Digitalisierungswahns” in verschiedene Formen von Datenbanken übertragen, die zumeist online frei zugänglich sind. Herausragende Beispiele sind die Deutsche Digitale Bibliothek, der Bereich Digital Heritage mit dem Namen OpenGLAM der Open Knowledge Foundation oder Europeana mit derzeit allein ca. 28 Millionen digitalisierten und mit Metadaten aufbereiteten Objekten. Die Zugänglichmachung primär für die Forschung, aber auch für die Öffentlichkeit, steht dabei im Mittelpunkt. Die EU, die DFG oder das BMBF fördern zunehmend Projekte, die sich OpenData als public mission auf die Fahne geschrieben haben. Dabei spielt nicht nur eine Rolle, dass öffentlich finanzierte Forschung auch öffentlich zugängliche Ergebnisse hervorbringen sollte, sondern auch, dass die wissenschaftliche Arbeit mit digitalen Objekten in vielen Punkten erheblich erleichtert wird. Dies entspricht der ersten Phase nach Schnapp und Presner, die sich durch Digitalisierungen und die Entwicklung entsprechender Datenbanken und Abfrage-Tools, durch Online-Publikationen und die Aufassung der OpenSciences charakterisiert.

Derartige Projekte lassen sich wunderbar dem Namen Digital Humanities zuordnen, da ihre Hauptaufgabe vor allem in der Digitalisierung selbst besteht. Dies bestätigt auch die Studie von InfoClio für ähnliche Vorhaben in der Schweiz. Eine solche Aufgabe bringt aber noch zahlreiche Probleme mit sich, sei es in Bezug auf Langzeitarchivierung und semantische Aufbereitung, Lizensierung oder andere rechtliche Fragen bezüglich der Daten selbst. Gerade aufgrund der Vielfalt und der heterogenen Herangehensweisen der verschiedenen Projekte an diese Aufgabe, stellt vor allem die Semantic einen wichtigen Punkt dar: auch wenn die meisten digitalen Bücher und Sammlungen prinzipiell im Netz aufzufinden sind, ist das Handling ihrer Online-Versionen nicht immer einfach und eindeutig. Zudem sind nur die wenigsten Datenbanken untereinander verknüpft oder unter einem gemeinsamen Interface vereint, sodass sie nur schwerlich übergreifend für wissenschaftliche Fragestellungen genutzt werden können. Basis hierfür wäre eine vereinheitlichte semantische Aufbereitung, die es erlaubt, die verschiedenen Datensammlungen zusammenzubringen und auf unterschiedliche Aspekte hin zu durchsuchen. Dafür sind jedoch eine zugrundeliegende Standardsprache und ein Einheitsformat notwendig, die nicht nur wegen der Vielzahl an Publikationssprachen, sondern auch wegen der unterschiedlichen Methoden und Sichtweisen der einzelnen Disziplinen nur schwer zu finden sind. Auch wenn diese anspruchsvolle und schwierige Aufgabe gelöst sein sollte, ist eine fleißig befüllte Vielzahl an Datenbanken zwar Digital, aber keineswegs Humanities – trotz der Informationen zu bedeutendem Kulturgut.

enhanced Humanities und Toolification

Vor allem die nationalen und internationalen Großprojekte befassen sich bisher mit der Differenz zwischen den klassischen Geisteswissenschaften und den DH. Entsprechend der zweiten Phase nach Schnapp und Presner stehen hierbei zusätzlich zur quantitativen Digitalisierung auch die Möglichkeiten der qualitativen Nutzung der auf diese Weise erzeugten, aufbereiteten und gespeicherten Daten im Vordergrund. Diese Phase ist experimentiertfreudig, überträgt das klassische geisteswissenschaftliche Handwerkszeug in die digitale Welt und bildet entsprechend den dortigen Gegebenheiten auch neue Methoden heraus. In Deutschland ist hier wohl an erster Stelle DARIAH zu nennen, wo digitale Forschungsumgebungen für die geisteswissenschaftliche Arbeit mit digitalen Daten entwickelt werden. Im Bereich digitalisierter Publikationen, die – zumindest in Bezug auf gemeinfreie Bücher – in der Zwischenzeit in Form von PDFs in großen Mengen zur Verfügung stehen, sind die Nutzungstools primär lingustischer Natur. Hierfür gibt es bereits eine Vielfalt an Software, so unter anderem Clarin, Maxqda, Vard2 oder den Classical Text Editor.

Das weite Feld der inhaltlichen Auswertung steht, unter anderem aufgrund der Semantik, noch weitgehend offen. Diese ist nicht nur für die Verknüpfung der Datenbanken von Bedeutung, sondern vor allem für die Überführung der Inhalte und der Informationen zu den Büchern und Objekten in eigene Datensätze. Stehen auch diese zur Verfügung, wird es möglich sein, über sprachliche Aspekte hinaus die in den Fachrichtungen bewährten Methoden anzuwenden und neue, speziell auf Daten ausgerichtete Fragestellungen zu entwickeln. Mit einer solchen erweiterten geisteswissenschaftlichen Nutzbarkeit von Digitalisaten werden aus den Digital die Enhanced Humanities. Diese Unterscheidung trifft auch das BMBF in seiner Studie zu den Forschungsinfrastrukturen der Geistes- und Sozialwissenschaften und erachtet die E-Humanities als besonders förderungswert. Mit ihnen könnten zum Beispiel digitalisierte Inschriftencorpora nicht nur auf Worthäufigkeiten, sondern auch auf bestimmte Zeitstellungen, Herkunfts- und Kulturkontexte, Materialien, Fundumstände u. Ä. hin befragt werden. Auch können für Neufunde Vergleiche oder in den Geschichtswissenschaften Quellen gleicher Zeitstellung direkt aufgerufen werden. Dariah und die Labs der OpenKnowledgeFoundation stellen mit dem Geobrowser und Timeliner bereits Tools zur geographischen Darstellungen von Entwicklungen, Reiserouten, Fundverteilungen und jeglichen anderen, auf Karten umsetzbaren wissenschaftlichen Ergebnissen zur Verfügung. Die Datengrundlage kann dafür aus den Datenbanken übernommen oder selbst eingespeist werden. Eine für die Geisteswissenschaften eher ungewöhnliche, aber sehr zukunftsträchtige Platform ist Crowdcrafting, bei der wissenschaftliche Projekte Citizen Science und das „Wissen der Massen“ für die Gewinnung neuer Erkenntnisse nutzen können.

Social Humanities

Auch die vielversprechenden und wissenschaftlich höchst spannenden Projekte im Bereich der E-Humanities allein nutzen die Möglichkeiten des Web 2.0 nicht in vollem Umfang. Was noch himzukommt, ist das kommunikative, kooperative und offene Wikinomics-Prinzip, das Berry als dritte Phase der DH bezeichnet. Dabei geht es nicht nur um Open Access zu den Ergebnissen der Forschung, den die EU bereits zum Thema des Horizon 2020 gemacht hat, um Vernetzung und Interdisziplinarität, sondern auch darum, die Welt der Wissenschaften selbst transparenter, flexibler und offener zu gestalten. Dies geht über Online-Publikationen im PDF-Format jedoch weit hinaus, sondern soll den Wissenschaftsprozess an sich öffnen. Anliegen ist es, die Interaktion mit der Öffentlichkeit auf der einen und die interne Kommunikation auf der anderen Seite auszubauen, den Elfenbeinturm in Richtung Agora zu verlassen und die althergebrachten Hierarchien und Wertesysteme neu zu überdenken. Twitter und Blogs oder Academia.edu und Facebook erweitern die Möglichkeiten des Austausches und auch neue Wege der Profilierung innerhalb der Wissenschaft und öffnen zugleich den Blick auf die Bedürfnisse der Menschen außerhalb. Sie ermöglichen eine gleichberechtigte Kommunikation und auch Hilfestellungen bei Forschungsfragen oder Vermittlungsproblemen. Hinzu kommen Tools, die das Management von großen, auch internationalen Projekten vereinfachen, sowie Social-Reading-Angebote. Hier geht mit textus geht wiederum die OpenKnowledge Foundation einen neuen Weg, indem sie die Möglichkeiten der Literaturarbeit von readmill und ähnlichen Diensten für die Wissenschaft nutzbar macht und online zur Verfügung stellt. Querverweise, Kommentare, Zitationen und Zusammenarbeit können so auch von Gruppen direkt am Text erarbeitet werden. Derartige Projekte und Social-Media-Dienste vereinen die Datenauswertung der E-Humanities mit dem Charakter des Web 2.0 zu den Social Humanities.

Humanities 2.0?

Der Begriff der Digital Humanities wird derzeit sehr heterogen benutzt. Im wohl verbreitetsten und auch in den Medien genutzten Sinne umfasst er vor allem den Bereich der Digitalisierung. Bei diesem stehen jedoch nicht die geisteswissenschaftlichen Anforderungen im Vordergrund, wie auch ein Artikel der FAZ zeigt. Unter dem Titel „Auf der Suche nach einem Zweck“ erscheint es darin eher so, also versuchten die Geisteswissenschaften auf diesem Weg eine Annäherung an die quantitativen Daten und Methoden der Naturwissenschaften, um ihre Reputation als Wissenschaften zu verbessern. Die sozialen, philosophischen, kulturellen oder politischen Fähigkeiten eines Geisteswissenschaftlers schlicht auf Technologien zu übertragen, ist dabei jedoch beinahe Blasphemie. Stattdessen macht es die den Geisteswissenschaften eigenen Charakterzüge  wesentlich zukunftsträchtiger, neue methodische Ansätze für die E-Humanities zu finden und die Social Humanities auszubauen. Insgesamt führen die drei Weltbilder der DH aufgrund ihrer Gemeinsamkeiten und Unterschiede, durch Engagement und innovative, kreative Herangehensweisen gemeinsam zu fruchtbaren Diskussionen und der Entwicklung neuer, spannender Methoden und Forschungsmöglichkeiten und der Etablierung einer gemeinsamen Auffassung von den Humanities 2.0.

Quelle: http://kristinoswald.hypotheses.org/829

Weiterlesen

re:publica 2013 – Nerds im Elfenbeinturm


Vom 6.-8. Mai waren Charlotte Jahnz und Sascha Foerster für die Max Weber Stiftung in Berlin bei der Konferenz re:publica 2013. Sie begann vor 7 Jahren als Blogger-Treffen und hat sich mittlerweile zur wichtigsten europäischen Internet-Konferenzen mit über 5000 Teilnehmern und mehreren hundert Rednern entwickelt. 

Session "Geschichte des Computers" (CC-BY 3.0 Sascha Foerster)

Session “Geschichte des Computers” (CC-BY 3.0 Sascha Foerster)

Aus der Fülle des Programms möchte ich einige interessante Vorträge, Projekte und Themen der Konferenz vorstellen und persönlich kommentieren, besonders in Hinblick darauf, wie die digitalen Entwicklungen Wissenschaft verändern. Falls entsprechende Aufzeichnungen vorhanden sind, werden diese verlinkt. Weitere Themen, Thesen und Zusammenfassungen von Vorträgen können gerne in den Kommentaren ergänzt werden. Mehr Informationen zur Konferenz gibt es unter http://re-publica.de. Dies ist natürlich eine persönliche Auswahl aus der Vielzahl der Themen, die bei der Konferenz behandelt wurden. Wer Konferenzmitschnitte anschauen möchte, findet hier eine Übersichtsseite mit den Sessions und den entsprechenden Videos zum Anschauen.

Open Data, Open Access und Digital Humanities

Nicht nur in der Verwaltung sondern auch in der Forschung fallen viele Daten an, die oft nach Abschluss des Projekts verloren gehen. Im Vortrag “Die maschinenlesbare Regierung” wurde gefordert solche Daten, die bei öffentlich geförderten Projekten anfallen, unter einer verbreiteten freien Lizenz, zum Beispiel “CreativeCommons” (bzw. ähnliche) und maschinenlesbar zugänglich zu machen. Zum einen ermögliche dies die genauere Replikation und Überprüfung von Studien, zum anderen könnten diese Daten für weitere innovative und gesellschaftsdienliche Zwecke genutzt werden. Persönliche Daten sollen dabei geschützt bleiben und nicht veröffentlicht werden.

Nach Möglichkeit sollen bekannte und verbreitete freie Lizenzen für die Datenveröffentlichung verwendet werden. Maschinenlesbar bedeutet, dass diese Daten nicht als PDF “ausgedruckt” (Zitat: “Schnarchdaten”), sondern in Rohformaten veröffentlicht werden, die automatisiert gelesen und weiterverarbeitet werden können. PDF-Dateien sind für solche Zwecke denkbar schlecht geeignet, da die Rohinformationen dort erst wieder aufwendig extrahiert werden müssen.

Es wurden Forderungen gestellt, die Veröffentlichung von Verwaltungs- und Forschungsdaten gesetzlich verpflichtend zu machen. Entsprechende Gesetze sollen baldmöglichst “installiert werden”.

Links:

re:publica 2013 Session: Die maschinenlesbare Regierung – Eine kritische Analyse zur Gegenwart von Open Data und Open Goverment in Deutschland

Definition von “Offenes Wissen”
http://opendefinition.org/okd/deutsch/

http://de.wikipedia.org/wiki/Open_Data

re:publica 2013 Aufzeichnung: How radical are Open Access and the Digital Humanities?
http://www.youtube.com/watch?v=-9d0KM1I0aw

re:publica 2013 Aufzeichnung: OpenData, was hat das mit mir zu tun?
http://www.youtube.com/watch?v=QBSNr6UXIJg

re:publica 2013 Aufzeichnung: Datenbeifreiung, selbst gemacht. (Tools für Open Data)
http://www.youtube.com/watch?v=vWerZQFj4Xc

Crowdfounding, Crowdsourcing und Wissenschaftskommunikation

Ein Beispiel für gute Wissenschaftskommunikation war die Session zur Grundlagenforschung des CERN. Im Vortrag zeigten Henning Krause (Helmholtz-Gemeinschaft) und seine Kolleginnen und Kollegen vom CERN, wie es zur Entdeckung des Higgs-Teilchens kam. Fast alle Institute nutzen die Kanäle Blogs, Facebook, Twitter, teils auch Podcasts oder öffentliche Google Hangouts zur Wissenschaftskommunikation. In der Diskussion wurde später kritisch nachgehakt, ob die Entdeckung des Higgs-Teilchens den enormen finanziellen Aufwand von 6 Milliarden Euro für den Teilchenbeschleuniger LHC rechtfertige. Gerade wegen des hohen finanziellen Aufwands spiele es eine wichtige Rolle, der Öffentlichkeit die Forschungsergebnisse zu vermitteln und so weiter für die Notwendigkeit der Grundlagenforschung zu werben, wurde erwidert. Da am CERN durch Tim Berners-Lee auch die Grundlagen für das WWW geschaffen wurden, konnte man mit Verständnis unter den technikbegeisterten Zuschauern rechnen. Die enorme Datenverarbeitungskapazität, die nur durch ein weltweites Cluster von Rechner bereit gestellt werden können, zeigten auch, dass durch Grundlagenforschung aktuelle technische Entwicklungen voran gebracht werden können.

Zwischen den Sessions gab es immer wieder Gelegenheit persönlich mit Kollegen zu sprechen, unter anderem habe ich mit Thorsten Witt gesprochen, der für “Wissenschaft im Dialog” das Projekt www.sciencestarter.de leitet. Crowdfounding fordert Wissenschaftler/innen dazu auf, sich und ihre Forschung aktiv zu präsentieren, um so Forschungsgelder von einer interessierten Öffentlichkeit zu sammeln. Einerseits gibt es Befürchtungen der Popularisierung von Forschung, andererseits wird so von Anfang an die Wissenschaftskommunikation gefördert. Auch kleinere Projekte bekommen so eine Chance auf Förderung. Neue Projektvorschläge werden gesucht, besonders auch aus den Geistes- und Sozialwissenschaften.

Eine weitere Möglichkeit, die Crowd für die Forschung zu nutzen, besteht darin, ähnlich wie bei der Wikipedia, Forscher/innen dazu zu animieren, sich gegenseitig bei der Lösung von Forschungsproblemen zu unterstützen bzw. Freiwillige zu animieren bei einem interessanten Projekt zu helfen. Ein vergleichsweise einfacher Weg dazu kann eine offene wissenschaftliche Frage in einem Blogbeitrag sein (siehe z.B. die offene Frage und folgende Diskussion im dk-blog), die von anderen Lesern beantwortet wird. Es kann sich aber auch im Großprojekte wie die Digitalisierung historischer Werke handeln, die auch von Nicht-Experten unterstützt wird. Auch hier sind noch Experimente nötig um die entsprechenden Möglichkeiten und Risiken auszuloten.

Thorsten Witt organisiert übrigens ein SciCamp zum Thema “Wissenschaft im Netz”, das am 1. und 2. Juni 2013 in Berlin stattfinden wird.

Links:

re:publica 2013 Aufzeichnung: Faszination Grundlagenforschung: Higgs, Big Data und Teilchenphysik
http://www.youtube.com/watch?v=ceARb5FRy8A

http://www.sciencestarter.de

Passend zum Thema Öffentlichkeitsarbeit und Partizipation:
www.hellojed.de: “Public History: Mehr Öffentlichkeit? Bessere Öffentlichkeit?”

Ähnliche Themen:

re:publica 2013 Aufzeichnung: In, Side, Out of Science (Partizipation in der Wissenschaft)
http://www.youtube.com/watch?v=JZI3peYWGUU

re:publica 2013 Aufzeichnung: Horst Zuse, Die Geschichte des Computers
http://www.youtube.com/watch?v=YAh4Jr5dJcQ

Wikipedia und WikiData

Der Vortrag zu Wikipedia und besonders die kritischen Nachfragen aus dem Publikum zeigen, welche Schwachstellen die Wikipedia momentan hat. Einerseits besteht aus Sicht der Administratoren ein Großteil der Arbeit aus Löschung von unsinnigen Beiträgen, Rückgängigmachung von Vandalismus und Entfernung von Fehlern, die besonders gefährlich sind, da viele, besonders Medien aber auch Wissenschaftler, diese Fehler gegenseitig abschreiben und weiterverbreiteten. Dies wurde an verschiedenen Beispielen gezeigt, u.a. an einem Zahlendreher bei der Länge des Rheins oder einem Eintrag zur Berliner Karl-Marx-Allee. Andererseits werden so auch oft Beiträge und Änderungen gelöscht, die korrekt sind, was zu enormen Frust bei den Nutzern und Autoren führt. Gerade Wissenschaftler, die Spezialisten in ihrem Gebiet sind und Spezial-Artikel durch ihre Expertise auf ein höheres Niveau heben könnten, wenden sich aufgrund der langwierigen Diskussionen mit Administratoren um kleine Anpassungen wieder ab. Dabei sind sich prinzipiell alle Seiten einig, wie wichtig das Projekt Wikipedia ist.

Meiner Meinung nach ist es nicht einfach beide Fehlerarten (falsche Informationen, falsche Löschungen) gleichermaßen zu reduzieren, doch das wird die Aufgabe sein, die die Wikipedia zu lösen hat, um weder (freiwillig arbeitende) Administratoren noch qualitativ hochwertige (ebenfalls freiwillig arbeitend) Beiträger/innen  zu verlieren.

Eine interessante Neuentwicklung ist das Projekt “WikiData“, dass eine Datenbank-Infrastruktur für die Wikipedia bereitstellt. Vielverspechend ist die Möglichkeit, Daten über verschiedene Artikel hinweg an einer zentralen Stelle aktualisieren zu können. Welchen Nutzen dies für Wissenschaftler/innen hat und welche Fragen sich mit diesen Datensätzen beantworten lassen, wird sich erst zeigen, wenn mehr Daten zur Verfügung stehen und einige Forscher damit experimentiert haben. Wer sich für WikiData interessiert, kann schon mal die API testen. Beispielsweise lassen sich auch historische Daten und Fakten in der Datenbank festhalten.

Links:

re:publica 2013 Aufzeichnung: Wikipedia: wo User geblockt, Artikel gelöscht und Reputationen zerstört werden
http://www.youtube.com/watch?v=5iSAl_krauA

http://www.wikidata.org/w/api.php

Digitalisierung und Langzeitarchivierung

Unter dem provokativen aber ernst gemeinten Titel “Das Buch muss überwunden werden – Digitales Utopia oder eher El Dorado?” stand der Vortrag über die “nächste Evolutionsstufe des Buches” und den gegenwärtigen Stand der Digitalisierung. Die Vortragenden vertraten eine klare Position für eine Digitalisierung bis hin zur Abschaffung des Buches in seiner physischen Form. Es wurden Projekte wie die “Deutsche Digitale Bibliothek” und “Europeana.eu“ vorgestellt und die urheberrechtlichen Hintergründe und Probleme erklärt.

Besonders Bücher zwischen 1850 bis 1950 seien vom Papierzerfall bedroht. Die Probleme der digitalen Langzeitarchivierung seien viel besser lösbar bzw. bereits gelöst. Alle Bücher zu digitalisieren, würde nach Schätzungen der Vortragenden 120 Millionen Euro kosten. Selbst wenn es viermal so teuer wäre, so wurde argumentiert, würde es immer noch durch die öffentliche Hand zu stemmen sein.

Zwei Nutzungsszenarien böten sich nach der Digitalisierung an: Zum Ersten könne man die Bücher einfach lesen. Zum Zweiten ließe sich erst nach Digitalisierung eine Volltextsuche durchführen, wie sie beispielsweise bereits von Google ngram angeboten wird.

Auch die Langzeitarchivierung von Blogs ist ein bisher nicht wirklich gelöstes Problem. Zwar gibt es die “Wayback Machine” des “Internet Archives”, doch geht dabei der dynamische Charakter der Blogs verloren, da diese ja meist auf ein Datenbanksystem zurückgreifen. Bereits 45% der Blogs aus der Zeit des Irakkriegs seien verloren gegangen – trotz des bestehenden “Internet Archives”. Das EU-geförderte Projekt “Blogforever” soll hier Abhilfe schaffen, indem es die dynamischen erstellten Blogs archivieren hilft. Es soll in Zukunft als OpenSource-Paket und als Webdienst verfügbar sein.

Ein digitales Archiv des analogen Alltags wird im Projekt “digIT – Graben, Retten, Teilen” beim WDR erstellt. Die Mitarbeiter/innen sammeln vor Ort analoge Videos und Fotos ein, digitalisieren diese und stellen eine Kopie auf ihrer Webseite. Als Beispiel wurde ein Video der Brückenverschiebung 1976 in Düsseldorf gezeigt. Im Workshop suchten die Mitarbeiter nach Ideen für ein besseres Tagging des Materials der Offliner, gegebenenfalls mit Hilfe von Onlinern.

Als Nachteil habe ich auch hier empfunden, dass keine freien Lizenzen verwendet werden, sondern eine Eigenentwicklung des WDR, bei der nur nicht-kommerzielle Archive und Bildungsträger das Material nutzen dürfen. Nicht allen Zuhörern war klar, was CC-Lizenzen sind, wie ein nachfragender Nebenmann mir bewies. Bei einer Nutzung von freien Lizenzen könnten die Digitalisate beispielsweise auch in der Wikipedia eingebunden werden. Bei Beendigung des Projekts werden so die Daten vermutlich nur noch für die eigene Mitarbeiter im WDR-Archiv zu finden sein.

Links:

re:publica 2013 Aufzeichnung: Das Buch muss überwunden werden – Digitales Utopia oder eher El Dorado?
http://www.youtube.com/watch?v=oOcOTE2IP34

re:publica 2013 Session: Blogforever

re:publica 2013 Session: digit.WDR.de – Graben, retten, teilen

Nestor : Digitale Langzeitarchivierung

Internet Archive: Wayback Machine

Best of Blogs, reclaim.fm und Owncloud

Dass Blogs schon lange mehr sind als Online-Tagebücher von Teenager, hat sich noch nicht überall herumgesprochen. Die Best-of-Blog-Awards, vergeben von der Deutschen Welle, zeigen, welche Bedeutung Blogs mittlerweile für die freie Meinungsäußerung weltweit haben. Auch die wissenschaftliche Blogplattform Hypotheses.org, deren deutschen Ableger de.hypotheses.org wir bei der Max Weber Stiftung managen, war nominiert.

Verweisen möchte ich auch auf den Überraschungsvortrag von Sascha Lobo, in dem das Tool reclaim.fm vorgestellt wurde. Es ist noch in der Entwicklung, soll aber dabei helfen die eigenen Daten aus Facebook, Twitter und anderen kommerziellen Diensten zurück in das selbstkontrollierte WordPress-Blog zu bringen, eine Entwicklung, die ich persönlich begrüße. Insgesamt wird immer wieder der Wunsch geäußert aus den kommerziell orientierten sozialen Medien zurück in die Blogosphäre zu kehren. Dort hat man Kontrolle über die eigenen Daten und wird nicht von Großkonzernen für bessere Werbeplatzierungen ausspioniert. Doch vermutlich wird diese Henne-Ei-Diskussion weitergehen, so lange die meisten Kontakte sich in kommerziellen Netzwerken befinden.

Eine freie Alternative zu Dropbox und Co. ist Owncloud. Man kann damit Dateien auf den eigenen Rechnern belassen und trotzdem über verschiedene Geräte synchronisieren, bzw. im Internet teilen. Es ist also eine selbstkontrollierte Datenwolke, bei der man keine “Allgemeinen Geschäftsbedingungen” zum eigenen Nachteil bestätigen muss, ohne dabei irgendeinen funktionellen Nachteil zu haben.

Links:

re:publica 2013 Aufzeichnung: The Bobs Six Winners
http://www.youtube.com/watch?v=EcsaUnQgvhM

re:publica 2013 Aufzeichnung: Sascha Lobo: Überraschungsvortrag II
http://www.youtube.com/watch?v=Raas1BhSIbs

Passend dazu:
http://schmalenstroer.net/blog/2013/05/reclaim-fm-die-eigene-social-media-sicherung/

re:publica 2013 Aufzeichnung: crushing data silos with Owncloud
http://www.youtube.com/watch?v=CwhKl0qvcfA

Workshops: Content, SocialCRM, Social Media

Im Rahmen der re:publica 2013 wurde auch die Konferenz re:campaign abgehalten, die einen Schwerpunkt auf NGOs legt, aber auch für Stiftungen und anderen Organisationen im Internet waren interessante Anregungen dabei.

Die Erstellung einer Content-Strategie für NGO’s wurde im entsprechenden Workshop mit folgenden Schritten beschrieben: Zuerst muss man die bestehenden eigenen Inhalte der Organisationen kennen lernen. Danach sollten Benutzerprofile der Rezipienten erstellt werden, zum Beispiel durch Interviews oder Umfragen. Die Fragen “Was wollen und was brauchen die Nutzer?” sollen so beantwortet werden. Anhand der Organisationsziele lässt sich dann bestimmen, welche konkreten Botschaften gesendet werden sollen. Damit Inhalte (Content) in Organisationen produziert und verteilt werden können, müssen Prozesse und Arbeitsabläufe geplant und strukturiert werden. Dazu gehören auch Kontrollmechanismen und festgelegte Verantwortlichkeiten. Schließlich wird entschieden, auf welchen Plattformen und wie die Inhalte verbreitet werden. Welche Medienformate eignen sich für welche Plattform? Insgesamt sollte es nicht zu textlastig werden. Einstiegsvideos helfen, Emotionen zu wecken, Storytelling macht die Inhalte interessant.

Im Workshop “Von SocialMedia zu SocialCRM” wurden Anregungen und Ideen gesammelt, wie Organisation besser mit ihrem Umfeld interagieren können. Klassische Instrumente der Kundenpflege greifen oft zu kurz, da sie die Sozialen Medien außer Acht lassen. Schwierigkeiten sind unter anderem, dass sich Organisationsziele nicht eins zu eins in die Sozialen Medien übertragen lassen, dass Soziale Medien heterogene Systeme sind, dass die Erfolgsmessung bei Sozialen Medien schwierig zu definieren ist und dass die Folgen nur schwer messbar sind. Es wurde angeregt, dass Mitarbeiter stärker als Menschen hervortreten und die Impulse aus der Community besser aufgegriffen werden sollen.

Die Folien des Workshops “10 Fehler die wir alle machen!” finden sich zum Nachlesen bei Slideshare. Auch hier waren interessante Anregungen für die Social-Media-Strategie von Organisationen dabei.

Links:

re:publica 2013 Workshop: Content Strategy für NGOs – Webinhalte erst strategisch planen, dann publizieren

re:publica 2013 Workshop: Von Social Media Management zu Social CRM

re:publica 2013 Workshop: 10 Fehler die wir alle machen! – Nonprofits und Social Media Stand 2013

Fazit

Insgesamt meinte ich bei den technologiebegeisterten Vortragenden Ungeduld und Frustrationen zu spüren. Vermutlich kämpfen sie schon lange mit den Widerständen und erreichen doch nur geringe  Fortschritte, sowohl in Forschung als auch in Verwaltung. Deren Vertreter verwiesen in der Diskussion wiederum auf Schwierigkeiten bei der Umstellung, Sorgen über die Folgen oder kritisierten und blockierten insgesamt die digitalen Projekte.

Immer, wenn ich mit Menschen außerhalb der re:publica sprach, merkte ich meist schnell, dass die Themen und Stichwörter der Konferenz nur den Wenigsten etwas sagen. Nicht alle wissen, was eine CC-Lizenz ist, und vielen “Nerds” fehlt das Verständnis dafür, das andere nicht genau so gut Bescheid wissen, wie sie selbst, die sie mit mindestens zwei Bildschirmen parallel einem Vortrag folgen. Andererseits gibt es immer noch Vorurteile, wie “Blogs sind doch nur Meinungen von Teenagern” und es wird abgetan, dass dort mittlerweile auch wissenschaftliche Ergebnisse publiziert werden (siehe de.hypotheses.org). Dabei darf man Meinungen keinesfalls gering schätzen, wie man an Beispielen von eingeschränkter Meinungsfreiheit sieht und von Menschen, die sich diese Meinungsfreiheit im Netz, auch gerade durch Blogs, wieder erkämpft haben.

tl;dr: Es bleibt noch viel Aufklärungsarbeit zu leisten. Nerds, kommt raus aus eurem Elfenbeinturm!

Quelle: http://mws.hypotheses.org/2838

Weiterlesen

re:publica 2013 – In / Side / Out und Open Open Open

re:publica

“Bei Wikipedia kann man keine Schweinehälften bestellen” – bei diesem Zitat aus dem Munde von Pavel Richter, einem der Vorsitzenden von Wikimedia Deutschland, könnte man durchaus vermuten, dass Internet sei noch immer nur ein Tummelplatz für Technikbegeisterte. 5ooo Internet-Faszinierte, zahlreiche Vertreter der klassischen Medien und auch einige der Politik, über 28o Sessions, Vorträge und Workshops, unzählige Tweets – die Zahlen machen klar, dass die re:publica längst für ein breitgefächertes Publikum das Highlight des Frühjahrs ist. Mit dem Motto “In / Side / Out of Science und Culture” im Gepäck, besuchte ich drei Tage Veranstaltungen zu Themen aus Kultur, Wissenschaft, Verlagen und E-Learning. Das Fazit vorweg: die digitale Revolution greift zunehmend auch auf diese Bereiche über, die Handlungsmöglichkeiten sind aber noch längst nicht ausgeschöpft. Und: neben Open Data oder Open Access treten nun auch Schlagwörter wie Open Expertise, Open Science, Open Culture oder Open Learning zunehmend in den Vordergrund.

Tag I – Von Ängsten und Möglichkeiten

Mein erster Tag auf der re:publica war bereits prall gefüllt mit lauter interessanten Projekten rund um die Sammlung, die Anwendbarkeit und den offenen Umgang mit Daten in Kultur und Wissenschaft. Ihrer Sammlung sind derzeit unzählige Projekte gewidmet, die Bücher (wie die Deutsche Digitale Bibliothek), museale Sammlungen (wie Open GLAM und Europeana) oder analoges Geschichtswissen (wie DigIt) digitalisieren. Und sie alle haben große Ziele.

Das WDR-Crowdsourcing Geschichts-Projekt DIGIT will kein Geld, sondern Wissen sourcen in Form von Zeitzeugen der Neuzeit wie Bildern und Videos. Der Erfolg seit Beginn der Kampagne im Dezember 2o12 ist groß, über 5ooo Fotos und 7oo Videos konnten gesammelt werden, um “analoge Erinnerung in die digitale Zukunft zu retten”. Eine solche Idee könnte für jeden Historiker ein faszinierendes und vielfältiges Archiv zugänglich machen. Gerade im Netz hat sie aber noch hohe Hürden zu überwinden, wie die hier angewandte rechtliche Basis zeigt. Da sich der WDR zu CC-Lizenzen für das zusammengetragene Material nicht durchringen konnte, wurde dieses unter nicht-exklusive Nutzungsrechte gestellt. Damit ist es zwar für den WDR weiterverwendbar, aber für Historiker, Interessierte, Blogger oder gar bloggende Historiker eben nicht.

Davon etwas ernüchtert, war ich umso begeisterter von dem Projekt OPEN GLAM (Galleries, Libraries, Archives, Museums) der Open Knowledge Foundation, das sich mehr Aufmerksamkeit und mehr Möglichkeiten der Nutzung des kulturellen Erbes zur Mission gemacht hat. Dabei soll vor allem die Öffentlichkeit eine große Rolle spielen, da sie als Finanzier einen Anspruch auf das von ihr finanzierte Wissen hat. Sehr gut fand ich neben dem prinzipiellen Anspruch der Open Knowledge Foundation ihre Zusammenarbeit mit Europeana, einem ähnlichen Projekt der EU, dass die Gemeinschaft Europas durch dessen gemeinsame Kultur und Geschichte betonen möchte. Hier werden Sammlungen unter Europeana als gemeinsamem Deckmantel digitalisiert, der die Verbindungspunkte der Länder verdeutlichen soll. Dies ist besonders wichtig, weil auch eine Vielzahl von Datenbanken für verschiedene Sammlungen nicht die gewünschten Ergebnisse bringen kann, wenn alle getrennt arbeiten und sich als unabhängig voneinander verstehen. Open GLAM und Europeana haben zusammen bereits mehr als 4o Millionen Daten gesammelt und mit CC-Lizensen online gestellt. Auch der nächste Schritt, ihre Anwendbarkeit, wurde in Form von Tools wie textus, timeliner oder crowdcrafting bereits in die Wege geleitet.

Bei einer Session, die im Namen der Deutschen Digitalen Bibliothek (DDB) das Ende des Buches verkündete, stand jedoch wieder die Sammlung im Mittelpunkt, diesmal sogenannter gemeinfreier Bücher, die sich in den deutschen Bibliotheken und im Netz finden lassen. Auch wenn keineswegs das Ende des gedruckten Buches ausgerufen werden sollte, da die heutigen Bücher durch ihre Inhalte und Formen die Geschichtsquellen der Zukunft sind, geht es auch bei der DDB noch nicht primär um die Anwendbarkeit der Daten. Dies bedeutet nicht, dass es für nicht löblich wäre, für 12o Millionen Euro alle gemeinfreien Bücher in deutschen Bibliotheken zu digitalisieren, anstatt von demselben Geld einen Eurofighter zu kaufen. Aber gerade in Bezug auf die Anwendbarkeit von Open Data, die der eigentliche Kern der Forschung sein sollte, ist Open GLAM derzeit europaweit ein Vorbild für Projekte, die weiterhin im Status der reinen Digitalisierung verbleiben.

Vortrag_SaschaLobo

Das Ende des ersten Tages markierte für viele re:publica-Besucher der Vortrag von Sascha Lobo. Auch er sprach von Ängsten und Möglichkeiten, von der Netzgemeinde als Hobbylobby und Wut und Pathos als den Rezepten für ein freies, offenes und sicheres Netz. Die Drosselkom wurde nach diesem Vortrag nicht umsonst der meist-getwitterte Begriff der re:publica. Während Sascha Lobo die Netzpolitik als das schlimmste aller Orchideenfächer betitelte, war der Abschluss des Tages für mich vor allem der Blick über die unzähligen Reihen dieses buntgemischten und keineswegs nerdigen Publikums, das diesem Blogger lauschte, während die CDU noch immer glaubt, die Netzgemeinde sei eine eigenartige und etwas weltfremde Parallelgesellschaft.

Tag II – der Tag des Phönix

Während Open Data und Open Culture meinen ersten re:publica-Tag bestimmten, war der zweite geprägt von Open Expertise, Wissenschaftsjournalismus, Büchern und dem Ruf nach Open Open Open.

Stern_Werbung
Leider ist das Social des Social Web auch im Journalismus noch nicht überall endgültig angekommen, wie die ersten beiden Sessions meines zweiten re:publica-Tages zeigten. So bleibt es weiterhin schwierig, die Menschen zu Teilnahme am journalistischen Diskurs zu bewegen, obwohl das öffentliche Interesse an wissenschaftlicher Aufklärung weiter ungebrochen ist. Hierfür spielen zwei Gründe eine Rolle. Zum einen bieten die großen Medien auch auf ihren Online-Plattformen nur suboptimale Diskussionsmöglichkeiten. Meist findet man eine Aneinanderreihung zahlreicher Kommentare mit nur wenig Bezug zueinander, kaum argumentative Sortierungen oder gar die Option zu direkten Bezugnahme auf einen bestimmten Absatz. Zum zweiten halten auch diejenigen Privatpersonen, die z.B. aufgrund von Hobbys wirkliche Ahnung haben, mit ihrem Wissen noch sehr oft hinterm Baum. Beides könnte dazu dienen, die Teilnahme an Open Expertise zu fördern und Lesern wie Journalisten neue Ideen und Betrachtungsweisen zu eröffnen. Auf der Suche nach der Wiedergeburt der Zeitung eröffnen sich so neue Wege, sich mit den Bedürfnissen und Fragen der Menschen direkter zu befassen. DER JOURNALISMUS IST TOD. ES LEBE DER JOURNALISMUS!

Ähnliches galt an Tag II für das Buch. Wie der Musikindustrie und dem Printjournalismus, reicht nun auch den geisteswissenschaftlichen und belletristischen Verlagen das Wasser der Gewohnheit bis an den Hals. Ein Damm der Innovationen muss gebaut und der Frage nachgegangen werden, was eigentlich noch Buch ist, auch wenn es noch scheint, als bleibe das gedruckte Buch weiterhin ein heiliger Gral, ein mythisches Ding mit geheimnisvoller Anziehungskraft. Denn definiert sich ein Buch über die Form, so sind weder Hör- noch E-Bücher Bücher. Definiert es sich über den Inhalt, ist alles Geschriebene Buch. Aber nur das gedruckte Buch riecht nach Buch, fühlt sich an wie Buch und ist dekorativ, wie nur Bücher es sein können. Trotzdem steigt die Beliebtheit von E-Books und Readern mit ihren Ideen von Offenheit, Teilbarkeit und wiederum Socialbarkeit. Wie die Platte in der MP3, wird also auch das Buch wiedergeboren. DAS BUCH IST TOD. ES LEBE DAS BUCH!

Die Digital Humanities versuchten am zweiten re:publica-Tag erneut, den Phönix aus der Asche zu erwecken. Was für die Humanities das Buch, ist für die Digital Humanities die Datenbank. Auch die EU machte Open Access in ihrer Agenda 2o2o zur Bedingung für öffentlich finanzierte Projekte. Doch leider scheint es, als wären die DH zwar ihrer Aufgabe entsprechend sehr stark digital geworden, hätten dabei aber viel ihres Humanities-Daseins verloren. Die TOOLIFICATION steht im Mittelpunkt, während die Forschung und wiederum der Aspekt des Social noch fehlen, den die reine Zugänglichmachung von Erkenntnissen in Form von Daten nicht abdecken kann. Kommunikation wird noch nicht groß geschrieben und das obwohl die Erwartungen der Öffentlichkeit an die Forschung und der Forschung an die Forschung sich teilweise sehr stark unterscheide. Die Kernfrage ist: was kann man vermitteln, was will man vermitteln und wer trägt die Kosten? Von der Beantwortung ist Open Science jedoch nicht weit entfernt und so ist der Phönix gerade erst zu Asche geworden.

Tag III – Lernen Lernen Lernen

Mein dritter re:publica-Tag stand unter dem Motto RE:LEARNING. Dabei wurde schnell deutlich, dass die digitale Revolution auch hier weder für die Kinder- noch für die Erwachsenenbildung ihr schöpferisches Potential bisher voll ausgenutzt hat. Dies liegt anscheinend daran, dass die herkömmlichen Herangehensweisen noch immer sehr stark sind und nur schwer zugunsten neuer Optionen aufgegeben werden wollen. Die Hoffnung war ein aktives, selbstbestimmtes, individuelles, kreatives Lernen durch Tools, die sich an die Bedürfnisse der Schüler, gleich welchen Alters, anpassen lassen. Tatsächliche bieten sie dafür bisher aber nur wenig Optionen. Dies gilt für digitale Schulbücher ebenso, wie für MOOCs. Die meisten Materialien lassen sich zwar downloaden, aber nicht verändern, die Hierarchie zwischen Lernenden und Lehrenden wird noch nicht überwunden und auch die Lernziele sind noch zu unflexibel. Inwieweit dies alles erstrebenswert ist, mag diskutabel sein, trotzdem ändert sich zurzeit primär das Lehren anstatt das Lernen.

Gerade Gamification ist hier ein interessanter Ansatz, der sich auch auf die Vermittlung von Geschichte und Kultur sehr gut übertragen lässt. Eine der Sessions widmete sich dem EDUCACHING, das in einem Berliner Projekt das beliebte Geocaching mit der Suche nach historischen Orten und Geschehnissen innerhalb der Stadt verbindet. Eine virtuelle Schnipseljagd mit Rätseln und Abenteuern, ein Tripventure, digitale Inhalte an realen Orten. Eine Form des Lernens also, die nicht nur in Berlin funktionieren kann und Kompetenz anstatt nur Qualifikation vermittelt.

Während zurzeit vor allem die Schulen noch mit der Angst vor Kontrollverlust durch das Internet zu kämpfen haben und ein wenig die Hoffnung zu schüren scheinen, es gäbe eine Rückkehr zu der Zeit vor dem Netz, übertragen die Universitäten zwar Kurse ins Netz, nutzen aber auch nur selten hierfür wirklich innovative Methoden. Online-Vorlesungen, gepaart mit Tests und Abschlussklausuren, wie sie udacity oder coursera mit Universitätspartnern wie Berkeley, Harvard und dem MIT bieten, sind dieselbe Form des Lehrens in einem anderen Medium und versprechen nur bedingt eine Verbesserung der Lern-Situation. Auch hier herrscht noch ein gewisses Maß an Unflexibilität. Zwar sind die Themen vielfältig und auch zukunftsträchtig, die wirkliche Nutzbarkeit für jeden ist durch technische, sprachliche und zeitliche Voraussetzungen jedoch weiterhin eingeschränkt. Zudem stehen die Materialien nicht frei zur Verfügung, sondern gehören den jeweiligen Universitäten. Es verwundert demnach nicht, dass die Mehrheit der Teilnehmer nach wie vor Akademiker sind.

re:publica_1913Die Ideen des re:learning mögen demnach noch nicht ideal umgesetzt sein, digitale Schulmaterialien, virtuelle Diskussionsräume und eine verstärkte Ausrichtung auf den Social-Aspekt des Web 2.o zeigen aber das Licht am Ende des Tunnels. Insgesamt versprachen trotz noch offener Möglichkeiten und einem gewissen Festhalten an der Gewohnheit alle von mir besuchten Sessions, egal ob Open Culture und Open Science, Open Book oder Social Learning, denn auch neue Optionen, mit den Problemen der Welt umzugehen und mit innovativen Methoden durch die Zugänglichkeit von Wissen Lösungen zu schaffen. Denn nicht jeder hat, wie ich wortwörtlich am Ende der re:publica 2013 noch lernen durfte “the right mindset to study .. let’s say ancient history”..

Quelle: http://kristinoswald.hypotheses.org/828

Weiterlesen

re:publica XI

Ja, es stimmt, die re:publica hat schon gestern begonnen und wir haben bisher geschwiegen. Das kam so: Als einer der wenigen Teilnehmer marschierte ich gestern voll analog nur mit Notizblock und Schreibstift zum Friedrichstadtpalast in Berlin. Dachte, das ist stressfreier. Dachte, ich kann ja dann am Abend im Hotel etwas schreiben. Das mit dem stressfrei [...]

Quelle: http://weblog.hist.net/archives/5292

Weiterlesen