Von Oktober 2012 bis Januar 2013 fand in der Hypo-Kunsthalle München eine bedeutende Ausstellung statt: Unter dem Titel “Pracht auf Pergament” wurden bedeutende früh- und hochmittelalterlichen illuminierten Handschriften der Bayerischen Staatsbibliothek der Öffentlichkeit präsentiert. Es wird sicherlich Jahrzehnte dauern, bis erneut eine vergleichbare Ausstellung stattfindet. Ausgestellt wurden 75 Codices, die zwischen 780 und 1180 in bischöflichen und klösterlichen Skriptorien entstanden – u. a. in Tegernsee, Freising, Salzburg, der Reichenau etc. Von diesen stammten 72 aus der Bayerischen Staatsbibliothek, drei weitere aus der Staatsbibliothek Bamberg. [...]
Stellenangebot wiss. Redakteur(in) am IEG
Am Leibniz-Institut für Europäische Geschichte (IEG) in Mainz ist im Projekt
»EGO | Europäische Geschichte Online« eine Stelle als
Wissenschaftliche(r) Redakteur(in) (50 %, TV-L 13)
vom 01.09.2013 bis zum 28.02.2015 befristet zu besetzen. Die Stelle kann ggf. auch als Vollzeitstelle für die Dauer von 9 Monaten (01.09.2013–31.05.2014) besetzt werden.
Stellenprofil
Das IEG ist ein außeruniversitäres Forschungsinstitut (http://www.ieg-mainz.de) und Mitglied der Leibniz-Gemeinschaft. Es betreibt Forschungen zu den historischen Grundlagen des modernen Europa und unterhält ein internationales Stipendienprogramm. In dem durch die DFG geförderten Projekt »EGO | Europäische Geschichte Online« wird eine zweisprachige transkulturelle Geschichte Europas der Neuzeit im Internet in internationaler und interdisziplinärer Zusammenarbeit aufgebaut (http://www.ieg-ego.eu).
Die Stelleninhaberin/der Stelleninhaber soll die Online-Redaktion in Mainz in der Endphase des DFG-Projekts übernehmen. Er/sie koordiniert und organisiert das Review- und Publikationsverfahren mit Autoren, Fachherausgebern und Übersetzern. Das Tätigkeitsfeld umfasst vor allem die Redaktion wissenschaftlicher Texte in deutscher und englischer Sprache, die Evaluation und Einbindung wissenschaftlicher Internetressourcen sowie die Rechteermittlung und -klärung.
Einstellungsvoraussetzungen
- Erfolgreich abgeschlossenes Studium in einer historisch arbeitenden Wissenschaft (z.B. mit Schwerpunkt in der Kirchen- und Theologiegeschichte, Literaturgeschichte, Kunstgeschichte, Philosophiegeschichte)
- Einschlägige Berufserfahrung im Verlags- und Publikationswesen
- Erfahrung mit digitalen Redaktions- bzw. Content-Management-Systemen
- Exzellente Englisch-Kenntnisse
- Aufgeschlossenheit für interdisziplinäres Arbeiten
- Interesse an vergleichenden, transnationalen und transfergeschichtlichen Ansätzen
- Ausgeprägte kommunikative Fähigkeiten
Die Bewerbung von Frauen ist besonders erwünscht. Schwerbehinderte werden bei gleicher Eignung bevorzugt berücksichtigt. Für Fragen steht Ihnen der Projektkoordinator Dr. Joachim Berger zur Verfügung (berger@ieg-mainz.de).
Bewerbungen mit den üblichen Unterlagen richten Sie bitte unter Angabe der Kenn.-Nr. IEG-EGO-2013 bis zum 11.07.2013 an das Leibniz-Institut für Europäische Geschichte, Verwaltung, Alte Universitätsstraße 19, 55116 Mainz, und zwar a) auf dem Postweg sowie b) per E-Mail (seibel@ieg-mainz.de, alle Unterlagen in einem PDF zusammenfassen).
Bewerbungsunterlagen können nur dann zurückgesandt werden, wenn ein adressierter und ausreichend frankierter Rückumschlag beiliegt.
Vorstellungsgespräche finden voraussichtlich am 19. Juli 2013 statt.
↗ PDF-Version der Ausschreibung
Quelle: http://dhd-blog.org/?p=1881
Emotion und Open Access: die Diskussion in den französischen Geisteswissenschaften
Seit einigen Monaten tobt in Frankreich eine heftige Debatte um Open Access für geisteswissenschaftliche Zeitschriften. Auslöser war die Empfehlung der Europäischen Kommission im Zusammenhang mit dem Programm Horizon 2010 im Juli 2012, dass Forschungsergebnisse, die mit öffentlichen Geldern gefördert wurden, sechs bis zwölf Monaten nach Erscheinen frei zugänglich sein sollten[1]. Während die Diskussion in Deutschland vor allem über das Zweitveröffentlichungsrecht von wissenschaftlichen Aufsätzen läuft (siehe z.B. den lesenswerten Beitrag von Leonhard Dobusch hier), haben sich in Frankreich Akteure mit ganz unterschiedlichen Sichtweisen seit Anfang des Jahres zu Wort gemeldet.
Die Debatte begann im Januar 2013, als sich die französische Wissenschaftsministerin Geneviève Fioraso auf den 5. Open-Access-Tagen in Paris in ihrer Rede für eine Umsetzung der EU-Empfehlung aussprach. In der Folge wandten sich die Verantwortlichen des von vier Verlagen aufgesetzten Portals für geisteswissenschaftliche Zeitschriften Cairn.info Anfang Februar per Mail an die herausgebenden Institutionen ihrer Zeitschriften. Sie plädierten für eine spezielle Schutzfrist für die Geisteswissenschaften, die so lange, wie von Verlagen und Herausgebern gewünscht, hinter der Paywall bleiben sollten. Ein Treffen wurde einberufen, bei dem ein dunkles Zukunftsszenario entworfen wurde, für den Fall, dass die Empfehlung umgesetzt würde. Trotz des Appells der Open-Access-Befürworter wie OpenEdition, die ihrerseits Ende März zu einer großen Debatte über Open Access einluden, die man hier nachhören kann, unterschrieben bis Anfang April 120 Zeitschriften den Appell von Cairn.info.
Kurz darauf erschien Mitte März in der Zeitung Le Monde ein Aufruf von über 60 Vertreterinnen und Vertretern aus Hochschule und Forschung, die sich für Open Access aussprachen und vor einer Isolierung der Geisteswissenschaften warnten, wenn diese als einzige Disziplin die EU-Empfehlung nicht umsetzen würden. Der Aufruf mit dem Titel “Qui a peur de l’open access?” (Wer hat Angst vor Open Access?”) ist jetzt auf Deutsch veröffentlicht: Argumente für Open Access von Forschungsergebnissen. Die zugehörige Website und Petition “I love Open Access” hat ihrerseits bis Ende April 2.898 Unterschriften (darunter 153 Zeitschriften) gesammelt und sammelt noch weiter. Bei Twitter kann man den OA-Befürwortern unter @iloveopenaccess folgen.
Die Debatte in Frankreich wird emotional geführt: Begriffe wie “Angst” und “Liebe” zeigen das deutlich, teilweise ist gar von “Krieg” die Rede. Woran liegt das? Die Diskussion selbst ist ja nicht neu und wird geführt, seit es die technischen Möglichkeiten zur schnellen und kostenlosen Verbreitung von Forschungsinhalten gibt[2]. Doch die Situation ist komplexer geworden auf der Suche nach dem “richtigen” Weg zum Open Access: grün, gold, platin?
In Frankreich wird stärker als in Deutschland mit Modellen zur Finanzierung von OA experimentiert. Dem Modell, dass der Autor, Förderer oder Institutionen bezahlen, wurde beispielsweise das Freemium-Modell von OpenEdition an die Seite gestellt. Dabei sind im Bereich der Zeitschriften bei revues.org die html-Seiten der ejournals frei im Netz verfügbar. Bibliotheken werden dagegen kostenpflichtige Abonnements angeboten, um ihrer Leserschaft pdf und andere Formate dieser Zeitschriften anbieten zu können. Das so eingenommene Geld fließt zu über 60% an die Zeitschriften zurück, die damit oft zum ersten Mal überhaupt Geld einnehmen. Auf diese Weise können gerade die kleineren Zeitschriften, die zumeist nur aufgrund der Selbstausbeutung einzelner Wissenschaftler/innen existieren, Hilfe für die Redaktionsarbeit bezahlen. Das Modell geht jetzt gerade in das zweite Jahr, 60 Bibliotheken – hier auf einer Karte – haben das Angebot abonniert. Eine erste Bilanz steht noch aus. Entscheidend scheint mir, dass neue Wege ausprobiert werden, die berücksichtigen, dass Open Access von edierten Inhalten etwas kostet.
Vermutlich wird die Debatte jetzt auch emotional geführt, da Open Access “von oben” oktroyiert werden könnte und nicht mehr nur eine freie Entscheidung einzelner Akteure ist.[3]. Das löst Widerstände aus. Dem rhetorischen Griff “Wer hat Angst vor Open Access?” liegt die Annahme zugrunde, dass es keine sachlichen Gründe gegen Open Access geben kann und daher nur Emotionen den Ursprung des Widerstands bilden können. Das ist interessant. Und abgesehen von manchen Verlagen, die als wirtschaftliche Unternehmen nur ein Ziel kennen, nämlich den Ertrag, könnte das sogar stimmen. Aber wie begegnet man Angst? Genau, mit Liebe (I love Open Access). Ob das jedoch zielführend ist in dem Sinne, dass man damit Open Access-Gegner in Befürworter umdrehen kann, wage ich zu bezweifeln.
Doch vielleicht zeigt die Aktion ihre Wirkung auf die dritte Gruppe (die vermutlich die größte ist): die Unentschlossenen, die sich heraushalten und diejenigen, die sich bisher noch nicht oder nur wenig mit der Thematik auseinandergesetzt haben. Für die gibt es neben der “Liebe” in der Petition auch Aufklärung und gute Argumente für Open Access. Grund genug also, die Petition zu unterzeichnen und auf die Aktion aufmerksam zu machen, auch wenn einem die Rhetorik dahinter zunächst nicht gefällt.
Links und weitere Artikel
Website und Petition “I love Open Access”
Sabine Partouche, Francois Siino, What’s love got to do with Open Access? Un débat sur l’accès libre aux revues de sciences sociales, in: Carnets de l’Iremam, 23.4.2013, http://iremam.hypotheses.org/2529#_ftn5.
Klaus Graf, Open Access hat Zukunft, in Archivalia, 29.3.2013, http://archiv.twoday.net/stories/326527179/.
Radiosendung “La grande table”: Les revues de Sciences Humaines et Sociales, peuvent-elles se permettre d’etre gratuites? von Caroline Broué auf France Culture. Mit André Gunthert, Mathieu Potte-Bonneville und Antonio Casilli, Les revues de Sciences Humaines et Sociales peuvent-elles se permettre d’être gratuites ?
Podcasts der Tagung von OpenEdition auf dem Blog Docteo: http://speakingofscience.docteo.net/2013/03/27/open-access-en-shs-lintendance-suivra/
- Englische Fassung der Petition http://www.ec-petition.eu/
- Was Open Access ist und warum es wichtig ist, kann man z.B. auf der deutschen Website “Open Access” nachlesen.
- Auch die Wissenschaftsminister der G8-Länder haben sich kürzlich für Open Access ausgesprochen: https://www.gov.uk/government/news/g8-science-ministers-statement
Quelle: http://dhdhi.hypotheses.org/1630
Geschichte von Klöstern und Orden #OpenAccess (5)
In dieser Rubrik werden Bücher und Artikel, die sich mit der Geschichte von Klöstern und Orden beschäftigen und die nun (auch) online – und zwar Open Access – zur Verfügung stehen, aufgeführt. Das soll auch als Anreiz verstanden werden. Alle hier aufgeführten Titel wurden auch in die kollaborative Bibliographie bei Zotero eingetragen. (Mehr Informationen zur Ordensgeschichte bei Zotero: http://ordensgeschichte.hypotheses.org/4479) Der Link zum Ordner “OpenAccess”: https://www.zotero.org/groups/ordensgeschichte/items/collectionKey/N8MKDN8J Der RSS-Feed des Ordners “OpenAccess”: https://api.zotero.org/groups/148107/collections/N8MKDN8J/items/top?start=0&limit=25 Binder, G.: Geschichte der bayerischen Birgitten-Klöster, in: Verhandlungen des Historischen Vereins für Oberpfalz [...]
Geschichte von Klöstern und Orden #OpenAccess (5)
In dieser Rubrik werden Bücher und Artikel, die sich mit der Geschichte von Klöstern und Orden beschäftigen und die nun (auch) online – und zwar Open Access – zur Verfügung stehen, aufgeführt. Das soll auch als Anreiz verstanden werden. Alle hier aufgeführten Titel wurden auch in die kollaborative Bibliographie bei Zotero eingetragen. (Mehr Informationen zur Ordensgeschichte bei Zotero: http://ordensgeschichte.hypotheses.org/4479) Der Link zum Ordner “OpenAccess”: https://www.zotero.org/groups/ordensgeschichte/items/collectionKey/N8MKDN8J Der RSS-Feed des Ordners “OpenAccess”: https://api.zotero.org/groups/148107/collections/N8MKDN8J/items/top?start=0&limit=25 Binder, G.: Geschichte der bayerischen Birgitten-Klöster, in: Verhandlungen des Historischen Vereins für Oberpfalz [...]
“Sehepunkte” mit Sonderteil zur frühneuzeitlichen Religionsgeschichte in Ost-/Südosteuropa
Für alle, die es noch nicht gesehen oder die es übersehen haben: “Sehepunkte” hat in der aktuellen Ausgabe (6/2013) einen ausführlichen Sonderteil mit Rezensionen zur Reformations- und Konfessionsgeschichte in Ost- und Südosteuropa. Johannes Wischmeyer (Mainz) hat die Beiträge organisiert und acht Kritiker/innen dafür zusammengebracht. Diese geben einen umfassenden Einblick in den Stand der osteuropäischen Forschung. Die meisten der besprochenen Bücher sind in osteuropäischen Sprachen geschrieben und somit für viele westeuropäische Historiker/innen bzw. Historiker/innen mit einem westeuropäischen Schwerpunkt leider unzugänglich. Die Besprechungen leisten somit auch einen Beitrag zum Wissenstransfer. Wer sich für die Religionsgeschichte der Frühen Neuzeit interessiert, dem/der seien also die aktuellen “Sehepunkte” sehr ans Herzg gelegt.
Quelle: http://de.hypotheses.org/73053
re:publica 2013 – Nerds im Elfenbeinturm
Vom 6.-8. Mai waren Charlotte Jahnz und Sascha Foerster für die Max Weber Stiftung in Berlin bei der Konferenz re:publica 2013. Sie begann vor 7 Jahren als Blogger-Treffen und hat sich mittlerweile zur wichtigsten europäischen Internet-Konferenzen mit über 5000 Teilnehmern und mehreren hundert Rednern entwickelt.
Session “Geschichte des Computers” (CC-BY 3.0 Sascha Foerster)
Aus der Fülle des Programms möchte ich einige interessante Vorträge, Projekte und Themen der Konferenz vorstellen und persönlich kommentieren, besonders in Hinblick darauf, wie die digitalen Entwicklungen Wissenschaft verändern. Falls entsprechende Aufzeichnungen vorhanden sind, werden diese verlinkt. Weitere Themen, Thesen und Zusammenfassungen von Vorträgen können gerne in den Kommentaren ergänzt werden. Mehr Informationen zur Konferenz gibt es unter http://re-publica.de. Dies ist natürlich eine persönliche Auswahl aus der Vielzahl der Themen, die bei der Konferenz behandelt wurden. Wer Konferenzmitschnitte anschauen möchte, findet hier eine Übersichtsseite mit den Sessions und den entsprechenden Videos zum Anschauen.
Open Data, Open Access und Digital Humanities
Nicht nur in der Verwaltung sondern auch in der Forschung fallen viele Daten an, die oft nach Abschluss des Projekts verloren gehen. Im Vortrag “Die maschinenlesbare Regierung” wurde gefordert solche Daten, die bei öffentlich geförderten Projekten anfallen, unter einer verbreiteten freien Lizenz, zum Beispiel “CreativeCommons” (bzw. ähnliche) und maschinenlesbar zugänglich zu machen. Zum einen ermögliche dies die genauere Replikation und Überprüfung von Studien, zum anderen könnten diese Daten für weitere innovative und gesellschaftsdienliche Zwecke genutzt werden. Persönliche Daten sollen dabei geschützt bleiben und nicht veröffentlicht werden.
Nach Möglichkeit sollen bekannte und verbreitete freie Lizenzen für die Datenveröffentlichung verwendet werden. Maschinenlesbar bedeutet, dass diese Daten nicht als PDF “ausgedruckt” (Zitat: “Schnarchdaten”), sondern in Rohformaten veröffentlicht werden, die automatisiert gelesen und weiterverarbeitet werden können. PDF-Dateien sind für solche Zwecke denkbar schlecht geeignet, da die Rohinformationen dort erst wieder aufwendig extrahiert werden müssen.
Es wurden Forderungen gestellt, die Veröffentlichung von Verwaltungs- und Forschungsdaten gesetzlich verpflichtend zu machen. Entsprechende Gesetze sollen baldmöglichst “installiert werden”.
Links:
re:publica 2013 Session: Die maschinenlesbare Regierung – Eine kritische Analyse zur Gegenwart von Open Data und Open Goverment in Deutschland
Definition von “Offenes Wissen”
http://opendefinition.org/okd/deutsch/
http://de.wikipedia.org/wiki/Open_Data
re:publica 2013 Aufzeichnung: How radical are Open Access and the Digital Humanities?
http://www.youtube.com/watch?v=-9d0KM1I0aw
re:publica 2013 Aufzeichnung: OpenData, was hat das mit mir zu tun?
http://www.youtube.com/watch?v=QBSNr6UXIJg
re:publica 2013 Aufzeichnung: Datenbeifreiung, selbst gemacht. (Tools für Open Data)
http://www.youtube.com/watch?v=vWerZQFj4Xc
Crowdfounding, Crowdsourcing und Wissenschaftskommunikation
Ein Beispiel für gute Wissenschaftskommunikation war die Session zur Grundlagenforschung des CERN. Im Vortrag zeigten Henning Krause (Helmholtz-Gemeinschaft) und seine Kolleginnen und Kollegen vom CERN, wie es zur Entdeckung des Higgs-Teilchens kam. Fast alle Institute nutzen die Kanäle Blogs, Facebook, Twitter, teils auch Podcasts oder öffentliche Google Hangouts zur Wissenschaftskommunikation. In der Diskussion wurde später kritisch nachgehakt, ob die Entdeckung des Higgs-Teilchens den enormen finanziellen Aufwand von 6 Milliarden Euro für den Teilchenbeschleuniger LHC rechtfertige. Gerade wegen des hohen finanziellen Aufwands spiele es eine wichtige Rolle, der Öffentlichkeit die Forschungsergebnisse zu vermitteln und so weiter für die Notwendigkeit der Grundlagenforschung zu werben, wurde erwidert. Da am CERN durch Tim Berners-Lee auch die Grundlagen für das WWW geschaffen wurden, konnte man mit Verständnis unter den technikbegeisterten Zuschauern rechnen. Die enorme Datenverarbeitungskapazität, die nur durch ein weltweites Cluster von Rechner bereit gestellt werden können, zeigten auch, dass durch Grundlagenforschung aktuelle technische Entwicklungen voran gebracht werden können.
Zwischen den Sessions gab es immer wieder Gelegenheit persönlich mit Kollegen zu sprechen, unter anderem habe ich mit Thorsten Witt gesprochen, der für “Wissenschaft im Dialog” das Projekt www.sciencestarter.de leitet. Crowdfounding fordert Wissenschaftler/innen dazu auf, sich und ihre Forschung aktiv zu präsentieren, um so Forschungsgelder von einer interessierten Öffentlichkeit zu sammeln. Einerseits gibt es Befürchtungen der Popularisierung von Forschung, andererseits wird so von Anfang an die Wissenschaftskommunikation gefördert. Auch kleinere Projekte bekommen so eine Chance auf Förderung. Neue Projektvorschläge werden gesucht, besonders auch aus den Geistes- und Sozialwissenschaften.
Eine weitere Möglichkeit, die Crowd für die Forschung zu nutzen, besteht darin, ähnlich wie bei der Wikipedia, Forscher/innen dazu zu animieren, sich gegenseitig bei der Lösung von Forschungsproblemen zu unterstützen bzw. Freiwillige zu animieren bei einem interessanten Projekt zu helfen. Ein vergleichsweise einfacher Weg dazu kann eine offene wissenschaftliche Frage in einem Blogbeitrag sein (siehe z.B. die offene Frage und folgende Diskussion im dk-blog), die von anderen Lesern beantwortet wird. Es kann sich aber auch im Großprojekte wie die Digitalisierung historischer Werke handeln, die auch von Nicht-Experten unterstützt wird. Auch hier sind noch Experimente nötig um die entsprechenden Möglichkeiten und Risiken auszuloten.
Thorsten Witt organisiert übrigens ein SciCamp zum Thema “Wissenschaft im Netz”, das am 1. und 2. Juni 2013 in Berlin stattfinden wird.
Links:
re:publica 2013 Aufzeichnung: Faszination Grundlagenforschung: Higgs, Big Data und Teilchenphysik
http://www.youtube.com/watch?v=ceARb5FRy8A
Passend zum Thema Öffentlichkeitsarbeit und Partizipation:
www.hellojed.de: “Public History: Mehr Öffentlichkeit? Bessere Öffentlichkeit?”
Ähnliche Themen:
re:publica 2013 Aufzeichnung: In, Side, Out of Science (Partizipation in der Wissenschaft)
http://www.youtube.com/watch?v=JZI3peYWGUU
re:publica 2013 Aufzeichnung: Horst Zuse, Die Geschichte des Computers
http://www.youtube.com/watch?v=YAh4Jr5dJcQ
Wikipedia und WikiData
Der Vortrag zu Wikipedia und besonders die kritischen Nachfragen aus dem Publikum zeigen, welche Schwachstellen die Wikipedia momentan hat. Einerseits besteht aus Sicht der Administratoren ein Großteil der Arbeit aus Löschung von unsinnigen Beiträgen, Rückgängigmachung von Vandalismus und Entfernung von Fehlern, die besonders gefährlich sind, da viele, besonders Medien aber auch Wissenschaftler, diese Fehler gegenseitig abschreiben und weiterverbreiteten. Dies wurde an verschiedenen Beispielen gezeigt, u.a. an einem Zahlendreher bei der Länge des Rheins oder einem Eintrag zur Berliner Karl-Marx-Allee. Andererseits werden so auch oft Beiträge und Änderungen gelöscht, die korrekt sind, was zu enormen Frust bei den Nutzern und Autoren führt. Gerade Wissenschaftler, die Spezialisten in ihrem Gebiet sind und Spezial-Artikel durch ihre Expertise auf ein höheres Niveau heben könnten, wenden sich aufgrund der langwierigen Diskussionen mit Administratoren um kleine Anpassungen wieder ab. Dabei sind sich prinzipiell alle Seiten einig, wie wichtig das Projekt Wikipedia ist.
Meiner Meinung nach ist es nicht einfach beide Fehlerarten (falsche Informationen, falsche Löschungen) gleichermaßen zu reduzieren, doch das wird die Aufgabe sein, die die Wikipedia zu lösen hat, um weder (freiwillig arbeitende) Administratoren noch qualitativ hochwertige (ebenfalls freiwillig arbeitend) Beiträger/innen zu verlieren.
Eine interessante Neuentwicklung ist das Projekt “WikiData“, dass eine Datenbank-Infrastruktur für die Wikipedia bereitstellt. Vielverspechend ist die Möglichkeit, Daten über verschiedene Artikel hinweg an einer zentralen Stelle aktualisieren zu können. Welchen Nutzen dies für Wissenschaftler/innen hat und welche Fragen sich mit diesen Datensätzen beantworten lassen, wird sich erst zeigen, wenn mehr Daten zur Verfügung stehen und einige Forscher damit experimentiert haben. Wer sich für WikiData interessiert, kann schon mal die API testen. Beispielsweise lassen sich auch historische Daten und Fakten in der Datenbank festhalten.
Links:
re:publica 2013 Aufzeichnung: Wikipedia: wo User geblockt, Artikel gelöscht und Reputationen zerstört werden
http://www.youtube.com/watch?v=5iSAl_krauA
http://www.wikidata.org/w/api.php
Digitalisierung und Langzeitarchivierung
Unter dem provokativen aber ernst gemeinten Titel “Das Buch muss überwunden werden – Digitales Utopia oder eher El Dorado?” stand der Vortrag über die “nächste Evolutionsstufe des Buches” und den gegenwärtigen Stand der Digitalisierung. Die Vortragenden vertraten eine klare Position für eine Digitalisierung bis hin zur Abschaffung des Buches in seiner physischen Form. Es wurden Projekte wie die “Deutsche Digitale Bibliothek” und “Europeana.eu“ vorgestellt und die urheberrechtlichen Hintergründe und Probleme erklärt.
Besonders Bücher zwischen 1850 bis 1950 seien vom Papierzerfall bedroht. Die Probleme der digitalen Langzeitarchivierung seien viel besser lösbar bzw. bereits gelöst. Alle Bücher zu digitalisieren, würde nach Schätzungen der Vortragenden 120 Millionen Euro kosten. Selbst wenn es viermal so teuer wäre, so wurde argumentiert, würde es immer noch durch die öffentliche Hand zu stemmen sein.
Zwei Nutzungsszenarien böten sich nach der Digitalisierung an: Zum Ersten könne man die Bücher einfach lesen. Zum Zweiten ließe sich erst nach Digitalisierung eine Volltextsuche durchführen, wie sie beispielsweise bereits von Google ngram angeboten wird.
Auch die Langzeitarchivierung von Blogs ist ein bisher nicht wirklich gelöstes Problem. Zwar gibt es die “Wayback Machine” des “Internet Archives”, doch geht dabei der dynamische Charakter der Blogs verloren, da diese ja meist auf ein Datenbanksystem zurückgreifen. Bereits 45% der Blogs aus der Zeit des Irakkriegs seien verloren gegangen – trotz des bestehenden “Internet Archives”. Das EU-geförderte Projekt “Blogforever” soll hier Abhilfe schaffen, indem es die dynamischen erstellten Blogs archivieren hilft. Es soll in Zukunft als OpenSource-Paket und als Webdienst verfügbar sein.
Ein digitales Archiv des analogen Alltags wird im Projekt “digIT – Graben, Retten, Teilen” beim WDR erstellt. Die Mitarbeiter/innen sammeln vor Ort analoge Videos und Fotos ein, digitalisieren diese und stellen eine Kopie auf ihrer Webseite. Als Beispiel wurde ein Video der Brückenverschiebung 1976 in Düsseldorf gezeigt. Im Workshop suchten die Mitarbeiter nach Ideen für ein besseres Tagging des Materials der Offliner, gegebenenfalls mit Hilfe von Onlinern.
Als Nachteil habe ich auch hier empfunden, dass keine freien Lizenzen verwendet werden, sondern eine Eigenentwicklung des WDR, bei der nur nicht-kommerzielle Archive und Bildungsträger das Material nutzen dürfen. Nicht allen Zuhörern war klar, was CC-Lizenzen sind, wie ein nachfragender Nebenmann mir bewies. Bei einer Nutzung von freien Lizenzen könnten die Digitalisate beispielsweise auch in der Wikipedia eingebunden werden. Bei Beendigung des Projekts werden so die Daten vermutlich nur noch für die eigene Mitarbeiter im WDR-Archiv zu finden sein.
Links:
re:publica 2013 Aufzeichnung: Das Buch muss überwunden werden – Digitales Utopia oder eher El Dorado?
http://www.youtube.com/watch?v=oOcOTE2IP34
re:publica 2013 Session: Blogforever
re:publica 2013 Session: digit.WDR.de – Graben, retten, teilen
Nestor : Digitale Langzeitarchivierung
Internet Archive: Wayback Machine
Best of Blogs, reclaim.fm und Owncloud
Dass Blogs schon lange mehr sind als Online-Tagebücher von Teenager, hat sich noch nicht überall herumgesprochen. Die Best-of-Blog-Awards, vergeben von der Deutschen Welle, zeigen, welche Bedeutung Blogs mittlerweile für die freie Meinungsäußerung weltweit haben. Auch die wissenschaftliche Blogplattform Hypotheses.org, deren deutschen Ableger de.hypotheses.org wir bei der Max Weber Stiftung managen, war nominiert.
Verweisen möchte ich auch auf den Überraschungsvortrag von Sascha Lobo, in dem das Tool reclaim.fm vorgestellt wurde. Es ist noch in der Entwicklung, soll aber dabei helfen die eigenen Daten aus Facebook, Twitter und anderen kommerziellen Diensten zurück in das selbstkontrollierte WordPress-Blog zu bringen, eine Entwicklung, die ich persönlich begrüße. Insgesamt wird immer wieder der Wunsch geäußert aus den kommerziell orientierten sozialen Medien zurück in die Blogosphäre zu kehren. Dort hat man Kontrolle über die eigenen Daten und wird nicht von Großkonzernen für bessere Werbeplatzierungen ausspioniert. Doch vermutlich wird diese Henne-Ei-Diskussion weitergehen, so lange die meisten Kontakte sich in kommerziellen Netzwerken befinden.
Eine freie Alternative zu Dropbox und Co. ist Owncloud. Man kann damit Dateien auf den eigenen Rechnern belassen und trotzdem über verschiedene Geräte synchronisieren, bzw. im Internet teilen. Es ist also eine selbstkontrollierte Datenwolke, bei der man keine “Allgemeinen Geschäftsbedingungen” zum eigenen Nachteil bestätigen muss, ohne dabei irgendeinen funktionellen Nachteil zu haben.
Links:
re:publica 2013 Aufzeichnung: The Bobs Six Winners
http://www.youtube.com/watch?v=EcsaUnQgvhM
re:publica 2013 Aufzeichnung: Sascha Lobo: Überraschungsvortrag II
http://www.youtube.com/watch?v=Raas1BhSIbs
Passend dazu:
http://schmalenstroer.net/blog/2013/05/reclaim-fm-die-eigene-social-media-sicherung/
re:publica 2013 Aufzeichnung: crushing data silos with Owncloud
http://www.youtube.com/watch?v=CwhKl0qvcfA
Workshops: Content, SocialCRM, Social Media
Im Rahmen der re:publica 2013 wurde auch die Konferenz re:campaign abgehalten, die einen Schwerpunkt auf NGOs legt, aber auch für Stiftungen und anderen Organisationen im Internet waren interessante Anregungen dabei.
Die Erstellung einer Content-Strategie für NGO’s wurde im entsprechenden Workshop mit folgenden Schritten beschrieben: Zuerst muss man die bestehenden eigenen Inhalte der Organisationen kennen lernen. Danach sollten Benutzerprofile der Rezipienten erstellt werden, zum Beispiel durch Interviews oder Umfragen. Die Fragen “Was wollen und was brauchen die Nutzer?” sollen so beantwortet werden. Anhand der Organisationsziele lässt sich dann bestimmen, welche konkreten Botschaften gesendet werden sollen. Damit Inhalte (Content) in Organisationen produziert und verteilt werden können, müssen Prozesse und Arbeitsabläufe geplant und strukturiert werden. Dazu gehören auch Kontrollmechanismen und festgelegte Verantwortlichkeiten. Schließlich wird entschieden, auf welchen Plattformen und wie die Inhalte verbreitet werden. Welche Medienformate eignen sich für welche Plattform? Insgesamt sollte es nicht zu textlastig werden. Einstiegsvideos helfen, Emotionen zu wecken, Storytelling macht die Inhalte interessant.
Im Workshop “Von SocialMedia zu SocialCRM” wurden Anregungen und Ideen gesammelt, wie Organisation besser mit ihrem Umfeld interagieren können. Klassische Instrumente der Kundenpflege greifen oft zu kurz, da sie die Sozialen Medien außer Acht lassen. Schwierigkeiten sind unter anderem, dass sich Organisationsziele nicht eins zu eins in die Sozialen Medien übertragen lassen, dass Soziale Medien heterogene Systeme sind, dass die Erfolgsmessung bei Sozialen Medien schwierig zu definieren ist und dass die Folgen nur schwer messbar sind. Es wurde angeregt, dass Mitarbeiter stärker als Menschen hervortreten und die Impulse aus der Community besser aufgegriffen werden sollen.
Die Folien des Workshops “10 Fehler die wir alle machen!” finden sich zum Nachlesen bei Slideshare. Auch hier waren interessante Anregungen für die Social-Media-Strategie von Organisationen dabei.
Links:
re:publica 2013 Workshop: Content Strategy für NGOs – Webinhalte erst strategisch planen, dann publizieren
re:publica 2013 Workshop: Von Social Media Management zu Social CRM
re:publica 2013 Workshop: 10 Fehler die wir alle machen! – Nonprofits und Social Media Stand 2013
Fazit
Insgesamt meinte ich bei den technologiebegeisterten Vortragenden Ungeduld und Frustrationen zu spüren. Vermutlich kämpfen sie schon lange mit den Widerständen und erreichen doch nur geringe Fortschritte, sowohl in Forschung als auch in Verwaltung. Deren Vertreter verwiesen in der Diskussion wiederum auf Schwierigkeiten bei der Umstellung, Sorgen über die Folgen oder kritisierten und blockierten insgesamt die digitalen Projekte.
Immer, wenn ich mit Menschen außerhalb der re:publica sprach, merkte ich meist schnell, dass die Themen und Stichwörter der Konferenz nur den Wenigsten etwas sagen. Nicht alle wissen, was eine CC-Lizenz ist, und vielen “Nerds” fehlt das Verständnis dafür, das andere nicht genau so gut Bescheid wissen, wie sie selbst, die sie mit mindestens zwei Bildschirmen parallel einem Vortrag folgen. Andererseits gibt es immer noch Vorurteile, wie “Blogs sind doch nur Meinungen von Teenagern” und es wird abgetan, dass dort mittlerweile auch wissenschaftliche Ergebnisse publiziert werden (siehe de.hypotheses.org). Dabei darf man Meinungen keinesfalls gering schätzen, wie man an Beispielen von eingeschränkter Meinungsfreiheit sieht und von Menschen, die sich diese Meinungsfreiheit im Netz, auch gerade durch Blogs, wieder erkämpft haben.
tl;dr: Es bleibt noch viel Aufklärungsarbeit zu leisten. Nerds, kommt raus aus eurem Elfenbeinturm!
Quelle: http://mws.hypotheses.org/2838
DHd-Blog: Berichte der Enquete-Kommission “Internet und digitale Gesellschaft”
Geschichte von Klöstern und Orden #OpenAccess (3)
In dieser Rubrik werden Bücher und Artikel, die sich mit der Geschichte von Klöstern und Orden beschäftigen und die nun (auch) online – und zwar Open Access – zur Verfügung stehen, aufgeführt. Das soll auch als Anreiz verstanden werden. Lennart Bohnenkamp, Regino von Prüm und die religiöse Bedeutung der Geschichtsschreibung im Frühmittelalter, in: Concilium medii aevi 14 (2011), S. 289–317, online: http://cma.gbv.de/dr,cma,014,2011,a,13.pdf. Caroline Bruzelius, Nuns in Space: Strict Enclosure and the Architecture of the Clarissas in the Thirteenth century, in: Ingrid Peterson (Hg.), Clare of Assisi. A [...]
Wie hältst Du’s mit der Qualität? Gretchen online
Dieser Blogpost ist als Beitrag zur Vorbereitung der Tagung „Nachwuchs in den Geisteswissenschaften“ am 10. und 11. Juni am Deutschen Historischen Institut Paris gedacht, die die Frage nach den Folgen der digitalen Revolution auf den geisteswissenschaftlichen Nachwuchs stellt (#dhiha5). Am Ende der Veranstaltung soll ein gemeinsam von französischen und deutschen Nachwuchswissenschaftlern auf den Weg gebrachtes Manifest stehen.
Wie man ein solches Unternehmen vorbereitet? Mit einer Blogparade. Vier Themenbereiche:
1. Wie verändert die Digitalisierung unsere Forschungskultur?
2. Wie sollten Nachwuchswissenschaftler während des Studiums auf die Umbrüche vorbereitet werden?
3. Wie können die beiden wissenschaftlichen Eckpfeiler „Qualitätssicherung“ und „Evaluierung“ ins Digitale transferiert werden?
4. Welche Auswirkungen hat die Digitalisierung auf das wissenschaftliche Curriculum und wie stehen die Bedürfnisse des Nachwuchses zum Angebot der Forschungsförderer?
Auf geht’s, ich beschäftige mich mit Punkt 3. Und bin gespannt, was die französischen Kollegen aus der Fragestellung machen, denn ich hege die dunkle Ahnung, dass ein Terminus wie „Qualitätssicherung“ ein typisch deutscher ist und dass gerade der Umgang mit Netzformaten zur Kommunikation und Publikation in Frankreich sehr viel weniger skepsisbehaftet und deutlich spielerischer ist als bei uns, und das eben nicht nur im privaten Bereich, sondern auch im professionellen, gar wissenschaftlichen Kontext.
Aber fangen wir mit dem zweiten Begriff an, der „Evaluierung“. Es scheint auf der Hand zu liegen, dass mit steigendem Anteil wissenschaftlicher Online-Publikationen ein permanentes Schrauben an den (häufig zementiert wirkenden) Anerkennungsmechanismen innerhalb der Wissenschaft stattfinden sollte, wie sie etwa bei Berufungen oder Drittmittelvergaben angewendet werden. Mit Online-Publikationen sind hier explizit nicht nur eBooks oder Open-Access-Zeitschriften gemeint, die in der Regel ISB- und ISS-Nummern besitzen und zumindest formal schon heute problemlos in den wissenschaftlichen CV Eingang finden (wobei das Problem des Impact Factors offenkundig bleibt, hier aber außen vor bleiben soll). Gemeint sind also insbesondere auch jene scheinbar innovativen Netz-Publikationsformate wie Blogs, Mikroblogs (z.B. Twitter) oder Wikis. Tatsächlich bestimmen sie im privaten Bereich längst das Leben des Nachwuchses – nicht so das professionelle. Web 2.0 bleibt Privatvergnügen und wird dem Doktorvater oft in vorauseilendem Gehorsam hinter vorgehalter Hand gebeichtet – weil an vielen Lehrstühlen ein geringes Maß an Erfahrung mit neuen Textformaten dementsprechende Vorurteile nährt. Ganz gleich, wie anspruchsvoll die vom Nachwuchs online kommunizierten Inhalte sind, die Assoziation mit ungezählten privaten Blogs und Foren, deren Anspruch nicht weit über den Austausch von Häkelmustern hinausgeht, klebt wie Teer an den Schreibtischen vieler Professoren. Und die Skepsis scheint dominant vererbt zu werden, zumindest gewinnt man diesen ernüchternden Eindruck im Gespräch mit jungen Wissenschaftlern. Que faire?
Ich versuche es hier so konkret wie möglich:
- Ein wichtiger erster Schritt ist mit der Gründung wissenschaftlicher Blogumgebungen wie etwa de.hypotheses.org und der Vergabemöglichkeit von ISS-Nummern für etablierte Blogs getan. Dass Letzteres bislang nur durch die französische Nationalbibliothek erfolgt, erscheint symptomatisch für die German Angst vor dem Verfall von Wissenschaftskultur durch das Internet.
- Ob eine ähnliche Evaluierungsgrundlage für andere Textgenres im wissenschaftlich genutzten Netz möglich ist, bleibt fraglich. Wie etwa sollte sie bei Twitter aussehen? Nationale Einrichtungen für die Anerkennung professionell genutzter Accounts? Keine schöne Vorstellung, zumal der Reiz eines Twitteraccounts für die anderen Twitteranians auch in der richtigen Mischung fachlicher Tweets und dem Ausdruck von Persönlichkeit begründet liegt, wozu eben auch die eine oder andere private Botschaft gehört. Und hier zeigt sich vielleicht eines der Grundprobleme: Social Media ist mit Spaß verbunden, und beides ist leider wenig kompatibel mit offiziellen Evaluierungsrichtlinien.
- Abgesehen vom Mikroblogging gibt es aber eine Reihe von Online-Formaten, die heute schon häufiger und besser in Antrags- und Bewerbungszusammenhängen verwertet werden könnten (Blogs, Wikis, Kommentare, Preprints usw.). Natürlich ist der Ruf nach mehr Offenheit bei den Förderinstitutionen und Universitäten gerechtfertigt. Andererseits – ganz primär und zuallererst – auch jener nach mehr Mut bei Antragstellern und Bewerbern. Ich hoffe auf eine Generation, die mit derselben Selbstverständlichkeit, mit der sie online kommentiert oder Forschungsskizzen und -diskurse bloggt, die ihr substanziell erscheinenden Beiträge auch in der eigenen Literaturliste im DFG-Antrag aufführt. Und hier sind wir bei einem weiteren Grundproblem: Trauen wir als Wissenschaftler uns wirklich (schon), Substanzielles (nur) online zu publizieren, oder landet es nicht doch auf Papier?
Zurück zur Frage der Qualitätssicherung, die ja zumindest für das Blogwesen bereits anklang, wo Blogportalbetreiber als redaktionsähnliche Filter agieren können, um die Wissenschaftlichkeit publizierter Inhalte sicherzustellen.
Andererseits stellt sich die Frage, ob es nicht geradezu absurd ist, einem Medium die Standards eines alten Mediums (die des Papiers, das nur begrenzten Platz bietet) überzustülpen, nur um die Ansprüche derer zu bedienen, die sich vom alten Medium (noch) nicht lösen. Das Absurde daran ist wohl, dass man auf diese Weise das neue Medium daran hindert, seine spezifischen Mehrwerte und Vorteile zu entfalten, und damit ist der Teufelskreis perfekt, weil die Anreize für Akzeptanz oder gar Umstieg damit beschnitten werden. Seit Langem schon gibt es daher – oft als traumtänzerische Idealisten belächelte – Verfechter der These „publish first filter later“[1] als Antwort auf die immer wiederkehrende Frage, wie denn Qualitätssicherung für wissenschaftliche Netzinhalte organisiert werden solle angesichts der wachsenden Textberge (die es by the way auch auf Papier gibt).
Aber sie haben gute Argumente, diese Verfechter. Internet ist per se weniger Publikation denn Kommunikation. Nahezu alle wirklich erfolgreichen Netzformate setzen auf individuelle Selektion, das heißt den Verzicht auf eine objektive filternde Instanz, an deren Stelle das Individuum als Filter tritt. Das ist natürlich stark vereinfacht, weil es de facto immer filternde Gruppen gibt, die den Einzelnen entlasten: Bei Facebook und Twitter filtern die Bekanntenkreise vor und mit. Bei der Wikipedia sind es die, die neben mir selbst über Spezialwissen zum jeweiligen Artikel verfügen und so weiter. Entscheidend aber ist der Verzicht auf die (vermeintlich) neutrale Vorinstanz. Erfolg hat, was wahrgenommen wird. „Wahrgenommen zu werden“ hat natürlich je nach Thema unterschiedliche Schwellen: Ein gutes Blogpost zu einem abseitigen historischen Spezialthema wird mit 20 ernsthaften Lesern und drei Kommentaren als ähnlich erfolgreich gelten können wie ein tausendfach geklickter Artikel zu Angela Merkels Urlaubsfotos auf Spiegel Online. Es geht nicht um Masse, sondern um Machbarkeit. Zweifellos ist die Machbarkeit, also die Fähigkeit zum Erreichen möglichst vieler potentiell Interessierter, online größer als in einem papiernen Fachjournal mit winziger Auflage. Das qualitativ schlechte Blogpost zum obigen Spezialthema hat nur 5 Leser, keinen Kommentar und bleibt unsichtbar, während der Link zum guten per Emails, Twitter, Literaturliste und Mund-zu-Mund-Propaganda in der Wahrnehmung der Fachkreise hochgespült wird. So sähe das „filter later“ im Idealfall aus. Wie realistisch das Szenario ist, liegt in unser aller Hand.
Apropos realistisch: Realistisch ist, dass das klassische Peer Reviewing – wie oft blind auch immer – auf absehbare Zeit zumindest in den Geisteswissenschaften tonangebend bleibt. Das (insbesondere deutschsprachige) geisteswissenschaftliche Währungssystem ist behäbig. Der Unterschied zwischen „online“ und „offline“ bleibt so lange ein verhältnismäßig kleiner, wie sich ein vorgelagertes Peer Reviewing „unsichtbar“ abspielt und das vermeintlich fertige Textwerkstück ganz am Ende statt auf Papier ins Netz gegossen wird. Ein vorgelagertes Open-Peer-Reviewing kann es öffnen, eventuell sogar fortentwickeln oder ergänzen, bleibt aber der alten Idee verhaftet, es gäbe so etwas wie einen „fertigen Text“, der zum Zeitpunkt der offiziellen Publikation zumindest temporär statisch sein soll und darf.
Dass dies eine Illusion ist, deren Ursprung im Papier begründet liegt, ist offensichtlich. Um beim oben skizzierten Idealfall zu bleiben: Das gute Spezialpost nimmt natürlich die drei eingegangenen fundierten Kommentare von Kollegen aus aller Welt auf, verarbeitet sie und publiziert ein neues Post, einen Aufsatz oder eine Monographie – selbstverständlich online und selbstverständlich mit Kommentarmöglichkeit. Denn was ist schon fertig.
[1] Z.B. David Gauntlett oder Hubertus Kohle. Der Slogan geht zurück auf Clay Shirky (2008): “Here Comes Everybody. The Power of Organizing Without Organizations”
Quelle: http://rkb.hypotheses.org/498
