DHI Paris: zwei Stellen im Bereich Digital Humanities zu besetzen (Frist: 12.4.2017)

Das Deutsche Historische Institut Paris sucht zum nächstmöglichen Zeitpunkt oder nach Vereinbarung

  1. eine/n wissenschaftliche/n Mitarbeiter/in auf Postdoktorandenniveau
    (37 Stunden-Wochenarbeitszeit oder nach Vereinbarung)
  2. eine/n wissenschaftliche Mitarbeiter/in mit einem Promotionsprojekt
    (24 Stunden-Wochenarbeitszeit)

 Das Deutsche Historische Institut Paris (DHIP) ist Teil der Max Weber Stiftung – Deutsche Geisteswissenschaftliche Institute im Ausland (MWS). Das Institut arbeitet unter den Leitbegriffen »Forschen – Vermitteln – Qualifizieren« auf dem Gebiet der französischen, deutsch-französischen und westeuropäischen Geschichte von der Spätantike bis zur Gegenwart und nimmt eine Vermittlerrolle zwischen Deutschland und Frankreich ein.

Das DHIP will seinen Schwerpunkt im Bereich der Digital Humanities (bes. Open-Access-Publikationen, Datenbanken und soziale Medien) weiter stärken. Wir suchen deshalb:

  1. befristet für drei Jahre eine/n wissenschaftliche/n wissenschaftlichen Mitarbeiter/in, der/die ein Forschungsvorhaben im Bereich der digitalen Geschichtswissenschaft verfolgt und im Bereich der Drittmittelakquise (bes. Wissenschaftskommunikation und -publikation, digitale Editionen) Förderanträge vorbereitet, die Weiterentwicklung und Vernetzung bestehender Onlineprojekte und Datenbanken des Instituts innerhalb der digitalen Forschungsinfrastrukturen für die digitalen Geisteswissenschaften vorantreibt und die Forschenden des DHIP bei Konzeption und Umsetzung ihrer digitalen Projekte unterstützt.

    [...]

Quelle: http://digigw.hypotheses.org/1597

Weiterlesen

Aufruf: Sammlung von Lehrangeboten mit archäoinformatischen Inhalten

Folgende Nachricht erreichte uns über die Mailinglisten:

„IANUS, das Forschungsdatenzentrum der Archäologie & Altertumswissenschaft, möchte für das Sommersemester 2017 erneut eine möglichst umfangreiche Sammlung der in Deutschland durchgeführten Lehrveranstaltungen zur digitalen Informationsgewinnung und -verarbeitung in den Altertumswissenschaften und der Archäologie anbieten (http://www.ianus-fdz.de/lehrangebote).

Über ein Online-Eingabeformular unter http://www.ianus-fdz.de/lehrangebote-eingabe haben Sie die Möglichkeit, potentiell relevante Lehrveranstaltungen selbstständig in die Liste einzutragen. Dank der Unterstützung durch Lehrende und Studierende umfasste die Sammlung für das Wintersemester 2016/17 Veranstaltungen an 22 Instituten. Um die Sammlung auch in Zukunft möglichst umfassend und aktuell gestalten zu können, würden wir Sie gerne um Ihre Unterstützung bitten.

[...]

Quelle: https://digigw.hypotheses.org/1567

Weiterlesen

Neues Komitee der AG Digitale Geschichtswissenschaft auf dem Historikertag gewählt

Bei der Sitzung der AG Digitale Geschichtswissenschaft im Verband der Historikerinnen und Historiker Deutschlands am 21. September 2016 in Hamburg wurde turnusgemäß für die nächsten zwei Jahre ein neues Komitee gewählt, das dann intern Sprecherin und Sprecher festgelegt hat. Gewählt wurden:

Dr. Mareike König (Sprecherin)
Prof. Dr. Christoph Schäfer (Stellv. Sprecher)

Dr. Martin Dröge
Prof.

[...]

Quelle: http://digigw.hypotheses.org/1507

Weiterlesen

Historische Netzwerke Stuttgart. Das zweite Twitterinterview #hnSTR #2

Ein Gastbeitrag von Anne Baillot

Interviewpartner dieses Mal ist Marten Düring. Er arbeitet als Forscher im Digital Humanities Lab am Centre virtuel de la connaissance sur l’Europe in Luxembourg. 2012 promovierte er an der Universität Mainz zu verdeckten sozialen Netzwerken im Nationalsozialismus. Zudem ist er mit Linda von Keyserlingk, Ulrich Eumann und Martin Stark Mitbegründer der Workshop-Serie "Historical Network Research", für deren Webseite er auch verantwortlich ist.

Vom 10.-12. April findet an der Ruhr-Universität Bochum der Historische Netzwerkforschung zum Thema "Vom Schürfen und Knüpfen - Text Mining und Netzwerkanalyse für Historiker_innen" statt. Es ist bereits der neunte Workshop der Reihe. Weitere Informationen erhalten Sie hier.


Siehe auch
: Anne Baillot, Historische Netzwerke Stuttgart. Ein Twitterinterview #hnSTR, in: Digitale Geschichtswissenschaft.Das Blog der AG Digitale Geschichtswissenschaft im VHD, 22.12.2014, http://digigw.hypotheses.org/1153.

Quelle: http://digigw.hypotheses.org/1190

Weiterlesen

Tagungsbericht: Historical Network Conference 2014 / Ghent (Belgien), 15.-19.09.2014

Ein Gastbeitrag von Anne Baillot (Berlin), Emmanuelle Chaze (Bayreuth) und Carolin Hahn (Berlin)

HNR14directions_staircaseDie zum zweiten Mal stattfindende Konferenz „Historical Network Research“ fand in diesem Jahr vom 15. bis 19. September in Belgien statt. Ausgerichtet wurde diese von dem an der Universität angesiedelten Ghent Center of Digital Humanities. In Präsentationen, halbstündigen Vorträgen sowie Postersessions stellten die Teilnehmer_innen ihre aktuellen Projekte vor. Der Tagung voraus gingen zwei Einführungsseminare über die Grundlagen der Netzwerkanalyse (12.-13.09.) sowie ein zweitägiger Workshop (14.-15.09.) zu den Netzwerkvisualisierungs-Softwares Gephi oder – wahlweise – UCINET/Netdraw. Der Facettenreichtum der vorgestellten Forschungsvorhaben war Beweis genug für die aktuelle fach- und länderübergreifende Brisanz des Netzwerk-Topos. Ziel der Tagung war es, Netzwerkanalyse-Methoden in konkreten praktischen Projekten vorzustellen, den interdisziplinären Dialog zwischen den Fachrichtungen (Geschichtswissenschaft, Literaturwissenschaft, Informatik, Computerphilologie etc.) zu ermöglichen und die Teilnehmenden an aktuelle Software heranzuführen.

Martin Stark (Hamburg) und Marten Düring (Luxemburg) gaben erste Einführungsseminare in den Fachbereich. Der Fokus lag besonders auf der sozialen Netzwerkanalyse als Untersuchungsmethode. Neben allgemeinen theoretischen Grundlagen wurde auch anhand kleinerer praktischer Übungen versucht, die Brücke zwischen close reading und formaler Datenanalyse zu schlagen. Dabei stellte sich heraus, dass gerade das Finden eines geeigneten Codierungsschemas, das sowohl der Textgrundlage wie auch den eigenen Forschungsinteressen entspricht, die erste Herausforderung war: Ein perfektes Schema? Das gibt es laut Düring nicht, zudem sei auch das Leserauge alles andere als verlässlich. Daher stellte er für den Bereich der textbasierten Netzwerkanalyse die Relevanz des close readings bei der Kodierung heraus.

Verwendete Tools

20140918_160145Auf Grundlage erfasster Daten ist deren Visualisierung ein weiterer, zweiter Analyseschritt. So vielfältig die Forschungsprojekte der Tagungsgäste sind, so heterogen ist auch die Software, die jeweils zum Einsatz kommt: Neben Gephi und UCINET/Netdraw wird beispielsweise auch Pajek verwendet – abhängig von den jeweiligen projektspezifischen Bedürfnissen. Gänzlich umfassend und zufriedenstellend erschien den Teilnehmenden jedoch keine der auf dem Markt befindlichen Softwares. Angesichts verschiedener Programme, die allerdings teilweise noch recht jung sind, war die Frage nach passenden und möglichst intuitiv bedienbaren Tools daher von großer Relevanz.

Die Möglichkeit der Datenerfassung und -visualisierung mit UCINET, in der soziologischen Forschungspraxis seit Jahrzehnten angewandt, stellte Bruce Cronin (Greenwich) in einem Workshop vor. Der Kurs bot einen umfassenden Überblick über die Software mit all ihren Stärken und Schwächen. Zwar werden umfassendere Datensätze nicht so schnell verarbeitet und generierte Dokumentationen sind nicht immer einfach interpretierbar. Zudem ist ein wenig mathematisches Geschick notwendig, um das Programm zu bedienen. Doch sind in UCINET Matrizen konstruierbar und die modulare Architektur erlaubt stetige Anpassungen an aktuelle Forschungsstandards und -anforderungen. Daten können mit dem anschlussfähigen Netdraw visualisiert werden. UCINET liefert gut strukturierte Daten – jung, dynamisch, schön ist es allerdings nicht: Gephi heißt hier wohl die neue Lösung, folgt man dem allgemeinen Tenor der vortragenden Wissenschaftler_innen. Vorgestellt wurde die Software von Clément Levallois (Lyon), Entwickler aus dem Hause Gephi. Die Einführung hatte es in sich, da das Programm trotz seiner bereits breiten Verwendung noch in den Kinderschuhen, oder vielmehr: der Beta-Version, steckt. Besonders intuitiv ist es nicht zu bedienen: hier ein Knopf, da eine Farbe, dort ein bisschen 3D. Doch zeichnete sich das breite Anwendungsspektrum von Gephi bereits ab: Datenbanken – das Programm verfügt über ein „DataRepository” – können recht bequem importiert werden (auch aus UCINET). Filter und Plug-Ins ermöglichen die Darstellung dynamischer Daten mit Timelines und Karten. Ganz dreidimensional sind zwar bisher nur die schönen kugelförmigen Knotenpunkte (nodes), doch ist mit baldigen technischen Entwicklungen zu rechnen.

Wer weder Netdraw noch Gephi nutzen möchte, hat mit dem Programm Nodegoat noch eine Alternative. Präsentiert wurde die intuitiv zu bedienende Software in einem Vortrag von den Entwicklern Pim van Bree und Geert Kessels (LAB 1100, Den Haag). Auch hier können dynamische Daten mit Timelines und geographischen Karten dargestellt werden. Leider ist Nodegoat nicht open source. Ebenfalls erwähnenswert ist das Programm Palladio, das zwar (noch) nicht viel kann, doch den wertvollen Vorteil hat, dass Daten durch einfache drag-and-drop-Technik sehr leicht – allerdings nur online – importiert werden können.

Wissenschaftliche Praxis

Nach zwei Tagen „Workshopping“ eröffnete Hans Blomme (Ghent) die Konferenz. Es wurde schnell deutlich, dass die Erfassung und Darstellung dynamischer Daten zum herausragenden Thema der Tagung werden würde. Claire Lemercier (Paris) sprach in ihrem Eröffnungsvortrag über Dynamiken in historischen Netzwerken, denn es liege in der Natur der Sache: Personen verändern sich und mit ihnen ihre Netzwerke. Wie kann also Zeit, wie können Veränderungen aufgenommen werden? Laut Lemercier gelte es, Netzwerke zu dynamisieren – mit neuen Simulationen und Animationen. Wandel soll dargestellt werden – in Beziehungen, Inhalten, Netzwerkumfang und Attributen der Partizipierenden. Dabei sei natürlich auch nicht alles aufnehmbar: Je einfacher das Netzwerk, desto mehr müsse mit Informationsverlust gerechnet werden. Dennoch: Auf die Struktur komme es an und nicht auf eine bloße Liste an Kontaktpersonen oder Interaktionen. Dynamiken sollen herauskristallisiert werden, die nicht nur für die konkreten Handlungen, sondern auch für die Entscheidungsprozesse der Protagonisten relevant seien. Animationen gelten dabei zunächst einmal als zweitrangig: Zunächst stehe die Datenbasis im Vordergrund, die nicht selten voller Lücken sei. Doch könnten wir von den verschiedenen Disziplinen lernen: von den Geschichtswissenschaftler_innen den Fokus auf Strukturen, von Soziologen_innen die akteursorientierte Modellierung und Beobachtungen auf Mikroebene etc.

Dynamiken zu präsentieren berge jedoch auch einige Schwierigkeiten in sich. Erstens könnten nicht sämtliche Dimensionen gleichzeitig präsentiert werden: Werde alles visualisiert, sei nichts sichtbar. Daher seien konkrete Fokussierungen von enormer Relevanz, die von der jeweiligen (historischen) Forschungsfrage abhängen. So stelle sich, zweitens, die Frage, wer oder was in den Blick genommen werden soll. Ebenso schwierig erscheine, drittens, eine genaue Datierung der Beziehungen: Existieren einmal eingegangene Verbindungen tatsächlich ewig? Wann begannen, wann endeten Kontakte? Dabei würden Knotenpunkte Beziehungen datieren, nicht umgekehrt. Die jeweilige Visualisierung sei immer nur ein „Snapshot“, ein kleiner Ausschnitt der jeweiligen Kontakte.

Zum Thema “Software” machte Lemercier deutlich: Digitale Geisteswissenschaftler_innen wollen keine Informatiker_innen sein. Doch möchten sie zumindest mit ihnen reden können. Tools müssten her, die anwendbar und in der Lage seien, geisteswissenschaftliche Forschungsergebnisse zu strukturieren und darzustellen. So wurde das Thema “Software” von Lemercier zumindest angedeutet – wenn auch nicht konkret diskutiert.

Diane H. Cline (Washington DC) fokussierte ein konkretes soziales Netzwerk: die Kontakte Sokrates‘. Dabei interessierten Cline sowohl soziale Strukturen als auch – wiederum – Dynamiken: Ab wann transformiert ein Wandel die Gesellschaft so stark, dass von einer neuen Periode/Epoche gesprochen werden könne? Sokrates habe einen solchen Wandel initiiert: Er trage einen erheblichen Anteil an der Herausbildung einer besonders innovativen Gesellschaft, in der die soziale Gesprächsform des „Symposions“, der Diskussionsrahmen neuer Ideen, eingeführt wurde. Damit ging es der Vortragenden nicht zuletzt darum, zu zeigen, dass wir viel mehr in Netzwerken eingebettet sind als wir es uns vorstellen. So trägt die Historiographie der “grands hommes” kaum der Tatsache Rechnung, dass laut Cline “kein großer Mann je etwas ganz allein realisiert” hätte. Cline präsentierte die sozialen Netzwerke in unterschiedlichen Darstellungsformen, wobei die jeweilige Visualisierung mit verschiedenen Fokussetzungen durchaus Untersuchungsergebnisse beeinflussen könne. Die während der Konferenz leider so gut wie nicht zur Sprache gekommene Frage nach Lizenzen vergleicht Cline mit der sokratischen Praxis: Dieser lebte im „Offenen“ – als ein Konnektor, der Verbindungen zwischen Menschen zog, und half, die Gesellschaft Athens zusammenzuführen. Ihm allerdings erschien sein Wissen bzw. seine zentrale Netzwerkposition in politischer Hinsicht als gefährlich. Möglicherweise stellt sich gerade heute wiederum ein „Marktplatz von Ideen – open sources“ heraus, den es auch offen zu halten gilt.

Auch Emily Erikson (Yale) stellte in ihrem Vortrag am letzten Konferenztag die Wichtigkeit dynamischer Inhalte in Netzwerken heraus. Am Beispiel der English East India Company beschrieb sie die Formierung sozialer Netzwerke zwischen Individuen unter der Schirmherrschaft formaler Organisationen sowie den Einfluss der Netzwerkpositionen der Schiffsführer auf deren Reiserouten und Handelsbeziehungen. Datengrundlage ihrer Forschungen bilden Logbücher, die Konkurrenzen von Kapitänen sowie Hafenpräferenzen, basierend auf früheren Erfahrungen, dokumentieren. Mit der historischen Netzwerkanalyse konnte Erikson zeigen, inwiefern individuelle Präferenzen kollektive Entscheidungen beeinflussten – dank der Social Network Analysis wurde also die „unsichtbare Hand sichtbar gemacht“, so Erikson. Sie plädierte dafür, dass die Bereitschaft zur Kooperation als anthropologische Konstante im Umgang mit Netzwerken grundlegender berücksichtigt werde als es bislang der Fall war.

Einzelprojekte

AuthorsoftheReviewDie in über 50 Postern oder Kurzvorträgen dargestellten Projekte machten die Vielfalt des Einsatzes von Methoden, die mit Social Network Analysis und deren Visualisierung zusammenhängen, anschaulich. Diese einzeln hier zu präsentieren ist nicht möglich. Eine Auswahl der für uns Berichterstattende besonders ertragreichen Präsentationen wird demnächst auf Englisch auf dem Blog “Digital Intellectuals” kommentiert. Hätten wir noch einen Wunsch übrig, wäre es sicherlich der, dass die Abstracts aller präsentierten Projekte samt Kontaktdaten der Projektverantwortlichen online veröffentlicht würden, damit sich jede und jeder selbst ein Bild von dieser Vielfalt machen kann.

Quelle: http://digigw.hypotheses.org/1078

Weiterlesen

Qualität wird überschätzt

Ein Gastbeitrag von Klaus Graf

Wer sich nicht mit dem Video (etwa bei 2:00:00) oder der Twitter-Ausbeute meines Kurzreferats auf der Sektion der AG Digitale Geschichtswissenschaft auf dem Göttinger Historikertag am 24. September 2014 begnügen möchte, kann es hier nachlesen. Die Vortragsform wurde beibehalten.

Qualität wird überschätzt. Nee, ne – das meint der jetzt nicht ernst oder? Ich sag es gern nochmal: Qualität wird überschätzt. (Und leider auch die Redezeit …)

Es ist höchste Zeit für einen Befreiungsschlag gegen die verbreitete Exzellenz-Huberei, gegen die Innovations-Meierei, das Faseln von Leuchttürmen und vergleichbare Zumutungen in Sachen wissenschaftlicher Spitzenleistungen.

Wenn wir den abgestandenen Qualitäts-Wein der traditionellen Qualitätssicherung in die neuen digitalen Schläuche füllen, wird das meiner Überzeugung nach der Wissenschaft nicht gut bekommen.

Wir neigen dazu, Qualität mit Relevanz zu verwechseln, also aktuelle Trends, das, was führende Fachzeitschriften oder das Feuilleton oder die Lektoren von C. H. Beck oder die Veranstalter des Historikertags sexy finden, mit guter Wissenschaft. Man kann aber nun wirklich nicht behaupten, dass nach Guttenbergs “Summa cum laude” oder dem als Rader-Gate bekannten Wikipedia-Plagiat in Beck-Büchern die wissenschaftliche Qualitätssicherung sich unangefochten wie eh und je in schimmernder Wehr zu präsentieren vermag.

Wissenschaftliche Qualität in den Geisteswissenschaften wird überschätzt, weil sie anders als die Life Sciences nicht die Conditio humana betrifft. Produktqualität ist etwas ganz anderes; ich erinnere nur an den letzten Tatort aus Münster zum Thema Medikamentenfälschung. Wissenschaftliches Gammelfleisch bringt niemanden um.

Wissenschaft war immer schon ein wüstes Gemenge aus genialen Einfällen, haarsträubenden Theorien und ganz viel Mittelmaß, ganz viel unspektakulärem Mühen in der Ebene oder auch “Andacht zum Unbedeutenden” (diese hat man ja bekanntlich zwei der berühmtesten Wissenschaftlern, die in Göttingen wirkten, attestiert: den Brüdern Grimm). Man kann es auch mit dem Philosophen Paul Feyerabend sagen: Anything goes. Schon ein flüchtiger Blick auf die vielen Irrtümer der Wissenschaftsgeschichte sollte genügen, um uns in Sachen quasi-olympischer Forschungs-Bestleistungen Demut und Gelassenheit zu lehren.

Zudem wird die naiv-biedere Vorstellung von solider und überprüfbarer Geschichtswissenschaft dank exzessiven postmodernen Theoriegebrauchs von unzähligen Graduiertenkollegs, die auf dergleichen Wortgeklingel spezialisiert sind, mehr und mehr ad absurdum geführt.

Wenn wir Wissenschaft als dynamischen Prozess verstehen, müssen wir dem Scheitern und dem Fragment mehr Raum einräumen als bisher. Das Missglückte und das Unvollendete, das im Blick auf den damit verbundenen Erfahrungszuwachs immer auch einen Sieg bedeutet, entzieht sich jedem Exorzismus, da wir nun einmal nicht unfehlbar sind (vom Papst einmal abgesehen). Der Tod, Demenz oder auch Altersweisheit setzen jedem individuellen wissenschaftlichen Streben Grenzen. Der eigene Forschungsprozess wird von vielen Unwägbarkeiten bestimmt; was in Nachrufen als abgerundetes Lebenswerk erscheint, ist oft genug nur eine Konstruktion ex post.

Ein Blick auf die verschiedenen hergebrachten Werkzeuge, mit denen wir Qualität auszuwürfeln pflegen, macht rasch klar, wie wenig von “Objektivität” die Rede sein kann. Nehmen wir die akademische Laufbahn: Nicht unbedingt die talentiertesten Köpfe werden Professoren. Oder Tagungseinladungen, denen allzu häufig unweigerlich der nicht weiter qualitätsgesicherte Sammelband folgt, mitunter eine üble Zumutung. Nicht Qualität setzt sich durch, sondern der Vernetzungsgrad des Autors. Selbst bei einem offenen Call for Papers kann von transparenter Auswahl noch nicht gesprochen werden. (Auf “schlechte Bücher” gehe ich diesmal nicht ein und verweise auf meinen Aufsatz von 2013 zum Thema.)

Bei Zeitschriften beginnt sich erst allmählich das Peer Review zu etablieren, meist in der Form der doppelt blinden Begutachtung anonymisierter Einreichungen durch anonym bleibende Gutachter. Nicht alle führenden deutschen geschichtswissenschaftlichen Zeitschriften praktizieren es bereits. Historische Zeitschrift und Zeitschrift für Historische Forschung tun es, bei der Zeitschrift für Geschichtswissenschaft erfolgt eine externe Begutachtung nur in Zweifelsfällen; beim Archiv für Kulturgeschichte gibt es keine Anhaltspunkte für Peer Review auf der Website. Für mich hat dieses von Forschungsförderungsorganisationen überaus gern gesehene Peer Review etwas von einem Fetisch. Hat etwa die traditionelle Qualitätssicherung der Geschichtswissenschaft, die auf die Wertentscheidung eines Herausgebers, eventuell verbunden mit redaktioneller Betreuung, setzte, in der Vergangenheit ganz und gar versagt? Wohl kaum!

Gegen das genuin naturwissenschaftliche Peer Review gibt es viele Einwände: Die Anonymität ist nicht selten unwirksam, wenn man den Verfasser leicht errät. Gutachter neigen dazu, unkonventionelle Ansätze abzuwerten. Ein Bonmot sagt: Peer Review entscheidet nur, wo etwas publiziert wird, nicht ob etwas publiziert wird. Kurz: Geisteswissenschaftliche Forschung wird nicht wesentlich besser, wenn man das Peer Review als Monstranz vor sich her trägt.

Höchst erfolgreich ist das weltweit größte Open-Access-Journal PLoS One mit seinem deutlich entschärften Peer Review: Während Fachzeitschriften wie Nature oder Science Artikel nach ihrer Attraktivität bewerten (also ob sie hinreichend sexy sind), akzeptiert PLoS One alle methodisch soliden Beiträge. Mehrere kommerzielle Klone beweisen, dass es damit im STM-Bereich einen Nerv getroffen hat. Andere Open-Access-Zeitschriften dokumentieren den Verlauf des Reviews: Man kann die Korrespondenz zwischen Herausgebern und den Autoren detailliert nachlesen, was nicht nur erfreulich transparent, sondern vor allem höchst instruktiv ist.

Erst das Internet schuf die Voraussetzungen für recht vielfältige Bewertungs-Mechanismen, die man auch in den Wissenschaften ausprobieren könnte: Empfehlungs-Systeme wie bei Amazon, Leser-Rezensionen (ebenfalls Amazon), Bewertungsportale für Hotels oder Lehrer oder Uni-Professoren, Abrufstatistiken, Zitations-Indices. “Open Review” ermöglicht es, Artikel nach ihrer Veröffentlichung zu begutachten. Solche sehr wichtigen Experimente nehmen mehr und mehr an Fahrt auf, auch wenn es sich noch um absolute Nischen-Anwendungen handelt.

Es ist inzwischen wohl hinreichend deutlich geworden, dass ich ein vehementer Verteidiger der Devise “Publish first, filter later” bin, die in Deutschland vor allem der Kunsthistoriker Hubertus Kohle vertritt. Qualitätssicherung kann auch Vorzensur und Bevormundung bedeuten.

Noch sind die Digital Humanities die Verlierer, wenn es um Macht und Einfluss geht. Es spricht aber einiges dafür, dass das bisher dominierende Motto “Das Fachpublikum, was schluckt es? Nur Gedrucktes!” an Durchsetzungskraft verliert. Es wäre indessen ein Fehler, im Bereich Open Access oder Wissenschaftsblogs auf dubiose traditionelle Werkzeuge wie das Peer Review zu setzen, um so die Akzeptanz der digitalen Produktion zu erhöhen. Stattdessen sind digitale Filter-Technologien angesagt. Beispiele: Die Redaktion von hypotheses.org wählt für die Startseite besonders gelungene Beiträge aus, es gab (umstrittene) Award-Verleihungen. Auf Twitter-Empfehlungen hat Mareike König bereits hingewiesen.

Blogs brauchen kein Peer Review und keine qualitätssichernde Redaktion, die sich die ganze Grämlichkeit des verknöcherten Wissenschaftsbetriebs zum Vorbild nimmt. Wer Quellenkritik beherrscht (jene Skepsis, von der der Bundespräsident sprach), für den ist es auch möglich, gute und schlechte Blogartikel zu unterscheiden.

Blogs sollen bunt und lebendig sein, gern auch laut und frech und polemisch. Sie dürfen Fragmente, Unfertiges publizieren und – horribile dictu – von Jetzt auf Gleich einfach so abbrechen. Blogs sollen Kritik in Form von Kommentaren ertragen können, auch wenn diese hart oder scharf formuliert ist. Scheitern ist menschlich: Das gilt für Kritisierte wie für Kritiker. Kritik und Meinungsfreiheit werden unzuträglich eingeschränkt, wenn man bei etwas zu vorlauten oder im Ton problematischen Wortmeldungen gleich Zeter und Mordio schreit.

Am eunuchenhaften Rezensionswesen kann man sehen, wie wenig wissenschaftlichen Ertrag die typische wohlwollende Wischi-Waschi-Besprechung erbringt. Über den Inhalt unterrichten inzwischen im Internet Klappentexte und Inhaltsverzeichnisse. Verrisse (wenn sie denn angebracht sind) sind allemal lehrreicher.

Über gescheiterte Blogeinträge (und natürlich auch Vorträge) dürfen wir uns gern ärgern. Wir dürfen sie auch öffentlich kritisieren. Selbst wenn wir das Scheitern nicht verhindern können, müssen wir es ja nicht bewusst anstreben. Aber wir sollten uns darüber im klaren sein, dass auch gescheiterte Blogeinträge kostbare Inkunabeln für künftige Wissenschaftshistoriker sind, die das Thema, wie die Historikerinnen und Historiker das Bloggen lernten, sicher einmal sehr spannend und sexy finden werden.

Quelle: http://digigw.hypotheses.org/1063

Weiterlesen

Social Media Monitoring für Wissenschaftler/innen

 

ein Gastbeitrag von Wenke Bönisch

6756753669_a70948212b_mSocial Media bedeutet Kommunizieren im Web in dialogischer Form. Zuhören ist neben dem Sprechen eine elementare Säule der Kommunikation. Zuhören heißt nicht nur, sich die Zeit dafür zu nehmen, sondern auch zu wissen, wo und wem man zuhören soll, um eben dialogisch interagieren zu können – laut Social Media Ratgeber und Experten am besten immer gleich sofort ;-) . Dennoch ist festzuhalten, dass die Angebote des Social Web so vielfältig sind, dass man als Wissenschaftler bzw. Forschungsinstitution nicht überall dort sein kann und auch nicht intuitiv erraten kann, wo und wer über einen redet.  Da hilft nur ein gutes Monitoring. Aber was ist Monitoring eigentlich?

Das Ohr am Netz: Social Media Monitoring

Monitoring heißt systematische Beobachtung, Erfassung und Überwachung eines Vorganges – in unserem Fall ein kommunizierender Wissenschaftler, eine Wissenschaftsinstitution und deren Außenwahrnehmung im Social Web. Dabei geht es einerseits um die bloße Nennung, andererseits aber auch um den inhaltlichen und emotionalen Kontext dabei. Ein Praxisbeispiel: ein Wissenschaftler schreibt einen zugespitzten, Widersprüche herausfordernden Blogbeitrag. Nun möchte er gerne wissen, wer ihn liest, wer ihn mit welchen Worten teilt und wie darauf reagiert wird – direkt und indirekt. Dazu zählen beispielsweise Kommentare im Blog, andere Blogbeiträge, die darauf Bezug nehmen, Sharings im Social Web wie auf Twitter, Facebook, Researchgate.net oder Google+– wie gesagt immer unter Beachtung des emotionalen und inhaltlichen Kontextes. Im Idealfall sollte beim Monitoring der Wissenschaftler Reaktionen in allen Bereichen des Social Webs auf dem Schirm haben, was jedoch in der Praxis aus verschiedenen Gründen nicht möglich ist.

Nun scheint es nach dieser doch knapp-vereinfachten Erläuterung mit dem Monitoring gar nicht so einfach zu sein. Stimmt und stimmt wiederum auch nicht. Es gibt zahlreiche – kostenpflichtige, aber auch kostenlose – Tools, mit denen man ein gutes Ergebnis erreicht. Eine wirklich komplette Überwachung ist wie gesagt aus vielerlei Gründen (Zeitaufwand, Problematik der Semantik, Erfassung aller Kanäle etc.) nicht möglich, aber auch nicht immer notwendig. Monitoring soll immer im Kontext der eigenen Social Media Strategie angewendet werden. Das bedeutet, dass man sich vor dem Beginn ganz konkret fragt, nach welchen Stichworten auf welchen Kanälen man das Web beobachtet. Natürlich können durch die Selektion interessante Diskussionsansätze untergehen. Jedoch ist es nicht die Aufgabe eines Agrarwissenschaftlers, der in der Tierzuchtforschung arbeitet, jede Diskussion über die Tierhaltung zu begleiten, auch wenn am Rande sein Name fallen sollte. Denn das würde ihn völlig in Beschlag nehmen und ihm keine Zeit mehr für seine Forschungen und Publikationen lassen. Also nicht verrennen, sondern gezielt vorher auswählen, was man im Rahmen seines Social Media Auftrittes und ihrer Zielsetzung beobachten möchte.

Vorstellung ausgewählter Monitoringtools

Kommen wir zu den Monitoringtools. Natürlich gibt es recht gut arbeitende, große Teile des Social Web in Echtzeit analysierende, zentralen Überblick verschaffende, aber zumeist kostenpflichtige Tools wie Radian6, die vor allem von international agierenden Wirtschaftsunternehmen genutzt werden. In der Regel sind diese jedoch für den einzelnen Wissenschaftler bzw. Forschungsinstitution zu komplex für ihre Anforderung und – was viel mehr ins Gewicht fällt – auch zu teuer.

Ihnen gegenüber stehen die kostenlosen Tools, die in der Regel meist nur einen Bereich des Social Web wie Facebook oder Twitter umfassen oder die Analyse für einen oder zwei Accounts zulassen. Einige ausgewählte möchte ich Ihnen jetzt vorstellen, mit denen Sie insgesamt eine recht große Breite des Monitorings abdecken können.

Alert-Dienste

googlealertsEinen guten ersten Monitoringüberblick über das Web bietet Google mit seinem Dienst Google Alert (http://www.google.com/alerts). Mit diesem wohl am meist genutzten Meldedienst können Sie das Internet nach selbst gewählten Begriffen, Schlagwörtern oder Wortkombinationen durchsuchen lassen, die Ihnen dann per Mail zugeschickt werden. Dank zahlreicher Einstellungsmöglichkeiten kann der Dienst auf die eigenen Bedürfnisse gut angepasst werden. Spezifizierungen auf News, Blogs, Diskussionen, Bücher oder Videos sind möglich. Ebenso ist es möglich, den Zeitpunkt der Zustellung (sofort, täglich oder wöchentlich) zu wählen.

Eine sehr gute Alternative zu Google Alert ist übrigens Talkwalker (http://www.talkwalker.com).  Es funktioniert nach dem gleichen Prinzip. Nach meinen Erfahrungen sind die Suchergebnisse umfassender und genauer. Bei beiden Alert-Diensten ist es für ein gutes Resultat wichtig, möglichst zahlreiche Alerts in der Bandbreite von allgemein (beispielsweise Interessenschwerpunkt) bis zu speziell (einzelne Begriffe, Name) laufen zu lassen. Zudem sei die Verwendung von Suchkombinationen nach den allgemeingültigen Regeln empfohlen.

Blogstatistik

Zum Standard eines Blog- oder Webseitenbetreibers gehört die Zugriffsanalyse. Interessante Kennzahlen sind neben der Anzahl der Zugriffe die Absprungsrate der Leser, ihre Aufenthaltsdauer und die Suchbegriffe, mit denen sie zum Blog oder zur Webseite fanden. Google Analytics (http://www.google.com/analytics/), Piwik (http://de.piwik.org/), die Statistik der Blogsoftware WordPress sind die wohl am meist genutzten. Problematisch bei solchen Analyseprogrammen ist die Frage des Datenschutzes. Die IP-Adressen der Nutzer müssen anonymisiert werden, um solche Statistiken datenschutzkonform nutzen zu können. Da viele dieser Dienste außerhalb von Deutschland und Europa gehostet werden, muss nach gültigem Recht die Zustimmung für die Weiterleitung aktiv vom Nutzer eingehalten werden. Hier technisch sauber, datenschutzkonform zu arbeiten, ist nicht ganz einfach. Ein echtes Minenfeld! Ich empfehle zu dieser Problematik den Blog des Rechtsanwaltes Thomas Schwenke (http://rechtsanwalt-schwenke.de/blog/) bzw. sein Interview mit WordPress (http://blog.wpde.org/2013/09/16/interview-anwalt-thomas-schwenke-blogs-gefahr-abmahnung.html). Für die Blogstatistik empfehle ich bei WordPress als Alternative das PlugIn Statify, entwickelt von Sergej Müller (http://statify.de/). Es ist kompakt, ohne größeren Schnickschnack und datenschutzkonform! Der einzige Nachteil bei dieser Statistikanalyse ist die fehlende Auflistung von Schlagwörtern, mit denen User auf den Blog fanden.

statistik_digiwisWer übrigens mehrere Statistiktools nebeneinander für seinen Blog/seine Webseite laufen hat, wird schnell ein faszinierendes Phänomen beobachten. Alle zeigen völlig unterschiedliche Zugriffszahlen an, die erheblich (Unterschied von mehreren hundert Zugriffen) voneinander abweichen können. Das Problem liegt hier darin, dass jedes Tool eine andere Zählweise hat, welchen Zugriff es in seine Statistik mit aufnimmt wie beispielsweise die Frage, ob Suchmaschinenbots mitgezählt werden oder nicht. Hier sei empfohlen, sich auf eine Statistik zu beschränken und nur diese für das eigenen Monitoring zu analysieren. Zudem sind die Zahlen eher als Kenngrößen denn als reale, feste Statistikwerte zu empfehlen.

Da die Einbindung von Social Buttons in Blogs oder Webseiten jetzt Standard ist, empfehle ich für alle Blogger, die mit WordPress arbeiten, fürs Monitoring das PlugIn Social Metrics (http://www.riyaz.net/social-metrics/), das in einer Tabelle sehr übersichtlich die Sharings/Likes der gängigen sozialen Netzwerke aufführt. Mit dieser Liste sehen Blogger auf einen Blick, welche Blogbeiträge besonders von den Lesern im eigenen Netzwerk weiterempfohlen wird, wie stark ihre eigene Reichweite in den sozialen Netzwerken hinein ist und vor allem welche Netzwerke für den eigenen Auftritt im Social Web eine untergeordnete Rolle spielt.

Facebook

Facebook ist bisher das meistgenutzte Social Network, das für Seitenbetreiber eine umfangreiche Statistik anbietet, die fast keine Wünsche offen lässt. Da wird genau der Fanzuwachs, die Likes, die Nutzer nach Alter, Geschlecht oder Sprache beispielsweise analysiert. Ebenso kann der Seitenbetreiber den „Erfolg“ jedes Postings (Reichweite, Interaktivität etc.) verfolgen. Alle Daten können genau für einen ausgewählten Zeitraum im Dateiformat Excel oder .csv exportiert werden.

Google+

Leider bietet Google für sein soziales Netzwerk Google+ noch keinen umfassenden Statistikzugriff an. Einzig und allein die Interaktivität (Anzahl +1 und Kommentare) für jeden öffentlich (!) geteilten Beitrag können Sie sich per Klick auf „Öffentlich geteilt“ unter dem Posting für dasselbe anzeigen lassen. Einen Gesamtüberblick wie auch beispielsweise für die Entwicklung der Followerzahlen etc. gibt es nicht. Hier müssen Sie sich als Seitenbetreiber mit externen Anbietern begnügen. Mit Circle Count (http://www.circlecount.com/) können Sie sich für jede Seite oder Profil den Zuwachs der Follower anzeigen lassen. Ansonsten ist der Statistikauswertung von Google+-Postings durch Drittanbieter aufgrund der noch nicht vollständig frei gegebenen API leider sehr beschränkt.

Twitter

Twitter als soziales Netzwerk wird aufgrund seines schnellen Charakters zur Zeit von nur wenigen Wissenschaftlern in ihrem Social Media Auftritt regelmäßig und intensiv genutzt. Anders sieht es hingegen bei Forschungseinrichtungen aus, wobei auch hier Twitter eher zweitrangig betrachtet wird. Leider bietet auch Twitter selbst keine umfassende Statistik an. Doch schon recht früh entstanden mit der zunehmenden Verbreitung von Twitter zahlreiche externe Dienste, die diese Aufgaben oft eher in Teilen übernahmen. Zudem bieten viele Twitterclients wie Tweetdeck (http://tweetdeck.com/) oder Hootsuite (http://hootsuite.com/) eigene Statistikanalysen zum Twitteraccount an.

Einige nützliche Monitoringtools für Twitter sind erst einmal die twittereigene Suche Twitter Search, mit der Sie nach Personen, Fotos oder nach bestimmten Begriffen (Hashtags) suchen können. Wenn Sie Twitter nicht selbst, sondern ein Client zum Twittern nutzen, können Sie mit Hilfe der Suche einen bestimmten Begriff überwachen lassen.

Die spannende Frage auf Twitter ist, wie viele (eigene) Follower erreicht man mit seinen Tweets und wie oft werden mitgetwitterte Links tatsächlich angeklickt. Mit Tweetreach (http://tweetreach.com/) erhalten Sie in der kostenlosen Basisversion erste Eindrücke der letzten 50 Tweets. Ein Ausdrucken oder Abspeichern ist nur gegen ein Entgelt möglich. Ähnlich arbeitet der kostenlose Dienst Twazzup (http://twazzup.com), der beispielsweise in einer Liste die Top10 der geposteten Links in Retweets anzeigt.

statistik2Eine umfangreichere Twitteranalyse ist mit dem Client Hootsuite (http://hootsuite.com/) möglich. In der kostenlosen Basisversion können Sie für 5 Social Web Accounts (neben Twitter beispielsweise auch Facebook, LinkedIn oder Google+) 2 Statistikberichte anzeigen lassen. Für Twitter sind sie sehr ausführlich. Followerzahlen, Mentions, Retweets oder eine umfangreiche Analyse zu den mitgetwitterten Links (geographische Verteilung, Top Referrers, Zusammenfassung der letzten Tage und eine Liste der beliebtesten Links) bietet Hootsuite an. Mit diesem Client und der hauseigenen Twittersuche haben Sie zwei Tools zu einem umfangreichen Monitoring auf Twitter.

Alles eine Frage der Interpretation

Anhand der vorgestellten Tools sehen Sie, dass mit den kostenlosen Varianten am Ende ein doch recht umfangreiches Monitoring möglich ist. Jedoch müssen Sie dabei verschiedene Plattformen nutzen und die Ergebnisse selbst zusammenführen. Sie sehen aber auch, dass ein zielloses Überwachen nicht zweckdienlich ist. Eine klare Fokussierung auf bestimmte Begriffe oder (eigener) Namen erleichtert viel bei der Arbeit, vor allem hinsichtlich des Zeitaufwandes.

Und seien Sie sich bewusst, dass es wie so oft in der Statistik nur Annäherungswerte sind und keine in Stein gemeißelten Fakten. Die Zahlen sollen keineswegs das Endziel Ihres Social Media Auftritts als Wissenschaftler oder Forschungseinrichtung sein, sondern ein Hilfsmittel für eine Überprüfung des eigenen Agierens, der eigenen Strategie und der eigenen Webreputation, die natürlich der Interpretation bedarf. Gehen Sie entspannt an das Monitoring und sehen Sie es keineswegs verkrampft. Es ist ein erstes Zeichen von Quantität, ein bisschen von Qualität, die aber noch von anderen, nicht immer direkt beeinflussbaren Faktoren abhängig ist.

P. S. Eine Übersicht über Monitoringtools finden Sie hier. (http://www.onlinemarketing-praxis.de/social-media/kostenlose-social-media-monitoring-tools)

Artikelbild: ‘Google Doodle‘, von Trey Ratcliff, http://www.flickr.com/photos/95572727@N00/6756753669, CC BY-NC-SA 2.0

________________________

Die Autorin

wenkeWenke Bönisch arbeitet heute nach einer beruflichen Station in einem Wissenschaftsverlag (Autorenbetreuung, Satz und Social Media) als Freiberuflerin u. a. für den Ulmer Verlag (http://socialmedia.ulmer.de), für die Frankfurter Buchmesse sowie für den Digitalisierungsdienstleister Editura (http://editura.de) im Social Media Bereich. Neben Social Media beschäftigt sie sich mit den Themen elektronisches Publizieren, Wissenschaft, Open Access und Neue Medien. Zu ihren entsprechenden Projekten hält sie dazu auch Workshops, Vorträge und Seminare. Unter den Namen @digiwis (http://twitter.com/digiwis) twittert sie (fast) täglich. Auf ihrer Website http://digiwis.de bloggt sie zu ihren Tätigkeitsschwerpunkten.

 

 

Quelle: http://digigw.hypotheses.org/205

Weiterlesen