Digitale Kunstgeschichte: Thema = Seminarform?

2187407768_4934417da2_z-300x200

Dass das Thema eines Seminars auch gleichzeitig die Seminarform sein kann, bewies ein ungewöhnliches Experiment der Kunstgeschichtlichen Institute der Goethe-Universität Frankfurt und der Albert-Ludwigs-Universität Freiburg. Per Videokonferenz wurde das Seminar übertragen und behandelte Themen wie Digital Humanities im deutschsprachigen Raum, Problematik des Urheberrechtes, Google Art Project, Social Media im Museum und Möglichkeiten und Grenzen des wissenschaftlichen Einsatzes von Social Media in den Geisteswissenschaften.

Einen Erfahrungsbericht der Studierenden finden Sie hier.

Quelle: http://dhd-blog.org/?p=2442

Weiterlesen

Social Media Monitoring für Wissenschaftler/innen

 

ein Gastbeitrag von Wenke Bönisch

6756753669_a70948212b_mSocial Media bedeutet Kommunizieren im Web in dialogischer Form. Zuhören ist neben dem Sprechen eine elementare Säule der Kommunikation. Zuhören heißt nicht nur, sich die Zeit dafür zu nehmen, sondern auch zu wissen, wo und wem man zuhören soll, um eben dialogisch interagieren zu können – laut Social Media Ratgeber und Experten am besten immer gleich sofort ;-) . Dennoch ist festzuhalten, dass die Angebote des Social Web so vielfältig sind, dass man als Wissenschaftler bzw. Forschungsinstitution nicht überall dort sein kann und auch nicht intuitiv erraten kann, wo und wer über einen redet.  Da hilft nur ein gutes Monitoring. Aber was ist Monitoring eigentlich?

Das Ohr am Netz: Social Media Monitoring

Monitoring heißt systematische Beobachtung, Erfassung und Überwachung eines Vorganges – in unserem Fall ein kommunizierender Wissenschaftler, eine Wissenschaftsinstitution und deren Außenwahrnehmung im Social Web. Dabei geht es einerseits um die bloße Nennung, andererseits aber auch um den inhaltlichen und emotionalen Kontext dabei. Ein Praxisbeispiel: ein Wissenschaftler schreibt einen zugespitzten, Widersprüche herausfordernden Blogbeitrag. Nun möchte er gerne wissen, wer ihn liest, wer ihn mit welchen Worten teilt und wie darauf reagiert wird – direkt und indirekt. Dazu zählen beispielsweise Kommentare im Blog, andere Blogbeiträge, die darauf Bezug nehmen, Sharings im Social Web wie auf Twitter, Facebook, Researchgate.net oder Google+– wie gesagt immer unter Beachtung des emotionalen und inhaltlichen Kontextes. Im Idealfall sollte beim Monitoring der Wissenschaftler Reaktionen in allen Bereichen des Social Webs auf dem Schirm haben, was jedoch in der Praxis aus verschiedenen Gründen nicht möglich ist.

Nun scheint es nach dieser doch knapp-vereinfachten Erläuterung mit dem Monitoring gar nicht so einfach zu sein. Stimmt und stimmt wiederum auch nicht. Es gibt zahlreiche – kostenpflichtige, aber auch kostenlose – Tools, mit denen man ein gutes Ergebnis erreicht. Eine wirklich komplette Überwachung ist wie gesagt aus vielerlei Gründen (Zeitaufwand, Problematik der Semantik, Erfassung aller Kanäle etc.) nicht möglich, aber auch nicht immer notwendig. Monitoring soll immer im Kontext der eigenen Social Media Strategie angewendet werden. Das bedeutet, dass man sich vor dem Beginn ganz konkret fragt, nach welchen Stichworten auf welchen Kanälen man das Web beobachtet. Natürlich können durch die Selektion interessante Diskussionsansätze untergehen. Jedoch ist es nicht die Aufgabe eines Agrarwissenschaftlers, der in der Tierzuchtforschung arbeitet, jede Diskussion über die Tierhaltung zu begleiten, auch wenn am Rande sein Name fallen sollte. Denn das würde ihn völlig in Beschlag nehmen und ihm keine Zeit mehr für seine Forschungen und Publikationen lassen. Also nicht verrennen, sondern gezielt vorher auswählen, was man im Rahmen seines Social Media Auftrittes und ihrer Zielsetzung beobachten möchte.

Vorstellung ausgewählter Monitoringtools

Kommen wir zu den Monitoringtools. Natürlich gibt es recht gut arbeitende, große Teile des Social Web in Echtzeit analysierende, zentralen Überblick verschaffende, aber zumeist kostenpflichtige Tools wie Radian6, die vor allem von international agierenden Wirtschaftsunternehmen genutzt werden. In der Regel sind diese jedoch für den einzelnen Wissenschaftler bzw. Forschungsinstitution zu komplex für ihre Anforderung und – was viel mehr ins Gewicht fällt – auch zu teuer.

Ihnen gegenüber stehen die kostenlosen Tools, die in der Regel meist nur einen Bereich des Social Web wie Facebook oder Twitter umfassen oder die Analyse für einen oder zwei Accounts zulassen. Einige ausgewählte möchte ich Ihnen jetzt vorstellen, mit denen Sie insgesamt eine recht große Breite des Monitorings abdecken können.

Alert-Dienste

googlealertsEinen guten ersten Monitoringüberblick über das Web bietet Google mit seinem Dienst Google Alert (http://www.google.com/alerts). Mit diesem wohl am meist genutzten Meldedienst können Sie das Internet nach selbst gewählten Begriffen, Schlagwörtern oder Wortkombinationen durchsuchen lassen, die Ihnen dann per Mail zugeschickt werden. Dank zahlreicher Einstellungsmöglichkeiten kann der Dienst auf die eigenen Bedürfnisse gut angepasst werden. Spezifizierungen auf News, Blogs, Diskussionen, Bücher oder Videos sind möglich. Ebenso ist es möglich, den Zeitpunkt der Zustellung (sofort, täglich oder wöchentlich) zu wählen.

Eine sehr gute Alternative zu Google Alert ist übrigens Talkwalker (http://www.talkwalker.com).  Es funktioniert nach dem gleichen Prinzip. Nach meinen Erfahrungen sind die Suchergebnisse umfassender und genauer. Bei beiden Alert-Diensten ist es für ein gutes Resultat wichtig, möglichst zahlreiche Alerts in der Bandbreite von allgemein (beispielsweise Interessenschwerpunkt) bis zu speziell (einzelne Begriffe, Name) laufen zu lassen. Zudem sei die Verwendung von Suchkombinationen nach den allgemeingültigen Regeln empfohlen.

Blogstatistik

Zum Standard eines Blog- oder Webseitenbetreibers gehört die Zugriffsanalyse. Interessante Kennzahlen sind neben der Anzahl der Zugriffe die Absprungsrate der Leser, ihre Aufenthaltsdauer und die Suchbegriffe, mit denen sie zum Blog oder zur Webseite fanden. Google Analytics (http://www.google.com/analytics/), Piwik (http://de.piwik.org/), die Statistik der Blogsoftware WordPress sind die wohl am meist genutzten. Problematisch bei solchen Analyseprogrammen ist die Frage des Datenschutzes. Die IP-Adressen der Nutzer müssen anonymisiert werden, um solche Statistiken datenschutzkonform nutzen zu können. Da viele dieser Dienste außerhalb von Deutschland und Europa gehostet werden, muss nach gültigem Recht die Zustimmung für die Weiterleitung aktiv vom Nutzer eingehalten werden. Hier technisch sauber, datenschutzkonform zu arbeiten, ist nicht ganz einfach. Ein echtes Minenfeld! Ich empfehle zu dieser Problematik den Blog des Rechtsanwaltes Thomas Schwenke (http://rechtsanwalt-schwenke.de/blog/) bzw. sein Interview mit WordPress (http://blog.wpde.org/2013/09/16/interview-anwalt-thomas-schwenke-blogs-gefahr-abmahnung.html). Für die Blogstatistik empfehle ich bei WordPress als Alternative das PlugIn Statify, entwickelt von Sergej Müller (http://statify.de/). Es ist kompakt, ohne größeren Schnickschnack und datenschutzkonform! Der einzige Nachteil bei dieser Statistikanalyse ist die fehlende Auflistung von Schlagwörtern, mit denen User auf den Blog fanden.

statistik_digiwisWer übrigens mehrere Statistiktools nebeneinander für seinen Blog/seine Webseite laufen hat, wird schnell ein faszinierendes Phänomen beobachten. Alle zeigen völlig unterschiedliche Zugriffszahlen an, die erheblich (Unterschied von mehreren hundert Zugriffen) voneinander abweichen können. Das Problem liegt hier darin, dass jedes Tool eine andere Zählweise hat, welchen Zugriff es in seine Statistik mit aufnimmt wie beispielsweise die Frage, ob Suchmaschinenbots mitgezählt werden oder nicht. Hier sei empfohlen, sich auf eine Statistik zu beschränken und nur diese für das eigenen Monitoring zu analysieren. Zudem sind die Zahlen eher als Kenngrößen denn als reale, feste Statistikwerte zu empfehlen.

Da die Einbindung von Social Buttons in Blogs oder Webseiten jetzt Standard ist, empfehle ich für alle Blogger, die mit WordPress arbeiten, fürs Monitoring das PlugIn Social Metrics (http://www.riyaz.net/social-metrics/), das in einer Tabelle sehr übersichtlich die Sharings/Likes der gängigen sozialen Netzwerke aufführt. Mit dieser Liste sehen Blogger auf einen Blick, welche Blogbeiträge besonders von den Lesern im eigenen Netzwerk weiterempfohlen wird, wie stark ihre eigene Reichweite in den sozialen Netzwerken hinein ist und vor allem welche Netzwerke für den eigenen Auftritt im Social Web eine untergeordnete Rolle spielt.

Facebook

Facebook ist bisher das meistgenutzte Social Network, das für Seitenbetreiber eine umfangreiche Statistik anbietet, die fast keine Wünsche offen lässt. Da wird genau der Fanzuwachs, die Likes, die Nutzer nach Alter, Geschlecht oder Sprache beispielsweise analysiert. Ebenso kann der Seitenbetreiber den „Erfolg“ jedes Postings (Reichweite, Interaktivität etc.) verfolgen. Alle Daten können genau für einen ausgewählten Zeitraum im Dateiformat Excel oder .csv exportiert werden.

Google+

Leider bietet Google für sein soziales Netzwerk Google+ noch keinen umfassenden Statistikzugriff an. Einzig und allein die Interaktivität (Anzahl +1 und Kommentare) für jeden öffentlich (!) geteilten Beitrag können Sie sich per Klick auf „Öffentlich geteilt“ unter dem Posting für dasselbe anzeigen lassen. Einen Gesamtüberblick wie auch beispielsweise für die Entwicklung der Followerzahlen etc. gibt es nicht. Hier müssen Sie sich als Seitenbetreiber mit externen Anbietern begnügen. Mit Circle Count (http://www.circlecount.com/) können Sie sich für jede Seite oder Profil den Zuwachs der Follower anzeigen lassen. Ansonsten ist der Statistikauswertung von Google+-Postings durch Drittanbieter aufgrund der noch nicht vollständig frei gegebenen API leider sehr beschränkt.

Twitter

Twitter als soziales Netzwerk wird aufgrund seines schnellen Charakters zur Zeit von nur wenigen Wissenschaftlern in ihrem Social Media Auftritt regelmäßig und intensiv genutzt. Anders sieht es hingegen bei Forschungseinrichtungen aus, wobei auch hier Twitter eher zweitrangig betrachtet wird. Leider bietet auch Twitter selbst keine umfassende Statistik an. Doch schon recht früh entstanden mit der zunehmenden Verbreitung von Twitter zahlreiche externe Dienste, die diese Aufgaben oft eher in Teilen übernahmen. Zudem bieten viele Twitterclients wie Tweetdeck (http://tweetdeck.com/) oder Hootsuite (http://hootsuite.com/) eigene Statistikanalysen zum Twitteraccount an.

Einige nützliche Monitoringtools für Twitter sind erst einmal die twittereigene Suche Twitter Search, mit der Sie nach Personen, Fotos oder nach bestimmten Begriffen (Hashtags) suchen können. Wenn Sie Twitter nicht selbst, sondern ein Client zum Twittern nutzen, können Sie mit Hilfe der Suche einen bestimmten Begriff überwachen lassen.

Die spannende Frage auf Twitter ist, wie viele (eigene) Follower erreicht man mit seinen Tweets und wie oft werden mitgetwitterte Links tatsächlich angeklickt. Mit Tweetreach (http://tweetreach.com/) erhalten Sie in der kostenlosen Basisversion erste Eindrücke der letzten 50 Tweets. Ein Ausdrucken oder Abspeichern ist nur gegen ein Entgelt möglich. Ähnlich arbeitet der kostenlose Dienst Twazzup (http://twazzup.com), der beispielsweise in einer Liste die Top10 der geposteten Links in Retweets anzeigt.

statistik2Eine umfangreichere Twitteranalyse ist mit dem Client Hootsuite (http://hootsuite.com/) möglich. In der kostenlosen Basisversion können Sie für 5 Social Web Accounts (neben Twitter beispielsweise auch Facebook, LinkedIn oder Google+) 2 Statistikberichte anzeigen lassen. Für Twitter sind sie sehr ausführlich. Followerzahlen, Mentions, Retweets oder eine umfangreiche Analyse zu den mitgetwitterten Links (geographische Verteilung, Top Referrers, Zusammenfassung der letzten Tage und eine Liste der beliebtesten Links) bietet Hootsuite an. Mit diesem Client und der hauseigenen Twittersuche haben Sie zwei Tools zu einem umfangreichen Monitoring auf Twitter.

Alles eine Frage der Interpretation

Anhand der vorgestellten Tools sehen Sie, dass mit den kostenlosen Varianten am Ende ein doch recht umfangreiches Monitoring möglich ist. Jedoch müssen Sie dabei verschiedene Plattformen nutzen und die Ergebnisse selbst zusammenführen. Sie sehen aber auch, dass ein zielloses Überwachen nicht zweckdienlich ist. Eine klare Fokussierung auf bestimmte Begriffe oder (eigener) Namen erleichtert viel bei der Arbeit, vor allem hinsichtlich des Zeitaufwandes.

Und seien Sie sich bewusst, dass es wie so oft in der Statistik nur Annäherungswerte sind und keine in Stein gemeißelten Fakten. Die Zahlen sollen keineswegs das Endziel Ihres Social Media Auftritts als Wissenschaftler oder Forschungseinrichtung sein, sondern ein Hilfsmittel für eine Überprüfung des eigenen Agierens, der eigenen Strategie und der eigenen Webreputation, die natürlich der Interpretation bedarf. Gehen Sie entspannt an das Monitoring und sehen Sie es keineswegs verkrampft. Es ist ein erstes Zeichen von Quantität, ein bisschen von Qualität, die aber noch von anderen, nicht immer direkt beeinflussbaren Faktoren abhängig ist.

P. S. Eine Übersicht über Monitoringtools finden Sie hier. (http://www.onlinemarketing-praxis.de/social-media/kostenlose-social-media-monitoring-tools)

Artikelbild: ‘Google Doodle‘, von Trey Ratcliff, http://www.flickr.com/photos/95572727@N00/6756753669, CC BY-NC-SA 2.0

________________________

Die Autorin

wenkeWenke Bönisch arbeitet heute nach einer beruflichen Station in einem Wissenschaftsverlag (Autorenbetreuung, Satz und Social Media) als Freiberuflerin u. a. für den Ulmer Verlag (http://socialmedia.ulmer.de), für die Frankfurter Buchmesse sowie für den Digitalisierungsdienstleister Editura (http://editura.de) im Social Media Bereich. Neben Social Media beschäftigt sie sich mit den Themen elektronisches Publizieren, Wissenschaft, Open Access und Neue Medien. Zu ihren entsprechenden Projekten hält sie dazu auch Workshops, Vorträge und Seminare. Unter den Namen @digiwis (http://twitter.com/digiwis) twittert sie (fast) täglich. Auf ihrer Website http://digiwis.de bloggt sie zu ihren Tätigkeitsschwerpunkten.

 

 

Quelle: http://digigw.hypotheses.org/205

Weiterlesen

Unser Blog ist nun ein Jahr alt – Rückblick und Ausblick

 

Interessierte Wissenschaftlerinnen und Wissenschaftler aus allen Disziplinen sind herzlich dazu eingeladen, sich an einem neuen Blog bei de.hypotheses.org “Ordensgeschichte. Ein interdisziplinäres Gemeinschaftsblog zur Geschichte von Klöstern und Orden” (http://ordensgeschichte.hypotheses.org) zu beteiligen! Das Blog soll zur Vernetzung, zur Zusammenarbeit und zum Austausch von Wissenschaftlern aus dem Bereich der Geschichte von Orden und Klöstern über Disziplin-, Ordens-, Epochen- und Landesgrenzen hinweg beitragen … (Link zur Einladung zum Gemeinschaftsblog)   Vor einem Jahr wurde die Einladung zum Gemeinschaftsblog Ordensgeschichte veröffentlicht.   Diesen „Geburtstag“ möchte ich nun zum Anlass [...]

 

Quelle: http://ordensgeschichte.hypotheses.org/5710

Weiterlesen

“Ein Weg aus dem Kulturpessimismus”. Das erste stARTcamp in Wien

start-camp-riesenradNach dem SciCamp von Wissenschaft im Dialog Anfang Juni, durfte ich nun auch am ersten österreichischen stARTcamp am 23. August in der Kunsthalle im Museumsquartier in Wien teilnehmen. Das innovative Format eines solchen, Barcamps hat sich in Deutschland bereits etabliert und auch in Österreich gab es rund 100 neugierige TeilnehmerInnen, die über verschiedenste Aspekten von Social Media sprechen wollten. Der Schwerpunkt der stARTcamps ist dabei immer der Kulturbereich. Damit ergab sich für mich eine wunderbare Ergänzung zum Thema Wissenschaftskommunikation des SciCamps. Bei beiden waren jedoch – zu meinem Bedauern – die Geistes- und Kulturwissenschaftler kaum vertreten, was den vielen interessanten und auch für diesen Bereich anwendbaren Sessions aber keinen Abbruch tat. In Wien waren die stARTcamper aus den unterschiedlichsten Bereichen der österreichischen und deutschen Kulturszene zusammengekommen und repräsentierten Museen, Theater und Festivals. Auch Journalisten, Grafikdesigner und Studenten waren dabei. Durch ihre verschiedenen Blickwinkeln und Herangehensweisen bereicherten alle TeilnehmerInnen den Tag und zeigten sich im Anschluss durchweg begeistert vom ersten österreichischen stARTcamp.Die charakteristische, namensgebende Eigenschaft einer Barcamp genannten “Unkonferenz” ist, dass sie sich gegen die gewöhnlichen Konferenzabläufe stellt: Sie hat kein festes Programm, keine vorher festgelegten Sprecher und auch nur selten ein eng begrenztes Thema. Stattdessen kann jeder Teilnehmer zu Beginn Sessions zu Themen vorschlagen, die ihm am Herzen liegen, Best-Practice-Beispiele vorstellen oder auch Probleme und offene Fragen thematisierten. Dies kann in Form eines Vortrages geschehen. Gern gesehen sind aber auch Workshops und offene Diskussionen, die häufig gänzlich neue Facetten und Ideen ans Licht bringen. Daneben ist für Kulturmacher wie Wissenschaftler und Kommunikationsexperten vor allem der Aspekt der Vernetzung und des Austausches interessant.

Bereits die Vorstellungsrunde am Morgen machte deutlich, mit welch unterschiedlichen Anliegen die Teilnehmer nach Wien gekommen waren. Jeder von ihnen sollte sich mit drei Hashtags vorstellen. Die meistgenannten waren Kreativität, Neugierde und Kommunikation – die typischen Charakteristika der Social-Media-Welt. Obwohl es für die Mehrheit der Gäste die erste Veranstaltung dieses Formats war, zeigte schon die Session-Planung, welch anspruchsvollen und vielfältigen Aspekten sich das stARTcamp an diesem Tag widmen würde. Dabei machte die Planung von jeweils drei parallelen Sessions die Auswahl nicht leicht. Umso intensiver wurde die Möglichkeit genutzt, sich in den Pausen über die Themen und Inhalte auszutauschen. Zudem dokumentierten einige fleißige Twitterer die Inhalte der Sessions. Zu finden sind ihre Gedanken unter dem Hashtag #scvie (stARTcamp Vienna) bei Twitter, facebook und Google+.

Zu den Eröffnungssessions gehörte unter anderem der Vortrag Social Impact Optimization von Frank Tentler, der sich mit den Grundlagen der professionellen Social-Media-Kommunikation und deren Organisation über Social Web Command Center beschäftigte. Dabei betonte er, dass das Social Web noch immer ein Ort der Privatsphäre und des Privaten ist, den man auch als Marketer achten muss. Die Kommunikation darf keine reine Verkaufssituation sein. Stattdessen ist es angeraten, sich auf die verschiedenen Formate und vor allem den Mobile-Markt einzustellen, die Meinungsführer für das eigene Thema zu finden und die neue schlagwortbasierte Kommunikation zu beachten. Für deren Planung ist der Impact, die direkte und beidseitige Kommunikation zentral, da es darauf ankommt, auf die Stimmen und Ideen der Gäste/Leser/Nutzer zu hören und aus diesen entsprechende Inhalte zu generieren. In diesem Sinne waren auch die Sessions zu Storytelling und Facebook-Gruppen von Daniela Unterholzner vom Institut für Kulturkonzepte Wien der bestmöglichen Nutzung von Social Media für das institutionelle Marketing gewidmet.

Einen gänzlich anderen Bereich diskutierte hingegen Wolfgang Senges von C3S, der Cultural Commons Collecting Society, die sich als eine auf Creative-Commons-Lizenzen basierende Rechteverwertungsgesellschaft als Alternative zur GEMA etablieren will und damit auch für Kultur und Wissenschaft interessante Neuerungen verspricht. Auch Wolfgang Gumpelmaier, der über die Crowd-University UnuniTV und das Thema Crowdfunding im Kulturbereich sprach, sowie der Digital Artist Alexander Mikula, der sein Wissen über agile Projekte teilte, bewegten sich mit ihren Sessions weg vom Thema Marketing hin zu nicht weniger interessanten Aspekten von Social Media für die Kultur.

Gleiches gilt für Frank Tendler und Markus Kucborski. Ihre Sessions erschienen auf den ersten Blick recht techniklastig und thematisierten neben dem Schwerpunkt Mobile Geräte und dem Facebook Wifi die Entwicklung von SmartPlaces für das Museum der Zukunft. Dieser etwas abstrakt anmutende Begriff beinhaltet die Nutzung von Location Based Services wie Foursquare auf der einen und Interaktions-Diensten wie Twitter auf der anderen Seite, um nicht nur das externe Marketing einer Kultureinrichtung durch Specials und Gamification-Aspekte zu verbessern, sondern auch die direkte Interaktion mit den Besuchern. Kostenloses (Facebook-)W-Lan ermöglicht es Einrichtungen mit Facebook Orten, die Besucherströme und -präferenzen der Nutzer zu rekonstruieren und die Gestaltung ihrer Häuser entsprechend anzupassen. Im Gegenzug werden den Gästen neben dem Internetzugang spezielle Dienstleistungen und Vergünstigungen angeboten, wenn sie die Institutionen weiterempfehlen, über sie berichten oder ihre Geschichten und Ideen mit ihnen teilen. Auch sollen nicht nur die jeweilige Institution und ihre Besucher, sondern auch die Besucher und Kultureinrichtungen untereinander vernetzt werden, um inhaltliche Gemeinsamkeiten und Verknüpfungen aufzuzeigen, neue Interessen zu wecken und auf diese Weise mehr tatsächliche Aufmerksamkeit zu erhalten. Dies ist ein Aspekt, den die Wissenschaftskommunikation von Forschungseinrichtungen und Universitäten bisher kaum nutzt. Gerade für Sonderveranstaltungen wie die Lange Nacht der Wissenschaft oder Tage der Offenen Tür bieten sich hier noch viele neue Möglichkeiten. Als herausragend innovatives Beispiel wurde das Kreativzentrum Dortmunder U vorgestellt. Das Erlebnis Kultur wird dort durch vielfältige Arten der Kommunikation und augmented-reality-Implementierungen gänzlich neu definiert, um den derzeit noch recht passiven Kulturkonsumenten zu mehr Aktivität anzuregen und zu einem Prosumenten  zu machen, dessen Wünsche für die Ausgestaltung der Kulturangebote eine aktivere Rolle spielen.

Insgesamt zeigte das erste stARTcamp in Wien den Willen und die Kreativität der anwesenden Kulturmacher, das Potenzial von SocialMedia zu nutzen. Nicht zuletzt die Session zur Frage nach dem „next big thing after Facebook“ machte zudem deutlich, dass gesellschaftliche Entwicklungen und Bedürfnisse hierfür eine zunehmend große Rolle spielen. Thematisiert wurden unter anderem die zunehmende Spezialisierung der Online-Plattformen – sei es nach Interessensgebieten, nach Foto und Chat oder nach Altersgruppen – die neuer Marketingstrategien bedarf. Auch die Aspekte Datenschutz und daran gebunden die Nutzbarkeit von Digitalisierungsprojekten – ebenfalls interessant für Geisteswissenschaftler – sowie Werbung und Monetarisierung des Internet kamen auf. Sie alle sind zentral für die Zukunft von Social Media in Kultureinrichtungen. Die kreativen Ideen von Kultur und Wissenschaft und die Realität klaffen aber vielfach noch stark auseinander. Dies zeigte sich auch an dem hohen Anspruch der Sessions des stARTcamps auf der einen und den vergleichsweise wenigen Anwesenden, die darüber auch twitterten, auf der anderen Seite. Nichtsdestotrotz erwies sich das stARTcamp Wien „als Mittel gegen Kulturpessimismus bei den Kulturmachern“, wie es eine TeilnehmerInnenin formulierte, und erfüllte damit seinen Anspruch allemal.

Einen Überblick zu allen stART-Veranstaltungen gibt es hier.
Fotos des stARTcamp Wien von Karola Rieger auf flickr.
Blogbeitrag von Frank Tentler auf Echtzeitgeist
Blogbeitrag von Therese Zalud auf mqw.at

Dieser Beitrag basiert auf meinem Nachbericht zum stARTcamp Wien für kulturmanagement.net.

Quelle: http://kristinoswald.hypotheses.org/1055

Weiterlesen

Expertendämmerung

Neulich früh stand das Politische Feuilleton im Deutschlandradio Kultur unter der Überschrift „Warum die Gesellschaft heute ohne Vorbilder auszukommen scheint“. Der Beitrag war interessant, wenngleich man dem trauernden Unterton („früher war alles besser“) nicht unbedingt gern folgt und wenngleich ich an der implizit diagnostizierten demokratiegefährdenden Wirkung einer allgemein sinkenden Vorbildaffinität zweifle.

„Vorbild“ und „Experte“ liegen nahe beieinander. Eine Gesellschaft, die sich nicht auf gemeinsame Vorbilder einigt und diese nicht durch gemeinschaftliche Aufmerksamkeit pflegt und erhält, entzieht auch der „Expertenmeinung“ das Vertrauen: Unsere Gesellschaft lasse „keine Überlebensgröße mehr zu“, hieß es im Radio. Ausdrücklich schreibe ich dies beobachtend und bar jeder Wertung, was vielleicht per se bereits wieder symptomatisch ist, ist doch das mosaikhafte Nebeneinanderstellen unterschiedlicher fragmenthafter Sichtweisen Basis und Kennzeichen der Entwicklung.

Jetzt kommt, aufgepasst, der Dreh zum RKB-Blog. Während der RKB-Konferenz sprach Gudrun Gersmann von der „Expertendämmerung“ im Zusammenhang mit dem (notwendigen) Wandel des Rezensionssystems. Christian Gries schrieb im Tagungsbericht: „Vor der These von Blogs und Tweets als aufmerksamkeitsgenerierenden Instrumenten konstatierte sie einen Expertenschwund und stellte die Frage, ob der traditionelle “Experte” überhaupt noch eine Figur der Zukunft sei“. Fragmentisierung als Tendenz der Zeit und Schlüsselwort der Zukunft? Vielleicht ja, ob man sie nun als Ausdruck wachsender Demokratisierung oder steigenden Selbstbewusstseins des Einzelnen deuten möchte, denn immerhin bleibt die Deutungs- bzw. Wertungshoheit in der Mosaiklandschaft ganz bewusst dem Einzelnen überlassen, oder zumindest den spezifischen Communities, in die der Einzelne sich notwendigerweise einbindet, weil er allein der Daten- und Meinungsmasse hilflos gegenüberstehen würde (s.u. zum Filter). Die Fragmentisierung bringt  „die Crowd“ als Phänomen – oder Phantom – untrennbar mit.

Das wachsende Selbstbewusstsein, mit dem das Individuum diesen Prozess bereichert (durch das Zutun seines eigenen Meinungsmosaiksteins) und abschließt (durch die Wertung vorhandener Fragmente) lässt gar keine Alternative zur sinkenden Wertigkeit von Vorbildern und Experten. Der (wissenschaftliche) Experte wird häufig aufgrund seiner Laufbahn oder seines Titels als solcher betrachtet – oder, um erneut die Brücke zum Rezensionswesen zu schlagen: Ihm wird die Rundumbeurteilung eines Buchs zugetraut, dessen Einzelaspekte möglicherweise besser und objektiver von mehreren oder vielen (fragmenthaft) Kommentierenden eingeschätzt werden könnten, wobei deren jeweilige Position und die Quelle ihrer Kompetenz immer weniger wichtiger wird, je kleinteiliger sich der Prozess darstellt. Vielleicht.

Dazu erschien neulich ein höchst lesenswertes Interview in der SZ (Feuilleton, 16. Juli 2013) mit David Weinberger, dessen Überschrift und Untertitel schon viel verraten: „Wer mit Ausbildung argumentiert, macht sich lächerlich. (…) Alternativen zum klassischen Expertentum“. Der Wandel funktioniert eben nur dann, wenn man unbegrenztem Platz und unbegrenzter Meinungsäußerung – im Sinne eines unendlich großen Mosaiks – mit einer Filter- und „Empfehlungskultur“ begegnet, wie Weinberger sagt. Dem Interviewer, der seine gerade im deutschsprachigen Raum so weit verbreiteten Sorge nur schlecht überspielt, diese Umbrüche bedeuteten den Untergang des Abendlands, hält er schlagfertig entgegen: „Sie müssen ein ziemlich einsames Leben da im Internet führen“.

Das alles wirkt, als sei die Entwicklung als ein Demokratiegewinn zu verstehen. Orientierung am Inhalt statt an Meriten und Machtinsignien.

Gibt es gute Gründe, um Sieglinde Geisel, der Autorin des eingangs benannten Politischen Feuilletons, in ihrer Meinung zu folgen, dass der Verlust von Vorbildern tendenziell demokratiegefährdend sei? Stifte(te)n Vorbilder, die wir derzeit reihenweise stürzen und verblassen sehen, tatsächlich Gemeinschaft durch ihre „Gravitationskraft“ – die in der Netzkultur kein Äquivalent findet? Wenn ja: Ist der Verlust von Experten analog auch wissenschaftsgefährdend? Verliert eine wissenschaftliche Diskussion an Wert, wenn sie – positiv formuliert – „auf Augenhöhe“ stattfindet? Das Netz stellt die Augenhöhe per Anonymität her. Erstaunlich, wie hoch der Reputationsunterschied beider Begriffe ist.

Quelle: http://rkb.hypotheses.org/554

Weiterlesen

Die Auswirkungen des Leistungsschutzrecht auf Wissenschaft und Kultur

Die Kampagne der Digitalen Gesellschaft gegen das Leistungsschutzrecht

Seit dem 01.08.2013 gilt in Deutschland das Leistungsschutzrecht (LSR) für Verlage und all jene, die regelmäßig eigene journalistische Texte im Internet für wirtschaftliche Zwecke nutzen. Zu denjenigen, die das neue Gesetz schützen soll, gehören nach dieser Definition auch die Pressestellen von Kultureinrichtungen und Forschungsinstitutionen, Blogs, die Teil beruflicher Tätigkeit sind, oder Autoren kultur- und wissenschaftsjournalistischer Beiträge. Sie haben nun das Recht, Informationsdienste abzumahnen, wenn diese kurze Textauszüge, sogenannte Snippets, ohne Einwilligung der Verfasser, Journalisten und Verlage für ihre News-Sammlungen verwenden. Wie die zahlreichen Reaktionen auf das Inkraftreten des LSR zeigen, ist dies gerade aus Marketing-Sicht jedoch nicht unbedingt anzuraten.Die Begründung des Leistungsschutzrechtes ist zum einen, dass auch kurze Textauszüge unter das Urheberrecht fallen. Zum anderen verdienen die Informations-Aggregatoren ihr Geld damit, die Texte anderer zu sammeln, sortieren und gebündelt anzubieten, ohne den Urhebern einen finanziellen Anteil daran zu gewähren. Zu diesen Anbietern gehören Google News, Rivva und auch fachliche Dienstleister wie Google Scholar, der Nachrichtendienst für Historiker oder die Presseschau von Archäologie Online. Um rechtlichen Konsequenzen vorzubeugen, haben die drei letztgenannten ihre in der Fachwelt geschätzten Dienste eingestellt. Google hingegen hat die Initiative ergriffen und wird in den News nur noch diejenigen Presseerzeugnisse zitieren, die sich dazu durch eine Meldung bei Google bereit zeigen. Die Problematik des Leistungsschutzrechtes wird hier sehr deutlich:

  • Es ist uneindeutig bezüglich der Länge der Textauszüge. Während Twitter- oder Facebookeinträge (scheinbar) ausgenommen sind, fallen Beitrags-Teaser, aber auch Überschriften oder Wortgruppen in den Schutzbereich.

  • Auch News-Sammler bieten eine Dienstleistung an, da sie die Vielzahl täglich neuer Nachrichten zusammenbringen, aber auch aufarbeiten, thematisch sortieren und damit dem Nutzer eines solchen Services, gerade auch im fachlich zum Teil sehr breit gefächerten eingegrenzten Wissenschafts- oder Kulturbereich, viel Zeit und Mühe ersparen.

Dieser Service bringt nicht nur den Anbietern, sondern auch den Autoren der hierfür genutzten Textauszüge Marketing-Vorteile. Denn während z.B. gerade die Pressemeldungen kleinerer Kultur- oder Forschungseinrichtungen häufig über den lokalen oder regionalen Rahmen nicht hinausgelangen, bieten fachliche und thematische Informationssammlungen ihnen die Möglichkeit, ihre Informationen neben den direkten auch den indirekten Zielgruppen mit geringem Aufwand zugänglich zu machen. Gleiches gilt für die nach wie vor steigende Anzahl an Fachblogs. Auch die Snippets, die Google Scholar bei der Suche nach online publizierten Fachbeiträgen anzeigt, könnten unter das LSR fallen. Problematisch ist ohnehin die Einordnung solcher Open-Access-Artikel, die, wenn sie in regelmäßigen Online-Fachzeitschriften erscheinen, ebenfalls unter den Begriff Presseerzeugnis fallen könnten. Auch die Zitation journalistischer Texte in wissenschaftlichen Publikationen ist im Kontext des Leistungsschutzrechtes noch nicht einzuordnen.

Um sich von der Nutzung des Leistungsschutzrechtes für die eigenen Presseerzeugnisse zu distanzieren, gibt es im Moment noch keine einheitliche Lösung. Trotzdem scheint es notwendig, sich aktiv zu äußern, da nicht nur der NfH und Archäologie Online die Konsequenzen umsetzen, sondern über Google News hinaus auch filtr.de und Rivva angekündigt haben, die Beiträge von Verlagen und Autoren, die keinen eindeutigen Standpunkt zum LSR geäußert haben, nicht mehr einzubeziehen. Um dies zu tun, gibt es verschiedene Möglichkeiten.

Als Statement:

  • mit einer spezifischen, gut sichtbaren Äußerung auf der eigenen Website, die jedoch nicht automatisch ausgelesen werden kann und eine weitere Einbeziehung keinesfals garantiert, sondern vielmehr ein Statement darstellt,

  • mit einem Website-Banner der „Initiative gegen ein Leistungsschutzrecht“ (IGEL), das man auf http://leistungsschutzrecht.info herunterladen kann.

Als Maßnahme mit (wahrscheinlicher) Wirksamkeit:

  • mit einer Meldung bei Google News selbst,
  • mit dem Hashtag #lsrfrei und einer Eintragung auf der zugehörigen Internetseite http://mediainfo.de/index/lsr-frei,

  • sowie mit dem Begriff „snippet“ als Metatag, also unsichtbare Hintergrundinformation, auf der eigenen Website, der von den Suchrobotern der Anbieter gefunden werden kann. Dieser Metatag hat sich, im Gegensatz zu seinem Pendant „nosnippet“ jedoch noch nicht durchgesetzt, hier sind weitere Ideen abzuwarten.

Zu denjenigen, die sich bereits gegen eine Nutzung des LSR zugunsten der Fremdvermarktung ihrer Inhalte entschieden haben, gehören der Spiegel und die FAZ, Gruner+Jahr, t3n, und der Axel Springer Verlag, Creative Commons (CC), Wikimedia Deutschland und die Heinrich Böll Stiftung sowie zahlreiche Blogs. Sollte dieser Blog nach der uneindeutigen Formulierung im Gesetz auch unter das LSR fallen, distanziere auch ich mich davon, vom Leistungsschutzrecht Gebrauch zu machen, da ich gern weiterhin auffindbar und zitierbar bleiben und mit Lesern und Interessierten in Kontakt kommen möchte. Zudem wäre ich auch bereit, für die Dienste von Archäologie Online und dem Nachrichtendienst für Historiker zu zahlen, wenn sie auf diese Weise weiter arbeiten und ggf. anfallende Kosten für die Nutzung von Snippets tragen könnten.

Ausführliche Informationen zum LSR gibt es unter anderem von Thomas Schwenke, Anwalt für Social Media Recht und gewerblichen Rechtsschutz, hier oder von iRights hier. Auf die möglicherweise viel weiterreichenden Folgen des Leistungsschutzrechtes für die Wissenschaft verwies zudem Anatol Stefanowitsch.

Dieser Beitrag ist die leicht abgewandelte Form eines auf kulturmanagement.net am 01.08.2013 erschienen Artikels.

Quelle: http://kristinoswald.hypotheses.org/1041

Weiterlesen

Blog zur Tagung “Geschichte Lernen digital”, 8. und 9. März 2013

http://gelerndig.hypotheses.org Die Lebenswelt der Heranwachsenden unterliegt seit einigen Jahren einem tiefgreifenden digitalen Wandel. Die alterstypischen Kommunikationen haben sich stark in digitale Social Networks verlagert (Facebook etc.), Informationen werden offenen Collaboratives (Wikipedia) oder Web-Angeboten entnommen, die nicht den herkömmlichen Reputationsregeln unterliegen (Blogs etc.). An gesellschaftlichen Wandlungen und Ereignissen nimmt man spontan, öffentlich und in Echtzeit teil […]

Quelle: http://www.einsichten-online.de/2013/07/4603/

Weiterlesen

Digital Humanities? E-Humanities? Social Humanities?

https://digitalhumanities.princeton.edu/files/2013/03/Screen-shot-2013-03-14-at-10.43.36-AM.pngAngeregt durch den re:publica-Vortrag von Nishant Shah, durch die Digital Humanities Summer School Switzerland 2013 und zahlreiche Diskussionen, die sich sämtlich damit beschäftigten, was die Digital Humanities eigentlich sind und sein wollen, ließ mich diese Frage in den letzten Wochen nicht wieder los. Trotz oder gerade wegen zahlreicher Blogs, Forschungsprojekte und Tagungen unterschiedlichster Fragestellungen scheint das Verständnis von den Digital Humanities zur Zeit sehr uneinheitlich. Nach Marjorie Burghart werden sie durch oratores, bellatores, laboratores als drei Ordnungen vertreten, repräsentieren jedoch kein einheitliches Weltbild, was es erheblich erschwert, Grundlagen für Studiengänge oder Arbeitsweisen in diesem Bereich zu entwickeln und etablieren. Angelehnt an die zwei Phasen der DH nach dem Manifest von Schnapp und Presner und die darauf aufbauende dritte Phase von Berry, würde ich den drei Ordnungen gern die drei Weltbilder der Digital Humanities zur Seite stellen. Diese derzeitigen Formen und Auffassungen von den neuen Geisteswissenschaften sind einer der Gründe für die damit verbundenen Unsicherheiten. Sie basieren darauf, dass die Humanities 2.0 sowohl als digital(isiert)e Geisteswissenschaften in virtuellen Forschungsinfrastrukturen, als enhanced Humanities und als soziale Geisteswissenschaften bezeichnet werden. Jedoch sind diese drei Bedeutungen nicht gleichzusetzen und stellen völlig verschiedene Aspekte der Geisteswissenschaften im Kontext des Social Web in den Mittelpunkt.

digitalisieren, digitalisieren, digitalisieren

Bücher, Handschriften, historische und Kunstobjekte – die Digitalisierungsprojekte allein in Deutschland werden zunehmend unzählbar. Kleine und große Sammlungen werden als Teil des “Digitalisierungswahns” in verschiedene Formen von Datenbanken übertragen, die zumeist online frei zugänglich sind. Herausragende Beispiele sind die Deutsche Digitale Bibliothek, der Bereich Digital Heritage mit dem Namen OpenGLAM der Open Knowledge Foundation oder Europeana mit derzeit allein ca. 28 Millionen digitalisierten und mit Metadaten aufbereiteten Objekten. Die Zugänglichmachung primär für die Forschung, aber auch für die Öffentlichkeit, steht dabei im Mittelpunkt. Die EU, die DFG oder das BMBF fördern zunehmend Projekte, die sich OpenData als public mission auf die Fahne geschrieben haben. Dabei spielt nicht nur eine Rolle, dass öffentlich finanzierte Forschung auch öffentlich zugängliche Ergebnisse hervorbringen sollte, sondern auch, dass die wissenschaftliche Arbeit mit digitalen Objekten in vielen Punkten erheblich erleichtert wird. Dies entspricht der ersten Phase nach Schnapp und Presner, die sich durch Digitalisierungen und die Entwicklung entsprechender Datenbanken und Abfrage-Tools, durch Online-Publikationen und die Aufassung der OpenSciences charakterisiert.

Derartige Projekte lassen sich wunderbar dem Namen Digital Humanities zuordnen, da ihre Hauptaufgabe vor allem in der Digitalisierung selbst besteht. Dies bestätigt auch die Studie von InfoClio für ähnliche Vorhaben in der Schweiz. Eine solche Aufgabe bringt aber noch zahlreiche Probleme mit sich, sei es in Bezug auf Langzeitarchivierung und semantische Aufbereitung, Lizensierung oder andere rechtliche Fragen bezüglich der Daten selbst. Gerade aufgrund der Vielfalt und der heterogenen Herangehensweisen der verschiedenen Projekte an diese Aufgabe, stellt vor allem die Semantic einen wichtigen Punkt dar: auch wenn die meisten digitalen Bücher und Sammlungen prinzipiell im Netz aufzufinden sind, ist das Handling ihrer Online-Versionen nicht immer einfach und eindeutig. Zudem sind nur die wenigsten Datenbanken untereinander verknüpft oder unter einem gemeinsamen Interface vereint, sodass sie nur schwerlich übergreifend für wissenschaftliche Fragestellungen genutzt werden können. Basis hierfür wäre eine vereinheitlichte semantische Aufbereitung, die es erlaubt, die verschiedenen Datensammlungen zusammenzubringen und auf unterschiedliche Aspekte hin zu durchsuchen. Dafür sind jedoch eine zugrundeliegende Standardsprache und ein Einheitsformat notwendig, die nicht nur wegen der Vielzahl an Publikationssprachen, sondern auch wegen der unterschiedlichen Methoden und Sichtweisen der einzelnen Disziplinen nur schwer zu finden sind. Auch wenn diese anspruchsvolle und schwierige Aufgabe gelöst sein sollte, ist eine fleißig befüllte Vielzahl an Datenbanken zwar Digital, aber keineswegs Humanities – trotz der Informationen zu bedeutendem Kulturgut.

enhanced Humanities und Toolification

Vor allem die nationalen und internationalen Großprojekte befassen sich bisher mit der Differenz zwischen den klassischen Geisteswissenschaften und den DH. Entsprechend der zweiten Phase nach Schnapp und Presner stehen hierbei zusätzlich zur quantitativen Digitalisierung auch die Möglichkeiten der qualitativen Nutzung der auf diese Weise erzeugten, aufbereiteten und gespeicherten Daten im Vordergrund. Diese Phase ist experimentiertfreudig, überträgt das klassische geisteswissenschaftliche Handwerkszeug in die digitale Welt und bildet entsprechend den dortigen Gegebenheiten auch neue Methoden heraus. In Deutschland ist hier wohl an erster Stelle DARIAH zu nennen, wo digitale Forschungsumgebungen für die geisteswissenschaftliche Arbeit mit digitalen Daten entwickelt werden. Im Bereich digitalisierter Publikationen, die – zumindest in Bezug auf gemeinfreie Bücher – in der Zwischenzeit in Form von PDFs in großen Mengen zur Verfügung stehen, sind die Nutzungstools primär lingustischer Natur. Hierfür gibt es bereits eine Vielfalt an Software, so unter anderem Clarin, Maxqda, Vard2 oder den Classical Text Editor.

Das weite Feld der inhaltlichen Auswertung steht, unter anderem aufgrund der Semantik, noch weitgehend offen. Diese ist nicht nur für die Verknüpfung der Datenbanken von Bedeutung, sondern vor allem für die Überführung der Inhalte und der Informationen zu den Büchern und Objekten in eigene Datensätze. Stehen auch diese zur Verfügung, wird es möglich sein, über sprachliche Aspekte hinaus die in den Fachrichtungen bewährten Methoden anzuwenden und neue, speziell auf Daten ausgerichtete Fragestellungen zu entwickeln. Mit einer solchen erweiterten geisteswissenschaftlichen Nutzbarkeit von Digitalisaten werden aus den Digital die Enhanced Humanities. Diese Unterscheidung trifft auch das BMBF in seiner Studie zu den Forschungsinfrastrukturen der Geistes- und Sozialwissenschaften und erachtet die E-Humanities als besonders förderungswert. Mit ihnen könnten zum Beispiel digitalisierte Inschriftencorpora nicht nur auf Worthäufigkeiten, sondern auch auf bestimmte Zeitstellungen, Herkunfts- und Kulturkontexte, Materialien, Fundumstände u. Ä. hin befragt werden. Auch können für Neufunde Vergleiche oder in den Geschichtswissenschaften Quellen gleicher Zeitstellung direkt aufgerufen werden. Dariah und die Labs der OpenKnowledgeFoundation stellen mit dem Geobrowser und Timeliner bereits Tools zur geographischen Darstellungen von Entwicklungen, Reiserouten, Fundverteilungen und jeglichen anderen, auf Karten umsetzbaren wissenschaftlichen Ergebnissen zur Verfügung. Die Datengrundlage kann dafür aus den Datenbanken übernommen oder selbst eingespeist werden. Eine für die Geisteswissenschaften eher ungewöhnliche, aber sehr zukunftsträchtige Platform ist Crowdcrafting, bei der wissenschaftliche Projekte Citizen Science und das „Wissen der Massen“ für die Gewinnung neuer Erkenntnisse nutzen können.

Social Humanities

Auch die vielversprechenden und wissenschaftlich höchst spannenden Projekte im Bereich der E-Humanities allein nutzen die Möglichkeiten des Web 2.0 nicht in vollem Umfang. Was noch himzukommt, ist das kommunikative, kooperative und offene Wikinomics-Prinzip, das Berry als dritte Phase der DH bezeichnet. Dabei geht es nicht nur um Open Access zu den Ergebnissen der Forschung, den die EU bereits zum Thema des Horizon 2020 gemacht hat, um Vernetzung und Interdisziplinarität, sondern auch darum, die Welt der Wissenschaften selbst transparenter, flexibler und offener zu gestalten. Dies geht über Online-Publikationen im PDF-Format jedoch weit hinaus, sondern soll den Wissenschaftsprozess an sich öffnen. Anliegen ist es, die Interaktion mit der Öffentlichkeit auf der einen und die interne Kommunikation auf der anderen Seite auszubauen, den Elfenbeinturm in Richtung Agora zu verlassen und die althergebrachten Hierarchien und Wertesysteme neu zu überdenken. Twitter und Blogs oder Academia.edu und Facebook erweitern die Möglichkeiten des Austausches und auch neue Wege der Profilierung innerhalb der Wissenschaft und öffnen zugleich den Blick auf die Bedürfnisse der Menschen außerhalb. Sie ermöglichen eine gleichberechtigte Kommunikation und auch Hilfestellungen bei Forschungsfragen oder Vermittlungsproblemen. Hinzu kommen Tools, die das Management von großen, auch internationalen Projekten vereinfachen, sowie Social-Reading-Angebote. Hier geht mit textus geht wiederum die OpenKnowledge Foundation einen neuen Weg, indem sie die Möglichkeiten der Literaturarbeit von readmill und ähnlichen Diensten für die Wissenschaft nutzbar macht und online zur Verfügung stellt. Querverweise, Kommentare, Zitationen und Zusammenarbeit können so auch von Gruppen direkt am Text erarbeitet werden. Derartige Projekte und Social-Media-Dienste vereinen die Datenauswertung der E-Humanities mit dem Charakter des Web 2.0 zu den Social Humanities.

Humanities 2.0?

Der Begriff der Digital Humanities wird derzeit sehr heterogen benutzt. Im wohl verbreitetsten und auch in den Medien genutzten Sinne umfasst er vor allem den Bereich der Digitalisierung. Bei diesem stehen jedoch nicht die geisteswissenschaftlichen Anforderungen im Vordergrund, wie auch ein Artikel der FAZ zeigt. Unter dem Titel „Auf der Suche nach einem Zweck“ erscheint es darin eher so, also versuchten die Geisteswissenschaften auf diesem Weg eine Annäherung an die quantitativen Daten und Methoden der Naturwissenschaften, um ihre Reputation als Wissenschaften zu verbessern. Die sozialen, philosophischen, kulturellen oder politischen Fähigkeiten eines Geisteswissenschaftlers schlicht auf Technologien zu übertragen, ist dabei jedoch beinahe Blasphemie. Stattdessen macht es die den Geisteswissenschaften eigenen Charakterzüge  wesentlich zukunftsträchtiger, neue methodische Ansätze für die E-Humanities zu finden und die Social Humanities auszubauen. Insgesamt führen die drei Weltbilder der DH aufgrund ihrer Gemeinsamkeiten und Unterschiede, durch Engagement und innovative, kreative Herangehensweisen gemeinsam zu fruchtbaren Diskussionen und der Entwicklung neuer, spannender Methoden und Forschungsmöglichkeiten und der Etablierung einer gemeinsamen Auffassung von den Humanities 2.0.

Quelle: http://kristinoswald.hypotheses.org/829

Weiterlesen

Veranstaltung in Regensburg: Geschichtswissenschaft und Web 2.0

„Zum Frühstück lese ich die Posts meiner Kollegen“1, so Mareike König vom Deutschen Historischen Institut Paris (@Mareike2405) in einem Interview im Sommer 2011 über ihren Alltag als Historikerin, die intensiv Soziale Medien nutzt. „Wir haben uns an kollaboratives Arbeiten im Netz gewöhnt“, so Gudrun Gersmann, Inhaberin des Lehrstuhls für Geschichte der Frühen Neuzeit an der Universität zu Köln (@GGersmann) im März 2012 in ihrer Rede bei der Tagung „Weblogs in den Geisteswissenschaften Oder: Vom Entstehen einer neuen Forschungskultur“ anlässlich der Eröffnung des neuen Blogportals [...]

Quelle: http://ordensgeschichte.hypotheses.org/4772

Weiterlesen