Praxen wissenschaftlichen Bloggens – ein Metabericht zum Workshop „Wissenschaftliches Bloggen in Deutschland: Geschichte, Perspektiven, praktische Umsetzung“ am 11.04.2013 an der Julius-Maximilians-Universität Würzburg

Gefördert vom Universitätsbund der Universität Würzburg richteten Katrin Betz und Dr. Christof Schöch vom Würzburger Lehrstuhl für Computerphilologie einen betont praxisorientierten Workshop zum kulturwissenschaftlichen Bloggen in Deutschland aus (Twitter: #dehypo). Der Workshop gliederte sich in drei Teile: (A) konzeptionelle Überlegungen, (B) Erfahrungsberichte aus der Praxis und (C) eine praktische Einführung in die deutsche Hypotheses-Plattform (de.hypotheses.org), die nach französischem Vorbild seit März 2012 mittlerweile schon über 80 Weblogs deutscher Wissenschaftler einen Raum bietet: Tendenz steigend.

A

Nach einer Begrüßung der ca. 25 TeilnehmerInnen aus ganz Deutschland, die zu einer großen Zahl Nachwuchswissenschaftlerinnen waren (was der Weblogdemografie korrespondiert; vgl. Schmidt 2009), machte der Literaturwissenschaftler Dr. Christof Schöch (Würzburg, http://dragonfly.hypotheses.org, Mitglied der de.hypotheses.org-Redaktion) den Auftakt, mit Wissenschaftliches Bloggen im Kontext digitaler Publikationsmedien im Dreischritt einige konzeptionelle Überlegungen zur Einführung in den Workshop vorzulegen: Dabei verortete er Weblogs (1) im Rahmen aktueller „web-basierter Medien der Publikation und Kommunikation“, (2) im Rahmen der „Entwicklung digitaler Medien“ und (3) im Hinblick auf die „Interaktion mit anderen Medien“ im Internet.

(1) Im Versuch einer systematischen Perspektive stellte Schöch vor allem Unterschiede zwischen Internetkommunikationsformen und klassischen Kommunikationsformen (der Wissenschaft) aus dem Printbereich anhand sieben Punkten gegenüber: Im Internet (i) sei naturgemäß freie Zugänglichkeit gewährleistet, also eine nicht ökonomisch motivierte Kommunikationspraxis zu finden (Stichwort: Open Access). Ebenso (ii) sei eine schnelle Publikations- und Aktualisierungsmöglichkeit gegeben, die nicht nur eine beständige Veränderbarkeit sondern auch eine beständige Entwicklungsmöglichkeit böte. Hinzu kommt, dass (iii) klassische institutionelle Intermediäre wie Verlage und Universitäten entfielen, diese Unabhängigkeit sich aber gerade aufgrund der unterschiedlichen Ansprüche wissenschaftsinterner Kommunikation an institutionelle Intermediatoren nicht vollständig realisieren könne und daher andere an deren Stelle treten (Stichwort: Aufmerksamkeit, Archivierung, Zitierbarkeit). Ein (iv) kollaboratives, ortsungebundenes (Zusammen-)Arbeiten werde ermöglicht und mache im wissenschaftlichen Diskurs neue Kommunikations- und Wissensqualitäten sichtbar. Das (v) Verhältnis zu Vorgängermedien stelle sich als komplex dar, da es keine eindeutigen Vorläufer zu wissenschaftlichen Weblogs gebe: Ein komplexes Remediationsgefüge (vgl. Bolter/Grusin 2000) im Anlehnungs- und Ablösungsverhalten kennzeichne daher die Gattungen wissenschaftlichen Schreibens in Weblogs (noch). Bei den klassischen Publikationswegen sind feste Ökonomien der Qualitätskontrolle und der sog. Impact-Erhebung vorhanden: Weblogs haben hier ihre eigenen Ordnungs- und Kontrollmechanismen entwickelt, die anstatt auf eine vorgängige Selektion der Inhalte, auf eine der Publikation nachgeordnete Selektion durch den ‚Schwarm‘ setze. Damit werde auch eine veränderte Aufmerksamkeitsökonomie des Lesers nötig, die wiederum softwareseitig sehr präzise quantifizierbar ist. Schließlich entwarf Schöch im Punkt (vii) eine Typologie entlang der zwei Kontinua monologisch—dialogisch und objektzentriert—subjektzentriert: In diesem Koordinatensystem stellt er Weblogs im Vergleich zu anderen Internetkommunikationsformen als Hybride heraus, die eine Qualität herausgebildet haben, die im Spektrum webbasierter Medien noch nicht besetzt gewesen sei und auch offline keine Vorläufer habe.

(2) In der historischen Perspektive stellt er heraus, dass die frühen digital-vernetzten Kommunikationsformen dialogische Formen waren (E-Mail, Mailingliste, Diskussionsforen), die seit 1989 mit dem http- und html-gestützten World Wide Web erst einmal durch statisch-monologische Kommunikationsformen ergänzt wurden (Website, Homepage, Online-Journal), bevor im Rahmen dessen, was heute als Internetmedialität gefasst werden könnte, dialogische Kommunikation möglich wurde. Als Wegsteine dieser Kommunikationsformengeschichte können für die Wissenschaft genannt werden: 1987 wissenschaftliche Mailingliste, 1990 wissenschaftliches Online-Journal, 2003 wissenschaftlicher Weblog Hosting Service, 2008 wissenschaftliche Social Network Site.

(3) Mit Blick auf die Vernetzung der webbasierten Medien der Wissenschaft folgert Schöch gerade aufgrund der oben diagnostizierten Hybridität von Weblogs eine hohe Anschlussfähigkeit zu anderen wissenschaftlich genutzten Kommunikationsformen wie Twitter, Diskussionsforen, Social Network Sites, Homepages und Online Journals. Sie alle treten – außer vielleicht die wissenschaftlichen Zeitschriften – in ein (verlinkendes und thematisierendes) Wechselverhältnis zu Weblogs, das ihre und die Sichtbarkeit der gesamten wissenschaftlichen Blogosphäre gewährleistet. Sein Fazit: „Erst diese Einbindung macht den Blog lebendig!“ In der noch zurückhaltenden Beziehung zu Online Journals wiederum wird die noch problematische Stellung von Weblogs im Feld der internen Wissenschaftskommunikation deutlich.

Weblogs – könnte man mit Schöch abschließend resümieren – fügen sich aber zunehmend in die Publikations- und Kommunikationspraxis der wissenschaftlichen Diskursordnung ein (vgl. Foucault 1977) und haben so – folgt man den aktuellen Entwicklungen in der Wissenschaftskommunikation – ganz automatisch auch einen eminenten Anteil an der Bildung der akademischen Identität der bloggenden Wissenschaftler.

Die anschließende Diskussion verglich wissenschaftliche Homepages mit wissenschaftlichen Weblogs und wog ihre Vor-/Nachteile und Zukunftsträchtigkeit ab. Sebastian Gießmann stellte dabei heraus, wie die statische ‚Raumordnung‘ von Homepages und die dynamische ‚Zeitordnung‘ von Weblogs wahrscheinlicher zur einer ergänzenden Konvergenz führen würden als zu einer vollkommenen Verdrängung von Homepages. Mit dem Verweis auf die Zeitordnung ist m.E. auch die wesentliche Bestimmungsstruktur periodischer Aktualisierung erkannt (vgl. Meiler i.V.), die Weblogs allgemein mit einer ganzen Reihe sowohl Online- wie auch Offline-Kommunikationsformen verwandt erscheinen lässt: nicht zuletzt auch zu wissenschaftlichen Zeitschriften, denen übrigens anfangs von der wissenschaftlichen Community eine vergleichbare Skepsis entgegengebracht wurde (vgl. Csiszar 2012).

B

Die Literatur- und Editionswissenschaftlerin Dr. Anne Baillot (Berlin, http://digitalintellectuals.hypotheses.org) stellte in ihrem Vortrag Projektbegleitendes Bloggen – eine neue Art der Mäeutik? die Veränderungen in ihrer Bloggingpraxis anhand des Blogs vor, der die Arbeit an einem Projekt zur Erstellung digitaler Editionen begleitete und reflektierte dabei Motivation, Form und Funktion der Beiträge. Dabei zeichnete sie nach, wie sich der primäre Gattungszuschnitt ihres Blogs wandelte von einer Visitenkarte über ein Archiv der eigenen Arbeit und eine Projektpräsentation zur begleitenden Berichterstattung zum akademischen und universitären Betrieb samt seiner Highlights und Tücken. Thematisch wurden dabei vor allem auch die Leserschaft und deren erwartbare Erwartungen, die ihren Schreibprozess bzw. das Redigieren vor dem Posten nicht unerheblich steuerten: In dieser antizipierten Vorwegnahme von Kritik und dem kommunikativen Umgang damit wird die Typik wissenschaftlichen Schreibens produktionsseitig deutlich, die das wissenschaftliche Streitgeschäft – von Ehlich (1993) „Eristik“ getauft – wesentlich prägt. Ebenso in die Figuration der Leserschaft ging die Entscheidung für das Englische als hauptsächliche Blog-Sprache ein, um damit eine möglichst große Community zu adressieren. Gleichzeitig sprach Baillot die Schranken und Probleme einer fremdsprachlichen Wissenschaftskommunikation an und ihr nur folgerichtiges Switchen in eine ihrer beiden primären Sprachen ist ein ideales Beispiel für eine notwendig zu praktizierende Mehrsprachigkeit in den europäischen Wissenschaften (vgl. Ehlich 2010, 30).

Stilistisch empfiehlt sie ‚lieber viel und kurz als wenig und lang‘ zu bloggen und dabei persönliche und sachliche Darstellungen abzuwechseln. Ebenso schätze sie ein ergebnisoffenes, essayistisches Schreiben, das den Blog zu einem Versuchsraum und damit zum titelgebenden mäeutischen Reflexionswerkzeug mache. Mit ihrem Konzept von der in den Alltag integrierten Bloggingpraxis, die als das beschriebene Reflexionsmittel alle Prozesse universitären Handelns flexibel begleiten könne, spricht sie sich resümierend für das Plädoyer „Bloggen im Jetzt für ein unbekanntes Später“ aus.

Die Kunstwissenschaftlerin Sabine Scherz (München, http://games.hypotheses.org) widmete sich in ihrem Erfahrungsbericht Das Blog[1] als ständiger Begleiter – wie schaffe ich Qualität und Kontinuität? den Fragen: Warum, worüber, wie, mit wem und was bloggen? Dabei betonte sie, wie produktiv ihre Blogbeiträge wie eine „Kladde“ ihr Dissertationsprojekt begleiten, indem sie darin Gedanken sammelt und Einarbeitungen in Themen quasi als Arbeitsnachweise einerseits für sich dokumentiert und andererseits als Experte in einem lockeren, ungezwungenen Stil für andere aufarbeiten kann. Dabei stellte sie vor allem praktische Hinweise wie Themenfindungs- und Strukturierungstechniken und auch Hinweise zur sukzessiven Stilfindung vor, die das Bloggen zur regelmäßigen Schreibübung machen können. Die Bedürfnisse der (adressierten) Leserschaft nicht aus den Augen zu verlieren, erachtet sie dabei als Schlüssel zu einem funktionierenden Weblog: Informativität und Zeitersparnis seien die wesentlichen Argumente, die einen Blogleser am Ball halten können. So wendet sie die weblogkritische Frage „Muss ich das lesen?“ (Groebner 2013) gerade gegen den „Buch-Fetischisten“ Valentin Groebner (Graf 2013, 12).

Auch Scherz betont den Gemeinschaftsaspekt des Bloggings, der nicht nur in medialer Vernetzung sondern ebenso in wechselseitigem Bloglesen und Blogkommentieren, also kommunikativer Vernetzung besteht und darüber die Aufmerksamkeit von Lesern bindet und so über den Erfolg des Weblogs entscheidet. Gerade auch damit weist sie auf die karriereförderliche Möglichkeit hin, eine digitale wissenschaftliche Identität aufzubauen, das aber umsichtig d.h. ‚authentisch‘.

Die abschließende titelgebende Frage nach der Qualität und Kontinuität des Bloggens beantwortete sie mit dem Schlüsselwort Motivation, die durch die Anerkennung der Community und durch die Bloggingpraxis selbst als ständiger Begleiter im Hinterkopf von ganz allein geschürt würde. In der Diskussion wurde auf diese Praxis wissenschaftlicher Tätigkeit als eine Möglichkeit hingewiesen, die noch vor den klassischen Kommunikationsformen (Vortrag, Zeitschrift) dem wissenschaftlichen Nachwuchs zu (inter-)disziplinärer Sichtbarkeiten verhelfen könne, die zudem eingeschränkt quantifiziert werden kann. Ebenso wurden die Ästhetiken des Bloggens angesprochen, die maßgeblich durch z.B. WordPress’ Möglichkeiten und Einschränkungen für Varietät und damit auch Identität im Design bestimmt sind. Eine veränderte forschende Wissens- und Welt-Aisthetisierung scheine zudem im wissenschaftlichen Weblog auf: Im Vergleich zu Printpublikationen können Daten z.B. in Form von vollständigen Digitalisaten direkt im Weblog sichtbar gemacht werden.

Der Sprachwissenschaftler Prof. Martin Haase (Bamberg, http://neusprech.org) plauderte in seinem Vortrag Zwischen Wissenschaft und Politik: Populärwissenschaftliches Bloggen auf neusprech.org ein wenig aus dem Nähkästchen der Erfolgsgeschichte des Grimme-prämierten Bloggens mit seinem Ko-Autor Kai Biermann (Journalist), und stellte die Mittel heraus, mit denen einem Weblog besonders viel Aufmerksamkeit zukommen wird. Dabei betonte er besonders den Wert der sog. Social-Media-Dienste (Facebook, Google+, Perlentaucher, Rivva, Twitter) und von diversen Vermarktungsmöglichkeiten (Bücher, E-Books, Shirts, Flattr). Ebenso plädierte er für individualisierte Designs, die mit den verfügbaren Weblogsoftwares wie z.B. WordPress nur bedingt möglich sind und andere Alleinstellungsmerkmale wie bspw. das von ihm und Biermann unregelmäßig angebotene Podcast „neusprechfunk“ oder live gestreamte Radio-Sendungen mit xenim.de. Neusprech.org zeigt sich abgesehen davon besonders bibliophil: Gattungsanleihen für die einzelnen Beiträge kommen von Wörterbüchern her, das neu vorgestellte Design ist in seiner Dreispaltigkeit zeitungsorientiert: Gattungs- und Kommunikationsformenmerkmale die – weblogtypisch – freilich reichhaltig um internetmedialitätstypische Aspekte wie u.a. Verlinkungen/Vernetzung, dynamische Verschlagwortung und flexible Strukturierbarkeit und Überarbeitbarkeit ergänzt sind (vgl. Meiler i.V.). In der Diskussion wurde vor allem noch einmal auf den Unterschied zwischen einem Weblog und einem daraus generierten E-Book hingewiesen, der in der Art der chronologischen Ordnung, der Seitenstruktur, Statik/Dynamik und Orientierungsmöglichkeit im Text/in den Texten begründet ist und damit zwei unterschiedliche Rezeptionsqualitäten bedingt, die dem Blogleser einerseits immer das Aktuelle zeigt, den E-Book-Leser aber andererseits i.d.R. vom frühesten Eintrag bis zum letztaufgenommenen Eintrag führt.

C

Der Kultur- und Medienwissenschaftler Dr. Sebastian Gießmann (Darmstadt, http://www.netzeundnetzwerke.de/; Mitglied der de.hypotheses.org-Redaktion) gab schließlich mit Jeder kann Bloggen! eine praktische Einführung in die deutsche Plattform von Hypotheses. In einem eigens angelegten Schulungsblog wurden für alle Teilnehmer des Workshops die ersten Schritte im Umgang mit WordPress vom Gestalten eines Blogeintrags samt Einbindung multikodaler Webinhalte bis zur Strukturierung und Hierarchisierung des Weblogs als Ganzem erfahrbar. Daneben wurden auch die nötigen Schritte erläutert, welche auf de.hypotheses.org zum eigenen wissenschaftlichen Weblog führen. Ganz so einfach, wie mit Anbietern wie blogger.com ist es nämlich nicht. Hypotheses stellt im Anmeldeformular u.a. mit einer geforderten Projektskizze zum Blogvorhaben z.B. sicher, dass nicht eine Unmenge unüberlegter und bald wieder aufgegebener Blogs die Plattform überschwemmen. An Weblogs, die sich über einen entsprechenden Zeitraum als regelmäßig aktualisiert bewährt haben, werden zudem ISSNs vergeben und die entsprechenden Blogs von der Französischen Nationalbibliothek archiviert.

Ausblick

Somit sind die ersten Schritte geebnet, die Ängste abzubauen, die (in Deutschland) weithin mit Open-Access-Publikationen verbunden sind (vgl. Kuhlen/Brüning 2006, 22f.) und das wissenschaftliche Bloggen im Spektrum der (internen) Wissenschaftskommunikation einerseits institutionell zu stabilisieren und zu verankern und andererseits – darüber herrschte einhelliger Tenor im Workshop – sind die ersten Schritte getan, wissenschaftliche Weblogs (mit den unterschiedlichen Gattungsausprägungen) als produktiv und sinnvoll anzuerkennen und somit im „kommunikativen Haushalt“ (Luckmann 1988) der wissenschaftlichen Gemeinschaft als akzeptabel und funktional zu etablieren. Dass dies aber noch am Anfang steht, zeigen auch die (noch regelmäßigen) Blogeinträge, die sich auf der Metaebene mit dem wissenschaftlichen Bloggen selbst befassen (nicht nur auf hypotheses.org sondern z.B. auch auf dem SOZBLOG (http://soziologie.de/blog/) der DGS). Die (Selbst-)Reflexion und (Selbst-)Verortung einer „community of practice“ (Wenger 1998) ist also augenblicklich (in Selbstbeobachtung) beobachtbar, was für die Würzburger auch das Hauptargument für einen praxisorientierten Workshop war.

Nicht relevant gesetzt wurde das Bloggen im Kontext der rezenten Publikations- bzw. „Zeitschriftenkrise“ (Hagendoff et al. 2007, 10) und den Veränderungen, die mit dem Open-Access-Paradigma auf die Wissenschaft zukommen und welche Rolle Weblogs in einem veränderten Publikations- bzw. Kommunikationsgefüge universitärer Wissenschaft einnehmen können oder gar sollten. Denn wenngleich Weblogs und auch die anderen Internetkommunikationsformen der Wissenschaft eigene Reputationssysteme (Klickzahlen, Kommentarquoten) hervorgebracht haben, stehen sie doch noch außerhalb der umfangreichen Rankingsysteme, die danach trachten, Forschungsleistung quantifizierend zu erfassen und vergleichbar zu machen und die damit die Forschung zunehmend rückkoppelnd beeinflussen (vgl. Kieser 2010, 355ff.). Vor diesem Hintergrund ist es nicht unbedeutend, die Frage zu stellen, wie erstrebenswert es wirklich ist, Weblogs ‚vollkommen‘ in die wissenschaftliche Publikationspraxis zu integrieren und ob Weblogs nicht gerade aufgrund ihrer spezifischen Außenseiterrolle in der Lage sein werden, produktive Impulse für die Forschung zu geben, die von Zeitschriftenartikeln – folgt man Kieser (ebd., 357f.) – bald nicht mehr zu erwarten sind.

Literatur

Bolter, Jay David/Gruisin, Richard (2000): Remediation. Understanding New Media. Cambridge, London: MIT Press.

Csiszar, Alex (2012): Serialität und die Suche nach Ordnung. Der wissenschaftliche Druck und seine Probleme während des späten 19. Jahrhunderts. In: Zeitschrift für Medienwissenschaft 2/7. S. 19–46.

Ehlich, Konrad (1993): Deutsch als fremde Wissenschaftssprache. In: Jahrbuch Deutsch als Fremdsprache 19. S. 13–42.

Ehlich, Konrad (2010): Desiderate der Wissenschaftssprachkomparatistik. In: Heller, Dorothee (Hg.): Deutsch, Italienisch und andere Wissenschaftssprachen – Schnittstellen ihrer Analyse. Frankfurt a.M. et al.: Lang. S. 15–32.

Foucault, Michel (1977): Die Ordnung des Diskurses. Inauguralvorlesung am Collège de France – 2. Dezember 1970. Frankfurt a. M., Berlin, Wien: Ullstein.

Graf, Klaus (2013): Vermitteln Blogs das Gefühl rastloser Masturbation? Eine Antwort auf Valentin Groebner. In: Redaktionsblog der deutschen Hypotheses.org vom 07.02.2013 (http://redaktionsblog.hypotheses.org/951). Abs. 1–12.

Groebner, Valentin (2013): Muss ich das lesen? Ja, das hier schon. Wissenschaftliches Publizieren im Netz und in der Überproduktionskrise. In: Frankfurter Allgemeine Zeitung (31) 06.02.2013. S. N5.

Hagendoff, Svenja/Seidenfaden, Lutz/Ortelbach, Björn/Schumann, Matthias (2009): Neue Formen der Wissenschaftskommunikation. Eine Fallstudienuntersuchung. Göttingen: Universitätsverlag.

Kieser, Alfred (2010): Unternehmen Wissenschaft? In: Leviathan 38. S. 347–367.

Luckmann, Thomas (1988): Kommunikative Gattungen im kommunikativen „Haushalt“ einer Gesellschaft. In: Smolka-Koerdt, Gisela/Spangenberg, Peter M./Tillmann-Bartylla, Dagmar (Hg.): Der Ursprung von Literatur. Medien, Rollen, Kommunikationssituationen zwischen 1450 und 1650. München: Fink. S. 279–288.

Meiler, Matthias (i.V.): Kommunikationsformenadressen oder: Prozeduren des Situationsvollzugs am Beispiel von Weblogs. In: Zeitschrift für Angewandte Linguistik (angenommen).

Kuhlen, Rainer/Brüning, Jochen (2006): Potenziale von Creative Commons-Lizenzen für Open Innovation. In: Stempfhuber, Maximilian (Hg.): In die Zukunft publizieren. Herausforderungen an das Publizieren und die Informationsversorgung in den Wissenschaften. 11. Kongress der IuK-Initiative der Wissenschaftlichen Fachgesellschaft in Deutschland. Bonn: Informationszentrum Sozialwissenschaften. S. 21–28.

Schmidt, Jan (2009): Weblogs: Formen und Konsequenzen ihrer Nutzung. In: Moraldo, Sandro (Hg.): Internet.kom. Neue Sprach- und Kommunikationsformen im World Wide Web. Band 1: Kommunikationsplattformen. Rom: Aracne. S. 157–180.

Stefanowitsch, Anatol (2011): Das Blog ist tot, es lebe der Blog. In: Sprachlog. Alle Sprachgewalt geht vom Volke aus. 25. August 2011 (http://www.scilogs.de/wblogs/blog/sprachlog/sprachgebrauch/2011-08-25/das-blog-ist-tot-es-lebe-der-blog). Abs. 1–17.

Wenger, Etienne (1998): Communities of Practice: Learning, Meaning, and Identity. Cambridge: Cambridge University Press.


[1] Zum Genus von Weblog/Blog siehe Stefanowitsch (2011).

Quelle: http://dhd-blog.org/?p=1565

Weiterlesen

2. Berliner Gespräche zur Digitalen Kunstgeschichte

Via Georg Schelbert:

Am 8. Mai  2013 finden die zweiten ‘Berliner Gespräche zur Digitalen Kunstgeschichte’ des Instituts für Kunst- und Bildgeschichte (IKB) der Humboldt-Universität zu Berlin statt.

Unter der Überschrift “Alles in Ordnung? Vokabulare und Klassifikationen” werden sich Vertreter aus Bibliotheken, von Bildarchiven und aus der Sammlungs- und Museumsforschung treffen und über den Einsatz von Klassifikationen, Fachsystematiken, Vokabularen austauschen. Ziel ist es, die Rolle von Fach- und Universalklassifikationen in einer sich immer stärker vernetzenden Informationswelt aus verschiedener Perspektive zu beleuchten und gemeinsame Handlungsoptionen zu entwickeln.

Diesmal ist das Platzangebot großzügig; zur Erleichterung der Organisation wird dennoch um eine kurze Anmeldung bei Georg Schelbert gebeten.

Termin: 8.5.2013, 10:00-16:30 Uhr
Ort: Humboldt Graduate School der Humboldt-Universität zu Berlin, Saal
Luisenstr. 56
D-10117 Berlin

Quelle: http://dhd-blog.org/?p=1534

Weiterlesen

Was Sie schon immer über “research technologists” wissen wollten und nie zu fragen wagten

Vom 11. bis 12. März fand am Corpus Christi College in Oxford ein Workshop zum Thema “Recognising Research Technologists in Research: an Action Plan” statt. Der Workshop wurde von JISC (UK) gemeinsam mit SURF (NL) und dem CSC (FIN) organisiert und fand im Rahmen des e-Infrastructure Policy Forums statt. Zwei kurze Tage lang diskutierten Wissenschaftler aus unterschiedlichen Disziplinen und europäischen Ländern darüber, was “research technologists” definiert, welche Rolle sie im Forschungsprozess insbesondere im Kontext der Digitalisierung haben, und wie man ihren Status und ihre Karrierepfade, ihre Ausbildung und ihre Anerkennung verbessern könnte. Einige Ergebnisse des Workshops sollen hier in Form von Frage & Antwort berichtet werden.

1. Was sind “research technologists” überhaupt?

Torsten Reimer, "Old Tunnel, New Light"

Licht am Ende des Tunnels? (Keller der Bodleian Library, Oxford) – Torsten Reimer, “Old Tunnel, New Light”. Mit freundlicher Genehmigung, all rights reserved, Quelle: http://www.flickr.com/photos/torstenreimer/8554250760/sizes/h/in/photostream/.

Der Begriff “research technologist” (je nach Kontext auch “scientific programmer” oder “data technologist” genannt) bezeichnet kurz gesagt eine Personengruppe, die technisch-informatische Kompetenzen und Lösungen in den wissenschaftlichen Forschungsprozess einbringt. Dabei kann man sie in einem Kontinuum verorten, das zwischen zwei Polen aufgespannt ist: auf der einen Seite die rein auf ihre disziplinäre Forschung fokussierten Wissenschaftler (von denen heute allerdings zumindest eine gewisse technische Expertise erwartet wird); auf der anderen Seite die reinen technischen oder informatischen Dienstleister, die generische Standard-Lösungen für bestimmte Probleme (wie Datenspeicherung, Datenmanagement, Retrieval-Lösungen, etc.) anbieten können. Zwischen diesen beiden Polen sind einereits, näher am wissenschaftlichen Pol, die “digital humanists” oder “e-scientists” angesiedelt, die zwar primär ihren eigenen Forschungszielen verpflichtet sind, diese Ziele aber unter Einsatz individuell angepasster technologischer Lösungen zu erreichen suchen; andererseits, und näher am technologischen Pol angesiedelt, gibt es eben die research technologists, die einen primär technisch-informatischen Hintergrund mit einem tieferen Verständnis für Forschungsfragen verbinden und die forschungsgetriebene, individuell angepasste technologische Lösungen entwickeln und umsetzen.

2. Warum sind “research technologists” wichtig?

Im Kontext der zunehmenden Digitalisierung des kulturellen Erbes in den Geisteswissenschaften, der evidenzbasierten Sozialwissenschaften und der datengetriebenen Naturwissenschaften ist innovative Forschung ohne spezifische technisch-informatische Kompetenzen, die über generische Standard-Lösungen hinaus gehen, kaum noch denkbar. Die Europäische Kommission und das eIPF haben jedenfalls formuliert, dass ohne eine gut aufgestellte community von research technologists wettbewerbsfähige Forschung in den nächsten Jahren und Jahrzehnten zunehmend schwieriger sein wird. Die Spezialisierung und Arbeitsteilung in der Wissenschaft macht es zunehmend unmöglich, dass ein/e einzelne/r Wissenschaftler/in alle im engeren Sinne forschungsgetriebenen und alle technologischen Aspekte seiner/ihrer Forschung selbst beherrschen, anpassen und neu entwickeln kann. Zugleich sind “research technologists” mit meist informatischem Hintergrund in der Industrie und dem Service-Sektor gefragte Arbeitskräfte, sodass es für die Wissenschaft oft schwierig ist, geeignete Mitarbeiter/innen zu finden und zu halten. Viele Projekte in den digitalen Geisteswissenschaften sind davon betroffen.

3. Warum ist der Status von research technologists derzeit problematisch?

Zur Zeit haben “research technologists” keinen klar definierten Status; den meisten Wissenschaftlern ist der Begriff selbst unbekannt. Da sie nicht selbst disziplinär verankerte Forschungsprojekte leiten oder eine solche Leitungsposition anstreben, steht ihnen anders als “normalen” Wissenschaftlern keine akademische Karriere offen. Da sie andererseits nicht zum festen Personal von Rechenzentren gehören, die überwiegend nicht für so forschungsnahe und projektgetriebene Forschungsprojekte zuständig sind, haben sie auch hier keine konkreten Aufstiegschancen. Weil sie überwiegend projektbasiert eingestellt werden, sind sie zumindestens in den Geistes- und Sozialwissenschaften häufig befristet und unsicher beschäftigt. Und weil sie zu oft als Dienstleister gesehen werden, und nicht als vollwertig am Forschungsprozess beteiligte, sind sie häufig nicht Ko-Autoren wissenschaftlicher Artikel über ihr Forschungsprojekt und bekommen demnach nicht einmal symbolisches akademisches Kapital für ihre Arbeit.

4. Was können verschiedene Akteure unternehmen?

Es wurden verschiedenste Lösungsansätze diskutiert, vier davon scheinen mit aber besonders wichtig. Erstens sollte der genuine, forschungsorientierte Beitrag, den “research technologists” zum Forschungsprozess beitragen dadurch gewürdigt werden, dass sie mit Bezug auf ihre Gehaltsstufe als Wissenschaftler eingestuft werden oder zumindest besser gestellt werden, als dies derzeit oft der Fall ist. Zweitens und kurzfristig sollten sie aus dem gleichen Grund am Verfassen und Publizieren von wissenschaftlichen Artikeln beteiligt werden, was möglicherweise die Inhalte ebenso beeinflussen würde wie die geeigneten Publikationsorte. Drittens und mittelfristig sollten veränderte Publikationsgewohnheiten es “research technologists” erlauben, durch die Publikation von Tools und Code ebenfalls “academic credit” zu erwerben. Viertens (und das scheint mir der Bereich zu sein, wo am deutlichsten eine win-win-Situation hergestellt werden könnte), sollten an den Universitäten idealerweise auf Fakultätsebene “Research Technology Centers” oder “Digitale Forschungszentren” eingerichtet werden, die “research technologists” dauerhaft eingerichtete Stellen anbieten können. Das würde den RTs eine dauerhafte Perspektive eröffnen und es Projekten zugleich erlauben, zeitweise und flexibel Expertise ins Projekt zu holen, ohne dass die RTs nach Abschluss des Projekts auf der Straße stehen, und ohne dass der Universität wertvolle Expertise verloren geht.

Klar wird auf jeden Fall, dass die Entwicklung in der Forschungspraxis nicht haltmacht, während die kulturellen und institutionellen Gegebenheiten nur langsam reagieren. Hier sind in der Tat individuelle Forscher/innen ebenso gefragt wie Entscheider/innen auf institutioneller Ebene! Auch Input aus der Community ist hier gerne gefragt: Welche (vielleicht abweichende) Erfahrungen haben Sie in Ihren Projekten mit “research technologists” gemacht? Sind Sie vielleicht selbst eine/r? Was sehen Sie als dringlichste Probleme?

Quelle: http://dhd-blog.org/?p=1487

Weiterlesen

Deutscher Bundestag: Kleine Anfrage zur Mustererkennung

In einer Presseaussendung des Deutschen Bundestags (“Linke legt Kleine Anfrage zur Mustererkennung vor”) wird von einer aktuellen Kleinen Anfrage der Partei Die Linke berichtet. In der Kleinen AnfrageForschungen zum Einsatz automatisierter Mustererkennung und Biometrie zum Aufspüren von sogenanntem bedrohlichem Verhalten“ werden in einem umfangreichen 48-Punkte-Fragenkatalog die von der deutschen Bundesregierung geförderten Verbundprojekte im Bereich der “Mustererkennung” kritisch hinterfragt. Ich bin schon sehr auf die Beantwortung gespannt!

Quelle: http://www.univie.ac.at/identifizierung/php/?p=5403

Weiterlesen

Publikation “Leitfaden zum Forschungsdaten-Management”

Die aus dem interdisziplinären WissGrid-Projekt entstandene Publikation “Leitfaden zum Forschungsdaten-Management” ist nun analog und digital erhältlich.

Digitale Forschungsdaten sind eine unverzichtbare Grundlage moderner Wissenschaft. Mit ihnen sind aber eine Reihe von notwendigen Datenmanagement-Aufgaben verbunden, damit sie in der aktiven Forschung bestmöglich eingesetzt werden können.

Der Leitfaden zum Forschungsdaten-Management stellt eine Checkliste und Anleitung bereit, um die wichtigsten Aufgaben und Fragen im Forschungsdaten-Management strukturiert zu beantworten und dessen Umsetzung effizient zu planen.

Die editierte Version ist analog im Verlag Werner Hülsbusch unter http://www.vwh-verlag.de/vwh/?p=814 erhältlich sowie open access und digital unter http://www.wissgrid.de/publikationen/Leitfaden_Data-Management-WissGrid.pdf verfügbar. Die nicht-editierten Versionen der WissGrid-Ergebnisse stehen auch weiterhin auf der Projekt-Homepage bereit.

Quelle: http://dhd-blog.org/?p=1477

Weiterlesen

“Digital Humanities: Neue Herausforderungen für den Forschungsplatz Schweiz” (CfP)

Am 28. und 29. November 2013 findet an der Schweizerischen Akademie der Geistes- und Sozialwissenschaften (SAGW) die Tagung „Digital Humanities: Neue Herausforderungen für den Forschungsplatz Schweiz“ statt. Damit sollen Austausch und Vernetzung gefördert und aktuelle Projekte bekannt gemacht werden.

Der CfP spezifiziert folgende Themen:

• Computerbasierte Forschung in geisteswissenschaftlichen Disziplinen (z.B. Dissertationsprojekte)
• Data mining in den DH
• Informationsdesign
• Software best practices (nicht kommerziell)
• Best practices in data curation
• Methodische oder epistemologische Studien zum digitalen Wandel in den Geisteswissenschaften
• Sicherung digitaler Forschungsresultate
• Aspekte grösserer Forschungsprojekte in den DH (Forschungsinfrastrukturen) etc.

Deadline für Abstracts ist der 26.04.2013.

Weitere Infos: http://www.infoclio.ch/de/node/31005 .

Quelle: http://dhd-blog.org/?p=1465

Weiterlesen

Ein Jahr „Netz und Werk“ – Geschichtswissenschaft zwischen E-Journal und Blogosphäre

  Telse Först und Anton F. Guhl Vor einem Jahr, zum Februar 2012, ging „Netz und Werk“ als einer der Gründungsblogs des deutschsprachigen Hypotheses-Netzwerkes online. Inzwischen sind zwölf Artikel gepostet. In der Spitze haben über 900 verschiedene Besucher bis zu 14.000 … Weiterlesen    

Quelle: http://netzwerk.hypotheses.org/1686

Weiterlesen

Neue BMBF-Förderlinie “E-Humanities”

Es ist soweit: Am gestrigen Montag hat das BMBF nun die neue E-Humanities-Förderlinie bekanntgegeben. Ziel ist der Ausbau institutioneller und personeller Kapazitäten im Bereich der E-Humanities an Hochschulen und außeruniversitären Forschungseinrichtungen in Deutschland.

Gefördert werden zum einen Nachwuchsgruppen an Hochschulen und außeruniversitären Forschungseinrichtungen gefördert, zum anderen aber auch Zentren an deutschen Hochschulen und außeruniversitären Forschungseinrichtungen, die “entweder in einem bestimmten Fachgebiet oder fachgebietsübergreifend in besonderer Weise die E-Humanities in inhaltlicher und methodischer Hinsicht weiterentwickeln. Beide Förderlinien können in einem Vorhaben verknüpft werden, eine Verknüpfung ist aber nicht zwingend.”

Wie bereits im Rahmen des e-Hum-Calls von 2011 sollen bereits bestehende Infrastrukturen z.B. von TextGrid, D-Spin oder DOBES und insbesondere die der ESFRI-Projekte DARIAH und CLARIN genutzt werden bzw. deren Ergebnisse in diese Infrastrukturprojekte eingebracht werden.

Weitere Infos:

http://www.bmbf.de/foerderungen/21126.php

oder im Amtlichen Teil des Bundesanzeigers: https://www.bundesanzeiger.de/old/banz/banzinha/aktuell.htm.

Quelle: http://dhd-blog.org/?p=1236

Weiterlesen

Mal wieder und immer noch: Digitized vs. Digital

NeDiMAH, das „Network for Digital Methods in the Arts and Humanities“ enthält unter anderen eine Arbeitsgruppe zu „Scholarly Digital Editions“. Die erste Veranstaltung (ein „Expert Meeting and Workshop“) zu diesem Themenkomplex hatte laut Call einen Schwerpunkt in der definitorischen Grundfrage: Was ist eigentlich eine „digitale Edition“?

Nachdem ich mich mit dieser Frage nun auch schon seit 15 Jahren beschäftige, sie in meiner Dissertation einigermaßen länglich ausgewalzt habe und meine eigene Definition Grundlage meines Katalogs digitaler Editionen ist, war ich froh, sie nun auch einmal im Expertenkreis zur Diskussion stellen zu können.

Die Präsentation zum Vortrag findet man als und bei prezi, ich fasse sie hier nicht noch einmal zusammen. Nur ein Punkt, der eigentlich ein Nebenaspekt ist, soll hier aufgegriffen werden, weil ich mich frage, ob diese Diskussion nicht auch in anderen Bereichen der Digital Humanities produktiv geführt wird oder werden kann  und insofern keine Digitale-Editionen-Spezialdiskussion ist:

Offensichtlich wird die Digitale Edition sinnvollerweise im Aufgreifen der traditionellen Editorik definiert. Und dann in Abgrenzung zu ihr. Hier entsteht aber ein Problem: wenn eine gedruckte Edition einfach digitalisiert wird, müsste man dann nicht von einer digitalen Edition sprechen? Der normale Gebrauch der deutschen Sprache legt dies zunächst nahe. Es ist geradezu schwierig, dem folgenden Satz wiedersprechen zu wollen: „Eine digitalisierte Edition ist eine digitale Edition“. Trotzdem muss es getan werden und müssen wir akademischen Klugscheißer der allgemeinen Sprachlogik wohl ein wenig Gewalt antun Widerstand leisten. Denn wie ich andernorts schon ausgeführt habe, liegt der Kern der Wandlungen in der Editorik (und den Geisteswissenschaften insgesamt?) nicht in einem Wandel der Werkzeuge und Medien – sondern in einer Bewegung hin zur Transmedialisierung. Dies führt dazu, dass die mediale Präsentation – ob im Buchdruck oder digital – nicht „wesentlich“ ist. Das wiederum bedeutet, dass eine „digitale Edition“ nicht einfach dadurch definiert ist, dass sie digital vorliegt. Das Digitale ist eine notwendige, aber keine hinreichende Bedingung. Es entsteht das quasi-definitorische Statement:

„Eine digitalisierte Edition ist (noch lange) keine digitale Edition.“

Dies ist das Gegenstück zu dem positiven Definitionsbaustein aus der gegensätzlichen Richtung:

„Eine digitale Edition kann nicht ohne substanzielle Verluste an Inhalten oder Funktionalitäten gedruckt werden.“


Diese Definition ist zunächst gut, weil sie die Spezifika der digitalen Edition in den Vordergrund stellt. Leider ist sie nicht besonders scharf, weil man sich lange darüber wird streiten können, was „substanziell“ ist. Der Ansatz wurde in der Diskussion dann auch an genau diesem Punkt hinterfragt: Bieten nicht schon digitalisierte Editionen einen funktionalen Mehrwert, wenn man sie z.B. per Knopfdruck durchsuchen kann? Hm, ja, offensichtlich muss es eine Schwelle geben, die überschritten werden muss, um davon reden zu können, dass es sich bei digitalen Editionen um „andere“ Editionen handelt, als die gedruckten Editionen wie wir sie kennen. Diese Schwelle brauchen wir auch deshalb, weil digitale Editionen aus digitalisierten Editionen sehr wohl „herauswachsen“ können. Viele digitale Editionen beginnen mit der Digitalisierung bereits gedruckt vorliegender Editionen. Ab einer bestimmten Ausbau- und Umbaustufe wird man sie dann aber doch als „digitale Editionen“ bezeichnen wollen. Diese Schwelle ist zunächst – wie oben angedeutet – durch Inhalte und Funktionen bestimmt. Hinter dem begrifflichen Wechsel und hinter der Beschreibung von Eigenschaften muss aber letztlich ein konzeptioneller Unterschied stehen. Die digitale Edition ist durch ein eigenes Theoriegebäude und durch eine eigene Methodik bestimmt. Sie folgt einem „digitalen Paradigma“, zu dem eben Konzepte wie Transmedialisierung, abstrakte Modellierung, Daten-Orientierung, Multitext, Prozesshaftigkeit, Transparenz, besere Zugänglichkeit oder vielleicht auch Soziabilität gehören. Wenn ich die Stimmung in der Diskussion richtig gedeutet habe, scheint das auch weitgehend unterstützt zu werden. Zum einen wurde (von, ich glaube, Roberto Rosselli del Turco) einmal mehr darauf hingewiesen, dass ja heute alle Editionen mit digitalen Werkzeugen erstellt würden, man deshalb auch von „digital born printed editions“ sprechen könne, dies aber eben auch noch lange keine digitalen Editionen ausmachen würde. Zum anderen betonte die gewohnt klarsichtige Elena Pierazzo, dass wir digitale Editionen deshalb machen, weil wir andere Gegenstände erschließen und andere Zielstellungen (z.B. in der Repräsentation der Textgenetik) verfolgen wollen. Deshalb könne es nicht darum gehen, bessere Editionen in der Tradition des Buchdrucks zu machen  – selbst dann nicht, wenn man dazu die besten digitalen Mittel einsetzen würde. Man sei schließlich an Dingen interessiert, die im Druck nicht nur nicht möglich sind, sondern in der Druckkultur noch nicht einmal denkbar waren.

Das ist eine klare, aber radikale Position, die wohl nicht von allen geteilt werden würde. Schließlich gibt es daneben auch viele, die betonen würden, dass es sehr wohl auch um die (bessere) Edition von Materalien geht, die man immer schon edieren wollte und um die dabei jetzt anzuwendenden besseren Methoden und Werkzeuge. Aus dieser Perspektive bleibt es schwierig, ein klares Kriterium zu finden, an dem sich die digitalisierte oder bloß irgendwie in digitaler Form vorliegende Edition von der „wirklich“ digitalen Edition unterscheidet.

Die terminologische Trennung scheint übrigens auch auf der internationalen Ebene zu funktionieren: Digitized is not digital. Es gibt zwar auch noch das Wort „digitalized“, aber das scheint (wenn es nicht nur ein furchtbarer Germanismus oder ein einfaches Synonym zu „digitized“ ist) etwas (und zwar verschiedenes) Anderes zu bedeuten.  Nämlich u.a. eine allgemeinere Durchdringung von Wissenschaft und Welt durch die Prinzipien des Digitalen und nicht so sehr das Digital-Werden von bestimmten „Dingen“ oder Informationen. Zuletzt ist „digitalized“ auch in den Digital Humanities auf einem Buchtitel aufgetaucht, nicht aber in dem betreffenden Buch selbst – so dass auch hier weiterhin unklar bleibt, was es denn genau für unseren Fragenkreis bedeuten und beitragen könnte.

Was das Phänomen „eine digitalisierte Edition ist keine digitale Edition“ in seiner sprachlogischen Problematik betrifft, so hätte ich gerne Analogien aus bisherigen Wortentwicklungen. Es müsste so etwas sein wie „ein befreiter Mensch ist kein freier Mensch“ (nur mit mehr Sinn!). Hat jemand ein besseres Beispiel?

Quelle: http://dhd-blog.org/?p=1122

Weiterlesen

Rezensieren als Prozess – Vom Ende des Einautorprinzips. Oder: Lobo und recensio.net

  In seiner jüngsten Kolumne führt Sascha Lobo das mit der Insolvenz der FR soeben manifest gewordene Zeitungssterben auf einen generellen Rezeptionswandel zurück. Seine Theorie ist spannend und leuchtet unmittelbar ein (wobei ebendies immer die Ahnung nährt, dass eine Sache ganz so einfach denn doch nicht zu fassen sein wird, aber wohl das berühmte Körnchen Wahrheit transportiert). Laut Lobo befinden wir uns mitten in einer „sich selbst prozessualisierenden“ Gesellschaft. An die Stelle von Ergebnissen, etwa in Form von Artikeln, Büchern o.ä. tritt der öffentlich gemachte Entscheidungs- und Entwicklungsprozess. Informationen verflüssigen sich, weil sie vor ihrer Publikation in keine Form mehr gegossen werden und fragmenthaft bleiben. Mikroblogging wird zum flexibelsten aller Nachrichtenkanäle: Wenn es politisch ernst wird, verlässt man sich auf Twitter. Dabei ist der Trend zur Prozessualisierung nicht neu: Früher sorgte das Aufkommen der Tageszeitungen für einen Quantensprung; Artikel konnten binnen 24 Stunden vor aller Augen beantwortet werden. Das Tempo digitaler Medien aber ist schlichtweg nicht mehr steigerbar – also stellt sich das System um. Nachrichten und Diskussionen werden zum Puzzle – und alle puzzeln mit. Veränderte Produktionsgewohnheiten ändern Rezeptionsgewohnheiten und vice versa – am Ende der Kette stehen die Kaufgewohnheiten. Soweit Lobos Kolumne, sehr frei zusammengefasst. Ich würde anfügen wollen, dass die beschriebene Entwicklung durch schwindendes Vertrauen in den „Experten“ beschleunigt wird. In den einen also, der ein Thema in einem dramaturgisch runden Artikel zur Gänze erfasst und zu objektivieren versteht. „Das Ende der Momentaufnahme“ stehe bevor, schreibt Lobo, und es lässt sich eventuell ergänzen, dass sich das nicht nur auf die zeitliche Dimension und das eben nicht mehr steigerbare Tempo bezieht, sondern auch auf die zwangsläufige Ausschnitthaftigkeit und Subjektivität des Einautorprinzips, dessen Akzeptanz schleichend zu Ende geht. Vorausgesetzt ist eine erhöhte Partizipationsbereitschaft beim Einzelnen, denn eine Synthese zu bilden aus all den verfügbaren Fragmenten, liegt anders als früher bei ihm, und je mehr das so ist, desto mehr wächst die Skepsis vor apodiktischen Aussagen (von Politikern, von Wissenschaftlern, vom Nachbarn). Spannend finde ich für unseren Zusammenhang – die Geisteswissenschaften im Allgemeinen und die RKB-Tagung im Speziellen – die Übertragbarkeit auf das Konzept von recensio.net. Fast kam in mir das Gefühl auf, endlich eine Erklärung für unsere vor Jahren gefällte Entscheidung zu haben. Die Entscheidung nämlich, die bislang meistenteils eindimensionale (geschichts-)wissenschaftliche Buchrezension aufzubrechen: Das Web 2.0-Konzept von recensio.net versucht, ergänzend zur klassischen Rezension ein kommentarbasiertes, „lebendiges“ Rezensionsverfahren in die Wissenschaft zu tragen. Das ist nichts anderes als die Prozessualisierung eines bislang statischen Textgenres, dem seine Statik von der Alternativlosigkeit des Papiers in die Wiege gelegt wurde, denn methodisch betrachtet ist wohl kaum ein anderes wissenschaftliches Textgenre so gut geeignet für Fragmentisierung und Prozessualisierung wie die Rezension: Ziel ist Meinungsbildung und  -austausch über Fachliteratur. Kommentare sind in diesem Fall nicht ergänzender Teil des Bewertungsverfahrens, sie SIND das Bewertungsverfahren, ganz in Lobos Sinne, der eben nicht die Kommentarspalte unter dem weiterhin klassischen Artikel als Ausdruck von Prozessualisierung sieht, sondern den Live-Ticker, der den Artikel ersetzt. Und noch viel weniger als bei Blogs scheint mir dabei die Kommentarfrequenz entscheidend, die hier zuletzt angeregt diskutiert wurde – als Qualität und Intention des Kommentars.  Geht es doch weniger darum, per Kommentar das Gegenüber von der eigenen Meinung zu überzeugen, als die eigene Meinung in ein im besten Sinne demokratisches Kaleidoskop einander ergänzender Meinungen einzufügen. Und das Ganze reiht sich dann ein in die gesamtgesellschaftliche Neigung zur Prozessualisierung… Wieder Diskussionsstoff für Panel 3 der RKB-Tagung. Anmeldung läuft!    

Quelle: http://rkb.hypotheses.org/349

Weiterlesen