Und wieder ein Manifest

Jede Menge Wünschenswertes steht im Young Researchers in Digital Humanities: A Manifesto, das Anfang Juni 2013 beim internationalem Kolloqium “Research Conditions and Digital Humanities: What are the Prospects for the Next Generation?” am DHI in Paris entstanden ist. Wer den Inhalten folgt und sich unter dem vertraut anmutendem Slogan “Yes we digital!” wiederfindet, mag es per Kommentar daselbst zeichnen.

Zum Manifest und zum Hintergrund

Quelle: http://dhd-blog.org/?p=1935

Weiterlesen

Die FAZ zu den Erwartungen an die “Labore der digitalen Geisteswissenschaften”

Im Wissenschaftsteil der heutigen Ausgabe der Frankfurter Allgemeinen Zeitung referiert Moritz Neuffer einige Einsichten der Tagung Collecting Ideas – The Idea of Collecting, die vom 16. bis zum 18. Mai im Literaturarchiv im Marbach stattfand. Er stellt dabei unter anderem auch eine Rolle der Digitalen Geisteswissenschaften heraus:

“Wo Bestände nicht aus der Ferne sichtbar, die Wege ins Archiv weit und teuer sind, werden Zugänge versperrt. Entsprechend hoch sind die Erwartungen an Digitalisierungsprozesse und die Schaffung von neuen Zugangspfaden, wie sie derzeit in den Laboren der digitalen Geisteswissenschaften entwickelt werden.”

Wir befinden uns dabei eindeutig auf der Ebene der Bestandsvermittlung bzw. der Entwicklung von Zugängen über digitale Kanäle. Diese Eröffnung (und die damit verbundene Transformation) der Bestände wirkt, wie Moritz Neuffer anhand eines Tagungsbeitrags von Ronald Schuchard herausstellt, nicht etwa als Substitut für die materiellen Originale sondern weckt vielmehr – jedenfalls nach den geschilderten Erfahrungen – “einen Hunger nach der Präsenzerfahrung von und mit den Quellen.” Die Aura des Originals könnte folglich entgegen mancher gegenteiliger Erwartungen angesichts seiner digitalen Verwandelbarkeit wenigstens als zeitstabil erweisen.

Zu durchdenken bleibt hier weniger das ob und auch nicht so sehr das wie, sondern tatsächlich das Spannungsverhältnis von Medialität, Materialität und der damit verbundenen Lesbarkeit dessen, was in den Infrastrukturen und Analysewerkzeugen der Digitalen Geisteswissenschaften verarbeitet wird. Dazu zählt übrigens auch eine Metareflektion der Bedingungen des Zustandekommens dieser Werkzeuge und Kanäle.

Paraphrasiert Moritz Neuffer den Diskutanten On Barak mit der Aussage:

“Wo sammelnde Institutionen Wissen und kulturelle Erzählungen produzierten, sei es politisch geboten, diese Produktionsverfahren offenzulegen.”

so gilt dies gleichwohl für die Strukturen, die aus dem Digital-Humanities-Umfeld für die geisteswissenschaftliche Arbeit entwickelt werden. Die Festlegung eines Zugangspfades bedeutet unvermeidlich eine Eingrenzung unter bestimmten Bedingungen und lenkt damit die Zugänglichkeit. Für die, die diese Pfade benutzen, ist es ungemein wichtig, zu wissen, was sie auf diesen erreichen können. Und womöglich sogar noch wichtiger, zu wissen, was nicht. Die Aufgabe einer entsprechend spezialisierten STS-Forschung (Science, Technology and Society) liegt aus meiner Aussicht genau darin, diese Offenlegung der Bedingungen hinter den digitalen Zugängen und Werkzeugen als eine Art Begleittext vorzunehmen.

Quelle: Moritz Neuffer: Die guten ins Töpfchen und die schlechten – in ein anderes. In: Frankfurter Allgemeine Zeitung, 05.06.2013, S. N5

Berlin, 05.06.2013 / @bkaden

Quelle: http://dhd-blog.org/?p=1810

Weiterlesen

Praxen wissenschaftlichen Bloggens – ein Metabericht zum Workshop „Wissenschaftliches Bloggen in Deutschland: Geschichte, Perspektiven, praktische Umsetzung“ am 11.04.2013 an der Julius-Maximilians-Universität Würzburg

Gefördert vom Universitätsbund der Universität Würzburg richteten Katrin Betz und Dr. Christof Schöch vom Würzburger Lehrstuhl für Computerphilologie einen betont praxisorientierten Workshop zum kulturwissenschaftlichen Bloggen in Deutschland aus (Twitter: #dehypo). Der Workshop gliederte sich in drei Teile: (A) konzeptionelle Überlegungen, (B) Erfahrungsberichte aus der Praxis und (C) eine praktische Einführung in die deutsche Hypotheses-Plattform (de.hypotheses.org), die nach französischem Vorbild seit März 2012 mittlerweile schon über 80 Weblogs deutscher Wissenschaftler einen Raum bietet: Tendenz steigend.

A

Nach einer Begrüßung der ca. 25 TeilnehmerInnen aus ganz Deutschland, die zu einer großen Zahl Nachwuchswissenschaftlerinnen waren (was der Weblogdemografie korrespondiert; vgl. Schmidt 2009), machte der Literaturwissenschaftler Dr. Christof Schöch (Würzburg, http://dragonfly.hypotheses.org, Mitglied der de.hypotheses.org-Redaktion) den Auftakt, mit Wissenschaftliches Bloggen im Kontext digitaler Publikationsmedien im Dreischritt einige konzeptionelle Überlegungen zur Einführung in den Workshop vorzulegen: Dabei verortete er Weblogs (1) im Rahmen aktueller „web-basierter Medien der Publikation und Kommunikation“, (2) im Rahmen der „Entwicklung digitaler Medien“ und (3) im Hinblick auf die „Interaktion mit anderen Medien“ im Internet.

(1) Im Versuch einer systematischen Perspektive stellte Schöch vor allem Unterschiede zwischen Internetkommunikationsformen und klassischen Kommunikationsformen (der Wissenschaft) aus dem Printbereich anhand sieben Punkten gegenüber: Im Internet (i) sei naturgemäß freie Zugänglichkeit gewährleistet, also eine nicht ökonomisch motivierte Kommunikationspraxis zu finden (Stichwort: Open Access). Ebenso (ii) sei eine schnelle Publikations- und Aktualisierungsmöglichkeit gegeben, die nicht nur eine beständige Veränderbarkeit sondern auch eine beständige Entwicklungsmöglichkeit böte. Hinzu kommt, dass (iii) klassische institutionelle Intermediäre wie Verlage und Universitäten entfielen, diese Unabhängigkeit sich aber gerade aufgrund der unterschiedlichen Ansprüche wissenschaftsinterner Kommunikation an institutionelle Intermediatoren nicht vollständig realisieren könne und daher andere an deren Stelle treten (Stichwort: Aufmerksamkeit, Archivierung, Zitierbarkeit). Ein (iv) kollaboratives, ortsungebundenes (Zusammen-)Arbeiten werde ermöglicht und mache im wissenschaftlichen Diskurs neue Kommunikations- und Wissensqualitäten sichtbar. Das (v) Verhältnis zu Vorgängermedien stelle sich als komplex dar, da es keine eindeutigen Vorläufer zu wissenschaftlichen Weblogs gebe: Ein komplexes Remediationsgefüge (vgl. Bolter/Grusin 2000) im Anlehnungs- und Ablösungsverhalten kennzeichne daher die Gattungen wissenschaftlichen Schreibens in Weblogs (noch). Bei den klassischen Publikationswegen sind feste Ökonomien der Qualitätskontrolle und der sog. Impact-Erhebung vorhanden: Weblogs haben hier ihre eigenen Ordnungs- und Kontrollmechanismen entwickelt, die anstatt auf eine vorgängige Selektion der Inhalte, auf eine der Publikation nachgeordnete Selektion durch den ‚Schwarm‘ setze. Damit werde auch eine veränderte Aufmerksamkeitsökonomie des Lesers nötig, die wiederum softwareseitig sehr präzise quantifizierbar ist. Schließlich entwarf Schöch im Punkt (vii) eine Typologie entlang der zwei Kontinua monologisch—dialogisch und objektzentriert—subjektzentriert: In diesem Koordinatensystem stellt er Weblogs im Vergleich zu anderen Internetkommunikationsformen als Hybride heraus, die eine Qualität herausgebildet haben, die im Spektrum webbasierter Medien noch nicht besetzt gewesen sei und auch offline keine Vorläufer habe.

(2) In der historischen Perspektive stellt er heraus, dass die frühen digital-vernetzten Kommunikationsformen dialogische Formen waren (E-Mail, Mailingliste, Diskussionsforen), die seit 1989 mit dem http- und html-gestützten World Wide Web erst einmal durch statisch-monologische Kommunikationsformen ergänzt wurden (Website, Homepage, Online-Journal), bevor im Rahmen dessen, was heute als Internetmedialität gefasst werden könnte, dialogische Kommunikation möglich wurde. Als Wegsteine dieser Kommunikationsformengeschichte können für die Wissenschaft genannt werden: 1987 wissenschaftliche Mailingliste, 1990 wissenschaftliches Online-Journal, 2003 wissenschaftlicher Weblog Hosting Service, 2008 wissenschaftliche Social Network Site.

(3) Mit Blick auf die Vernetzung der webbasierten Medien der Wissenschaft folgert Schöch gerade aufgrund der oben diagnostizierten Hybridität von Weblogs eine hohe Anschlussfähigkeit zu anderen wissenschaftlich genutzten Kommunikationsformen wie Twitter, Diskussionsforen, Social Network Sites, Homepages und Online Journals. Sie alle treten – außer vielleicht die wissenschaftlichen Zeitschriften – in ein (verlinkendes und thematisierendes) Wechselverhältnis zu Weblogs, das ihre und die Sichtbarkeit der gesamten wissenschaftlichen Blogosphäre gewährleistet. Sein Fazit: „Erst diese Einbindung macht den Blog lebendig!“ In der noch zurückhaltenden Beziehung zu Online Journals wiederum wird die noch problematische Stellung von Weblogs im Feld der internen Wissenschaftskommunikation deutlich.

Weblogs – könnte man mit Schöch abschließend resümieren – fügen sich aber zunehmend in die Publikations- und Kommunikationspraxis der wissenschaftlichen Diskursordnung ein (vgl. Foucault 1977) und haben so – folgt man den aktuellen Entwicklungen in der Wissenschaftskommunikation – ganz automatisch auch einen eminenten Anteil an der Bildung der akademischen Identität der bloggenden Wissenschaftler.

Die anschließende Diskussion verglich wissenschaftliche Homepages mit wissenschaftlichen Weblogs und wog ihre Vor-/Nachteile und Zukunftsträchtigkeit ab. Sebastian Gießmann stellte dabei heraus, wie die statische ‚Raumordnung‘ von Homepages und die dynamische ‚Zeitordnung‘ von Weblogs wahrscheinlicher zur einer ergänzenden Konvergenz führen würden als zu einer vollkommenen Verdrängung von Homepages. Mit dem Verweis auf die Zeitordnung ist m.E. auch die wesentliche Bestimmungsstruktur periodischer Aktualisierung erkannt (vgl. Meiler i.V.), die Weblogs allgemein mit einer ganzen Reihe sowohl Online- wie auch Offline-Kommunikationsformen verwandt erscheinen lässt: nicht zuletzt auch zu wissenschaftlichen Zeitschriften, denen übrigens anfangs von der wissenschaftlichen Community eine vergleichbare Skepsis entgegengebracht wurde (vgl. Csiszar 2012).

B

Die Literatur- und Editionswissenschaftlerin Dr. Anne Baillot (Berlin, http://digitalintellectuals.hypotheses.org) stellte in ihrem Vortrag Projektbegleitendes Bloggen – eine neue Art der Mäeutik? die Veränderungen in ihrer Bloggingpraxis anhand des Blogs vor, der die Arbeit an einem Projekt zur Erstellung digitaler Editionen begleitete und reflektierte dabei Motivation, Form und Funktion der Beiträge. Dabei zeichnete sie nach, wie sich der primäre Gattungszuschnitt ihres Blogs wandelte von einer Visitenkarte über ein Archiv der eigenen Arbeit und eine Projektpräsentation zur begleitenden Berichterstattung zum akademischen und universitären Betrieb samt seiner Highlights und Tücken. Thematisch wurden dabei vor allem auch die Leserschaft und deren erwartbare Erwartungen, die ihren Schreibprozess bzw. das Redigieren vor dem Posten nicht unerheblich steuerten: In dieser antizipierten Vorwegnahme von Kritik und dem kommunikativen Umgang damit wird die Typik wissenschaftlichen Schreibens produktionsseitig deutlich, die das wissenschaftliche Streitgeschäft – von Ehlich (1993) „Eristik“ getauft – wesentlich prägt. Ebenso in die Figuration der Leserschaft ging die Entscheidung für das Englische als hauptsächliche Blog-Sprache ein, um damit eine möglichst große Community zu adressieren. Gleichzeitig sprach Baillot die Schranken und Probleme einer fremdsprachlichen Wissenschaftskommunikation an und ihr nur folgerichtiges Switchen in eine ihrer beiden primären Sprachen ist ein ideales Beispiel für eine notwendig zu praktizierende Mehrsprachigkeit in den europäischen Wissenschaften (vgl. Ehlich 2010, 30).

Stilistisch empfiehlt sie ‚lieber viel und kurz als wenig und lang‘ zu bloggen und dabei persönliche und sachliche Darstellungen abzuwechseln. Ebenso schätze sie ein ergebnisoffenes, essayistisches Schreiben, das den Blog zu einem Versuchsraum und damit zum titelgebenden mäeutischen Reflexionswerkzeug mache. Mit ihrem Konzept von der in den Alltag integrierten Bloggingpraxis, die als das beschriebene Reflexionsmittel alle Prozesse universitären Handelns flexibel begleiten könne, spricht sie sich resümierend für das Plädoyer „Bloggen im Jetzt für ein unbekanntes Später“ aus.

Die Kunstwissenschaftlerin Sabine Scherz (München, http://games.hypotheses.org) widmete sich in ihrem Erfahrungsbericht Das Blog[1] als ständiger Begleiter – wie schaffe ich Qualität und Kontinuität? den Fragen: Warum, worüber, wie, mit wem und was bloggen? Dabei betonte sie, wie produktiv ihre Blogbeiträge wie eine „Kladde“ ihr Dissertationsprojekt begleiten, indem sie darin Gedanken sammelt und Einarbeitungen in Themen quasi als Arbeitsnachweise einerseits für sich dokumentiert und andererseits als Experte in einem lockeren, ungezwungenen Stil für andere aufarbeiten kann. Dabei stellte sie vor allem praktische Hinweise wie Themenfindungs- und Strukturierungstechniken und auch Hinweise zur sukzessiven Stilfindung vor, die das Bloggen zur regelmäßigen Schreibübung machen können. Die Bedürfnisse der (adressierten) Leserschaft nicht aus den Augen zu verlieren, erachtet sie dabei als Schlüssel zu einem funktionierenden Weblog: Informativität und Zeitersparnis seien die wesentlichen Argumente, die einen Blogleser am Ball halten können. So wendet sie die weblogkritische Frage „Muss ich das lesen?“ (Groebner 2013) gerade gegen den „Buch-Fetischisten“ Valentin Groebner (Graf 2013, 12).

Auch Scherz betont den Gemeinschaftsaspekt des Bloggings, der nicht nur in medialer Vernetzung sondern ebenso in wechselseitigem Bloglesen und Blogkommentieren, also kommunikativer Vernetzung besteht und darüber die Aufmerksamkeit von Lesern bindet und so über den Erfolg des Weblogs entscheidet. Gerade auch damit weist sie auf die karriereförderliche Möglichkeit hin, eine digitale wissenschaftliche Identität aufzubauen, das aber umsichtig d.h. ‚authentisch‘.

Die abschließende titelgebende Frage nach der Qualität und Kontinuität des Bloggens beantwortete sie mit dem Schlüsselwort Motivation, die durch die Anerkennung der Community und durch die Bloggingpraxis selbst als ständiger Begleiter im Hinterkopf von ganz allein geschürt würde. In der Diskussion wurde auf diese Praxis wissenschaftlicher Tätigkeit als eine Möglichkeit hingewiesen, die noch vor den klassischen Kommunikationsformen (Vortrag, Zeitschrift) dem wissenschaftlichen Nachwuchs zu (inter-)disziplinärer Sichtbarkeiten verhelfen könne, die zudem eingeschränkt quantifiziert werden kann. Ebenso wurden die Ästhetiken des Bloggens angesprochen, die maßgeblich durch z.B. WordPress’ Möglichkeiten und Einschränkungen für Varietät und damit auch Identität im Design bestimmt sind. Eine veränderte forschende Wissens- und Welt-Aisthetisierung scheine zudem im wissenschaftlichen Weblog auf: Im Vergleich zu Printpublikationen können Daten z.B. in Form von vollständigen Digitalisaten direkt im Weblog sichtbar gemacht werden.

Der Sprachwissenschaftler Prof. Martin Haase (Bamberg, http://neusprech.org) plauderte in seinem Vortrag Zwischen Wissenschaft und Politik: Populärwissenschaftliches Bloggen auf neusprech.org ein wenig aus dem Nähkästchen der Erfolgsgeschichte des Grimme-prämierten Bloggens mit seinem Ko-Autor Kai Biermann (Journalist), und stellte die Mittel heraus, mit denen einem Weblog besonders viel Aufmerksamkeit zukommen wird. Dabei betonte er besonders den Wert der sog. Social-Media-Dienste (Facebook, Google+, Perlentaucher, Rivva, Twitter) und von diversen Vermarktungsmöglichkeiten (Bücher, E-Books, Shirts, Flattr). Ebenso plädierte er für individualisierte Designs, die mit den verfügbaren Weblogsoftwares wie z.B. WordPress nur bedingt möglich sind und andere Alleinstellungsmerkmale wie bspw. das von ihm und Biermann unregelmäßig angebotene Podcast „neusprechfunk“ oder live gestreamte Radio-Sendungen mit xenim.de. Neusprech.org zeigt sich abgesehen davon besonders bibliophil: Gattungsanleihen für die einzelnen Beiträge kommen von Wörterbüchern her, das neu vorgestellte Design ist in seiner Dreispaltigkeit zeitungsorientiert: Gattungs- und Kommunikationsformenmerkmale die – weblogtypisch – freilich reichhaltig um internetmedialitätstypische Aspekte wie u.a. Verlinkungen/Vernetzung, dynamische Verschlagwortung und flexible Strukturierbarkeit und Überarbeitbarkeit ergänzt sind (vgl. Meiler i.V.). In der Diskussion wurde vor allem noch einmal auf den Unterschied zwischen einem Weblog und einem daraus generierten E-Book hingewiesen, der in der Art der chronologischen Ordnung, der Seitenstruktur, Statik/Dynamik und Orientierungsmöglichkeit im Text/in den Texten begründet ist und damit zwei unterschiedliche Rezeptionsqualitäten bedingt, die dem Blogleser einerseits immer das Aktuelle zeigt, den E-Book-Leser aber andererseits i.d.R. vom frühesten Eintrag bis zum letztaufgenommenen Eintrag führt.

C

Der Kultur- und Medienwissenschaftler Dr. Sebastian Gießmann (Darmstadt, http://www.netzeundnetzwerke.de/; Mitglied der de.hypotheses.org-Redaktion) gab schließlich mit Jeder kann Bloggen! eine praktische Einführung in die deutsche Plattform von Hypotheses. In einem eigens angelegten Schulungsblog wurden für alle Teilnehmer des Workshops die ersten Schritte im Umgang mit WordPress vom Gestalten eines Blogeintrags samt Einbindung multikodaler Webinhalte bis zur Strukturierung und Hierarchisierung des Weblogs als Ganzem erfahrbar. Daneben wurden auch die nötigen Schritte erläutert, welche auf de.hypotheses.org zum eigenen wissenschaftlichen Weblog führen. Ganz so einfach, wie mit Anbietern wie blogger.com ist es nämlich nicht. Hypotheses stellt im Anmeldeformular u.a. mit einer geforderten Projektskizze zum Blogvorhaben z.B. sicher, dass nicht eine Unmenge unüberlegter und bald wieder aufgegebener Blogs die Plattform überschwemmen. An Weblogs, die sich über einen entsprechenden Zeitraum als regelmäßig aktualisiert bewährt haben, werden zudem ISSNs vergeben und die entsprechenden Blogs von der Französischen Nationalbibliothek archiviert.

Ausblick

Somit sind die ersten Schritte geebnet, die Ängste abzubauen, die (in Deutschland) weithin mit Open-Access-Publikationen verbunden sind (vgl. Kuhlen/Brüning 2006, 22f.) und das wissenschaftliche Bloggen im Spektrum der (internen) Wissenschaftskommunikation einerseits institutionell zu stabilisieren und zu verankern und andererseits – darüber herrschte einhelliger Tenor im Workshop – sind die ersten Schritte getan, wissenschaftliche Weblogs (mit den unterschiedlichen Gattungsausprägungen) als produktiv und sinnvoll anzuerkennen und somit im „kommunikativen Haushalt“ (Luckmann 1988) der wissenschaftlichen Gemeinschaft als akzeptabel und funktional zu etablieren. Dass dies aber noch am Anfang steht, zeigen auch die (noch regelmäßigen) Blogeinträge, die sich auf der Metaebene mit dem wissenschaftlichen Bloggen selbst befassen (nicht nur auf hypotheses.org sondern z.B. auch auf dem SOZBLOG (http://soziologie.de/blog/) der DGS). Die (Selbst-)Reflexion und (Selbst-)Verortung einer „community of practice“ (Wenger 1998) ist also augenblicklich (in Selbstbeobachtung) beobachtbar, was für die Würzburger auch das Hauptargument für einen praxisorientierten Workshop war.

Nicht relevant gesetzt wurde das Bloggen im Kontext der rezenten Publikations- bzw. „Zeitschriftenkrise“ (Hagendoff et al. 2007, 10) und den Veränderungen, die mit dem Open-Access-Paradigma auf die Wissenschaft zukommen und welche Rolle Weblogs in einem veränderten Publikations- bzw. Kommunikationsgefüge universitärer Wissenschaft einnehmen können oder gar sollten. Denn wenngleich Weblogs und auch die anderen Internetkommunikationsformen der Wissenschaft eigene Reputationssysteme (Klickzahlen, Kommentarquoten) hervorgebracht haben, stehen sie doch noch außerhalb der umfangreichen Rankingsysteme, die danach trachten, Forschungsleistung quantifizierend zu erfassen und vergleichbar zu machen und die damit die Forschung zunehmend rückkoppelnd beeinflussen (vgl. Kieser 2010, 355ff.). Vor diesem Hintergrund ist es nicht unbedeutend, die Frage zu stellen, wie erstrebenswert es wirklich ist, Weblogs ‚vollkommen‘ in die wissenschaftliche Publikationspraxis zu integrieren und ob Weblogs nicht gerade aufgrund ihrer spezifischen Außenseiterrolle in der Lage sein werden, produktive Impulse für die Forschung zu geben, die von Zeitschriftenartikeln – folgt man Kieser (ebd., 357f.) – bald nicht mehr zu erwarten sind.

Literatur

Bolter, Jay David/Gruisin, Richard (2000): Remediation. Understanding New Media. Cambridge, London: MIT Press.

Csiszar, Alex (2012): Serialität und die Suche nach Ordnung. Der wissenschaftliche Druck und seine Probleme während des späten 19. Jahrhunderts. In: Zeitschrift für Medienwissenschaft 2/7. S. 19–46.

Ehlich, Konrad (1993): Deutsch als fremde Wissenschaftssprache. In: Jahrbuch Deutsch als Fremdsprache 19. S. 13–42.

Ehlich, Konrad (2010): Desiderate der Wissenschaftssprachkomparatistik. In: Heller, Dorothee (Hg.): Deutsch, Italienisch und andere Wissenschaftssprachen – Schnittstellen ihrer Analyse. Frankfurt a.M. et al.: Lang. S. 15–32.

Foucault, Michel (1977): Die Ordnung des Diskurses. Inauguralvorlesung am Collège de France – 2. Dezember 1970. Frankfurt a. M., Berlin, Wien: Ullstein.

Graf, Klaus (2013): Vermitteln Blogs das Gefühl rastloser Masturbation? Eine Antwort auf Valentin Groebner. In: Redaktionsblog der deutschen Hypotheses.org vom 07.02.2013 (http://redaktionsblog.hypotheses.org/951). Abs. 1–12.

Groebner, Valentin (2013): Muss ich das lesen? Ja, das hier schon. Wissenschaftliches Publizieren im Netz und in der Überproduktionskrise. In: Frankfurter Allgemeine Zeitung (31) 06.02.2013. S. N5.

Hagendoff, Svenja/Seidenfaden, Lutz/Ortelbach, Björn/Schumann, Matthias (2009): Neue Formen der Wissenschaftskommunikation. Eine Fallstudienuntersuchung. Göttingen: Universitätsverlag.

Kieser, Alfred (2010): Unternehmen Wissenschaft? In: Leviathan 38. S. 347–367.

Luckmann, Thomas (1988): Kommunikative Gattungen im kommunikativen „Haushalt“ einer Gesellschaft. In: Smolka-Koerdt, Gisela/Spangenberg, Peter M./Tillmann-Bartylla, Dagmar (Hg.): Der Ursprung von Literatur. Medien, Rollen, Kommunikationssituationen zwischen 1450 und 1650. München: Fink. S. 279–288.

Meiler, Matthias (i.V.): Kommunikationsformenadressen oder: Prozeduren des Situationsvollzugs am Beispiel von Weblogs. In: Zeitschrift für Angewandte Linguistik (angenommen).

Kuhlen, Rainer/Brüning, Jochen (2006): Potenziale von Creative Commons-Lizenzen für Open Innovation. In: Stempfhuber, Maximilian (Hg.): In die Zukunft publizieren. Herausforderungen an das Publizieren und die Informationsversorgung in den Wissenschaften. 11. Kongress der IuK-Initiative der Wissenschaftlichen Fachgesellschaft in Deutschland. Bonn: Informationszentrum Sozialwissenschaften. S. 21–28.

Schmidt, Jan (2009): Weblogs: Formen und Konsequenzen ihrer Nutzung. In: Moraldo, Sandro (Hg.): Internet.kom. Neue Sprach- und Kommunikationsformen im World Wide Web. Band 1: Kommunikationsplattformen. Rom: Aracne. S. 157–180.

Stefanowitsch, Anatol (2011): Das Blog ist tot, es lebe der Blog. In: Sprachlog. Alle Sprachgewalt geht vom Volke aus. 25. August 2011 (http://www.scilogs.de/wblogs/blog/sprachlog/sprachgebrauch/2011-08-25/das-blog-ist-tot-es-lebe-der-blog). Abs. 1–17.

Wenger, Etienne (1998): Communities of Practice: Learning, Meaning, and Identity. Cambridge: Cambridge University Press.


[1] Zum Genus von Weblog/Blog siehe Stefanowitsch (2011).

Quelle: http://dhd-blog.org/?p=1565

Weiterlesen

Datenpublikation und die Rolle der Informationswissenschaft

In seinem Editorial für die aktuelle Ausgabe des Journal of the American Society for Information Science and Technology reflektiert Blaise Cronin, Chefredakteur dieser für die Informationswissenschaft zentralen Zeitschrift, die Rolle von Daten im Publikationsprozess und stellt fest:

„Data are not simply addenda or second-order artifacts; rather, they are the heart of much of the narrative literature, the protean stuff, that allows for inference, interpretation, theory building, innovation, and invention.” (Cronin, 2013)

Für die Digitalen Geisteswissenschaften, die zu großen Teilen darauf basieren, geisteswissenschaftliche Gegenstände und Bezugsmaterialien möglichst feingliedrig in maschinenlesbare Daten umzuwandeln, um sie mit digital grundierten Methoden durchforschbar zu machen, steckt darin wenig Neues. Das Stichwort Datenpublikation, die die Publikation der Erkenntnisse und Schlussfolgerungen begleitet, und die damit verbundenen Standards markieren daher fraglos ein wichtiges Thema auch für die Digitalen Geisteswissenschaften. Diese müssen ebenfalls grundsätzlich das klären, was die Wissenschaftskommunikation aller Disziplinen, bzw. die Akteure, die diese Kommunikationen professionell organisieren, derzeit mehr oder weniger intensiv umtreibt:

(1)    [H]ow data are to be handled and incorporated into the scholarly workflow […]

(2)    [H]ow and under what conditions authors should make their data available for others to validate, replicate, or reuse as they see fit

Cronin befindet sich damit (erwartungsgemäß und per Zitation bestätigt) in Einklang mit den von Christine L. Borgman ebenfalls in JASIST vor knapp einem Jahr formulierten Grundprinzipien für die Verbreitung von Forschungsdaten (Borgman, 2012):

-            To reproduce or to verify research
-            To make the results of publicly funded research available to the public
-            To enable others to ask new questions of extant data
-            To advance the state of research and innovation

Es ist offensichtlich, dass passende wissenschaftliche Standards zum ersten Prinzip vorrangig innerhalb der Community ausgehandelt werden müssen, dass das zweite Prinzip sehr stark mit der generellen Frage von Open Access verwoben ist, dass das dritte Prinzip vor allem wissenschaftsethisch eine weiterführende Forschung auf gemeinsamen Datengrundlagen betont und schließlich der vierte Aspekt etwas allgemeiner die Förderung von Wissenschaft und Innovation an sich als Ziel verfolgt. All das deutet auf einen notwendigen Metadiskurs darüber hin, welchen Sinn die Publikation von Daten haben kann und soll.

Cronin schreibt zutreffend:

„Humanists and social scientists of all stripes are faced with similar challenges relating to image collections, demographic statistics, economic time series data, literary corpora, social media metroics, etc.: To every field its data trove.” (Cronin, 2013)

Gerade weil der Data Turn jede Disziplin ergreift und man sich neue und vielleicht sogar die interessanteren Ergebnisse zukünftig vor allem aus der Wechselbeziehung von Daten aus unterschiedlichen Feldern vorstellen kann, scheint ein interdisziplinärer Dialog zu den Standards der Datenpublikation und –nachnutzbarkeit geboten.

Die Informationswissenschaft (bzw. Bibliotheks- und Informationswissenschaft) versucht sich naheliegend als Vermittlungsdisziplin zu etablieren. Cronin ist beizupflichten, wenn er meint: „we should avoid advocating procrustean policies“, wenn dies disziplinäre Dateninseln oder die Einschränkung der Data Diversity auf sehr restriktive Vorgaben zur Folge hat. Andererseits wird unter anderem hinsichtlich kommender Forschungskonzepte die Frage, wie heterogene Datenbestände direkt aufeinander bezogen werden, metadisziplinär relevant. Dabei geht es tatsächlich nicht um „an airtight set of requirements or a single, mulitpurpose data availability policy.” Wohl aber um eine Verständigung auch zu fachübergreifenden (Nach)Nutzungsmöglichkeiten von Datenbeständen.

Cronin will als Redakteur von JASIST natürlich erst einmal klären, wie Datenpublikation in seiner eigenen Zeitschrift überhaupt aussehen kann. Nichtsdestotrotz sollte man meines Erachtens darüber hinaus und besonders auch aus der Perspektive der Digital Humanities nicht nur dazu reflektieren, wie Datenpublikationsprozesse in den Digitalen Geisteswissenschaften möglichst nach den Prämissen Transparenz und Nachvollziehbarkeit der Forschung, Open Access sowie Nachnutzbarkeit für weitere Forschungen innerhalb eines jeweils konkreten disziplinären Rahmen gestaltet sein sollen. Sondern – angeregt vom vierten Grundprinzip bei Christine L. Borgman – ebenso überlegen, wie sich interdisziplinär auch über die Digital Humanities hinaus möglichst verbindliche Normen zur (auch verschränkten) Nutzung von Datenbeständen entwickeln lassen.

Da das Problem alle gleichermaßen betrifft, wenn auch unterschiedlich ausdifferenziert, könnte man in der jetzigen Frühphase Lösungen, Standards und Empfehlungen kooperativ nicht zuletzt mit der Maßgabe entwickeln, das zukünftige interdisziplinäre Wechselwirkungen direkt unterstützt werden. Die Debatte darum, ob die Digitalen Geisteswissenschaften eine neue Wissenschaftsdisziplin oder eine neuer Methodenbereich sind (vgl. exemplarisch diesen Kommentar von Charlotte Schubert) zeigt meiner Ansicht nach, dass wir die hier entstehenden Forschungsperspektiven ohnehin disziplinär übergreifend denken müssen. An dieser Stelle eröffnet sich nicht zuletzt die Möglichkeit, sich sehr zukunftsgerichtet zu profilieren.

Ich vermute stark, dass das, was wir derzeit unter den verschiedenen Digital- und eHumanities-Synonyma diskutieren, erst den Einstieg in viel grundlegendere Transformationen der Wissenschaft an sich darstellt. Daraus ergibt nach meinem Verständnis eine Gestaltungspflicht. Als Bibliotheks- und Informationswissenschaftler sehe ich für die Frage nach der Integration der formalisierten Datenpublikation in die Prozesse der Wissenschaftskommunikation einerseits meine eigene Disziplin als Vermittlungswissenschaft in der Verantwortung, sind doch die Prozesse der Sammlung, Erschließung und Vermittlung von Informationen traditionell ihr Kerngebiet. Zudem erscheint es mir andererseits als sehr sinnvoll, wenn die Fachcommunities einen entsprechenden Dialog aktiv suchen. Denn der interdisziplinäre Erkenntnistransfer kann erfahrungsgemäß nur gelingen, wenn er auf gegenseitigem Verstehen beruht.

Quellen

Borgman, Christine L. (2012): The conundrum of sharing research data. In: Journal of the American Society for Information Science and Technology. 63 (6), S. 1059-1078. DOI: 10.1002/asi.22634

Cronin, Blaise (2013): Thinking About Data. Editorial. In:  In: Journal of the American Society for Information Science and Technology. 64 (3), S. 435-436. DOI: 10.1002/asi.22928

Quelle: http://dhd-blog.org/?p=1419

Weiterlesen

Von Lichtenberg zu Voyant und TextGrid und zurück

Geoffrey Rockwell, TAPoR-Gründer und Professor der Philosophie und Humanities Computing an der kanadischen University of Alberta, bloggt auf theoreti.ca erfreut zu unserem DH-Film “Virtual Research Worlds: New Technologies in the Humanities”, in den wir ja einige Anwendungen des von ihm mitentwickelten Tools Voyant eingebaut hatten. Und auch der gute Lichtenberg schafft es auf diese Weise von seiner Bank im Hof des Historischen SUB-Gebäudes zu Göttingen in Rockwells Blog zu multimedia, electronic texts, and computer games:

http://theoreti.ca/?p=4648#more-4648

Der Film auf deutsch ebenfalls bei YouTube: “Virtuelle Forschungswelten: Neue Technologien in den Geisteswissenschaften”

Quelle: http://dhd-blog.org/?p=1352

Weiterlesen

DH Award 2012 Nominee: Totenbuch-Visualisierung

Bei den aktuellen DH Awards (jeder ist aufgerufen, mit abzustimmen!) sind betrüblicherweise nur 2,5 Kandidaten aus dem deutschprachigen Raum nominiert. Neben dem Blog von Anne Baillot, der immerhin in Berlin “spielt” sind das das Institut für Dokumentologie und Editorik (IDE) und – für die Kategorie “Best DH visualization or infographic” – eine Visualisierung aus dem “Totenbuch-Projekt” der Universität Bonn, welches von der Nordrhein-Westfälischen Akademie der Wissenschaften gefördert und vom Cologne Center for eHumanities (CCeH) DH-seitig begleitet wird. Die Visualisierung ist ein recht komplexes “Ding” so dass es sich vielleicht lohnt, auch hier noch einmal ein paar erklärende Worte dazu zu verlieren.

Totenbuch-Gesamtvisualisierung

Worum geht es? Es geht um das altägyptische Totenbuch. Das altägyptische Totenbuch ist ein Textkorpus. Eine Sammlung von Sprüchen, die über einen langen Zeitraum hinweg immer wieder zusammengestellt und aufgeschrieben wurden, um sie einem/r Verstorbenen mit ins Grab zu geben auf dass die Sprüche ihm oder ihr beim Übergang in das Reich der Toten helfen mögen. Das Totenbuch-Projekt dokumentiert die überlieferten Textzeugen (ca. 3000 Totenbücher mit ca. 30.000 einzelnen Spruchnachweisen) und leistet Grundlagenarbeit für die weitere Erforschung des Totenbuchs. Dazu gehört auch, dass man sich einen Gesamteindruck von den einzelnen Sprüchen und ihrer Überlieferung verschaffen möchte.

Häufig und selten überlieferte Sprüche

Die hier zu diskutierende Grafik zeigt zunächst die von der Forschung “kanonisierten” Sprüche in ihrer kanonisierten Reihenfolge. Dabei steht jeder blaue Punkt für einen Spruch. Die Größe des Punktes steht für die Häufigkeit der Überlieferung des Spruches. Man erkennt auf einen Blick, welche Sprüche und Spruchgruppen breit überliefert sind und welche nicht.

Innerhalb des digitalen Textzeugenarchivs als Web-Präsentation des Projekts wird ausgiebig Gebrauch von Visualisierungen gemacht, um die Strukturen und die quantitativen Eigenschaften der überlieferten Textzeugen zu veranschaulichen. Bei dieser Grafik steht eine speziellere Fragestellung im Hintergrund, die einen Schritt in die eher analytische Dimension der Visualisierung markiert. Die Frage lautet: Entspricht die durch die Forschung etablierte kanonische Ordnung der Sprüche (die hauptsächlich auf einem Leitzeugen beruht) der Wirklichkeit der Gesamtüberlieferung? Wie gut entspricht sie ihr? Und wie kanonisch ist die Abfolge der Sprüche auf den Textzeugen wirklich?

Dazu visualisiert die Grafik die Nachbarschaftsverhältnisse zwischen Sprüchen. Es wird ausgezählt, wer die Nachbarn eines Spruches auf einem Textzeugen sind. Auf den überlieferten Objekten häufig benachbarte Sprüche werden in der Grafik durch Linien verbunden. Je dicker die Linie, desto häufiger ist eine Nachbarschaft belegt. Gäbe es eine deterministische Reihenfolge im Textkorpus, dann gäbe es nur eine einzige Verbindungslinie durch alle Sprüche. Wäre die Reihenfolge ganz beliebig, dann gäbe es eine große Zahl unterschiedlichster Verbindungslinien zwischen den Sprüchen. Die Gesamtvisualisierung liefert hier ein recht deutliches Signal: wenn man bedenkt, dass die Überlieferung einen langen Zeitraum (2.300 Jahre), eine große geografische Spannweite (17 Breitengrade), unterschiedlichste materielle Objekte (von Papyrus über Mumienbinden bis zu Grabinschriften) und verschiedenste Überlieferungszustände umfasst, dann ist die Abfolge als durchaus wenig variant zu betrachten. Und sie steht zunächst nicht im Widerspruch zu der Abfolge, mit der die Forschung selbst arbeitet. Ein genauerer Blick kann aber weitere Fragen anstoßen, die diesen Gesamteindruck bestätigen oder relativieren.

Scheinausreißer

Schnell fallen dabei einige dicke Linien auf, die der These einer relativ festen Abfolge zu widersprechen scheinen. Dies ist aber manchmal darauf zurückzuführen, dass aus inhaltlichen Gründen im Projekt Sprüche zusammengelegt wurden, die einen ähnlichen Text bieten. Die stärkste Verbindung von Spruch 47 scheint z.B. nach oben ganz woanders hin zu gehen, tatsächlich zielt sie aber auf Spruch 10/48. Hätte man die beiden nicht zusammengelegt, dann wäre die Reihe durchaus intakt. Das gleiche gilt für die nach unten gehende Linie bei Spruch 50, die auf Spruch 11/49 zielt.

Was ist hier los?

Andere Fälle erklären sich nicht in der gleichen Weise von selbst. So ist die Reihung von 136 zu 137 möglicherweise fragwürdig. Denn ein unmittelbarer Nachbar von 136/136A bzw 136B ist nur in 14 Fällen Spruch 137. Dagegen folgt auf 136B allein 49 mal Spruch 149 und auf 136/136A allein 47 mal Spruch 138 oder 139. Allerdings bedeutet das immer noch nicht, dass eine andere Reihung zu einem “glatteren” System führen würde. Hier wäre vielleicht in einem nächsten Schritt eine differenziertere Untersuchung anzusetzen, die z.B. Zeitstufen oder andere Gruppierungsmerkmale in den Blick nehmen könnte, um der Sache auf den Grund zu gehen.
Dies sind nur willkürliche Beispiel dafür, wie die Gesamtgrafik gelesen werden kann. Sie kann nichts weiter sein als ein ersten Schritt zu einem Verständnis der Gesamtstruktur und erste Einblicke in Details bieten. Dazu bedient sie sich mit der Berücksichtigung nur unmittelbarer Nachbarschaften eines sehr einfachen Modells, das methodisch durchaus fragwürdig ist und ggf. weiter zu verfeinern wäre.
Eines der hier leitenden Designziele ist das Konzept von “Overview & Detail”: man will zugleich einen Gesamteindruck herstellen UND bei näherer Betrachtung (am Bildschirm muss man wohl vom “reinzoomen” sprechen) immer feinere Details erkennbar machen. Das hat, wenn man es konsequent verfolgt, durchaus Nachteile und Kosten: Die Grafik ist recht groß. Zu groß für einen Monitor. Das aber ist Absicht. Es geht um eine Gesamtvisualisierung mit dem Potential für lokale Detailstudien.

Das Ding in meiner Küche

Das Ding im Besprechungsraum

Deshalb war das Ziel von Anfang an nicht eine Darstellung in den Grenzen eines Browserfensters. Tatsächlich sind die größeren Fassungen auch gar nicht vollständig in normalen Browserfenstern darstellbar, weil z.B. Firefox nur ein 7-faches Herauszoomen ermöglicht – und damit ist man immer noch nicht weit genug weg. Die Grafik ist trotzdem auf eine Breite von 210cm ausgelegt worden. Denn hier geht es nicht nur um die Digitalisierung einer materiellen Überlieferung, sondern auch um die Materialisierung digitaler Daten! Die Grafik funktioniert am Bildschirm als Werkzeug für Detailstudien. Hier offenbart auch jede Verbindungslinie beim onmouseover Start- und Endpunkt sowie die absoluten Fallzahlen. Für das Paradigma des Overview&Detail aber muss man seinen Schreibtischstuhl verlassen und die Maus loslassen. Ihre eigentliche heuristische Kraft entfaltet “die Tür”, wie wir den Ausdruck auf einer Forex-Platte nennen erst, wenn man sich vor sie stellt, sie abschreitet und vor- und zurücktritt. Erst diese körperliche Auseinandersetzung mit dem materiellen Objekt, sei es (derzeit, leihweise) in meiner Küche oder im Besprechungsraum des Instituts, entspricht der Informations- und Interaktionsintention der Visualisierung.

Die Menschen dahinter? Die Programmierung lag bei Ulrike Henny, ausgehend von und in einem Prozess der Konzeption und Diskussion mit anderen Kollegen vom CCeH. Wirklich “gemacht” haben aber vor allem die Daten, auf denen alles beruht, eine große Zahl ägyptologischer Fachwissenschaftler, zuletzt unter der Leitung von Marcus Müller, die alle Informationen in den letzten 20 Jahren zusammengetragen haben. Ohne diese Arbeit wüssten wir nichts und könnten nichts sehen.

Die Technik dahinter? Eine xQuery-Abfrage auf den Daten in einer XML-Datenbank (eXist) schreibt eine SVG …

Ausgangsdaten, lokales XML

xQuery schreibt …

… SVG (reduziert)

Quelle: http://dhd-blog.org/?p=1315

Weiterlesen

Das nächste Kapitel aufschlagen! Die Digital Humanities auf den Hochschul- und Berufsinformationstagen (hobit) in Darmstadt

Was sind eigentlich diese Digital Humanities, was macht man da(mit) denn? Diese Fragen unserer “traditionell” ausgerichteten FachkollegInnen haben wir sicherlich alle schon häufig beantworten müssen. Nun, da die DH im Begriff sind, sich zu institutionalisieren, Professuren eingerichtet werden, Module, Schwerpunkte und Studiengänge entstehen, müssen wir auch die Fragen von SchülerInnen, Studieninteressierten und wissenschaftlichem Nachwuchs beantworten. Da an der TU Darmstadt zum einen bereits Erfahrungen in dem seit 2006/07 akkreditierten Masterstudiengang Linguistic and Literary Computing (LLC) bestehen, zum anderen konkrete Pläne zur Entwicklung eines BA-Studienganges Digital Philologies verfolgt werden, sollten Wege gefunden und Materialien konkret erprobt werden, diese Adressatengruppe zu informieren – im Idealfall zu begeistern! Eine weitere Überlegung war, dass Studierende nicht nur die InteressentInnen am besten informieren können, sondern dass es darüber hinaus zu den Berufs- und Schlüsselkompetenzen gehören muss, adressatenorientierte Info-Materialien zu erstellen. Im Rahmen des Seminars “Was sind Digital Humanities? Grundlagen, Voraussetzungen, Vermittlung” des laufenden Wintersemesters 2012/13 haben daher Studierende aus den Studiengängen Joint BA Germanistik, Master Germanistik und Master LLC verschiedene Materialien zusammengestellt, die über die Digital Humanities und entsprechende Studienmöglichkeiten an der TU Darmstadt informieren. Diese Materialien kamen gewissermaßen im Praxistest zum ersten Mal auf den Darmstädter Hochschul- und Berufsinformationstagen (hobit) zum Einsatz, wo die Seminar-Gruppe ebenfalls die Betreuung des Infostandes, der alle Studiengänge des Instituts für Sprach- und Literaturwissenschaft präsentierte, mitübernahm. Da die hobit von zahlreichen SchülerInnen der Rhein-Main-Region besucht werden, die sehr gezielte Fragen nach Ausbildungsinhalten, bedingungen und Berufsperspektiven mitbringen, bot sich eine ausgezeichnete Gelegenheit zum Praxistest. Flankiert wurden die Stand-Aktivitäten durch Vorträge der Lehrenden, die mit jeweils über 100 Interessenten gut besucht waren.

Konkrete Erfahrungen: 1. Bei der Erstellung 2. Auf der Messe 3. Lessons learned.

1. Bei der Erstellung: Eine Herausforderung des Seminars bestand darin, dass die 18 TeilnehmerInnen unterschiedliche Voraussetzungen in Bezug auf den Kenntnisstand zu den DH mitbrachten, da es polyvalent für unterschiedliche Module eingesetzt werden konnte. Im Joint BA Germanistik stand es für die Module Sprache in Texten sowie für den Optionalbereich zur Verfügung, im Master Germanistik deckte es die Felder Texte und Editionen, Angewandte Linguistik und Sprache im Beruf ab, und im Master LLC schließlich die Bereiche Texte und Editionen sowie die Projekte Corpuslinguistik oder Computerphilologie. Diese bewusst gewählte Zusammenstellung von Voraussetzungen und Anforderungen erwies sich jedoch wie erhofft als Vorteil für die Kreativität und die Möglichkeiten zur Zusammensetzung und Ausrichtung der Teams: In vier eng zusammenarbeitenden und ständig interagierenden Unter-Gruppen wurden folgende Materialien erstellt:

• Gruppe 1: Homepage- und Flyertexte – Salmana Iqbal, Christina Klingler, Nicole Volz, Nicole Woitzik
• Gruppe 2: Poster & Flyer – Sascha Bay, Florian Enders, Tim Feuerbach, Antoine McCracken
• Gruppe 3: Berufsperspektiven – Karla Ayllon, Raissa Breder-Bigoszewski, Lena Jungbauer, Sebastian Steinhaus, Nurhayat Yasar
• Gruppe 4: Filme, Präsentationen & Interviews – Leonie Blumenschein, Fenja Kastendiek, Nadezhda Petrova, Christopher Tauchmann, Livia Weber

In den ersten Sitzungen wurde geklärt, wo die notwendigen Sachinformationen eingeholt werden konnten, wo die Kompetenzen und Interessen der TeilnehmerInnen lagen und welche Materialien erstellt werden sollten. Die entsprechenden Gruppen fanden sich zusammen, erste Konkretisierungen der gemeinsam beschlossenen Ideen wurden in den Gruppen selbständig erarbeitet.

Es folgte eine Plenumsphase, in der die Ideen zur Diskussion gestellt, kritisch reflektiert, optimiert und untereinander abgestimmt wurden. In weiteren Iterationen wechselten sich Gruppenarbeitsphasen und Plenums-Rückkopplung ab. Viel Zeit wurde außerhalb der Seminarsitzungen investiert. Alle TeilnehmerInnen blieben dem Seminar treu, niemand sprang ab.

2. Auf der Messe.

Hobit Darmstadt 2013 – Stand des Instituts für Sprach- und Literaturwissenschaft

Realitätskonfrontation: Der Stand ist klein, eng, versteckt. Die Poster drängeln sich auf den erkämpften Stellwänden, der Bildschirm, auf dem der Film läuft, könnte größer sein, der Ton geht im Lärm des allgemeinen Messe-Gewirrs unter. Dennoch: Die Lust, mit der alles zusammengestellt wurde, wird deutlich, der Stand quillt über vor Material, Konventionelles (Bücher, Gummibärchen) mischt sich mit Originellem (Poster, Film, Quiz, Buttons …).

DH Darmstadt Buttons

Mit viel Aufregung und ein wenig Unsicherheit (Wieviele InteressentInnen werden vorbeikommen? Werden sie uns überhaupt finden? Wie spreche ich schüchtern vorbeischauende SchülerInnen an? Welche Fragen werden sie stellen? Weiß ich genug über unsere Studiengänge und Berufsperspektiven?) werden die ersten Gespräche geführt und Flyer verteilt, schließlich sogar gezielt SchülerInnen an den Stand gelockt. Zu den Stoßzeiten geraten wir in den Beratungsflow – die Zeit verfliegt, wir reden und reden. Bei Flaute (am Nachmittag) tauschen wir uns untereinander und mit den KollegInnen an den Nachbarständen aus. Was uns erstaunt (warum eigentlich?): Viele SchülerInnen erzählen uns, dass sie gerne und besessen lesen, gerne mit Sprache umgehen, dass sie daher den dringenden Wunsch verspüren, Germanistik zu studieren; viele finden die Digital Humanities aufregend, weil sie neu sind, die SchülerInnen äußern sich mutig und experimentierfreudig; sehr viele interessieren sich vor allem für konkrete Berufsperspektiven und wissen die Darmstädter Germanistik-Einbettung in das spezifische Umfeld einer technischen Universität, die Ausrichtung auf Angewandte Linguistik, Deutsch als Fremdsprache und Digital Humanities besonders zu schätzen, können die Rahmenbedingungen kritisch einordnen und würdigen.

3. Lessons learned: Man hat immer zu wenig Zeit. Die Materialien werden trotzdem fertig, denn alle geben 200%. Die Möglichkeit, nicht nur für die Schreibtischschublade der Lehrenden, sondern für einen praktischen Einsatz zu arbeiten, verbunden mit der Möglichkeit zu konkreter persönlicher Bewährung setzt Kreativität, Arbeitslust und Verantwortungsbewusstsein frei. Spaß!

Was haben die Studierenden (für die Digital Humanities und für ihre persönliche Bildung) erreicht?
• neues Wissen, Wissen recherchieren, bündeln, auswählen
• Texte adressatenadäquat konzipieren und schreiben
• Text- und Bildsprache reflektieren
• Verantwortung für gemeinsame Projektergebnisse übernehmen, Qualitätssicherungsprozesse
• Team- und Zeitmanagement, Organisation verteilter Arbeitsprozesse
• Berücksichtigung von Designvorgaben und Urheberrecht
• Softwarekenntnisse
• Kommunikationskompetenz (untereinander und nach außen), Umgang mit Kritik (äußern und annehmen, produktiv umsetzen)
• Vermittlungskompetenz, schriftlich und mündlich
• Selbstreflexion: warum studiere ich eigentlich Germanistik/LLC, was erwarte ich für mich und meine
Berufsperspektiven davon? Identifikation mit der Institution und der “Fachheimat”

Was haben wir als Lehrende und als VertreterInnen der sich entwickelnden und etablierenden Digital Humanities gelernt? Das Interesse für neue Studieninhalte und Studienfächer ist riesig – das bestärkt uns im Plan der Entwicklung eines BA-Studiengangs. Gute Beispiele, die veranschaulichen, was Digital Humanists machen, womit sie sich beschäftigen, sind wichtig, genauso wichtig ist aber auch die Zukunfts-, die konkrete Berufsperspektive – ich denke, damit können wir besonders gut punkten. Die Verbindung von Forschung, Abstraktionsvermögen, Theorie- und Modellbildung, die einhergeht mit der Rückbindung an die Praxis, an materielle Artefakte des kulturellen Erbes, an Werkzeuge, an konkrete Anwendungsmöglichkeiten – was die Digital Humanities ja auszeichnet –, stößt auf größtes Interesse und vermag zu überzeugen. Studierende als “Vermittlungsinstanzen” können Ängste der InteressentInnen gut abbauen (Ist die Informatik zu schaffen? Muss ich diesen oder jenen Leistungskurs belegt haben?). Die Digital Humanities haben sich hier als “junge”, offene, mutige Disziplin bestätigt.

Fazit: Im nächsten Jahr unbedingt wieder! Ein herzlicher Dank geht an alle TeilnehmerInnen des Seminars, alle HelferInnen, alle InteressentInnen und an die diesjährigen Organisatorinnen des Instituts-Messestandes Sandra Denzer und Lisa Rhein!

Quelle: http://dhd-blog.org/?p=1258

Weiterlesen

Über die Kartierbarkeit der Geschichte: Anne Kelly Knowles und Historical GIS.

Tony Horwitz: Looking at the Battle of Gettysburg Through Robert E. Lee’s Eyes. In: Smithsonian magazine. Dec. 2012. URL: http://www.smithsonianmag.com/history-archaeology/Looking-at-the-Battle-of-Gettysburg-Through-Robert-E-Lees-Eyes-180014191.html?c=y&story=fullstory

Kernfrage: Welche Rolle können GIS (=Geographic Information Systems)-Verfahren für die Analyse historischer Fragestellungen spielen?

In der Dezember-Ausgabe des Smithsonian Magazine berichtet Tony Horwitz über die Arbeit von Anne Kelly Knowles. Die Geographin erhielt dieses Jahr den Smithsonian Ingenuity Award im Bereich Historical Scholarship und zwar offensichtlich vor allem deshalb, weil sie eine Vorreiterfunktion im Bereich des Einsatzes Historical Geographic Information Systems (HGIS) übernahm. Dabei benutzt man für die Kartographie entwickelte Technologien buchstäblich zum Mapping historischer Ereignisse bzw. Strukturen. Bekannte Beispielanwendungen finde sich im Great Britain Historical Geographical Information System (GBHGIS) oder auch bei HGIS Germany.

Die Digitalisierung historischer Landkarten und das verortende Auftragen von Bezugspunkten (=georeferencing) ermöglicht es, bestimmte Sachverhalte in gewisser im Raum in ihrem Verlauf abzubilden. Die Abbildung der Entwicklung von Grenzverläufen ist da nur ein sehr nahe liegendes Beispiel. Spannend wird es, wenn diese spatiale Dimension mit möglichst konkreten historischen Fakten in Beziehung gesetzt wird. Und Anne Kelly Knowles wird konkret:

“In this instance, she wants to know what commanders could see of the battlefield on the second day at Gettysburg. A red dot denotes General Lee’s vantage point from the top of the Lutheran Seminary. His field of vision shows as clear ground, with blind spots shaded in deep indigo. Knowles has even factored in the extra inches of sightline afforded by Lee’s boots. “We can’t account for the haze and smoke of battle in GIS, though in theory you could with gaming software,” she says.” (Hervorhebung und Einbettung des Links: BK)

Welche Fragestellung man über die Kombination diverser Parameter tatsächlich sinnvoll bearbeitet, hängt selbstverständlich von dem jeweiligen Forschungsgegenstand und -ansatz ab. Deutlich wird jedoch das Potenzial beispielsweise für eine empirische Gegenprüfung überlieferter Quellen. Die Wissenschaftlerin spricht selbst von einer korrektiven Funktion des Mappings. So ermöglicht der Einsatz derartiger Technologien eine neue Perspektive auf bekannte Themen und in gleicher Weise das Aufwerfen von neuen Fragestellungen sowie, drittens, generell neue Möglichkeiten zur Formulierung von Forschungsfragen.

Das Verfahren selbst ist auch eine Art Kombination. Im Webkontext würde man vielleicht von Mash-Up sprechen. Tatsächlich waren Mapping-Anwendung wie das Crime Mapping des Los Angeles Police Departments bahnbrechend bei der Popularisierung derartiger Verknüpfungen. Dass sich die Kombination von (a) raumstrukturierender Visualisierung (Stadtpläne, Landkarten) mit (b) Ereignisdaten (hier: Straftaten) sowie zu mit diesen assoziierten qualitativen Ergänzungsdaten (hier: demographische Angaben) und schließlich (c) einer Zeitachse anbietet, um bestimmte Entwicklungen, Häufungen, Regularitäten und Anomalien zu visualisieren, dürfte spätestens seit Google Maps weithin anerkannt sein. Eine entsprechende Datenbasis vorausgesetzt, lässt sich eigentlich alles, was Geographie, Entwicklung in der Zeit und eine qualitative Konkretisierung verbindet, GIS-basiert abbilden – von der Wetterkarte und Vegetationszyklen bis hin zum Schlagloch.

GIS war vor allem aus der Regionalplanung und kommerziellen Kontexten bekannt. Anne Kelly Knowles realisierte relativ früh (die von ihr herausgegebene Sonderausgabe von Social Science History mit dem Thema Historical GIS: The Spatial Turn in Social Science History erschien im Jahr 2000), dass man diese Technologie ebenfalls sehr gut in geschichtswissenschaftlichen Zusammenhängen einsetzen kann:

“I knew there was a GIS method, used to site ski runs and real estate views, and wondered what would happen if I applied that to Gettysburg.”

Eine wichtige Nebenwirkung dieser Art von Empirisierung mittels expliziter Kartographierung könnte – nicht ganz unpassend zur Kartographie – das Erkennen von Grenzen sein. Nämlich von solchen der Erkenntnisreichweite scheinbar stabiler Einschätzungen sowie der Wege, auf denen diese entstehen:

“We can learn to become more modest about our judgments, about what we know or think we know and how we judge current circumstances.”

Als weiterer Effekt droht im Gegenzug die von Skeptikern häufig angemahnte Überbetonung der Muster gegenüber den Inhalten. Visualisierungen sind in der Regel visuell eindrucksvoll, bleiben bisweilen aber zur Frage, was man konkret aus ihnen ablesen kann, erstaunlich opak.

Anne Kelly Knowles ist mit diesem Problem offensichtlich gut vertraut, zumal sie derzeit das HGIS-Prinzip in einem Projekt zur Holocaust-Forschung („a profoundly geographical event” – A.K. Knowles) einsetzt. Sie weiß also um die Schwierigkeit, „of using quantitative techniques to study human suffering.” Entsprechend argumentiert sie mit der gebotenen Vorsicht:

Knowles is careful to avoid over-hyping GIS, which she regards as an exploratory methodology. She also recognizes the risk that it can produce “mere eye candy,” providing great visuals without deepening our understanding of the past.

Und sie erkennt noch eine weitere Herausforderung: Die der Übersetzung von Messungen und gemappten Strukturen in eine erklärende und verständliche sprachliche Abbildungsform:

Another problem is the difficulty of translating complex maps and tables into meaningful words and stories.

Informationsvisualisierung hat gegenüber der Beschreibung den klaren Vorteil einer Informationsverdichtung. Informationswissenschaftlich gilt der Grundsatz, dass ein Bild sehr viel Information (mehr jedenfalls als tausend Worte) jedoch eher wenig Wissen (nach einem informationswissenschaftlichen Wissensbegriff) speichern kann. Dieses Prinzip wird freilich bei der Hinzunahme einer zeitlichen Dimensionen relativiert. Dennoch bleibt es jedenfalls derzeit notwendig, parallel zur graphischen Abbildung im Mustern eine schlussfolgernde Ableitung des Dargestellten in Textform vorzunehmen. Die visualisierte Informationsmenge muss demzufolge auf Aussagen heruntergefiltert bzw. ausgedeutet werden.

Was man folglich aus dem Artikel und der dort wiedergegebenen Position Anne Kelly Knowles’ mitnehmen kann, ist, dass das Mapping historischer Entwicklungen und Ereignisse mittels GIS einerseits vor allem dafür geeignet ist, bekannte Fragestellungen neu zu betrachten und entsprechend möglicherweise empirisch zu validieren. Und andererseits, im exploratorischen Sinn, Zusammenhänge neu erkennbar zu machen. Für beide Anwendungsfälle gilt jedoch (wie eigentlich immer):

“The technology is just a tool, and what really matters is how you use it”

Wobei zur gelingenden Anwendung insbesondere die Befähigung zur historisch sensiblen und sinnvollen Schlussfolgerung und Interpretation zählen dürfte.

P.S. Eine Kurzbescheibung ihrer Arbeit gibt Anne Kelly Knowles in diesem kurzen Clip.

Quelle: http://dhd-blog.org/?p=1165

Weiterlesen

Mal wieder und immer noch: Digitized vs. Digital

NeDiMAH, das „Network for Digital Methods in the Arts and Humanities“ enthält unter anderen eine Arbeitsgruppe zu „Scholarly Digital Editions“. Die erste Veranstaltung (ein „Expert Meeting and Workshop“) zu diesem Themenkomplex hatte laut Call einen Schwerpunkt in der definitorischen Grundfrage: Was ist eigentlich eine „digitale Edition“?

Nachdem ich mich mit dieser Frage nun auch schon seit 15 Jahren beschäftige, sie in meiner Dissertation einigermaßen länglich ausgewalzt habe und meine eigene Definition Grundlage meines Katalogs digitaler Editionen ist, war ich froh, sie nun auch einmal im Expertenkreis zur Diskussion stellen zu können.

Die Präsentation zum Vortrag findet man als und bei prezi, ich fasse sie hier nicht noch einmal zusammen. Nur ein Punkt, der eigentlich ein Nebenaspekt ist, soll hier aufgegriffen werden, weil ich mich frage, ob diese Diskussion nicht auch in anderen Bereichen der Digital Humanities produktiv geführt wird oder werden kann  und insofern keine Digitale-Editionen-Spezialdiskussion ist:

Offensichtlich wird die Digitale Edition sinnvollerweise im Aufgreifen der traditionellen Editorik definiert. Und dann in Abgrenzung zu ihr. Hier entsteht aber ein Problem: wenn eine gedruckte Edition einfach digitalisiert wird, müsste man dann nicht von einer digitalen Edition sprechen? Der normale Gebrauch der deutschen Sprache legt dies zunächst nahe. Es ist geradezu schwierig, dem folgenden Satz wiedersprechen zu wollen: „Eine digitalisierte Edition ist eine digitale Edition“. Trotzdem muss es getan werden und müssen wir akademischen Klugscheißer der allgemeinen Sprachlogik wohl ein wenig Gewalt antun Widerstand leisten. Denn wie ich andernorts schon ausgeführt habe, liegt der Kern der Wandlungen in der Editorik (und den Geisteswissenschaften insgesamt?) nicht in einem Wandel der Werkzeuge und Medien – sondern in einer Bewegung hin zur Transmedialisierung. Dies führt dazu, dass die mediale Präsentation – ob im Buchdruck oder digital – nicht „wesentlich“ ist. Das wiederum bedeutet, dass eine „digitale Edition“ nicht einfach dadurch definiert ist, dass sie digital vorliegt. Das Digitale ist eine notwendige, aber keine hinreichende Bedingung. Es entsteht das quasi-definitorische Statement:

„Eine digitalisierte Edition ist (noch lange) keine digitale Edition.“

Dies ist das Gegenstück zu dem positiven Definitionsbaustein aus der gegensätzlichen Richtung:

„Eine digitale Edition kann nicht ohne substanzielle Verluste an Inhalten oder Funktionalitäten gedruckt werden.“


Diese Definition ist zunächst gut, weil sie die Spezifika der digitalen Edition in den Vordergrund stellt. Leider ist sie nicht besonders scharf, weil man sich lange darüber wird streiten können, was „substanziell“ ist. Der Ansatz wurde in der Diskussion dann auch an genau diesem Punkt hinterfragt: Bieten nicht schon digitalisierte Editionen einen funktionalen Mehrwert, wenn man sie z.B. per Knopfdruck durchsuchen kann? Hm, ja, offensichtlich muss es eine Schwelle geben, die überschritten werden muss, um davon reden zu können, dass es sich bei digitalen Editionen um „andere“ Editionen handelt, als die gedruckten Editionen wie wir sie kennen. Diese Schwelle brauchen wir auch deshalb, weil digitale Editionen aus digitalisierten Editionen sehr wohl „herauswachsen“ können. Viele digitale Editionen beginnen mit der Digitalisierung bereits gedruckt vorliegender Editionen. Ab einer bestimmten Ausbau- und Umbaustufe wird man sie dann aber doch als „digitale Editionen“ bezeichnen wollen. Diese Schwelle ist zunächst – wie oben angedeutet – durch Inhalte und Funktionen bestimmt. Hinter dem begrifflichen Wechsel und hinter der Beschreibung von Eigenschaften muss aber letztlich ein konzeptioneller Unterschied stehen. Die digitale Edition ist durch ein eigenes Theoriegebäude und durch eine eigene Methodik bestimmt. Sie folgt einem „digitalen Paradigma“, zu dem eben Konzepte wie Transmedialisierung, abstrakte Modellierung, Daten-Orientierung, Multitext, Prozesshaftigkeit, Transparenz, besere Zugänglichkeit oder vielleicht auch Soziabilität gehören. Wenn ich die Stimmung in der Diskussion richtig gedeutet habe, scheint das auch weitgehend unterstützt zu werden. Zum einen wurde (von, ich glaube, Roberto Rosselli del Turco) einmal mehr darauf hingewiesen, dass ja heute alle Editionen mit digitalen Werkzeugen erstellt würden, man deshalb auch von „digital born printed editions“ sprechen könne, dies aber eben auch noch lange keine digitalen Editionen ausmachen würde. Zum anderen betonte die gewohnt klarsichtige Elena Pierazzo, dass wir digitale Editionen deshalb machen, weil wir andere Gegenstände erschließen und andere Zielstellungen (z.B. in der Repräsentation der Textgenetik) verfolgen wollen. Deshalb könne es nicht darum gehen, bessere Editionen in der Tradition des Buchdrucks zu machen  – selbst dann nicht, wenn man dazu die besten digitalen Mittel einsetzen würde. Man sei schließlich an Dingen interessiert, die im Druck nicht nur nicht möglich sind, sondern in der Druckkultur noch nicht einmal denkbar waren.

Das ist eine klare, aber radikale Position, die wohl nicht von allen geteilt werden würde. Schließlich gibt es daneben auch viele, die betonen würden, dass es sehr wohl auch um die (bessere) Edition von Materalien geht, die man immer schon edieren wollte und um die dabei jetzt anzuwendenden besseren Methoden und Werkzeuge. Aus dieser Perspektive bleibt es schwierig, ein klares Kriterium zu finden, an dem sich die digitalisierte oder bloß irgendwie in digitaler Form vorliegende Edition von der „wirklich“ digitalen Edition unterscheidet.

Die terminologische Trennung scheint übrigens auch auf der internationalen Ebene zu funktionieren: Digitized is not digital. Es gibt zwar auch noch das Wort „digitalized“, aber das scheint (wenn es nicht nur ein furchtbarer Germanismus oder ein einfaches Synonym zu „digitized“ ist) etwas (und zwar verschiedenes) Anderes zu bedeuten.  Nämlich u.a. eine allgemeinere Durchdringung von Wissenschaft und Welt durch die Prinzipien des Digitalen und nicht so sehr das Digital-Werden von bestimmten „Dingen“ oder Informationen. Zuletzt ist „digitalized“ auch in den Digital Humanities auf einem Buchtitel aufgetaucht, nicht aber in dem betreffenden Buch selbst – so dass auch hier weiterhin unklar bleibt, was es denn genau für unseren Fragenkreis bedeuten und beitragen könnte.

Was das Phänomen „eine digitalisierte Edition ist keine digitale Edition“ in seiner sprachlogischen Problematik betrifft, so hätte ich gerne Analogien aus bisherigen Wortentwicklungen. Es müsste so etwas sein wie „ein befreiter Mensch ist kein freier Mensch“ (nur mit mehr Sinn!). Hat jemand ein besseres Beispiel?

Quelle: http://dhd-blog.org/?p=1122

Weiterlesen

Trancribe Bentham in a Panopticon: verspätete Berichterstattung zum Vortrag von Philipp Schofield im Rahmen der Darmstädter Ringvorlesung am 8.11.

Text von Jörg Lehning, TU Darmstadt

Im Rahmen der Ringvorlesung “Digital Humanities” war Philip Schofield, Leiter des Bentham-Projektes und General Editor der Gesammelten Werke Jeremy Benthams zu Gast und erfreute die interessierten Hörerinnen und Hörer mit seinem Vortrag “Transcribe Bentham – An experiment in scholarly crowdsourching”.

Das (im Übrigen preisgekrönte) interdisziplinäre Bentham-Projekt ist ein großartiges Beispiel für ein wissenschaftliches Projekt, das mit den neuen Technologien zusammenwächst. Das “scholarly crowdsourcing”, was man vielleicht mit “wissenschaftliche Bearbeitung durch unwissenschaftliche Mengen” etwas wenig elegant umschreiben könnte, ist hierbei ein elementarer Baustein des Projekts.

Wie Schofield ausführte, sei es auch in diesem Projekt zunächst wichtig, Ziele zu definieren. In diesem Fall sei das die Erstellung einer neuen gedruckten Edition gewesen, ein weiteres, dass diese kostengünstig sein sollte.

Bentham, so Schofield, hätte den technologischen Fortschritt mit offenen Armen begrüßt, und das nicht nur, weil er zeitlebens Technik zur Vereinfachung von Arbeitsabläufen erfunden hatte, sondern auch, weil er mit ihr seine Ideen wesentlich besser hätte umsetzen können.

Das Computerzeitalter wäre mitunter auch hilfreich, veraltete oder nicht hilfreiche Strukturen zu überwinden, meinte Schofield mit Blick auf diverse alte Regularien (Oxford Standard of storage rules), etwas was auch in den Debatten um die Definition der Digital Humanities eine Rolle spielt.

Die Bentham Dokument Datenbank, die von 2003-2006 bearbeitete Dokumente bereitstellt, ist eine zentrale Quelle für Metadaten, die von Editoren und Forschern genutzt werden kann.
Die Technik hat jedoch nicht nur Vorteile: im Rahmen des Arbeitsablaufs wird durch einen wissenschaftlichen Mitarbeiter die Qualität der fertig bearbeiteten Dokumente geprüft, bevor sie hochgeladen werden können. Die Erfahrung zeigt hier, dass händisches XML/TEI-Tagging zu steigender Fehlerzahl und somit auch zu steigendem Zeitverbrauch führen kann. Aber: Die Probleme mit der Technik können mitunter auch durch die Technik behoben werden, so z.B. durch das Interface, das die Text-XML-TEI-Erstellung erleichtert und somit die menschlichen Fehlerquellen in diesem Fall umgeht.

Mitarbeiter werden bei Wunsch genannt und bekommen auch Rückmeldung zu ihrer Arbeit. Von den Transkripten werden 95% von sogenannten “super-transcribers” bearbeitet. Bemerkenswert ist, dass viele der “User”, die an dem Projekt arbeiten, gar nicht unbedingt an Bentham interessiert waren und sind, sondern vor allem die Art der Arbeit im Rahmen des Projekts interessant fanden. Auch die digitale Komponente schien zu reizen.

Projekte wie dieses haben als limitierende Faktoren oft Zeit und Komplexität. Wirtschaftliche Argumente für diese Projekte sind wichtig, wenn es darum geht, sie überhaupt in die Tat umzusetzen. Die ökonomische Rechtfertigung kann hier darin bestehen, dass die Methode des “scholarly crowdsourcing” kosteneffizient ist, z.B. im Vergleich zu bezahlten Forschern.

Abschließend stellte sich Schofield Fragen nach der Berechtigung und dem Erfolg des Projekts und kam zu dem Schluss, dass es ein Erfolg sei, weil Bedarf daran besteht und es wissenschaftlich fundiert sei. Die digitalen Geisteswissenschaften indes würden das Projekt dazu zwingen, die Funde auch mit neuen Methoden aufzubereiten und zu präsentieren.

Fragen hinsichtlich der Existenzberechtigung des Projektes beinhalten die Überprüfung der Zielsetzung Druck im Hinblick auf Ideen und Modelle der “freien Information”. So taucht zum Beispiel die Frage auf, ob nicht nur noch eine editierte Fassung online stehen soll, die die gedruckte Ausgabe ersetzt. Hier stehen sich die Punkte Kosteneffektivität und beständige, gesicherte Referenz durch physikalische Permanenz gegenüber.

Follow us on Twitter: @DHDarmstadt @RappAndrea #DHDarmstadtLecture

Am 22.11.2012 ist Martin Wynne (Oxford University) zu Gast: “Corpus and Text Analysis for Research in the Humanities”; 18.00 Uhr s.t., Schloss, Raum 36. Gäste sind herzlich willkommen.

Quelle: http://dhd-blog.org/?p=1077

Weiterlesen