Anerkennung fürs Bloggen ? Eine Geschichte über die Eigendynamik des Digitalen

Anläßlich des dreijährigen Bestehens der Blog-Plattform de.hypotheses.org findet derzeit eine sogenannte Blogparade statt. Mareike König hat in ihrem Beitrag zu diesem Anlass unter anderem die Frage aufgeworfen, warum sich wissenschaftliches Bloggen “lohnt”, auch wenn diese Praxis nicht als wissenschaftliche Publikation im engeren Sinne anerkannt wird. Der lesenswerte, durchaus etwas provokante Beitrag, der unter anderem die Rolle des post-publication reviews anspricht, also einen Modus der Anerkennung jenseits des peer reviews, hat mich zu dem hier folgenden Erfahrungsbericht angeregt.

Zunächst einmal scheint der primäre Grund für die mangelnde Anerkennung von Blogs nicht mehr so sehr das digitale Medium an sich zu sein, sondern der beim bloggenden Selbstpublizieren fehlende Prozess der Qualitätssicherung und Filterung durch die KollegInnen, bekanntlich auch peer review genannt. Als Ausweg gibt es zwei Strategien: Entweder man folgt der Logik des Print-Zeitalters, in der hübsch gebundenes Papier knapp und teuer ist, führt auch für Blogs eine vorab selektierende Qualitätssicherung ein und entwickelt das Genre gewissermaßen zu einer WordPress-basierten digitalen Zeitschrift für kleinere Beiträge. Oder man folgt der Logik des Digitalen, in dem Speicherplatz fast unbegrenzt und sehr günstig ist und vertraut auf die Mechanismen der Aufmerksamkeitsökonomie und des post-publication reviews, ganz nach Clay Shirky’s Devise: “publish-first, filter later” (kürzlich von Hubertus Kohle diskutiert). Was bedeutet das? Kurz gesagt: Die knappe Ressource ist nicht das Papier, sondern die Zeit der LeserInnen. Und: Alle dürfen alles jederzeit publizieren, aber es gibt Mechanismen, die dafür sorgen, dass bestimmte Beiträge besonders viel Aufmerksamkeit bekommen.

Aber funktioniert das auch? Man wirft dem klassischen peer review immer mal gerne vor, dass hier besonders innovative, randständige oder irgendwie störende Beiträge erst gar nicht zur Publikation kämen. Und man sorgt sich etwas, dass im digitalen post-publication review nur die attraktiven, massenfähigen Beiträge genügend Schwung bekommen, um durch diverse Auszeichnungen die nötige Aufmerksamkeit zu bekommen und nicht völlig unterzugehen, nicht unbedingt die besten Beiträge. Ohne hier darüber urteilen zu können und zu wollen, möchte ich einfach nur an einem persönlichen Beispiel berichten, wie so etwas ablaufen kann, um den Prozess zu veranschaulichen.

Schritt 1: Die Geschichte beginnt Anfang 2013, da hat mich Elisabeth Burr eingeladen, bei der European Summer University im Juli 2013 einen Vortrag zu halten. Es sollte ein Thema von allgemeinerem Interesse sein und ich habe mich entschieden, mir einmal das Thema der “Daten” in den (digitalen) Geisteswissenschaften vorzunehmen. Grundideen des Beitrags waren, dass es in den Geisteswissenschaften “big data” einerseits, “smart data” andererseits gibt; dass wir für beide Datentypen spezifische Methoden haben; aber dass wir eigentlich darauf abzielen sollten, “smarter big data” zu bearbeiten. Und weil mir das Ganze doch etwas komplex erschien und präzise Formulierungen wichtig sind, habe ich den Vortrag in der Vorbereitung schriftlich festgehalten.

Schritt 2: Nachdem der Vortrag gut gelaufen war, ich den Text ohnehin schon hatte, und das Ganze sowieso auf Englisch war, dachte ich mir: Das passt doch wunderbar auf deinen Blog! Also habe ich Ende Juli 2013 den Vortragstext einschließlich ein paar Abbildungen und Ergänzungen auf The Dragonfly’s Gaze publiziert, ohne mir viel dabei zu denken. So weit, so normal. Für mich war das Thema (der Blogpost, nicht die Frage nach den Daten in den Geisteswissenschaften) damit eigentlich erledigt.

Aber hoppla, Schritt 3: Erstens bekam der Beitrag mehrere Kommentare, was auf meinem Blog eher ungewöhnlich ist. Vor allem aber war ein Kommentar dabei, in dem mich die Redaktion von hypotheses.org informierte, dass der Beitrag auf der Startseite von hypotheses.org verlinkt worden ist. Das fand ich toll! (Und nein, das war nicht die Redaktion von de.hypotheses.org, der ich selbst angehöre und für die ich selbst Beiträge auf die Startseite setze, sondern die französische Redaktion.) Der post-publication review hatte gegriffen und eine digitale Dynamik war losgetreten.

Schritt 4: Ein zweiter post-publication review passierte. Die Redaktion von DH Now wurde auf den Blogpost aufmerksam, weil sie in der Zwischenzeit den RSS-Feed meines Blogs in die Liste der Ressourcen aufgenommen hatten, die von freiwilligen, ständig rotierenden Redakteuren wöchentlich gesichtet werden. Und diesmal hat jemand angebissen und den Beitrag bei DH Now mit dem Label “Editor’s Choice” ausgezeichnet, wodurch der Beitrag wiederum auf der Startseite von DH Now landete und noch einmal mehr LeserInnen bekam. (Und ja, ich war auch einmal für ein paar Wochen einer dieser Redakteure, aber das dürfte ein Jahr später keine Rolle mehr gespielt haben; oder ist mein Blog so auf deren RSS-Liste gekommen?). An dieser Stelle wurde mir das fast schon unheimlich. Warum gerade dieser Beitrag?

Und weiter, Schritt 5: Wenige Wochen später, Anfang November 2013, bekam ich eine Mail von Lisa Rhody vom Journal of Digital Humanities, eine Zeitschrift, die bereits erschienene Beiträge aus den DH auswählt und erneut publiziert (und wie DH Now vom Roy Rosenzweig Center for Digital Humanities herausgegeben wird). Lisa Rhody hatte den Beitrag auf DH Now gesehen und schlug mir vor, daraus einen Artikel für JDH zu machen. Wow! Also begann ein erneuter Prozess der Überarbeitung: beim JDH wurde der Beitrag gelesen und ich bekam eine Reihe von Anregungen für Verbesserungen, die unter anderem darauf abzielten, vorhandene Forschung zum Thema etwas stärker einzubinden und den Beitrag sprachlich auf Vordermann zu bringen. Kein sehr strenger peer review-Prozess, aber doch auch keine schlichte Übernahme des vorhandenen Textes.

Schon Mitte Dezember 2013 war es soweit: Was als einfaches Vortragsmanuskript begonnen hatte, war in wenigen Monaten zu einem Artikel im Journal of Digital Humanities geworden! Und einer meiner Posts von The Dragonfly’s Gaze hatte plötzlich wesentlich mehr Aufmerksamkeit bekommen, als die anderen. Dieser kleinen Erfolgsgeschichte stehen natürlich Dutzende Blogposts gegenüber, bei denen nichts derartiges passiert ist. Ob das nun am Thema des Artikels, an seiner Qualität, oder am Zufall der digitalen Dynamik lag, wage ich nicht zu beurteilen. Wahrscheinlich kam alles irgendwie zusammen.

(Dies ist übrigens nur eine von mehreren solcher Geschichten, die ich erzählen könnte. Eine weitere, etwas anders gelagerte, ist die von einem Vortrag über “Collaborative Writing Tools” bei der Digital Humanities Australasia, dessen Slides ich auf Zenodo.org gepostet und darüber getwittert hatte, woraus letztlich ein Blogpost bei Impact of Social Sciences wurde. Der Beitrag wurde anschließend über 700 Mal auf Twitter erwähnt! Vermutlich ist dieser kleine Post in einem halben Jahr öfter gelesen wurde, als alles, was ich sonst je publiziert habe, zusammen genommen. Ist das nun gut oder schlecht?)

Welches Fazit also ziehen? Gewöhnungsbedürftig ist auf jeden Fall der Kontrollverlust über den Prozess, der sich stärker als zuvor aus der Eigendynamik der Mechanismen ergibt, die sich das Feld der Digital Humanities mit Blogplattformen, Twitter, RSS und Initiativen wie DH Now gegeben hat. Diese selbst mitzugestalten dürfte der beste Weg aus diesem Gefühl des Kontrollverlustes sein. Spannend und lehrreich ist dies auf jeden Fall, ebenso wie die Erfahrung, was da mit dem eigenen Beitrag passiert. Und “gelohnt” hatte sich der Beitrag übrigens schon ganz zu Anfang, nach dem Vortrag in Leipzig!

Quelle: http://dhd-blog.org/?p=4611

Weiterlesen

Auftaktworkshop der Nachwuchsgruppe “Computergestützte literarische Gattungsstilistik”

Am 29. September 2014 findet der Auftaktworkshop der Nachwuchsgruppe “Computergestützte literarische Gattungsstilistik” an der Universität Würzburg statt. Alle Interessierten sind herzlich zur Teilnahme eingeladen.

Der Auftaktworkshop hat ein dreifaches Anliegen: Erstens, mit beteiligten und assoziierten WissenschaftlerInnen aus Literaturwissenschaft, Linguistik und Informatik das Rahmenthema der Nachwuchsgruppe zu diskutieren. Zweitens, sich über die geplanten Einzelprojekte der DoktorandInnen auszutauschen. Und drittens, durch eine kleine Anzahl allgemeinerer Vorträge bestimmte Aspekte des Rahmenthemas der Gruppe aus literaturwissenschaftlicher, linguistischer und stilometrischer Perspektive zu vertiefen.


Praktische Informationen

- Termin: Montag, 29. September 2014, 11-19 Uhr
- Ort: Universität Würzburg, Campus Hubland, Philosophie-Gebäude, Bau 2, Übungsräume 9 und 10. Hinweise zur Anreise
- Kontakt: Dr. Christof Schöch, Lehrstuhl für Computerphilologie, Universität Würzburg, christof.schoech@uni-wuerzburg.de
- Anmeldung: Bei Teilnahme am gesamten Workshop wird um formlose Anmeldung beim Veranstalter gebeten. Die Teilnahme nur am Vortragsprogramm ist jederzeit separat und auch ohne Anmeldung möglich.

Programm

10:30-11:00: Empfang der TeilnehmerInnen

Erster Teil: Computergestützte literarische Gattungsstilistik
11:00-11:15: Begrüßung und Einführung
11:15-12:00: Impulsreferat „Ziele, Fragestellungen und Methoden der Nachwuchsgruppe computergestützte literarische Gattungsstilistik“ (Christof Schöch)
12:00-13:00: Paneldiskussion „Perspektiven auf Gattungsstilistik“ (mit Brigitte Burrichter, Andreas Hotho, Fotis Jannidis und Christof Schöch)
13:00-14:00: Mittagspause mit Snacks vor Ort

Zweiter Teil: Literaturwissenschaftliche Einzelprojekte
14:00-15:00: Kurzvorstellung der literaturwissenschaftlichen Einzelprojekte
15:00-16:00: Diskussion der Projekte
16:00-16:30: Kaffeepause

Dritter Teil: Vortragsprogramm (keine Ameldung erforderlich)
16:30-17:15: Vortrag: “Digitale Netzwerkanalyse dramatischer Texte” (Frank Fischer, GCDH Göttingen; Dario Kampkaspar, HAB Wolfenbüttel; Peer Trilcke, SDP Göttingen)
17:15-18:00: Vortrag: „Kontrastive Visualisierung linguistischer Korpora“ (Peter Frankhauer & Elke Teich, Universität des Saarlands)
18:00-18:15: Pause
18:15-19:15: Abendvortrag: „The Dark Side of Stylometry: False Positives and other Disasters“ (Maciej Eder, Paedagocial University, Krakow)

Aktuelle Informationen zum Workshop sowie weitere Informationen zur Nachwuchsgruppe können unter folgender Adresse eingesehen werden: http://clgs.hypotheses.org.

Der Workshop wird im Rahmen der Nachwuchsgruppe „Computergestützte literarische Gattungsstilistik“ durchgeführt, die vom BMBF gefördert wird (Förderkennzeichen 01UG1408).

Quelle: http://dhd-blog.org/?p=4004

Weiterlesen

Rotkäppchen und der böse Wolf? – Das Titelthema „Digitale Geisteswissenschaften“ in Humboldt Kosmos

Kenneth Whitley, „Once upon a time“, ca. 1939. Bildnachweis: Library of Congress Prints and Photographs Division Washington, http://www.loc.gov/pictures/item/98518274/ (public domain).

Kenneth Whitley, „Once upon a time“, ca. 1939. Bildnachweis: Library of Congress Prints and Photographs Division Washington, http://www.loc.gov/pictures/item/98518274/ (public domain).

Die Digitalen Geisteswissenschaften bleiben im Gespräch! Nach der großen Herrenhausen-Tagung der Volkswagen Stiftung im Dezember 2013, dem ausführlichen duz-Themenheft vom November 2013, das den schönen Titel „Digitale Geisteswissenschaften – Die Nerds unter den Denkern“ hatte, sowie der ersten Jahrestagung des Verbands der Digitalen Geisteswissenschaften im deutschsprachigen Raum (DHd) in Passau mit über 350 TeilnehmerInnen, stehen die Digitalen Geisteswissenschaften nun erneut im Fokus der geisteswissenschaftlichen Öffentlichkeit: Im August diesen Jahres ist Humboldt Kosmos, das Magazin der Alexander von Humboldt Stiftung, mit dem Titelthema „Digital Humanities – Rotkäppchen 2.0“ erschienen (Heft 102/2014).

Das Titelthema wird im Kontext des Wissenschaftsjahrs 2014 präsentiert, das unter dem Motto „Die digitale Gesellschaft“ steht, und erscheint sowohl auf deutsch als auch auf englisch. Auch das Engagement der Humboldt-Stiftung in diesem Bereich, insbesondere mit der Einrichtung der hochdotierten Humboldt-Professur „Digital Humanities“ in Leipzig, die bekanntlich mit Gregory Crane besetzt wurde, dürfte eine Rolle bei der Wahl des Themas gespielt haben.

Der Beitrag der Wissenschaftsjournalistin Lilo Berg beleuchtet verschiedene Einsatzgebiete digitaler Daten und Methoden in den Geisteswissenschaften und zeigt überzeugend deren Nützlichkei für die Forschung auf, nicht ohne auch problematische Aspekte anzusprechen. Der Haupttext, in dem zahlreiche prominente deutsche VertreterInnen der digitalen Geisteswissenschaften sowie einige kritische Stimmen zu Wort kommen, wird flankiert von Kurzprofilen der Beitragenden, einer Übersicht zu relevanten Studienangeboten und Zentren, einer kurzen Geschichte der Digital Humanities sowie einer Liste von Zeitschriften, Verbänden und Projekten aus dem Bereich der Digitalen Geisteswissenschaften. Ohne Zweifel bringt ein solcher Beitrag dem Thema viel Aufmerksamkeit und man kann sich daher eigentlich nur darüber freuen! Zugleich stolpert man als selbst in den Digitalen Geisteswissenschaften engagierter Wissenschaftler doch über die eine oder andere Passage, die das Feld weniger überzeugend porträtiert.

Zunächst einmal wird aber der große Nutzen digitaler Daten und Methoden für genuin geisteswissenschaftliche Fragestellungen, die zudem auf breites Interesse stoßen, nicht nur an zahlreichen Beispielen aus der Forschungspraxis der für den Beitrag befragten ForscherInnen aufgezeigt, sondern eben auch an dem wunderbaren Beispiel, das dem Themenheft seinen Titel gibt: Rotkäppchen. Was für die Gebrüder Grimm mangels Daten und Methoden eine unerreichbare Herausforderung war, nämlich die Ergründung der weltweiten Verbreitung des Rotkäppchen-Themas und die Suche nach einem möglichen Ursprung der Erzählung, wird mit digitalen Daten und Methoden erstmals möglich. Der Beitrag berichtet von den Arbeiten des Anthropologen Jamshid Tehrani, der auf der Grundlage zahlreicher (allerdings bei weitem nicht aller) Fassungen von Rotkäppchen aus unterschiedlichen Kulturkreisen und unter Nutzung digitaler Methoden, unter anderem Algorithmen aus der Phylogenetik, zu verlässlichen und neuen Ergebnissen kommt: Er zeigt, dass die Frage nach einem gemeinsamen Ursprung schlecht gestellt ist, sondern dass es vielmehr drei große Familien des Themas gibt, wie sie in Asien, Afrika und Europa existieren. (Wer den Originalbeitrag von Tehrani lesen möchte, kann dies übrigens in der ausgezeichneten Zeitschrift PLOSone tun, wo der Beitrag im Open Access erschienen ist.)

So schön dieses und weitere Beispiel sind, so schade ist allerdings auch, dass der Artikel immer wieder etwas verkürzend oder unkritisch verfährt, sowohl wenn es um bestimmte Details der digitalen Forschungspraxis und -methoden geht, als auch insbesondere dann, wenn es um die Argumente der Kritiker der Digitalen Geisteswissenschaften geht. Ein erster Punkt betrifft das disziplinäre Profil der Digitalen Geisteswissenschaften. Es fällt zum Beispiel (insbesondere den Literaturwissenschaftlern unter uns) auf, dass die Linguistik und Archäologie als Pioniere der Digitalen Geisteswissenschaften genannt werden, dann weitere Disziplinen genannt, die Literaturwissenschaft aber an dieser Stelle überhaupt nicht erwähnt, sondern offenbar unter die Linguistik subsumiert wird. Im überwiegenden Teil des Beitrags geht es dann umgekehrt vor allem um literaturwissenschaftliche Gegenstände und Methoden, und die Literaturwissenschaften im weitesten Sinne sind – mit Gregory Crane, Martin Hose, Fotis Jannidis, Gerhard Lauer, Jan-Christoph Meister, Claudine Moulin, und Gerhard Wolf – die bei weitem am Besten vertretene Disziplin im Beitrag. Zwar kommen Archäologie und Linguistik noch kurz zur Sprache, die zahlreichen Aktivitäten und Initiativen in anderen Bereichen der Digitalen Geisteswissenschaften in Deutschland – man denke insbesondere an die Geschichte, Kunstgeschichte oder Musikwissenschaft, bleiben leider unerwähnt. Das disziplinäre Profil der Digitalen Geisteswissenschaften ist viel breiter und viel interdisziplinärer, als es der Beitrag vermittelt.

Ziemlich befremdlich ist außerdem, dass ohne jegliche kritische Distanz die Digitalen Geisteswissenschaften für ein bestimmtes Übel der Gegenwart verantwortlich gemacht werden. Es mag ja sein, dass die Konzentrationsfähigkeit und sprachliche Sicherheit von Studierenden (zumindest aus Sicht der ProfessorInnen) unzureichend ist, und vielleicht stimmt es ja tatsächlich, dass diese beiden Kompetenzen bei Studienanfängern über die Jahre hinweg abnehmen. Die Digital Humanities, so wird im Beitrag Gerhard Wolf zitiert, verstärkten diesen Trend! Wenn es diesen Trend gibt (der Punkt ist durchaus umstritten), so ist dafür doch allenfalls die übergreifende Digitalisierung des gesellschaftlichen Lebens und der Medien insgesamt verantwortlich zu machen, nicht jedoch ein noch kleiner Teil des Wissenschaftsbetriebs, mit dem die allermeisten StudienanfängerInnen während ihrer Schulausbildung und Sozialisation bis dahin wohl kaum in Berührung gekommen sein dürften. Glücklicherweise ist das wirklich ein Randthema des Beitrags.

Wirklich ärgerlich wird es allerdings beim Thema Forschungsförderung. Hier übernimmt der Beitrag unkritisch die Strategie eines seiner Beiträger, etablierte und digitale Geisteswissenschaften gegeneinander auszuspielen. Einer der Kritiker der Digitalen Geisteswissenschaften, Gerhard Wolf, wird mit folgendem Hinweis zitiert: „Digitalprojekte verschlingen Ressourcen, die wir dringend für unser geisteswissenschaftliches Kerngeschäft bräuchten“. Dass die dann von Wolf genannten Kernaufgaben, „interpretatives Erforschen und Editieren“ selbstverständlich von den digitalen GeisteswissenschaftlerInnen praktiziert werden, bleibt unerwähnt. Auch sei die Langzeitverfügbarkeit digitaler Objekte “nicht gewährleistet” und die “Abhängigkeit von der Technik nehme besorgniserregend zu”. Hier bleibt die Tatsache unerwähnt, dass die Langzeitverfügbarkeit papierbasierter Editionen auch nicht an sich gewährleistet ist, sondern erst durch eine über Jahrhunderte gewachsene und institutionalisierte Bibliothekslandschaft möglich wird, mithin durch Infrastrukturen, von denen wir abhängig sind. Die Anstrengungen, um eine vergleichbar tragfähige und dauerhaft verlässliche digitale Infrastruktur für digitale Objekte zu schaffen (in der Tat nach wie vor eine Herausforderung!), in der Digitalisate sicher aufbewahrt, langfristig verfügbar und unter neuen Fragestellungen nutzbar sind, werden erst seit verhältnismäßig kurzer Zeit und mit vergleichsweise geringen Mitteln betrieben. Niemand würde fordern, statt Bibliotheken doch lieber Forschung zu fördern, denn Bibliotheken sind unbestrittene Grundlage für Forschung. Ebenso verhält es sich mit der digitalen Infrastruktur: auch sie ist Grundlage (digitaler) Forschung und auch sie muss in vergleichbarer Weise wie die analoge Forschungsinfrastruktur institutionalisiert und dauerhaft gefördert werden. Vor allem aber: Alle GeisteswissenschaftlerInnen sollten an einem Strang ziehen, um ihre wissenschaftliche und gesellschaftliche Bedeutung sichtbar zu machen und mit ihren (auch, aber nicht nur finanziellen) Bedürfnissen bei Politik und Forschungsförderern gehört zu werden!

Was bleibt als Fazit? Einen Blogpost über einen wissenschaftsjournalistischen Beitrag schreibt man nicht, um seine Stärken zu loben. Daher lag hier der Schwerpunkt auf einigen Aspekten des Beitrags, die aus Sicht der Digitalen Geisteswissenschaften eher kritisch zu sehen sind. Es bleibt zu hoffen, dass sich die sicherlich zahlreichen GeisteswissenschaftlerInnen, die den Beitrag lesen werden, in der Lage sind, die Verkürzungen des Beitrags zu erkennen und ihnen vor allem die wunderbaren Anwendungsbeispiele im Gedächtnis bleiben, die zeigen, wie vielfältige neue Erkenntnisse und neue Fragestellungen durch digitale Daten und Methoden möglich werden!

Quelle: http://dhd-blog.org/?p=3953

Weiterlesen

DARIAH-DE Tutorial “Digitale Textedition mit TEI” online

Kodierung von "surface" und "zone" beim dokument-zenrierten Kodieren mit TEI.

Kodierung von “surface” und “zone” beim dokument-zenrierten Kodieren mit TEI.

Das DARIAH-DE Tutorial Digitale Textedition mit TEI ist nun vollständig online. Das Tutorial, das Teil der DARIAH-DE Schulungsmaterialien ist, besteht aus einer Reihe von Kapiteln, die aufeinander aufbauend in verschiedene Aspekte der Kodierung und Edition von Texten nach den Guidelines der Text Encoding Initiative einführen.

Das Tutorial ist für den Einsatz in der Lehre konzipiert, kann aber auch im Selbststudium eingesetzt werden. Für weiterführende Lektüre zum Thema verweisen wir auf die Sammlung zum Thema “Enrichment” in der Doing Digital Humanities”-Bibliographie, die von DARIAH-DE auf Zotero zur Verfügung gestellt wird.

Jedes Kapitel behandelt einen bestimmten Aspekt des Themas und besteht jeweils aus drei Elementen: erstens aus einem Foliensatz für ein Inputreferat, das in die wichtigsten jeweils einschlägigen Begriffe und Elemente der TEI einführt; zweitens aus einem oder mehreren Aufgabenblättern, die zur praktischen Einübung des Gelernten dienen; und drittens aus den diversen Materialien, die für die Bearbeitung der Aufgaben notwendig sind, bspw. digitale Faksimiles, Transkriptionen, XML-Dateien, und mehr. Das Tutorial umfasst die folgenden Kapitel:

  1. Einführung in die digitale Textedition
  2. Was sind Markup und XML?
  3. Grundlagen der Textkodierung mit TEI
  4. Die TEI Guidelines, Kapitel 1-23
  5. Metadaten im teiHeader festhalten
  6. Primärquellen kodieren
  7. Varianten kodieren
  8. Dokument-zentriertes Kodieren
  9. Manuskript-Beschreibung
  10. TEI anpassen mit Roma
  11. Verwendung von XPath

Die Tutorials wurden von Christof Schöch an der Universität Würzburg umgesetzt und sind in den vergangenen zwei Jahren u.a. im Rahmen von DARIAH-DE entwickelt worden und konnten bisher in einer Reihe von Lehrveranstaltungen (universitäre Lehrveranstaltungen auf BA-Niveau sowie diverse Workshops für NachwuchswissenschaftlerInnen aus den Geisteswissenschaften) eingesetzt werden. Die Publikation als DARIAH-DE Schulungsmaterial konnte mit Unterstützung durch Mareike Laue, Philip Dürholt, Sina Bock und Keli Du, Universität Würzburg, realisiert werden. Die Aufgabenblätter selbst sind in TEI geschrieben und wurden mit Hilfe des Satzprogramms XML-Print automatisch in PDF-Dateien verwandelt.

Die Folien und Aufgaben basieren in großen Teilen auf den Materialien, die das Team “Digital Humanities @ Oxford” für die dortige Summer School 2012 entwickelt und veröffentlich hat. Die Materialien sind durchgehend nicht nur übersetzt, sondern auch weiter entwickelt und durch neue Themen, Aufgaben und Materialien ergänzt worden. Dies ist aufgrund der Creative-Commons-Lizensierung der Oxforder Materialien möglich. Wir publizieren die vorliegenden Tutorials mit der Lizenz Creative Commons Attribution 4.0 International (CC-BY), um weitere Bearbeitungen zu ermöglichen.

Neben den PDF-Dateien, die zur unmittelbaren Nutzung heruntergeladen werden können, stehen auch die XML-Dateien der Aufgabenblätter <http://dev.dariah.eu/svn/TTEI/Aufgaben/XML/> (einschließlich des RNG-Schemas, der ODD-Datei sowie der beiden Konfigurationsdateien für XML-Print) zum Download bereit. Dadurch können im Sinne der CC-BY Lizenz von Dritten Anpassungen an den Aufgaben vorgenommen und erneut mit XML-Print veränderte PDF-Dateien generiert werden. Die Speicherung im Hintergrund erfolgt in einem SVN-Repository, das die Nachverfolgung aller zukünftigen Änderungen erlaubt.

Über Rückmeldung zu dem TEI-Tutorial (sei es Lob, seien es Hinweise auf Ungenauigkeiten) freuen wir uns sehr und bitten um eine kurze Email an christof.schoech@uni-wuerzburg.de.

Quelle: http://dhd-blog.org/?p=3722

Weiterlesen

TAToM, oder: Text Analysis with Topic Models (Tutorial)

Eine "topic heatmap" für die Tragödien von Jean Racine

Eine “topic heatmap” für die Tragödien von Jean Racine

Die Schulungsmaterialien “TAToM – Text Analysis with Topic Models for the Humanities and Social Sciences“, die von Allen Riddell im Rahmen von DARIAH-DE erstellt wurden, sind soeben erschienen.

Sie bestehen aus einer Serie von Tutorials, die grundlegende Verfahren der quantitativen Textanalyse abdecken. Sie thematisieren die Vorbereitung eines Textkorpus für die Analyse sowie die Exploration von Textsammlungen mit Verfahren wie Topic Modeling und Maschinellem Lernen. Besonderes Augenmerk liegt darauf, dass NutzerInnen weitestgehende Kontrolle über die Vorgänge der Textprozessierung behalten können. Wichtig war bei der Entwicklung der Materialien darüber hinaus, den Aspekt der Visualisierung von Topic Models mit in das Verfahren einzubeziehen.

Die Tutorials behandeln sowohl einige grundlegende als auch fortgeschrittene Themen und bauen in gewisser Weise auf den Materialien zu Python Programming for the Humanities von Folgert Kastorp und Maarten van Gompel auf bzw. setzen diese teilweise voraus. Die Tutorials nutzen in erster Linie die beliebte Skriptsprache Python, um mit den Textdaten umzugehen.

Die Inhalte in der Übersicht:
- Preliminaries & Getting started
- Working with text
- Preprocessing
- Feature selection: finding distinctive words
- Topic modeling with MALLET
- Topic modeling in Python
- Visualizing topic models
- Classification, Machine Learning, and Logistic Regression
- Case Study: Racine’s early and late tragedies

Die Tutorials wurden von Allen Riddell für DARIAH-DE verfasst und im März 2014 in Version 1.0 veröffentlicht. Die Koordination lag bei Christof Schöch am Lehrstuhl für Computerphilologie der Universität Würzburg. Rückmeldung zu den Tutorials ist immer willkommen, ebenso wie Hinweise auf Fehler. Bitte nutzen Sie hierfür den issue tracker auf GitHub. Die Tutorials werden unter der Lizenz Creative Commons Attribution 4.0 International zur Verfügung gestellt.

Quelle: http://dhd-blog.org/?p=3275

Weiterlesen

Neuerscheinung: Literaturwissenschaft im digitalen Medienwandel

Im September 2012 fand in Leipzig im Rahmen des 8. Kongresses des Frankoromanistenverbands eine Sektion zum Thema  “Revoluton der Medien, Evolution der Literaturwissenschaft?” statt, die von Christof Schöch (Lehrstuhl für Computerphilologie, Univ. Würzburg) und Lars Schneider (Institut für Romanistik, LMU München) geleitet wurde.

Edition "Moralische Wochenschriften": Analyseansicht mit hervorgehobenen Personen, Orten und Werken.
Edition “Moralische Wochenschriften”: Analyseansicht mit hervorgehobenen Personen, Orten und Werken. (Aus dem Beitrag von Martina Semlak)

Die Beiträge dieser Sektion sind nun als Beiheft 7 zu Philologie im Netz (PhiN) unter dem Titel Literaturwissenschaft im digitalen Medienwandel erschienen. Der Sammelband fragt nach konkreten Impulsen, die der gegenwärtige Medienwandel den Literaturwissenschaften verleiht. Sein Vorgehen ist vor allem pragmatischer Natur: Die Beiträge widmen sich der Erschließung von Forschungsgegenständen bei der digitalen Textedition, ihrer Analyse mit Hilfe quantitativer Verfahren der Textanalyse, bei der sowohl technische als auch menschliche Syntheseleistungen entscheidend sind, sowie der Dissemination von Forschungsergebnissen und neuen Formen des Zusammenarbeitens.

Die Beiträge erscheinen im Open Access (CC-BY) und sind teils auf Deutsch, teils auf Französisch verfasst.

Inhaltsverzeichnis

  • Lars Schneider & Christof Schöch: Literaturwissenschaft im digitalen Medienwandel: Einleitung
  • Klaus-Dieter Ertler: Die Gattung der frankophonen “Spectators” im Spiegel der zeitgenössischen Medienrevolution
  • Martina Semlak: Digitale Edition als Instrument für literaturwissenschaftliche Forschung
  • Anne Baillot: Les corpus français sont-ils allemands? Éditer des textes de la Prusse frédéricienne en Allemagne
  • Delphine Dufour: L’enjeu numérique dans l’édition de la correspondance de Marceline Desbordes-Valmore
  • Isabel Rio Novo & Célia Vieira: e-Poeticae – Textes de théorisation littéraire en ligne
  • Glenn Roe: L’étude littéraire à l’ère du numérique : du texte à l’intertexte dans les “digital humanities”
  • Anne-Sophie Bories: Taratantara : la mémoire et l’oubli du décasyllabe dans la poésie de Raymond Queneau
  • Christof Schöch: Corneille, Molière et les autres. Stilometrische Analysen zu Autorschaft und Gattungszugehörigkeit im französischen Theater der Klassik
  • Lilian Landes: Flexibel, fluide, filternd. Weshalb die Geisteswissenschaften stärker von der Netzkultur profitieren sollten
  • Annette Keilhauer: Perspectives des études genre à l’ère de la numérisation
  • Thomas Stöber: Der “digitale Schreibtisch”: Innovationsmanagement und Vernetzung für das wissenschaftliche Arbeiten
  • Jörg Dünne: Das Jules Verne-Projekt – Alternative Heuristiken literaturwissenschaftlicher Forschung

Quelle: http://dhd-blog.org/?p=3196

Weiterlesen

1 Halbtagsstelle für eine(n) wissenschaftliche(r) Mitarbeiter(in) Digital Humanities (m/w)

Am Am Lehrstuhl für Computerphilologie und Neuere Deutsche Literaturgeschichte der Julius-Maximilians-Universität Würzburg ist ab 01.03.2014, folgende Stelle befristet bis zum 31.12.2015 zu besetzen:

1 Halbtagsstelle für eine(n) wissenschaftliche(r) Mitarbeiter(in) Digital Humanities (m/w)

Die Vergütung erfolgt nach TV-L.

Die Aufgabe des/der zukünftigen Stelleninhabers/in besteht in der Koordination des Infrastrukturprojektes DARIAH-DE. Im vom BMBF geförderten Verbundvorhaben DARIAH-DE arbeiten Wissenschaftler aus unterschiedlichsten Einrichtungen und Disziplinen zusammen, um Geistes- und Kulturwissenschaftler, die mit digitalen Ressourcen und Methoden arbeiten, in Forschung und Lehre zu unterstützen. Das Projekt baut zu diesem Zweck eine Forschungsinfrastruktur für Werkzeuge und Forschungsdaten auf und entwickelt Materialien für Lehre und Weiterbildung im Bereich Digital Humanities (DH).

Sie arbeiten mit Kolleginnen und Kollegen aus Partnerinstitutionen in ganz Deutschland zusammen. Der Schwerpunkt Ihrer Arbeit wird in der institutionsübergreifenden Koordination der Aktivitäten im Teilprojekt „Big Data in den Geisteswissenschaften“ liegen. Hierzu gehört auch die Organisation von akademischen Workshops und Symposia. Zudem werden Sie an der Erarbeitung und Vermittlung fachspezifischer und fächerübergreifender Methoden, Standards  und Empfehlungen zur Erschließung und Analyse geisteswissenschaftlicher Forschungsdaten mitwirken.

Erforderliche Voraussetzungen sind die Folgenden:
- Abgeschlossenes Hochschulstudium (Master/Magister/Diplom), in einem geisteswissenschaftlichen Fach oder in der Informatik;
- Interesse an der Entwicklung digitaler Methoden für die geisteswissenschaftliche Forschung;
- gute Englischkenntnisse;
- Bereitschaft zur interdisziplinären Zusammenarbeit;
- ausgeprägte Kooperations- und Organisationsfähigkeit;
- hohe Bereitschaft zur eigenständigen Einarbeitung in neue Softwarekenntnisse;
- wünschenswert sind vertiefte IT-Anwenderkenntnisse, Erfahrungen in der
Organisation von Projekten und im Umgang mit Forschungsdaten.

Die Universität strebt eine Erhöhung des Frauenanteils an und ist daher ausdrücklich an Bewerbungen entsprechend qualifizierter Frauen interessiert. Schwerbehinderte Bewerberinnen und Bewerber werden bei ansonsten im Wesentlichen gleicher Eignung bevorzugt eingestellt.

Bewerbungen sind bis 15.01.2014 zu richten an: Barbara Gersitz (barbara.gersitz@uni-wuerzburg.de, +49 (0)931-31 88421).

Quelle: http://dhd-blog.org/?p=2871

Weiterlesen

DARIAH-DE Workshop “Introduction to the TXM Content Analysis Platform”

The Department for Literary Computing, Würzburg University, will organize a DARIAH-DE Workshop called “Introduction to the TXM Content Analysis Platform”.

Workshop outline

The objective of the “Introduction to TXM” tutorial is to introduce the participants to the methodology of text analysis through working with the TXM software directly on their own laptop computers. At the end of the tutorial, the participants will be able to input their own textual corpora (Unicode encoded raw texts or XML/TEI tagged texts) into TXM and to analyze them with the panel of content analysis tools available: word patterns frequency lists, kwic concordances and text browsing, rich full text search engine syntax (allowing to express various sequences of word forms, part of speech and lemma combinations constrained by XML structures), statistically specific sub-corpus vocabulary analysis, statistical collocation analysis, etc.). The portal version of TXM, allowing the on line access and analysis of corpora, will also be introduced.

Basic information

  • Time: February 6-7, 2014
  • Place: Würzburg University (details tba)
  • Workshop leader: Serge Heiden (Lyon)
  • Local organizer: Christof Schöch (Würzburg)

For further information:

Practical matters

The workshop is aimed at younger as well as experienced scholars from the humanities dealing with textual data. It is being organized by the Department for Literary Computing at Würzburg University, Germany, under the auspices of the DARIAH-DE initiative. It will be held by Serge Heiden, leader of the TXM project. It will take place on Feb. 6-7, 2014 at Würzburg University.

The maximum number of participants is limited to 15 and places will be filled on a first-come first-serve basis. The deadline for applications is January 20th, 2014. There is no fee for participating in this event. You will need to bring along your own laptop computer. Access to the internet will be available. Please contact Dr. Christof Schöch for further details and to sign up for the event at christof.schoech@uni-wuerzburg.de.

Preliminary programme

Thursday, February 6

  • 13:30-14:00 – Welcome
  • 14:00-15:30 – Introduction to TXM
  • 15:30-16:00 – Coffee break
  • 16:00-17:30 – Hands-on Session 1
  • 18:00-19:15 – Lecture by invited speaker (tba)
  • 20:00- – Dinner

Friday, Feb 7

  • 9:00-11:00 – Hands-on Session 2
  • 11:00-11:30 – Coffee break
  • 11:30-13:00 – Hands-on Session 3
  • 13:00-13:30 – Final discussion and farewell

Note: This event is being organized by DARIAH-DE with funding provided by the German Federal Ministry of Education and Research (BMBF) under the identifier 01UG1110J.

Quelle: http://dhd-blog.org/?p=2782

Weiterlesen

Geisteswissenschaftliches Bloggen – wie, warum und wozu?

Eintägiger Workshop zur Einführung in Fragen und Praxis des geisteswissenschaftlichen Bloggens heute (24. Januar 2014, Berlin)

Die Idee des geisteswissenschaftlichen Bloggens mutet in vielerlei Hinsichten geradezu konträr zur geisteswissenschaftlichen Praxis an, wo Zwischenstufen in der Regel nicht veröffentlicht werden, der Sprachduktus anonymisiert ist und Transdisziplinarität eher gut klingt als dass sie Anerkennung fördert.

In diesem Workshop geht es darum, die Bedingungen auszuloten, unter denen es Sinn macht, sich als GeisteswissenschaftlerIn in der Blogosphäre zu betätigen. Wie fördert Bloggen die Entwicklung der eigenen Forschung? Was kann man sich davon erhoffen? Und wie geht das überhaupt?

Der Workshop richtet sich an fortgeschrittene StudentInnen und WissenschaftlerInnen aller geisteswissenschaftlichen Fachrichtungen. Die Vormittagsrunde ist öffentlich, während zur Nachmittagsrunde aufgrund der begrenzten Zahl verfügbarer Plätze bevorzugt TeilnehmerInnen akzeptiert werden, die eine konkrete Blog-Idee mit der Blogplattform de.hypotheses. org ins Auge fassen oder die Plattform bereits nutzen.

Die Veranstaltung wird von Anne Baillot mit der Unterstützung vom Centre Marc Bloch und von DARIAH-EU organisiert und findet am 24. Januar 2014 im Centre Marc Bloch (Friedrichstrase 191, Berlin) statt.

Um Anmeldung wird bis 15.01.2014 jeweils für die Vormittags- und für die Nachmittagssitzung über folgende Seite gebeten: http://www.digital-humanities-berlin.de/wissenschaftliches-bloggen Fragen zum Workshop sind an anne.baillot@hu-berlin.de zu richten.

Programm

9:15-12:30 Geisteswissenschaftliches Bloggen – wie, warum und wozu?

9:15 Anne Baillot: Begrüßung und Einführung

9:30 Christof Schöch: Wissenschaftliches Bloggen im Kontext digitaler Publikationsmedien

10:00 Laurent Romary: Nein, meine Ideen werden mir nicht geklaut, wenn ich sie online stelle

10:30 Kaffeepause

11:00 Jan Hecker-Stampehl: Wissenschaftliches Bloggen als Wissenstransfer

11:30 Anne Baillot und Studierende des Seminars „WP als literaturwissenschaftliches Instrument“: Einzelbloggen vs. Gemeinschaftsbloggen – Erfahrungsberichte

Die Referenten führen selbst Blogs, auf die im Laufe der Veranstaltung Bezug genommen wird:

12:00-14:00 Mittagspause

14:00-18:00 Sascha Foerster: Einführung in das wissenschaftliche Bloggen mit WordPress bei de.hypotheses

Sascha Foerster ist Community Manager bei de.hypotheses.org und hat bereits eine Reihe von Schulung in ganz Deutschland durchgeführt.

Für die Nachmittagssitzung ist jede(r) TeilnehmerIn gebeten, den eigenen Laptop mitzubringen.

Quelle: http://dhd-blog.org/?p=2687

Weiterlesen

Was Sie schon immer über “research technologists” wissen wollten und nie zu fragen wagten

Vom 11. bis 12. März fand am Corpus Christi College in Oxford ein Workshop zum Thema “Recognising Research Technologists in Research: an Action Plan” statt. Der Workshop wurde von JISC (UK) gemeinsam mit SURF (NL) und dem CSC (FIN) organisiert und fand im Rahmen des e-Infrastructure Policy Forums statt. Zwei kurze Tage lang diskutierten Wissenschaftler aus unterschiedlichen Disziplinen und europäischen Ländern darüber, was “research technologists” definiert, welche Rolle sie im Forschungsprozess insbesondere im Kontext der Digitalisierung haben, und wie man ihren Status und ihre Karrierepfade, ihre Ausbildung und ihre Anerkennung verbessern könnte. Einige Ergebnisse des Workshops sollen hier in Form von Frage & Antwort berichtet werden.

1. Was sind “research technologists” überhaupt?

Torsten Reimer, "Old Tunnel, New Light"

Licht am Ende des Tunnels? (Keller der Bodleian Library, Oxford) – Torsten Reimer, “Old Tunnel, New Light”. Mit freundlicher Genehmigung, all rights reserved, Quelle: http://www.flickr.com/photos/torstenreimer/8554250760/sizes/h/in/photostream/.

Der Begriff “research technologist” (je nach Kontext auch “scientific programmer” oder “data technologist” genannt) bezeichnet kurz gesagt eine Personengruppe, die technisch-informatische Kompetenzen und Lösungen in den wissenschaftlichen Forschungsprozess einbringt. Dabei kann man sie in einem Kontinuum verorten, das zwischen zwei Polen aufgespannt ist: auf der einen Seite die rein auf ihre disziplinäre Forschung fokussierten Wissenschaftler (von denen heute allerdings zumindest eine gewisse technische Expertise erwartet wird); auf der anderen Seite die reinen technischen oder informatischen Dienstleister, die generische Standard-Lösungen für bestimmte Probleme (wie Datenspeicherung, Datenmanagement, Retrieval-Lösungen, etc.) anbieten können. Zwischen diesen beiden Polen sind einereits, näher am wissenschaftlichen Pol, die “digital humanists” oder “e-scientists” angesiedelt, die zwar primär ihren eigenen Forschungszielen verpflichtet sind, diese Ziele aber unter Einsatz individuell angepasster technologischer Lösungen zu erreichen suchen; andererseits, und näher am technologischen Pol angesiedelt, gibt es eben die research technologists, die einen primär technisch-informatischen Hintergrund mit einem tieferen Verständnis für Forschungsfragen verbinden und die forschungsgetriebene, individuell angepasste technologische Lösungen entwickeln und umsetzen.

2. Warum sind “research technologists” wichtig?

Im Kontext der zunehmenden Digitalisierung des kulturellen Erbes in den Geisteswissenschaften, der evidenzbasierten Sozialwissenschaften und der datengetriebenen Naturwissenschaften ist innovative Forschung ohne spezifische technisch-informatische Kompetenzen, die über generische Standard-Lösungen hinaus gehen, kaum noch denkbar. Die Europäische Kommission und das eIPF haben jedenfalls formuliert, dass ohne eine gut aufgestellte community von research technologists wettbewerbsfähige Forschung in den nächsten Jahren und Jahrzehnten zunehmend schwieriger sein wird. Die Spezialisierung und Arbeitsteilung in der Wissenschaft macht es zunehmend unmöglich, dass ein/e einzelne/r Wissenschaftler/in alle im engeren Sinne forschungsgetriebenen und alle technologischen Aspekte seiner/ihrer Forschung selbst beherrschen, anpassen und neu entwickeln kann. Zugleich sind “research technologists” mit meist informatischem Hintergrund in der Industrie und dem Service-Sektor gefragte Arbeitskräfte, sodass es für die Wissenschaft oft schwierig ist, geeignete Mitarbeiter/innen zu finden und zu halten. Viele Projekte in den digitalen Geisteswissenschaften sind davon betroffen.

3. Warum ist der Status von research technologists derzeit problematisch?

Zur Zeit haben “research technologists” keinen klar definierten Status; den meisten Wissenschaftlern ist der Begriff selbst unbekannt. Da sie nicht selbst disziplinär verankerte Forschungsprojekte leiten oder eine solche Leitungsposition anstreben, steht ihnen anders als “normalen” Wissenschaftlern keine akademische Karriere offen. Da sie andererseits nicht zum festen Personal von Rechenzentren gehören, die überwiegend nicht für so forschungsnahe und projektgetriebene Forschungsprojekte zuständig sind, haben sie auch hier keine konkreten Aufstiegschancen. Weil sie überwiegend projektbasiert eingestellt werden, sind sie zumindestens in den Geistes- und Sozialwissenschaften häufig befristet und unsicher beschäftigt. Und weil sie zu oft als Dienstleister gesehen werden, und nicht als vollwertig am Forschungsprozess beteiligte, sind sie häufig nicht Ko-Autoren wissenschaftlicher Artikel über ihr Forschungsprojekt und bekommen demnach nicht einmal symbolisches akademisches Kapital für ihre Arbeit.

4. Was können verschiedene Akteure unternehmen?

Es wurden verschiedenste Lösungsansätze diskutiert, vier davon scheinen mit aber besonders wichtig. Erstens sollte der genuine, forschungsorientierte Beitrag, den “research technologists” zum Forschungsprozess beitragen dadurch gewürdigt werden, dass sie mit Bezug auf ihre Gehaltsstufe als Wissenschaftler eingestuft werden oder zumindest besser gestellt werden, als dies derzeit oft der Fall ist. Zweitens und kurzfristig sollten sie aus dem gleichen Grund am Verfassen und Publizieren von wissenschaftlichen Artikeln beteiligt werden, was möglicherweise die Inhalte ebenso beeinflussen würde wie die geeigneten Publikationsorte. Drittens und mittelfristig sollten veränderte Publikationsgewohnheiten es “research technologists” erlauben, durch die Publikation von Tools und Code ebenfalls “academic credit” zu erwerben. Viertens (und das scheint mir der Bereich zu sein, wo am deutlichsten eine win-win-Situation hergestellt werden könnte), sollten an den Universitäten idealerweise auf Fakultätsebene “Research Technology Centers” oder “Digitale Forschungszentren” eingerichtet werden, die “research technologists” dauerhaft eingerichtete Stellen anbieten können. Das würde den RTs eine dauerhafte Perspektive eröffnen und es Projekten zugleich erlauben, zeitweise und flexibel Expertise ins Projekt zu holen, ohne dass die RTs nach Abschluss des Projekts auf der Straße stehen, und ohne dass der Universität wertvolle Expertise verloren geht.

Klar wird auf jeden Fall, dass die Entwicklung in der Forschungspraxis nicht haltmacht, während die kulturellen und institutionellen Gegebenheiten nur langsam reagieren. Hier sind in der Tat individuelle Forscher/innen ebenso gefragt wie Entscheider/innen auf institutioneller Ebene! Auch Input aus der Community ist hier gerne gefragt: Welche (vielleicht abweichende) Erfahrungen haben Sie in Ihren Projekten mit “research technologists” gemacht? Sind Sie vielleicht selbst eine/r? Was sehen Sie als dringlichste Probleme?

Quelle: http://dhd-blog.org/?p=1487

Weiterlesen