Informationsinfrastrukturen im Wandel …

Der diesjährige Historikertag wartete mit der erfreulichen Neuerung auf, eine eigene HauptkategorieeHumanities” zu führen, in der jeden Tag mindestens eine Session verortet war. Am Freitag, den 28.9.2012 gab es eine fast vierstündige Sektion unter dem Titel “Informationsinfrastrukturen im Wandel: Zur Vergangenheit, Gegenwart und Zukunft der Informationsverarbeitung in historischer Lehre und Forschung“. Nach einer Reihe von “Impulsreferaten” wurde zunächst mit den Referenten diskutiert, bevor es eine allgemeine Podiumsdiskussion mit anderen Podianten als Vertretern verschiedener Teilbereiche der geschichtswissenschaftlichen Ökosystems (Historiker, Doktoranden, Bibliothekare, Portalbetreiber, Verleger) gab.

Leider hatten alle Teile wenig bis gar nichts mit dem zu tun, was ich selbst unter Informationsinfrastrukturen (geschweige denn in Gegenwart und Zukunft) verstehen würde. Das Thema wurde also eher “implizit” bearbeitet, wenn über die Arbeit des Historikers und die digitalen Wandlungen dieser Arbeit diskutiert wurde. Wenn ich eigens nach Mainz gereist war, um als jemand, der in einem Infrastrukturprojekt beschäftigt ist, etwas über die Sicht der historisch arbeitenden Fachkollegen auf Infrastrukturen zu erfahren, so blieb der Erkenntnisgewinn zu dieser Frage eher gering. Dafür scheinen mir zwei andere Details berichtenswert, die ich hier rein willkürlich herausgreifen möchte und die nicht für die Gesamtheit der Veranstaltung und der Beteiligten stehen.

Zum Einen wurde von Christoph Cornelißen beiläufig darauf hingewiesen, dass die (nicht zuletzt von Peter Haber) viel diskutierten Beschreibungsmuster der Wissenschaftler in der digitalen Welt als “digital immigrants” und als “digital natives” natürlich zu ergänzen sind um die größte, möglichwerweise nicht nur gefühlt 90% umfassende Gruppe der “digital ignorants” – die man bei einer systematischen Betrachtung der gegenwärtigen Wissenschaftstransformation ebenfalls unter die Lupe nehmen müsste. Zum anderen wurde mal wieder (und: ja, ich mache das auch öfters) die Monstranz des “Wir müssen die wissenschaftliche Qualität sichern und die wissenschaftlichen Qualitätsstandards bewahren” aus dem Tabernakel geholt. Dabei ist es immer das gleiche: Die Monstranz wird gezeigt, es wird aber nicht weiter darauf eingegangen, worin die postulierten Qualitäten eigentlich bestehen und wie sie zu sichern, geschweige denn zu prüfen wären. Dass “wissenschaftliche Qualität” in der freien Wildbahn praktisch nur als vage Selbstzuschreibung und als Verteidigungsbegriff gegen alles Andere und Neue vorkommt, ließ sich auch hier wieder eindrücklich beobachten. Pauschal wurde da z.B. von einem auf dem digitalen Feld zu beobachtenden “Wildwuchs” der Angebote gesprochen, die die traditionellen Qualitätsstandards unterlaufen würden und denen gegenüber “Qualitätserfordernisse” definiert werden müssten (was sicher nicht schaden kann). Immerhin mündete der sporadische Verweis auf die Digital Humanities nicht in ein allgemeines DH-bashing, nachdem Charlotte Schubert auf das hohe Maß der Selbstreflexion in den DH verwiesen hatte.

Eine sonderbare Note bekam die Rede über die Qualitätsicherung im historischen Feld allerdings auch dadurch, dass als Grundlage der vorgetragenen Gedanken eine “Diskussion an der Hotelbar am gestrigen Abend” referenziert wurde und dass bemängelt wurde, dass man heute kaum noch einen Vortrag halten könne, ohne dass im Publikum online recherchiert würde, ob der Vortragende auch wirklich keinen Unsinn erzählt (und ich dachte, DAS sei ein Zeichen von Qualitätssicherung). Die reklamierte Qualität der vortragenden Wissenschaftler erscheint so als eine, die sich gerade nicht überprüfen lassen will. Dazu passend wurden dann auch “Freiräume” für den Geisteswissenschaftler reklamiert, die “von elektronischer Beobachtung frei” sein sollten. Die Apologie der digitalen Ignoranz gipfelte im Ausruf, dass man auch heute noch “hervorragende Geschichtswerke ohne das Internet schreiben” könne. Das ist sicher richtig, wenn die historische Erkenntnis rein und vollständig aus den persönlich konsultierten Quellen, aus der Beschäftigung mit der älteren Literatur oder unmittelbar von Gott kommt. Sollte sie allerdings auch auf einem wissenschaftlichen Diskurs gründen, der im Hier und Jetzt stattfindet und der sich nun einmal auch der gegenwärtigen Technologien und Medien bedient, dann wird man die Prozesse der Erkenntnisgewinnung und ihre Qualitätsabschätzung doch etwas differenzierter betrachten müssen. Selbst angelegte Scheuklappen scheinen dann eine eher schlechte Basis für “hervorragende” Wissenschaft zu sein. Und wieso aus Ignoranz Qualität entstehen soll, werde ich vielleicht auch erst später begreifen …

Quelle: http://dhd-blog.org/?p=915

Weiterlesen

Wie schreibt man digital humanities?

Wie Kathleen Fitzpatrick in ihrem lesenswerten Buch “Planned Obsolence” (2011) [preprint] konstatiert, ist die Analyse dessen, was zu Digital Humanities gehört, leichter zu bewerkstelligen als DH wirklich zu praktizieren und die Kultur der kritischen Selbstreflexion bei der Texterstellung – immer noch das Hauptfeld der geistes- und kulturwissenschaftlichen Tätigkeit -  ist bislang selbst unter den DH Affinen zu wenig ausgeprägt. Die Gründungsveranstaltung der deutschen Dependance der DH in Hamburg hat es in der kontroversen Diskussion um das Pflichtabo der Literary & Linguistic Computing( LLC), das mit der Mitgliedschaft erworben werden muss, gezeigt: Kann es sein, dass sich die Neugründung der DHD mit einem kommerziell operierenden Verlag verbindet, der wichtige Elemente wie OA verweigert? Was aber muss eine DH Zeitschrift leisten oder genauer: was sollten Autoren oder die community tun, die im Bereich der DH arbeiten, kurz, wie “schreibt” man DH richtig? Ich habe mir vor dem Hintergrund der kontroversen Diskussion und unter dem Eindruck von Fitzpatricks glänzender Analyse zur Frage der Zukunft des wissenschaftlichen Publizierens einmal drei DH Zeitschriften angesehen (in subjektiver Auswahl), um nicht zuletzt auch im Sinne eines Selbstfindungsprozesses einige Kriterien für eine gute DH Publikation zu gewinnen.
Das Flaggschiff der DH, LCC, wird von Oxford University Press herausgegeben. OUP ist in seinem Ursprung zwar ein Universitätsverlag, arbeitet aber schon lange profitorientiert, nach kommerziellen, weniger wissenschaftlichen Gesichtspunkten (zu dieser Opposition siehe Fitzpatrick). Der Zugriff ist nicht frei, das Abo kostet für Privatpersonen samt Mitgliedschaft 123 Euro. Das liegt, was Zeitschriften im Bereich der Geistes- und Kulturwissenschaften anlangt, im oberen Bereich. Zum Vergleich: Gesellschaften wie die Renaissance Society of Amercia (RSA) veranschlagen samt Bezug der Renaissance Quarterly nur 50 USD. Ein Open Access Modell, sei es green way oder golden way, mittlerweile als Standard und guter Ton in den DH anerkannt, gibt es von Seiten des Verlages nicht (allenfalls unter Druck). Dass die Autoren im Besitz ihrer Rechte bleiben (vgl. das Editorial von Vanhoutte zum Heft 27 (2012) 1), ist zwar theoretisch ein Pluspunkt, der praktische Nutzen für OA ist jedoch zweifelhaft. Z.B. hat keiner der Beiträger des Heftes 27 (2012), 1  seinen Artikel online gestellt (Suche mit Stichwort Autor,Titel + erste Zeile des Haupttextes; jeweils nur LLC Treffer, d.h. Google indexiert die Hefte). Schaut man sich die Dokumente und Services selbst an, so werden Texte als HTML und PDF (die älteren nur PDF) angeboten, was eine analytische Nachnutzung unterhalb der Titelebene erschwert, denn Texte sind in den DH nicht nur Gegenstände der Lektüre, sondern auch der computergstützten Analyse (vgl. Thaller, in Historical Social Research, 37 (2012) 3) und automatisierten Vernetzung (semantic web). Verknüpfungen funktionieren nur innerhalb des Systems bzw. weitgehend unter Ausschluss nicht kommerziell arbeitender wissenschaftlicher Institutionen (Google Books, crossRef, etc.). Kodierungen von Entitäten im Text (Personen, Orte, Körperschaften, etc.) fehlen. Zitiert wird auf der Dokumentebene, feinere Adressierungen sind mittels Fragment-Identifier auf Grobkapitelebene möglich (dort nicht dokumentiert und daher nicht evident). Basis beibt das Paginierungssystem für Druckerzeugnisse. Erfreulicherweise wird eine DOI zum persistenten Zitieren geliefert. Mit DOI stehen auch weitere Funktionalitäten von crossRef zur Verfügung. Die institutionelle Langzeitarchivierung, die auch Access einschließen würde, ist ungewiss (zum Problem bereits Donald J. Waters, Urgent Action Needed (2005)). OUP untersagt es (deutschen) Bibliotheken, Titel herunterzuladen und selbst zu indexieren, so dass keine Möglichkeit besteht, Texte (langzeitzu)archivieren, zu aggregieren, in Mashups zu verbinden oder nach eigenen Suchkriterien und Rankinkmechanismen zu bearbeiten, allesamt Desiderate für DH Anwendungen (vgl.  zum Prinzip Gabriel Bodard/Juan Garcės, Open Source Critical Editions: A Rationale. In Gabriel Bodard/Juan Garcės, Open Source Critical Editions: A Rationale, In:  Text editing, Print and the Digital World, 83-98).  Möglichkeiten zur freien Annotation innerhalb des Systems und damit eine transparente Alternative zum geschlossenen peer-review System gibt es nicht (Fitzpatrick, Kap.1). In nuce, eine am analogen Modell orientierte profitorientierte Zeitschrift mit einem überkommenen geschlossenen peer-review Modell, das den Nutzen gerade für den analytischen Teil der DH zweifelhaft erscheinen lässt. Natürlich hat die Verbindung mit einem kommerziellen Verlag auch Vorteile. Der Herausgeber, Edward Vanhoutte, hebt hervor, dass mit den erwirtschafteten, nicht unerheblichen Gewinnen DH Projekte gefördert und die freie Schwester DHQ unterstützt werden. Doch bleiben prinzipielle Bedenken. Bei allen Verlockungen des Geldes sollte man gerade für das Flaggschiff der DH die Gefahren einer solchen Verbindung nicht unterschätzen ( vgl. Fitzpatrick und die zunehmende Kommerzialisierung am Beispiel einer ähnlich gelagerten Kooperation der der American Anthropological Association mit Wiley-Blackwell, S. 183f.).
Eine weitere im deutschsprachigen Raum etablierte Zeitschrift ist das Jahrbuch für Computerphilologie - online, hg. v. Georg Braungart, Peter Gendolla und Fotis Jannidis. Die Zeitschrift ist OA. Texte werden nur in HTML angeboten.  Angaben zum persistenten Adressieren finden sich nicht (DOI, URN, PURL o.ä.), die einzelnene Paragraphen sind zwar benannt, aber nicht über z.B. Fragmant-Identifier anspringbar (hier sollten zumindest Anker für interne Links eingefügt werden).  Die Langzeitarchivierung ist über die Deutsche Nationalbibliothek gesichert. Leider werden keine Angaben zur Lizenz gemacht (z.B. CC), so dass ein Forscher oder eine Institution (Universität, Bibliothek, Wikipedia) im Falle einer (textanalytischen) Nachnutzung theoretisch immer anfragen müsste, ob Indexierung und Archivierung möglich sind.  Eine automatisierte Nachnutzung ist auf der Basis des HTML Codes wie bei LLC zwar möglich, aber wie dort alles andere als optimal. Z.B. wäre es nur auf der Basis der class-Attribute möglich, Fußnoten in einer  Suche zu differenzieren. Kodierungen von Entitäten fehlen ebenso wie stabile Verlinkungen von Literatur (zum Nachweis von Querververlinkungen). Systemimmanente Annotations- oder Feedbackmöglichkeiten gibt es nicht. Das Review-Verfahren liegt in der Hand der im Feld wissenschaftlich ausgewiesen Herausgeber, was sicher nicht schlecht ist, aber durch ein flankierendes offenes Annotationssystem gewinnen könnte. Dessen ungeachtet zeigt die Zeitschrift, wie sich mit relativ geringem Aufwand qualitativ hochwertige Beiträge online bringen lassen. Die Verbindung der Online Ausgabe zum mentis Verlag ist eher lose. Die Zeitschrift nutzt sinnvoll die Kompetenzen des Verlages im Print-Bereich, ohne sich ihre Freiheiten beschneiden zu lassen. Schwächen liegen vor allem darin, dass zuviel Wert auf Präsentation und zu wenig auf Möglichkeiten zur automatisierte Verarbeitung gelegt wird. Mit einem deutlich formulierten freien CC-Lizenzmodell könnte man dies ggf. verbessern, indem dadurch Interessenten in die Lage versetzt würden, die Texte herunterzuladen, mit entsprechenden tools zu “strukturieren” und neu zu indexieren.

Ein letzter Blick gilt denen in vielerlei Hinsicht hervorragenden Digital Humanities Quarterly (DHQ). Die erste positive Überraschung ist die Bereitstellung nicht nur als HTML, sondern auch XML, das sich an TEI orientiert, wenn auch nicht konsequent. So haben die Herausgeber proprietäre Namensräume (dhq:) integriert. Hier finden sich echte Strukturinformationen z.B. zu den zitierten Titeln, allerdings wurde – wohl aus Gründen des Aufwandes – darauf verzichtet, Entitäten zu kodieren. Hier zeigt sich ein Problem, dass viele DH Publikationen betrifft, dass nämlich Autoren nach wie vor in klassischen Formen wie WORD oder PDF liefern. Würde man die Ablieferung von XML zur Pflicht machen, wären im Vertrauen auf den Wunsch des Autors, es möglichst professional zu getstalten, weit differenzierte Kodierungen möglich. Die Kodierung selbst liesse sich durch passende Schemata steuern. DHQ bietet neben den eigentlichen Publikationsfunktionalitäten, eine Reihe von social services, wie Diskussions- und Annotationsmöglcihkeiten, die im wissenschaftlichen Umfeld perspektivisch unverzichtbar sind. Hervorzuheben ist, dass auf eine CC Lizenz geachtet wurde, die jedoch mit einer Unklarkeit behaftet ist. Die verwendete sehr enge Lizenz BY-NC-ND bedeutet einerseits, dass “kommerzielle” aber offene Player wie wikipedia ausgeschlossen werden, andererseits ist ND interpretationsbedürftig. Das in der Publishing-Policy  zugesicherte Recht “to include it in other aggregations and indexes to achieve broader impact and visibility” wäre auf der Basis von ND (=”You may not alter, transform, or build upon this work”) eigentlich nicht sinnvoll möglich, denn wie soll eine andere Aggregation aussehen, die keine Änderungen vornimmt? Was ist hier eigentlich dasenige, was nicht verändert werden darf? Hier bedarf es weiterer Präzisierungen. Zu Persistent Linking findet sich bedauerlicherweise nichts. Die Artikel lassen sich auf Paragraphenebene mittels Fragment-Identifiern adressieren. Die Qualität wird im peer review Verfahren sichergestellt, wobei die Zeitschrift engagierte Experten aufruft, sich als reviewer zu beteiligen (zu diesem Thema s. Fitzpatrick wie oben).

Insgesamt ist zu beklagen, dass auf der Artikelebene keine professionelle Erschließung in Bibliotheksverbünden stattfindet, sondern man sich mehr oder weniger mit Google oder privatwirtschaftlichen Suchmöglichkeiten behelfen muss. Hier sind Bibliotheken in der Pflicht, die stärker als bisher auch mit entsprechenden Lizenzen ausgestattete OA Publikationen archivieren und nachweisen sollten.

Aus diesen eher kursorischen Betrachtungen scheinen mir folgende Punkte für eine gute DH Publikation, die mehr sein will als ein Druck im Netz (typischerweise als digitale Inkunabel im PDF Format), empfehlens- und bedenkenswert:

  • OA mit einer freien Lizenz. Idealerweise CC BY-SA. Gemeint sollte damit sein, dass der Name des Autors und die URL der Originalpublikation genannt sein müssen. So ist einerseits die Urform im Sinne von ND referenzierbar, andererseits aber jede Art von Nachbearbeitung (Aggregation, Mashup, Archivierung, Indexierung nach eigenen Rankingmechanism, Textanalyse etc.) möglich. Eine kommerzielle Nachnutzung ist erwünscht, wenn sie das Resultat der Bearbeitung nicht einschließt und unter gleichen Bedingungen weitergibt (z.B. wikipedia). Dass muss nicht bedeuten, dass man kommerzielle Geschäftmodelle, die Services bieten (z.B. spezielle akademische Suchmaschienen), ausschließt. Das Verhältnis von Publikationsoberfläche (HTML, PDF), Strukturebene (XML) und Index bedarf jedoch lizenzrechtlich betrachtet präzisierender Erläuterungen, die ich hier nicht anstellen kann.
  • Persistent Linking (DOI, URN, PURL, Handle usw.) sollte immer mitbedacht werden. Wünschbar wären feinere Granularitätsstufen auf Paragraphen oder, wo möglich, sogar auf Wortebene (z.B. mit Xpointer-Techniken). Verbunden damit sind auch Verlinkungsmechanismen, wie wie in semantic web Anwendungen genutzt werden können (z.B. LOD)
  • Texte sollten nativ in XML verfasst oder von Autoren in XML geliefert werden. Portale wie TextGrid oder Editoren wie oXygen können dazu beitragen, den Schritt von einer den Druck simulierenden zu einer nativen DH Publikation zu erleichtern. Dabei wäre die Anwendung von Standards (z.B. TEI) sehr sinnvoll, um stärker als bisher analytische und automatisierte Nutzungsmöglichkeiten (semantic web) zu eröffnen.
  • Publikationen sollten sich zur Qualitätssicherung stärker transparenten peer-review Verfahren und Annotationsmöglichkeiten bedienen (vgl. Fitzpatrick)
  • Zeitschriften-Portale sollten stets Möglichkeiten des wissenschaftlichen Austausches mitbedenken (Kommentar- und Annotationsfuntionen). Dabei können Standards wie der der Open Annotation Collaboration hilfreich sein.
  • Infrastruktureinrichtungen wie Bibliotheken sollten sich stärker als bisher in die Katalogisierung und das Hosting von DH  Angeboten einbringen, um die technische Seite zu betreuen und die Langzeitarchivierung sicherzustellen. Zugleich müssten sie sich stärker wissenschaftlichen Netzwerken bzw. Fachcommunities öffnen, um durch entsprechende Angebote eine Basis zu schaffen, wissenschaftliche Publikationen wieder als Teil der universitären Infrastruktur und weniger als Gegenstand von “Business-Modellen” (vgl. Fitzpatrick, 181) sichtbar werden zu lassen.

Quelle: http://dhd-blog.org/?p=673

Weiterlesen

Stellenausschreibung: DARIAH-DE, Technische Koordination

Die SUB Göttingen sucht für DARIAH-DE eine technische Koordinatorin / einen technischen Koordinator (Vollzeit, TV-L 14) für die Dauer von zunächst 18 Monaten. Zu den Aufgaben gehören u.a. die strategische technologische Weiterentwicklung der Forschungsinfrastruktur DARIAH-DE, die Community-Bildung und die Unterstützung und Moderation technologisch/wissenschaftlicher Entscheidungsprozesse.

Bewerbungsschluss: 15. August 2012

Zur vollständigen Ausschreibung

Quelle: http://dhd-blog.org/?p=761

Weiterlesen

Digital Humanities: The Movie

Was die Digital Humanities können und sollen, darüber wird in der Zunft trefflich und mit Leidenschaft gestritten. Ihr Potential indessen auch einem breiten Publikum verständlich zu vermitteln, das versucht der von TextGrid produzierte Kurzfilm “Virtuelle Forschungswelten: Neue Technologien in den Geisteswissenschaften”.

Der Film zeigt, wie virtuelle Forschungsumgebungen v.a. den textbasierten Geisteswissenschaften die vernetzte Forschung erleichtern und z.B. der Erstellung digitaler Editionen und der Langzeitarchivierung von Forschungsdaten neue Möglichkeiten eröffnen.

Zu sehen auf YouTube:
http://www.youtube.com/watch?v=JRBYR9OA45Q (dt.)
http://www.youtube.com/watch?v=kjO9epVZHa0 (engl.)

Entstanden ist der Film mit finanzieller Unterstützung der D-Grid GmbH unter Mitwirkung der SUB Göttingen sowie den Kolleginnen und Kollegen von TextGrid (http://www.textgrid.de) und DARIAH-DE (http://www.de.dariah.eu/).

Feedback, Kommentare, Anregungen und Verbreitung herzlich willkommen!

Quelle: http://dhd-blog.org/?p=757

Weiterlesen

Bilateral Digital Humanities Program: DFG und NEH fördern gemeinsam

Mit der Veröffentlichung der vierten Ausschreibung im Bilateral Digital Humanities Program setzen das National Endowment for the Humanities (NEH) und die Deutsche Forschungsgemeinschaft (DFG) die gemeinsame Förderung innovativer Projekte im Themenfeld “Digital Humanities” fort. Nachdem in den ersten drei Ausschreibungsrunden seit 2008 die Optimierung digitaler Ressourcen und Sammlungen für die geisteswissenschaftliche Forschung im Vordergrund standen, sind die Förderziele nun deutlich weiter gesteckt: Im Zentrum steht die Verbesserung der digitalen Informationsinfrastruktur für die geisteswissenschaftliche Forschung – sei es durch die Zusammenführung etablierter Informationsangebote, die Verbesserung des Forschungsdatenmanagements, der elektronischen Veröffentlichung von Forschungsergebnissen oder der Entwicklung generischer Werkzeuge und Standards.

Es werden Projekte mit einer Laufzeit von bis zu drei Jahren gefördert. Eine Kooperation zwischen deutschen und u.s.-amerikanischen Partnern ist Fördervoraussetzung. In den Projektanträgen ist insbesondere auch auf den Mehrwert der transatlantischen Kooperation einzugehen. Anträge können bis zum 27. September 2012 in identischer Form bei NEH und DFG eingereicht werden. Beide Förderorganisationen sehen sich dem Prinzip des Open Access verpflichtet und erwarten eine möglichst aktive Verbreitung der Projektergebnisse.

Für eine Beratung stehen Jason Rhody (NEH, jrhody@neh.gov) und Christoph Kümmel (DFG, christoph.kuemmel@dfg.de) zur Verfügung.

Informationen zum Förderangebot auf den Homepages der Förderorganisationen:
http://www.neh.gov/divisions/odh/grant-news/grant-opportunity-nehdfg-bilateral-digital-humanities-program
http://www.dfg.de/foerderung/info_wissenschaft/info_wissenschaft_12_40/index.html

Quelle: http://dhd-blog.org/?p=724

Weiterlesen

Virtueller Forschungsraum für Geistes- und Kulturwissenschaften: Förderer, Entwickler und Nutzer im Gespräch

von Michael Bender, Franziska Horn, Andrea Rapp, Anna Spatz, Fotos: Sven Arce

Geisteswissenschaftliche Forschung in einem gemeinsamen virtuellen Forschungsraum, der Sicherheit bietet und Vertrauen schafft – das war das zentrale Thema des TextGrid Summit am 14. und 15. Mai an der Technischen Universität Darmstadt. Das BMBF-geförderte Verbundprojekt TextGrid hat mit dem Release der Version 2.0 eine virtuelle Forschungsumgebung in den Geisteswissenschaften erstmals in den stabilen Betrieb überführt und mit der Gründung des Vereins TextGrid – Verein zum nachhaltigen Betrieb einer digitalen Forschungsumgebung in den Geisteswissenschaften e.V. auch einen wichtigen Schritt in Richtung Institutionalisierung und Langzeit-Verfügbarkeit gemacht. Aus diesem Anlass wurde gemeinsam mit rund 100 Teilnehmerinnen und Teilnehmern „Richtfest im Haus der digitalen Infrastruktur“ gefeiert.

Der erste Tag war der wissenschaftlichen und methodologischen Reflexion einerseits und der Praxis andererseits gewidmet. Zunächst wurde in der Auftaktveranstaltung in Anlehnung an den berühmten Aufsatz von Vannevar Bush – Erfinder des legendären Memex und Pionier auf dem Gebiet des elektronisch gestützten Wissensaustauschs – diskutiert, wie wir forschen könnten und welche neuen Möglichkeiten, Methoden, Fragestellung und Erkenntnisse durch das gemeinsame Arbeiten in einer virtuellen Forschungsumgebung entstehen. Anschließend wurden in verschiedenen Praxis-Workshops spezifische Tools wie das neu entwickelte XML-basierte Satzprogramm XML-Print oder den Noten-Editor MEISE vorgestellt.

Martin de la Igelsia (Fontane Notizbücher) im Gespräch mit Philipp Steglich, Europa-Universität Viadrina

Der zweite Tag bot im Kongresszentrum darmstadtium den festlichen Rahmen des Richtfests. Die Leistung beim Bau des virtuellen Forschungsraumes würdigten die Vizepräsidentin der TU, Petra Gehring, und der Leiter des Hochschulrechenzentrums, Christian Bischof. Andrea Rapp, Germanistische Computerphilologin an der TU Darmstadt und Mitinitiatorin des Projekts TextGrid, zeigte anhand aussagekräftiger Zahlen das Potenzial des Projekts auf: Rund 1.000 registrierte Nutzer, 10 langfristige Projekte, zahlreiche Kooperationsanfragen, darunter beispielsweise die online-Edition der Materialien des berühmten Naturforschers Johann Friedrich Blumenbach oder die Hybrid-Edition von Theodor Fontanes Notizbüchern. Neben der aktiven Unterstützung der Digital Humanities-Forschung liegt der Fokus der im Rahmen des Summits eingeläuteten dritten Projektphase von TextGrid ebenfalls in der Einbindung in die universitäre Lehre, und das durchaus auch in traditionellen geisteswissenschaftlichen Studiengängen. Neue Perspektiven bietet die Verknüpfung von eScience- und eLearning-Konzepten, wofür sich an der TU Darmstadt nicht nur durch die Kooperation mit dem eLearning Center der TU das ideale Umfeld findet, sondern auch und vor allem wegen der einmaligen Verbindung von geisteswissenschaftlicher und informatischer Forschung, Einbindung der Infrastruktureinrichtungen wie ULB und HRZ sowie etablierten Studiengängen.

Die von Roland S. Kamzelak, Literaturarchiv Marbach, moderierte Plenumsdiskussion brachte die relevanten Personen aufs Podium: Vertreter von Förderinstitutionen, Archiven, Wissenschaftsakademien und Rechenzentren, Fachwissenschaftler, Nachwuchswissenschaftler und Studierende erörterten Erfahrungen, Chancen und Probleme Virtueller Forschungsumgebungen in den Geisteswissenschaften. Hier standen einerseits Fragen nach Sicherheit und Langfristigkeit im Mittelpunkt. So wies Alina Heidfeldt, Germanistik-Studentin der TU Darmstadt, auf das umfangreiche Angebot an Texten innerhalb des Repositorys von TextGrid hin, wodurch nicht nur vielfältige Daten von Vergil bis Kafka zur Recherche, sondern auch zur möglichen weiteren Bearbeitung und Analyse langfristig zur Verfügung gestellt werden. Den Vorteil der Bereitstellung einer kostenlosen Anwendung wie TextGrid hob Annika Rockenberger, Mitherausgeberin der digitalen Georg Greflinger-Edition, hervor, da dies den Zugang zu einer Forschungsumgebung für institutionell ungebundene Wissenschaftler vereinfache. Das enorme Potenzial der neuen Technologien für die geisteswissenschaftliche Grundlagenforschung hob Angelika Schade, Generalsekretärin der Akademie der Wissenschaften zu Göttingen, hervor. Andererseits wurden aber auch die Veränderungen von Forschungskulturen intensiv diskutiert: Hürden, die durch neue Technologien und Anforderungen wie z.B. XML-Kenntnisse entstehen, sind ebenso zu berücksichtigen wie die neuen Formen des kollaborativen Arbeitens, des Austausches von Forschungsdaten und des Publizierens. Die dadurch entstehenden Veränderungen in der Forschungskultur sind insbesondere für den wissenschaftlichen Nachwuchs gravierend, solange traditionelle und neue Kulturen nebeneinander bestehen bzw. konkurrieren.

Podiumsdiskussion (von links): Helge Kahler, BMBF, Annika Rockenberger, Digitale Greflinger-Edition, Alina Heidfelt, TU Darmstadt, Roland Kamzelak, Literaturarchiv Marbach, Angelika Schade, AdW Göttingen, Philipp Wieder, GWDG

Podiumsdiskussion: Blick ins Plenum

Die Frage, die in der Keynote von Thomas Stäcker, stellvertretender Direktor der Herzog August Bibliothek Wolfenbüttel, gestellt wurde – ob durch die neue Technologie Edieren leichter gemacht werde – konnte daher auch mit einem klaren „Nein“ beantwortet werden. Am Beispiel der Editionsphilologie konnte er die gestiegenen Anforderungen an geistes- und kulturwissenschaftliche Forschungsarbeit, aber auch den wissenschaftlichen Gewinn aufzeigen. Für diese Veränderungen will TextGrid den Forschungsraum, das „Haus der digitalen Geisteswissenschaften“ bereitstellen.

Vertrauen wird in der Forschungsumgebung insofern geschaffen, als durch eine Authentifizierungsinfrastruktur, durch transparente Rollenverteilung und klar verteilte Rechte und Pflichten gewährleistet werden kann, dass Daten sicher archiviert, aber auch nach festgelegten Regeln ausgetauscht, bearbeitet und zitierfähig publiziert werden können. Das Fundament des Gebäudes ist eine stabile, aber auch erweiterbare Plattform, auf der digitale Werkzeuge zur Verfügung gestellt werden, die neue Forschungsmethoden und –ansätze ermöglichen und damit neue Forschungskulturen befördern. Diese Sicherheit, dass Daten nicht an Dritte weitergeben werden müssen, wie bei einigen anderen Anbietern kollaborativer Plattformen üblich, dass jederzeit Kontrolle über die Organisation von Nutzern und Daten und über Bearbeitungs- und Publikationsschritte gewährleistet ist, wird zum wichtigen Motor bei der Entwicklung und Akzeptanz dieser Technologien in der geistes- und kulturwissenschaftlichen Forschung.

Feedback-Wand im TextGrid Café

Eine weitere Eigenschaft zeichnet die Virtuelle Forschungsumgebung TextGrid aus: Der erklärte Wille nicht nur zum Nutzerdialog und –support, sondern auch konkrete und vielfältige Maßnahmen zur Integration der aktiven Nutzercommunity in die Entwicklercommunity, so dass die Verantwortung für den weiteren Ausbau des TextGrid-Gebäudes mit den Nutzern geteilt werden kann. Basis dafür sind regelmäßige Nutzertreffen sowie der Aufbau weiterer Supportstrukturen, beides Schwerpunkte der kommenden TextGrid-Phase. Durch diese Integration der Nutzerinnen und Nutzer, die ihre virtuellen Forschungsräume und –orte errichten können, entsteht Dynamik. Welche Wirkung in diesem Zusammenhang eine solche Veranstaltung wie der TextGrid Summit haben kann, belegt das positive Fazit von Philipp Wieder, GWDG, der es „motivierend“ fand, „zu sehen, wie offen und in welchem Detaillierungsgrad die Vorteile und offenen Punkte von TextGrid diskutiert werden“. Auf diese Weise werden Identifikationsprozesse initiiert, neue Forschungstraditionen geformt und ein Fundament für den Wandel von Kulturtechniken geschaffen.

Axel Horstmann beim abschließenden Fazit

Axel Horstmann beim abschließenden Fazit

Nähere Informationen zum Projekt und die Möglichkeit zum Download finden Sie unter www.textgrid.de.
Follow us on twitter: @TextGrid

Quelle: http://dhd-blog.org/?p=608

Weiterlesen

Epoche: eHumanities

Auf dem diesjährigen Historikertag, der vom 25.-bis 28. September 2012 an der Johannes Gutenberg-Universität Mainz stattfindet, ist eine Sektion zum Thema eHumanities eingeplant.

Hierzu gehören die folgenden Sessions:

Quelle: http://dhd-blog.org/?p=590

Weiterlesen

Stipendien für die 3. Europäische Sommeruniversität in Digitalen Geisteswissenschaften

Die VolkswagenStiftung fördert zum 3. Mal die Europäische Sommeruniversität in Digitalen Geisteswissenschaften “Kulturen & Technologien” vom 23.-31. Juli 2012 an der Universität Leipzig (http://www.culingtec.uni-leipzig.de/ESU_C_T/)

Vergeben werden Reisestipendien (http://www.culingtec.uni-leipzig.de/ESU_C_T/node/121) sowie stark reduzierte Teilnahmegebühren (http://www.culingtec.uni-leipzig.de/ESU_C_T/node/40).

Ende der Bewerbungsfrist: 31. Mai 2012

Die Sommeruniversität richtet sich an 75 TeilnehmerInnen aus Europa und darüber hinaus. Sie ist gedacht für Studierende am Ende des Hauptstudiums oder von Masterstudiengängen, für Graduierte, DoktorandInnen und PostdoktorandInnen aus den Geisteswissenschaften, den Ingeneurwissenschaften oder der Informatik, sowie für Lehrende, BibliothekarInnen und technische AssistentInnen, die sich theoretisch, experimentell oder praktisch mit der Anwendung von computationellen Methoden in den verschiedenen Bereichen der Geisteswissenschaften (im Sinne von Humanities), in Bibliotheken und Archiven auseinandersetzen oder auseinandersetzen wollen.

Die Sommeruniversität setzt sich zum Ziel, einen Raum zu schaffen, der zum Diskutieren, Erwerben und Ausbauen von Kenntnissen, Fähigkeiten und Fertigkeiten in Methoden und Technologien, die im Bereich des Humanities Computing eine zentrale Rolle spielen und die immer mehr auch die Arbeit in den Geistes- und Kulturwissenschaften, in Verlagen, Bibliotheken und Archiven bestimmen, anregt. Die Beschäftigung mit diesen Methoden und Technologien will sie in den größeren Kontext der Digital Humanities stellen, die nach den Konsequenzen und Implikationen der Anwendung computationeller Methoden und Tools auf Artefakten aller Art fragen. Zudem will sie Einblicke in die komplexe Natur geisteswissenschaftlicher Daten und die Herausforderung, die diese für die Informatik und Ingenieurwissenschaften und deren Weiterentwicklung darstellen, ermöglichen.

Informationen zur Bewerbung für die Workshops unter http://www.culingtec.uni-leipzig.de/ESU_C_T/ .

Quelle: http://dhd-blog.org/?p=576

Weiterlesen

Erfolgreicher TextGrid Summit und Gründung des TextGrid-Vereins in Darmstadt

Mit rund 100 Teilnehmern war der diesjährige TextGrid Summit am 14./15.05. in Darmstadt ein voller Erfolg. Workshops zu den neuen Tools der soeben veröffentlichten Version 2.0, Gespräche mit Entwicklern, Vorträge zum Potential und zur Zukunftsfähigkeit Virtueller Forschungsumgebungen sowie Präsentationen der Projekte, die TextGrid bereits in der praktischen Forschungsarbeit nutzen, standen ebenso auf dem Programm wie Gespräche und Diskussionsrunden mit Vertretern aus Archiven, Akademien, dem BMBF, aus Hochschulen und Rechenzentren. Der Fokus lag dabei immer wieder auf der langfristigen Sicherheit von Forschungsdaten im virtuellen Raum, in den angebotenen work spaces und Repositorien – ein Thema, das die Digital Humanities sicherlich auch in Zukunft beschäftigen wird.
Auf http//www.textgrid.de/summit2012 werden in den kommenden Tagen die Vorträge und Präsentationen zum download bereitstehen.

Das Georg-Christoph-Lichtenberg-Haus, ein Schmuckstück des Jugendstil, lieferte am 16.05. den Rahmen für die Gründung des TextGrid-Vereins zum nachhaltigen Betrieb einer digitalen Forschungsumgebung in den Geisteswissenschaften. Elf wissenschaftliche Einrichtungen, darunter die Akademie der Wissenschaften zu Göttingen, das Salomon Ludwig Steinheim-Institut für deutsch-jüdische Geschichte an der Universität Duisburg-Essen und das Institut für Deutsche Sprache in Mannheim, zeichneten als Gründungsmitglieder. „Damit haben wir kompetente Partner an unserer Seite, die das Potential virtueller Forschungsumgebungen wie TextGrid weiter voranbringen und nachhaltig im geisteswissenschaftlichen Arbeitsprozess verankern werden”, betonte Prof. Dr. Norbert Lossau, der für die SUB Göttingen unterzeichnete.

Das TextGrid-Konsortium und die Gründungsmitglieder des TextGrid-Vereins zum dauerhaften Betrieb einer virtuellen Forschungsumgebung in den Geisteswissenschaften am 16.05.2012 in Darmstadt. (Vorne: Dr. Heike Neuroth, Prof. Dr. Norbert Lossau, Prof. Dr. Andrea Rapp,  Prof. Dr. Ludwig Eichinger)

In großer Runde, zusammen mit dem gesamten TextGrid-Konsortium, wurden schließlich die Vereinsgründung, der erfolgreiche Abschluß der II. TextGrid-Förderphase mit dem Release der Version 2.0 und der bevorstehende Übergang in die dritte Förderphase (2012-2015) gebührend gefeiert. (Vorne: Dr. Heike Neuroth, Prof. Norbert Lossau, Prof. Andrea Rapp, Prof. Ludwig Eichinger)

Quelle: http://dhd-blog.org/?p=566

Weiterlesen