TextGridLab 2.0.3 veröffentlicht

TextGridLab 2.0.3 ist ein maintenance release zu TextGridLab 2.0, das Probleme im Metadaten-Template-Editor, mit Aggregationen und dem Kopieren von Objekten behebt. Zudem bekommt die Vorschauseite des XML-Editors Unterstützung für XSLT 2.0 und es werden bessere TEI-Header aus den Metadaten generiert.

Die Version steht ab sofort über die Download-Seite auf textgrid.de (http://www.textgrid.de/registrierungdownload/download-und-installation/) zur Verfügung. Benutzer einer TextGridLab-Version von 2.0 bis 2.0.2 bekommen beim nächsten Start des Lab (oder über Help → Check for Updates) einen Update-Hinweis mit der Möglichkeit, direkt aus dem Lab zu aktualisieren.

Benutzer der Nightly-Version können dabei bleiben, denn außer der Versionsnummeranpassung sind alle Änderungen in 2.0.3 bereits zuvor in der Nightly-Version durchgeführt worden.

Quelle: http://dhd-blog.org/?p=1521

Weiterlesen

Was Sie schon immer über “research technologists” wissen wollten und nie zu fragen wagten

Vom 11. bis 12. März fand am Corpus Christi College in Oxford ein Workshop zum Thema “Recognising Research Technologists in Research: an Action Plan” statt. Der Workshop wurde von JISC (UK) gemeinsam mit SURF (NL) und dem CSC (FIN) organisiert und fand im Rahmen des e-Infrastructure Policy Forums statt. Zwei kurze Tage lang diskutierten Wissenschaftler aus unterschiedlichen Disziplinen und europäischen Ländern darüber, was “research technologists” definiert, welche Rolle sie im Forschungsprozess insbesondere im Kontext der Digitalisierung haben, und wie man ihren Status und ihre Karrierepfade, ihre Ausbildung und ihre Anerkennung verbessern könnte. Einige Ergebnisse des Workshops sollen hier in Form von Frage & Antwort berichtet werden.

1. Was sind “research technologists” überhaupt?

Torsten Reimer, "Old Tunnel, New Light"

Licht am Ende des Tunnels? (Keller der Bodleian Library, Oxford) – Torsten Reimer, “Old Tunnel, New Light”. Mit freundlicher Genehmigung, all rights reserved, Quelle: http://www.flickr.com/photos/torstenreimer/8554250760/sizes/h/in/photostream/.

Der Begriff “research technologist” (je nach Kontext auch “scientific programmer” oder “data technologist” genannt) bezeichnet kurz gesagt eine Personengruppe, die technisch-informatische Kompetenzen und Lösungen in den wissenschaftlichen Forschungsprozess einbringt. Dabei kann man sie in einem Kontinuum verorten, das zwischen zwei Polen aufgespannt ist: auf der einen Seite die rein auf ihre disziplinäre Forschung fokussierten Wissenschaftler (von denen heute allerdings zumindest eine gewisse technische Expertise erwartet wird); auf der anderen Seite die reinen technischen oder informatischen Dienstleister, die generische Standard-Lösungen für bestimmte Probleme (wie Datenspeicherung, Datenmanagement, Retrieval-Lösungen, etc.) anbieten können. Zwischen diesen beiden Polen sind einereits, näher am wissenschaftlichen Pol, die “digital humanists” oder “e-scientists” angesiedelt, die zwar primär ihren eigenen Forschungszielen verpflichtet sind, diese Ziele aber unter Einsatz individuell angepasster technologischer Lösungen zu erreichen suchen; andererseits, und näher am technologischen Pol angesiedelt, gibt es eben die research technologists, die einen primär technisch-informatischen Hintergrund mit einem tieferen Verständnis für Forschungsfragen verbinden und die forschungsgetriebene, individuell angepasste technologische Lösungen entwickeln und umsetzen.

2. Warum sind “research technologists” wichtig?

Im Kontext der zunehmenden Digitalisierung des kulturellen Erbes in den Geisteswissenschaften, der evidenzbasierten Sozialwissenschaften und der datengetriebenen Naturwissenschaften ist innovative Forschung ohne spezifische technisch-informatische Kompetenzen, die über generische Standard-Lösungen hinaus gehen, kaum noch denkbar. Die Europäische Kommission und das eIPF haben jedenfalls formuliert, dass ohne eine gut aufgestellte community von research technologists wettbewerbsfähige Forschung in den nächsten Jahren und Jahrzehnten zunehmend schwieriger sein wird. Die Spezialisierung und Arbeitsteilung in der Wissenschaft macht es zunehmend unmöglich, dass ein/e einzelne/r Wissenschaftler/in alle im engeren Sinne forschungsgetriebenen und alle technologischen Aspekte seiner/ihrer Forschung selbst beherrschen, anpassen und neu entwickeln kann. Zugleich sind “research technologists” mit meist informatischem Hintergrund in der Industrie und dem Service-Sektor gefragte Arbeitskräfte, sodass es für die Wissenschaft oft schwierig ist, geeignete Mitarbeiter/innen zu finden und zu halten. Viele Projekte in den digitalen Geisteswissenschaften sind davon betroffen.

3. Warum ist der Status von research technologists derzeit problematisch?

Zur Zeit haben “research technologists” keinen klar definierten Status; den meisten Wissenschaftlern ist der Begriff selbst unbekannt. Da sie nicht selbst disziplinär verankerte Forschungsprojekte leiten oder eine solche Leitungsposition anstreben, steht ihnen anders als “normalen” Wissenschaftlern keine akademische Karriere offen. Da sie andererseits nicht zum festen Personal von Rechenzentren gehören, die überwiegend nicht für so forschungsnahe und projektgetriebene Forschungsprojekte zuständig sind, haben sie auch hier keine konkreten Aufstiegschancen. Weil sie überwiegend projektbasiert eingestellt werden, sind sie zumindestens in den Geistes- und Sozialwissenschaften häufig befristet und unsicher beschäftigt. Und weil sie zu oft als Dienstleister gesehen werden, und nicht als vollwertig am Forschungsprozess beteiligte, sind sie häufig nicht Ko-Autoren wissenschaftlicher Artikel über ihr Forschungsprojekt und bekommen demnach nicht einmal symbolisches akademisches Kapital für ihre Arbeit.

4. Was können verschiedene Akteure unternehmen?

Es wurden verschiedenste Lösungsansätze diskutiert, vier davon scheinen mit aber besonders wichtig. Erstens sollte der genuine, forschungsorientierte Beitrag, den “research technologists” zum Forschungsprozess beitragen dadurch gewürdigt werden, dass sie mit Bezug auf ihre Gehaltsstufe als Wissenschaftler eingestuft werden oder zumindest besser gestellt werden, als dies derzeit oft der Fall ist. Zweitens und kurzfristig sollten sie aus dem gleichen Grund am Verfassen und Publizieren von wissenschaftlichen Artikeln beteiligt werden, was möglicherweise die Inhalte ebenso beeinflussen würde wie die geeigneten Publikationsorte. Drittens und mittelfristig sollten veränderte Publikationsgewohnheiten es “research technologists” erlauben, durch die Publikation von Tools und Code ebenfalls “academic credit” zu erwerben. Viertens (und das scheint mir der Bereich zu sein, wo am deutlichsten eine win-win-Situation hergestellt werden könnte), sollten an den Universitäten idealerweise auf Fakultätsebene “Research Technology Centers” oder “Digitale Forschungszentren” eingerichtet werden, die “research technologists” dauerhaft eingerichtete Stellen anbieten können. Das würde den RTs eine dauerhafte Perspektive eröffnen und es Projekten zugleich erlauben, zeitweise und flexibel Expertise ins Projekt zu holen, ohne dass die RTs nach Abschluss des Projekts auf der Straße stehen, und ohne dass der Universität wertvolle Expertise verloren geht.

Klar wird auf jeden Fall, dass die Entwicklung in der Forschungspraxis nicht haltmacht, während die kulturellen und institutionellen Gegebenheiten nur langsam reagieren. Hier sind in der Tat individuelle Forscher/innen ebenso gefragt wie Entscheider/innen auf institutioneller Ebene! Auch Input aus der Community ist hier gerne gefragt: Welche (vielleicht abweichende) Erfahrungen haben Sie in Ihren Projekten mit “research technologists” gemacht? Sind Sie vielleicht selbst eine/r? Was sehen Sie als dringlichste Probleme?

Quelle: http://dhd-blog.org/?p=1487

Weiterlesen

Publikation “Leitfaden zum Forschungsdaten-Management”

Die aus dem interdisziplinären WissGrid-Projekt entstandene Publikation “Leitfaden zum Forschungsdaten-Management” ist nun analog und digital erhältlich.

Digitale Forschungsdaten sind eine unverzichtbare Grundlage moderner Wissenschaft. Mit ihnen sind aber eine Reihe von notwendigen Datenmanagement-Aufgaben verbunden, damit sie in der aktiven Forschung bestmöglich eingesetzt werden können.

Der Leitfaden zum Forschungsdaten-Management stellt eine Checkliste und Anleitung bereit, um die wichtigsten Aufgaben und Fragen im Forschungsdaten-Management strukturiert zu beantworten und dessen Umsetzung effizient zu planen.

Die editierte Version ist analog im Verlag Werner Hülsbusch unter http://www.vwh-verlag.de/vwh/?p=814 erhältlich sowie open access und digital unter http://www.wissgrid.de/publikationen/Leitfaden_Data-Management-WissGrid.pdf verfügbar. Die nicht-editierten Versionen der WissGrid-Ergebnisse stehen auch weiterhin auf der Projekt-Homepage bereit.

Quelle: http://dhd-blog.org/?p=1477

Weiterlesen

Der Hype um das Internet, die digitale Welt und der ganze Rest #rkb13

Die Titelgrafik der RKB-Tagung basiert auf einem Design von Moma Propaganda, São Paolo. www.momapropaganda.com.br

 

Die RKB-Tagung in München ist gerade vorüber. Wer nicht dabei sein konnte, hatte via Twitter und über hypotheses.org die Möglichkeit “live” dabei zu sein und auf dem neuesten Stand zu bleiben. Nun freut es umso mehr, dass sich die Süddeutsche Zeitung ausgiebig mit dem Thema der Wissenschaftskommunikation befasst (Ausgabe 29 vom 4.2.2013, S. 9).

Exempli gratia ist der Publikationsprozess, samt vorgelagerter Erarbeitung von Informationen, wobei die Reduktion auf den Begriff “filtern” eher zu pauschalisierend ist, bis zur Thesenentwicklung und anschließendem Schreibprozess. Schlagwörter wie “Open Access” dürfen in diesem Zusammenhang nicht fehlen. Der Rückgriff auf die Infrastrukturen als Allheilsbringer der Geisteswissenschaften geht dann doch etwas weit. Hier werden wissensgenerierende Methoden zu stark mit dem Output der Wissenschaften verknüpft, mit dem Paper, mit dem Buch, mit der Online-Publikation. Denn auf einen solchen Output hinzuarbeiten, dürfte keinem Infrastrukturprojekt als Ziel dienen. Wenn dies so wäre, dann würden Infrastrukturen zu stark an einzelne Projekte und Forschungsvorhaben gebunden sein. Das dem nicht so ist, sollte klar werden, schaut man auf die heterogene Nutzerlandschaft, die gesamten Geisteswissenschaften.

Aber allein durch die Nutzung digitaler Tools wie Mendeley, Geobrowsern oder Visualisierungsumgebungen wie Gephi beginnt keine neue Epoche. Die Fragestellungen sind – ja, sie dürfen es auch explizit sein – die gleichen wie zuvor. Denn das bestätigen oder verwerfen alter Thesen ist ein guter Anfang um schließlich neue Fragestellungen zu entwickeln und diese auch an einer großen Masse an Daten überprüfen zu können. Erst an dieser Stelle kommt die Infrastruktur ins Spiel, deren Rolle zwar zentral ist, die aber den nach wie vor analogen Vorgang der Hypothesenbildung wenn überhaupt nur ein wenig unterstützen kann. Das bedeutet, dass das überaus kreative Vorgehen und Arbeiten in der Wissenschaft nach wie vor nicht von Maschinen ersetzt werden kann.

Der Spiegel schrieb im April 1957 im Zusammenhang mit Roberto Busas Corpus Thomisticus von “Text-Analyse durch Elektronen-Gehirne” (S. 62) und die innerkirchliche Diskussion – zu den vom Teufel persönlich entsandten Maschinen – blieb nicht aus. Vielleicht ist die aktuelle Diskussion davon nicht so weit weg. So klingt es zumindest etwas esoterisch, wenn vom “magischen [...] Vorsprung” durch Technik geschrieben wird; im SZ-Artikel und auch in den Tweets.

Quelle: http://dhd-blog.org/?p=1248

Weiterlesen

TextGrid sucht Software-Architekten für das Repository

Im Arbeitspaket “Betrieb und Softwarepflege Repository”, betreut von der SUB Göttingen, sucht TextGrid für den Bereich Technisches Qualitätsmanagement

eine/n wissenschaftlich-technische/n Software-Architekt/in in Teilzeit (75%, TV-L 13) .

Aufgaben sind u.a.

  • die innovative Weiterentwicklung der TextGrid-Middleware in Zusammenarbeit mit der GWDG, Weiterentwicklung der TextGrid Indizierungs-Infrastruktur für die Recherche in Bezug auf Ausfallsicherheit, Skalierbarkeit und Performanz
  • die wissenschaftliche Konzeption, technologische Begleitung und Dokumentation verschiedener TextGrid Publikations-Prozesse und -Workflows
  • und die Konzeption und Umsetzung von Monitoring-Konzepten für die TextGrid-Infrastruktur in Bezug auf Ausfallsicherheit, Skalierbarkeit und Performanz.

Vorausgesetzt werden u.a.

  • Hochschulstudium der Informatik oder vergleichbare Qualifikation
  • Erfahrungen im Aufbau von (verteilten) Repositorien, z.B. mit Fedora, iRODS etc.
  • Erfahrungen mit Lucéne und SOLR
  • Programmierkenntnisse und grundlegendes Verständnis von Service-Architekturen wie z.B. SOAP und REST
  • Gute Kenntnisse in XML und verwandten Themen, wie TEI, XSLT, XPATH
  • Gute Kenntnisse in RDF
  • Sehr gute Kenntnisse in Linux

Bewerbungsschluss ist der 10.12.2012.

Stellenausschreibung und weitere Infos hier.

Quelle: http://dhd-blog.org/?p=1117

Weiterlesen

CENDARI schreibt Gast-Forschungsstipendien für 2013 aus

Noch bis zum 12. Dezember 2012 nimmt das EU-geförderte Forschungsprojekt CENDARI (Collaborative European Digital Archive Infrastructure) Bewerbungen für das Gaststipendiaten-Programm 2013 entgegen. Forschungsschwerpunke sind der I. Weltkrieg sowie die Kultur des europäischen Mittelalters. Die folgenden Partnerinstitutionen bieten jeweils zwei acht-bis zwölfwöchige Forschungsaufenthalte:

Trinity College Dublin, Ireland
King’s College London, UK
National Library of the Czech Republic, Czech Republic
Georg-August-Universität Göttingen, GCDH
Universität Stuttgart und Bibliothek für Zeitgeschichte

Das auf vier Jahre angelegte Verbundforschungsprojekt CENDARI hat die Integration digitaler Archive und Quellen europäischer Geschichtsforschung des Mittelalters und der Moderne zum Gegenstand. Der aktuelle Call bildet den Auftakt zu einer Reihe von jährlich drei Ausschreibungen.

Weitere Infos und Antragstellung unter
http://www.cendari.eu/research/visiting-research-fellowships-2013/

Quelle: http://dhd-blog.org/?p=1036

Weiterlesen

Informationsinfrastrukturen im Wandel …

Der diesjährige Historikertag wartete mit der erfreulichen Neuerung auf, eine eigene HauptkategorieeHumanities” zu führen, in der jeden Tag mindestens eine Session verortet war. Am Freitag, den 28.9.2012 gab es eine fast vierstündige Sektion unter dem Titel “Informationsinfrastrukturen im Wandel: Zur Vergangenheit, Gegenwart und Zukunft der Informationsverarbeitung in historischer Lehre und Forschung“. Nach einer Reihe von “Impulsreferaten” wurde zunächst mit den Referenten diskutiert, bevor es eine allgemeine Podiumsdiskussion mit anderen Podianten als Vertretern verschiedener Teilbereiche der geschichtswissenschaftlichen Ökosystems (Historiker, Doktoranden, Bibliothekare, Portalbetreiber, Verleger) gab.

Leider hatten alle Teile wenig bis gar nichts mit dem zu tun, was ich selbst unter Informationsinfrastrukturen (geschweige denn in Gegenwart und Zukunft) verstehen würde. Das Thema wurde also eher “implizit” bearbeitet, wenn über die Arbeit des Historikers und die digitalen Wandlungen dieser Arbeit diskutiert wurde. Wenn ich eigens nach Mainz gereist war, um als jemand, der in einem Infrastrukturprojekt beschäftigt ist, etwas über die Sicht der historisch arbeitenden Fachkollegen auf Infrastrukturen zu erfahren, so blieb der Erkenntnisgewinn zu dieser Frage eher gering. Dafür scheinen mir zwei andere Details berichtenswert, die ich hier rein willkürlich herausgreifen möchte und die nicht für die Gesamtheit der Veranstaltung und der Beteiligten stehen.

Zum Einen wurde von Christoph Cornelißen beiläufig darauf hingewiesen, dass die (nicht zuletzt von Peter Haber) viel diskutierten Beschreibungsmuster der Wissenschaftler in der digitalen Welt als “digital immigrants” und als “digital natives” natürlich zu ergänzen sind um die größte, möglichwerweise nicht nur gefühlt 90% umfassende Gruppe der “digital ignorants” – die man bei einer systematischen Betrachtung der gegenwärtigen Wissenschaftstransformation ebenfalls unter die Lupe nehmen müsste. Zum anderen wurde mal wieder (und: ja, ich mache das auch öfters) die Monstranz des “Wir müssen die wissenschaftliche Qualität sichern und die wissenschaftlichen Qualitätsstandards bewahren” aus dem Tabernakel geholt. Dabei ist es immer das gleiche: Die Monstranz wird gezeigt, es wird aber nicht weiter darauf eingegangen, worin die postulierten Qualitäten eigentlich bestehen und wie sie zu sichern, geschweige denn zu prüfen wären. Dass “wissenschaftliche Qualität” in der freien Wildbahn praktisch nur als vage Selbstzuschreibung und als Verteidigungsbegriff gegen alles Andere und Neue vorkommt, ließ sich auch hier wieder eindrücklich beobachten. Pauschal wurde da z.B. von einem auf dem digitalen Feld zu beobachtenden “Wildwuchs” der Angebote gesprochen, die die traditionellen Qualitätsstandards unterlaufen würden und denen gegenüber “Qualitätserfordernisse” definiert werden müssten (was sicher nicht schaden kann). Immerhin mündete der sporadische Verweis auf die Digital Humanities nicht in ein allgemeines DH-bashing, nachdem Charlotte Schubert auf das hohe Maß der Selbstreflexion in den DH verwiesen hatte.

Eine sonderbare Note bekam die Rede über die Qualitätsicherung im historischen Feld allerdings auch dadurch, dass als Grundlage der vorgetragenen Gedanken eine “Diskussion an der Hotelbar am gestrigen Abend” referenziert wurde und dass bemängelt wurde, dass man heute kaum noch einen Vortrag halten könne, ohne dass im Publikum online recherchiert würde, ob der Vortragende auch wirklich keinen Unsinn erzählt (und ich dachte, DAS sei ein Zeichen von Qualitätssicherung). Die reklamierte Qualität der vortragenden Wissenschaftler erscheint so als eine, die sich gerade nicht überprüfen lassen will. Dazu passend wurden dann auch “Freiräume” für den Geisteswissenschaftler reklamiert, die “von elektronischer Beobachtung frei” sein sollten. Die Apologie der digitalen Ignoranz gipfelte im Ausruf, dass man auch heute noch “hervorragende Geschichtswerke ohne das Internet schreiben” könne. Das ist sicher richtig, wenn die historische Erkenntnis rein und vollständig aus den persönlich konsultierten Quellen, aus der Beschäftigung mit der älteren Literatur oder unmittelbar von Gott kommt. Sollte sie allerdings auch auf einem wissenschaftlichen Diskurs gründen, der im Hier und Jetzt stattfindet und der sich nun einmal auch der gegenwärtigen Technologien und Medien bedient, dann wird man die Prozesse der Erkenntnisgewinnung und ihre Qualitätsabschätzung doch etwas differenzierter betrachten müssen. Selbst angelegte Scheuklappen scheinen dann eine eher schlechte Basis für “hervorragende” Wissenschaft zu sein. Und wieso aus Ignoranz Qualität entstehen soll, werde ich vielleicht auch erst später begreifen …

Quelle: http://dhd-blog.org/?p=915

Weiterlesen

Wie schreibt man digital humanities?

Wie Kathleen Fitzpatrick in ihrem lesenswerten Buch “Planned Obsolence” (2011) [preprint] konstatiert, ist die Analyse dessen, was zu Digital Humanities gehört, leichter zu bewerkstelligen als DH wirklich zu praktizieren und die Kultur der kritischen Selbstreflexion bei der Texterstellung – immer noch das Hauptfeld der geistes- und kulturwissenschaftlichen Tätigkeit -  ist bislang selbst unter den DH Affinen zu wenig ausgeprägt. Die Gründungsveranstaltung der deutschen Dependance der DH in Hamburg hat es in der kontroversen Diskussion um das Pflichtabo der Literary & Linguistic Computing( LLC), das mit der Mitgliedschaft erworben werden muss, gezeigt: Kann es sein, dass sich die Neugründung der DHD mit einem kommerziell operierenden Verlag verbindet, der wichtige Elemente wie OA verweigert? Was aber muss eine DH Zeitschrift leisten oder genauer: was sollten Autoren oder die community tun, die im Bereich der DH arbeiten, kurz, wie “schreibt” man DH richtig? Ich habe mir vor dem Hintergrund der kontroversen Diskussion und unter dem Eindruck von Fitzpatricks glänzender Analyse zur Frage der Zukunft des wissenschaftlichen Publizierens einmal drei DH Zeitschriften angesehen (in subjektiver Auswahl), um nicht zuletzt auch im Sinne eines Selbstfindungsprozesses einige Kriterien für eine gute DH Publikation zu gewinnen.
Das Flaggschiff der DH, LCC, wird von Oxford University Press herausgegeben. OUP ist in seinem Ursprung zwar ein Universitätsverlag, arbeitet aber schon lange profitorientiert, nach kommerziellen, weniger wissenschaftlichen Gesichtspunkten (zu dieser Opposition siehe Fitzpatrick). Der Zugriff ist nicht frei, das Abo kostet für Privatpersonen samt Mitgliedschaft 123 Euro. Das liegt, was Zeitschriften im Bereich der Geistes- und Kulturwissenschaften anlangt, im oberen Bereich. Zum Vergleich: Gesellschaften wie die Renaissance Society of Amercia (RSA) veranschlagen samt Bezug der Renaissance Quarterly nur 50 USD. Ein Open Access Modell, sei es green way oder golden way, mittlerweile als Standard und guter Ton in den DH anerkannt, gibt es von Seiten des Verlages nicht (allenfalls unter Druck). Dass die Autoren im Besitz ihrer Rechte bleiben (vgl. das Editorial von Vanhoutte zum Heft 27 (2012) 1), ist zwar theoretisch ein Pluspunkt, der praktische Nutzen für OA ist jedoch zweifelhaft. Z.B. hat keiner der Beiträger des Heftes 27 (2012), 1  seinen Artikel online gestellt (Suche mit Stichwort Autor,Titel + erste Zeile des Haupttextes; jeweils nur LLC Treffer, d.h. Google indexiert die Hefte). Schaut man sich die Dokumente und Services selbst an, so werden Texte als HTML und PDF (die älteren nur PDF) angeboten, was eine analytische Nachnutzung unterhalb der Titelebene erschwert, denn Texte sind in den DH nicht nur Gegenstände der Lektüre, sondern auch der computergstützten Analyse (vgl. Thaller, in Historical Social Research, 37 (2012) 3) und automatisierten Vernetzung (semantic web). Verknüpfungen funktionieren nur innerhalb des Systems bzw. weitgehend unter Ausschluss nicht kommerziell arbeitender wissenschaftlicher Institutionen (Google Books, crossRef, etc.). Kodierungen von Entitäten im Text (Personen, Orte, Körperschaften, etc.) fehlen. Zitiert wird auf der Dokumentebene, feinere Adressierungen sind mittels Fragment-Identifier auf Grobkapitelebene möglich (dort nicht dokumentiert und daher nicht evident). Basis beibt das Paginierungssystem für Druckerzeugnisse. Erfreulicherweise wird eine DOI zum persistenten Zitieren geliefert. Mit DOI stehen auch weitere Funktionalitäten von crossRef zur Verfügung. Die institutionelle Langzeitarchivierung, die auch Access einschließen würde, ist ungewiss (zum Problem bereits Donald J. Waters, Urgent Action Needed (2005)). OUP untersagt es (deutschen) Bibliotheken, Titel herunterzuladen und selbst zu indexieren, so dass keine Möglichkeit besteht, Texte (langzeitzu)archivieren, zu aggregieren, in Mashups zu verbinden oder nach eigenen Suchkriterien und Rankinkmechanismen zu bearbeiten, allesamt Desiderate für DH Anwendungen (vgl.  zum Prinzip Gabriel Bodard/Juan Garcės, Open Source Critical Editions: A Rationale. In Gabriel Bodard/Juan Garcės, Open Source Critical Editions: A Rationale, In:  Text editing, Print and the Digital World, 83-98).  Möglichkeiten zur freien Annotation innerhalb des Systems und damit eine transparente Alternative zum geschlossenen peer-review System gibt es nicht (Fitzpatrick, Kap.1). In nuce, eine am analogen Modell orientierte profitorientierte Zeitschrift mit einem überkommenen geschlossenen peer-review Modell, das den Nutzen gerade für den analytischen Teil der DH zweifelhaft erscheinen lässt. Natürlich hat die Verbindung mit einem kommerziellen Verlag auch Vorteile. Der Herausgeber, Edward Vanhoutte, hebt hervor, dass mit den erwirtschafteten, nicht unerheblichen Gewinnen DH Projekte gefördert und die freie Schwester DHQ unterstützt werden. Doch bleiben prinzipielle Bedenken. Bei allen Verlockungen des Geldes sollte man gerade für das Flaggschiff der DH die Gefahren einer solchen Verbindung nicht unterschätzen ( vgl. Fitzpatrick und die zunehmende Kommerzialisierung am Beispiel einer ähnlich gelagerten Kooperation der der American Anthropological Association mit Wiley-Blackwell, S. 183f.).
Eine weitere im deutschsprachigen Raum etablierte Zeitschrift ist das Jahrbuch für Computerphilologie - online, hg. v. Georg Braungart, Peter Gendolla und Fotis Jannidis. Die Zeitschrift ist OA. Texte werden nur in HTML angeboten.  Angaben zum persistenten Adressieren finden sich nicht (DOI, URN, PURL o.ä.), die einzelnene Paragraphen sind zwar benannt, aber nicht über z.B. Fragmant-Identifier anspringbar (hier sollten zumindest Anker für interne Links eingefügt werden).  Die Langzeitarchivierung ist über die Deutsche Nationalbibliothek gesichert. Leider werden keine Angaben zur Lizenz gemacht (z.B. CC), so dass ein Forscher oder eine Institution (Universität, Bibliothek, Wikipedia) im Falle einer (textanalytischen) Nachnutzung theoretisch immer anfragen müsste, ob Indexierung und Archivierung möglich sind.  Eine automatisierte Nachnutzung ist auf der Basis des HTML Codes wie bei LLC zwar möglich, aber wie dort alles andere als optimal. Z.B. wäre es nur auf der Basis der class-Attribute möglich, Fußnoten in einer  Suche zu differenzieren. Kodierungen von Entitäten fehlen ebenso wie stabile Verlinkungen von Literatur (zum Nachweis von Querververlinkungen). Systemimmanente Annotations- oder Feedbackmöglichkeiten gibt es nicht. Das Review-Verfahren liegt in der Hand der im Feld wissenschaftlich ausgewiesen Herausgeber, was sicher nicht schlecht ist, aber durch ein flankierendes offenes Annotationssystem gewinnen könnte. Dessen ungeachtet zeigt die Zeitschrift, wie sich mit relativ geringem Aufwand qualitativ hochwertige Beiträge online bringen lassen. Die Verbindung der Online Ausgabe zum mentis Verlag ist eher lose. Die Zeitschrift nutzt sinnvoll die Kompetenzen des Verlages im Print-Bereich, ohne sich ihre Freiheiten beschneiden zu lassen. Schwächen liegen vor allem darin, dass zuviel Wert auf Präsentation und zu wenig auf Möglichkeiten zur automatisierte Verarbeitung gelegt wird. Mit einem deutlich formulierten freien CC-Lizenzmodell könnte man dies ggf. verbessern, indem dadurch Interessenten in die Lage versetzt würden, die Texte herunterzuladen, mit entsprechenden tools zu “strukturieren” und neu zu indexieren.

Ein letzter Blick gilt denen in vielerlei Hinsicht hervorragenden Digital Humanities Quarterly (DHQ). Die erste positive Überraschung ist die Bereitstellung nicht nur als HTML, sondern auch XML, das sich an TEI orientiert, wenn auch nicht konsequent. So haben die Herausgeber proprietäre Namensräume (dhq:) integriert. Hier finden sich echte Strukturinformationen z.B. zu den zitierten Titeln, allerdings wurde – wohl aus Gründen des Aufwandes – darauf verzichtet, Entitäten zu kodieren. Hier zeigt sich ein Problem, dass viele DH Publikationen betrifft, dass nämlich Autoren nach wie vor in klassischen Formen wie WORD oder PDF liefern. Würde man die Ablieferung von XML zur Pflicht machen, wären im Vertrauen auf den Wunsch des Autors, es möglichst professional zu getstalten, weit differenzierte Kodierungen möglich. Die Kodierung selbst liesse sich durch passende Schemata steuern. DHQ bietet neben den eigentlichen Publikationsfunktionalitäten, eine Reihe von social services, wie Diskussions- und Annotationsmöglcihkeiten, die im wissenschaftlichen Umfeld perspektivisch unverzichtbar sind. Hervorzuheben ist, dass auf eine CC Lizenz geachtet wurde, die jedoch mit einer Unklarkeit behaftet ist. Die verwendete sehr enge Lizenz BY-NC-ND bedeutet einerseits, dass “kommerzielle” aber offene Player wie wikipedia ausgeschlossen werden, andererseits ist ND interpretationsbedürftig. Das in der Publishing-Policy  zugesicherte Recht “to include it in other aggregations and indexes to achieve broader impact and visibility” wäre auf der Basis von ND (=”You may not alter, transform, or build upon this work”) eigentlich nicht sinnvoll möglich, denn wie soll eine andere Aggregation aussehen, die keine Änderungen vornimmt? Was ist hier eigentlich dasenige, was nicht verändert werden darf? Hier bedarf es weiterer Präzisierungen. Zu Persistent Linking findet sich bedauerlicherweise nichts. Die Artikel lassen sich auf Paragraphenebene mittels Fragment-Identifiern adressieren. Die Qualität wird im peer review Verfahren sichergestellt, wobei die Zeitschrift engagierte Experten aufruft, sich als reviewer zu beteiligen (zu diesem Thema s. Fitzpatrick wie oben).

Insgesamt ist zu beklagen, dass auf der Artikelebene keine professionelle Erschließung in Bibliotheksverbünden stattfindet, sondern man sich mehr oder weniger mit Google oder privatwirtschaftlichen Suchmöglichkeiten behelfen muss. Hier sind Bibliotheken in der Pflicht, die stärker als bisher auch mit entsprechenden Lizenzen ausgestattete OA Publikationen archivieren und nachweisen sollten.

Aus diesen eher kursorischen Betrachtungen scheinen mir folgende Punkte für eine gute DH Publikation, die mehr sein will als ein Druck im Netz (typischerweise als digitale Inkunabel im PDF Format), empfehlens- und bedenkenswert:

  • OA mit einer freien Lizenz. Idealerweise CC BY-SA. Gemeint sollte damit sein, dass der Name des Autors und die URL der Originalpublikation genannt sein müssen. So ist einerseits die Urform im Sinne von ND referenzierbar, andererseits aber jede Art von Nachbearbeitung (Aggregation, Mashup, Archivierung, Indexierung nach eigenen Rankingmechanism, Textanalyse etc.) möglich. Eine kommerzielle Nachnutzung ist erwünscht, wenn sie das Resultat der Bearbeitung nicht einschließt und unter gleichen Bedingungen weitergibt (z.B. wikipedia). Dass muss nicht bedeuten, dass man kommerzielle Geschäftmodelle, die Services bieten (z.B. spezielle akademische Suchmaschienen), ausschließt. Das Verhältnis von Publikationsoberfläche (HTML, PDF), Strukturebene (XML) und Index bedarf jedoch lizenzrechtlich betrachtet präzisierender Erläuterungen, die ich hier nicht anstellen kann.
  • Persistent Linking (DOI, URN, PURL, Handle usw.) sollte immer mitbedacht werden. Wünschbar wären feinere Granularitätsstufen auf Paragraphen oder, wo möglich, sogar auf Wortebene (z.B. mit Xpointer-Techniken). Verbunden damit sind auch Verlinkungsmechanismen, wie wie in semantic web Anwendungen genutzt werden können (z.B. LOD)
  • Texte sollten nativ in XML verfasst oder von Autoren in XML geliefert werden. Portale wie TextGrid oder Editoren wie oXygen können dazu beitragen, den Schritt von einer den Druck simulierenden zu einer nativen DH Publikation zu erleichtern. Dabei wäre die Anwendung von Standards (z.B. TEI) sehr sinnvoll, um stärker als bisher analytische und automatisierte Nutzungsmöglichkeiten (semantic web) zu eröffnen.
  • Publikationen sollten sich zur Qualitätssicherung stärker transparenten peer-review Verfahren und Annotationsmöglichkeiten bedienen (vgl. Fitzpatrick)
  • Zeitschriften-Portale sollten stets Möglichkeiten des wissenschaftlichen Austausches mitbedenken (Kommentar- und Annotationsfuntionen). Dabei können Standards wie der der Open Annotation Collaboration hilfreich sein.
  • Infrastruktureinrichtungen wie Bibliotheken sollten sich stärker als bisher in die Katalogisierung und das Hosting von DH  Angeboten einbringen, um die technische Seite zu betreuen und die Langzeitarchivierung sicherzustellen. Zugleich müssten sie sich stärker wissenschaftlichen Netzwerken bzw. Fachcommunities öffnen, um durch entsprechende Angebote eine Basis zu schaffen, wissenschaftliche Publikationen wieder als Teil der universitären Infrastruktur und weniger als Gegenstand von “Business-Modellen” (vgl. Fitzpatrick, 181) sichtbar werden zu lassen.

Quelle: http://dhd-blog.org/?p=673

Weiterlesen