Forschungen zur Wissenschaftskommunikation aus linguistischer, historischer, soziologischer und philosophischer Perspektive

Nach drei anregenden thematisch fokussierten Tagungen hat sich am 5. und 6. September 2012 eine Arbeitsgruppe getroffen, um Projektideen und Forschungen zum Thema Wissenschaftskommunikation zu konkretisieren. Die Darmstädter Linguistin Nina Janich hat diesen Forschungsschwerpunkt initiiert und die Tagungen und Treffen gemeinsam mit ihrem Team organisiert und durchgeführt.

Unter dem Namen Scientific Communication Research (SciCoRe) sollen Forschungen zusammengeführt werden, die sich beispielsweise mit Wissensformen, mit Kommunikation innerhalb wissenschaftlicher Communities , aber auch mit nach außen gerichteten Vermittlungskulturen, Medien- und Textformaten beschäftigen (traditionelle und auch neue Formen wie bloggen und twittern). Fragen nach Auswirkungen von Datenaufbereitung wie Datenpräsentation, Virtualisierungen und Visualisierungen, die Tendenz zu Simulationen im Kontrast zu Evidenzbasierung werden ebenso diskutiert wie mediale Aspekte, sprachlich-diskursive Popularisierungsstrategien und politisch-historische Legitimationsprozesse. Dabei werden Unterschiede und Gemeinsamkeiten bei den geistes- und gesellschaftswissenschaftliche Disziplinen und den Experimental- und Technowissenschaften betrachtet und hinterfragt.
Die Gruppe setzt sich zusammen aus Soziologen, Philosophen, Historikern, Sprachwissenschaftlern und Digital Humanists. Obwohl es zunächst so schien, als seien unsere Forschungsinteressen stark divergierend und unsere Ausgangspunkte sehr unterschiedlich, stellen sich in den Gesprächen und Arbeitsgruppen rasch zahlreiche Überschneidungen, Vernetzungen und gemeinsame Fragestellungen heraus.

  • Selbstdarstellung im öffentlichen Diskurs
  • Veränderungen von Publikations- und Kommunikationskulturen in den Fachdisziplinen
  • Forschung zwischen Nichtwissen und Beratungsauftrag
  • Virtualisierung von Forschungsprozessen, Simulationen, Evidenzbasierung
  • Status u d Zuschreibungen von “Experten”, “Dilettanten” und “Laien”, deren jeweilige Performanz in unterschiedlichen medialen Kommunikationszusammenhängen
  • Fehler- und Irrtumskultur, Umgang mit vorläufigen Forschungsergebnissen, Zwischenergebnissen

Was mich besonders interessiert – aus sprachwissenschaftlicher wie Digital Humanities-Perspektive – sind gewiss die Fragen nach Virtualisierungen von Forschungsprozessen, da dieses Thema im Rahmen von TextGrid und Dariah zentral ist. Viele Dinge, die wir in diesem Kontext gewissermaßen aus der Praxis heraus täglich bearbeiten und diskutieren, sind bislang nicht systematisch beschrieben und erforscht. Wie die Entwicklungen der Humanities im Hinblick auf Digital Humanities nach innen in die eigene Community, in die “traditionellen” Fachcommunities und in die Öffentlichkeit kommuniziert werden, wie jeweils “Experten-”Status- und Zugehörigkeitszuschreibungen vorgenommen werden, wie mit Unsicherheiten umgegangen wird, wie “Zwischenergebnisse” (z.B. nicht tief annotierte Rohdaten) zur Nachnutzung weitergegeben werden und wie dafür wissenschaftliche Benefits – auch für den wissenschaftlichen Nachwuchs – generiert werden können, das alles gehört wohl auch auf die Forschungsagenda der Digital Humanities, um die wissenschaftliche Selbstreflexion voranzutreiben und definitorische Beiträge zu den Digital Humanities zu leisten.

Quelle: http://dhd-blog.org/?p=859

Weiterlesen

Digital Arts and Humanities: Scholarly Reflections

Eine Doktorandengruppe im Digital Arts and Humanities programme des University College Cork hat ein iBook mit dem vielversprechenden Titel Digital Arts and Humanities: Scholarly Reflections verfasst. Leider kann ich auch gar nicht mehr dazu sagen – das Buch ist zwar theoretisch kostenlos erhätlich, aber de facto muss man noch den Preis eines iPad einrechnen: “Available on iPad.”

Vielleicht möchte ja ein iPad-Besitzer einen Blick auf das Buch werfen und uns wissen lassen, ob es einlöst, was der Titel verspricht. Persönlich jedenfalls hätte ich mir ein offenes Format gewünscht:

http://itunes.apple.com/gb/book/digital-arts-humanities-scholarly/id529097990?mt=11

Quelle: http://dhd-blog.org/?p=847

Weiterlesen

Die völkische Bewegung: Protest und Identifikation durch Mythenbildung

Die Geschichte der völkischen Bewegung beginnt mit der deutschen Nationalstaatenbildung in der zweiten Hälfte des 19. Jahrhunderts. Über die nationalsozialistische Ideologie hinaus beeinflusst sie auch heute noch den modernen Rechtsextremismus. In Ausgabe 13/2012 diskutieren wir mit dem Historiker Uwe Puschner über Trans-
formationsprozesse und Mythenbildung im ausgehenden 19. Jahrhundert.

Die völkische Bewegung entsteht als als heterogene nationalistisch-reformerische Protestbewegung auf rassenideologischer Grundlage – Identifikationsmerkmal und historische Begründung ist die Rückbesinnung auf die Germanen. In Opposition zum Christentum wird eine neue Germanenideologie formuliert. In Anlehnung zum Nationalismus definiert sich auch die völkische Bewegung über Sprache und Kultur, andere Fundamente bilden lebensreformerische Bewegungen als Reaktion auf die urbane Gesellschaft und die Neuorientierung des Menschen.

Auch in der nationalsozialistischen Ideologie finden sich viele Elemente der völkischen Weltanschauung, mit der Machtübernahme Hitlers 1933 verliert die völkische Bewegung jedoch mehr und mehr an Bedeutung. Mit Uwe Puschner sprechen wir über die Erosion der völkischen Bewegung, darüber, wie sich die beiden Ideologien in ihren Elementen und Zielen unterscheiden und die völkischen Elemente im Rechtsextremismus der Gegenwart.

Und hier die Timeline zum Gespräch

02:07 Begriff „völkisch“ und die Anfänge der völkischen Bewegung

05:57 das aufstrebende Bürgertum als Protagonisten der bewegung

08:05 Geschichtskonstruktionen im 19. Jahrhundert

11:10 Formulierung einer neuen Germanenideologie

14:09 Konkurrenzbewegungen? NS-Ideologie und völkische Bewegung

22:14 Politisches Ziel: ständisch organisierter Führerstaat

25:32 Erosion der völkischen Bewegung ab 1925

29:01 Kulturjournalismus und Gustav Frenssen

33:00 Völkische Elemente im Rechtsradikalismus

39:09 Montagsradio-Fragebogen

Quelle: http://www.montagsradio.de/2012/08/27/die-volkische-bewegung-protest-und-identifikation-durch-mythenbildung/

Weiterlesen

Wie schreibt man digital humanities?

Wie Kathleen Fitzpatrick in ihrem lesenswerten Buch “Planned Obsolence” (2011) [preprint] konstatiert, ist die Analyse dessen, was zu Digital Humanities gehört, leichter zu bewerkstelligen als DH wirklich zu praktizieren und die Kultur der kritischen Selbstreflexion bei der Texterstellung – immer noch das Hauptfeld der geistes- und kulturwissenschaftlichen Tätigkeit -  ist bislang selbst unter den DH Affinen zu wenig ausgeprägt. Die Gründungsveranstaltung der deutschen Dependance der DH in Hamburg hat es in der kontroversen Diskussion um das Pflichtabo der Literary & Linguistic Computing( LLC), das mit der Mitgliedschaft erworben werden muss, gezeigt: Kann es sein, dass sich die Neugründung der DHD mit einem kommerziell operierenden Verlag verbindet, der wichtige Elemente wie OA verweigert? Was aber muss eine DH Zeitschrift leisten oder genauer: was sollten Autoren oder die community tun, die im Bereich der DH arbeiten, kurz, wie “schreibt” man DH richtig? Ich habe mir vor dem Hintergrund der kontroversen Diskussion und unter dem Eindruck von Fitzpatricks glänzender Analyse zur Frage der Zukunft des wissenschaftlichen Publizierens einmal drei DH Zeitschriften angesehen (in subjektiver Auswahl), um nicht zuletzt auch im Sinne eines Selbstfindungsprozesses einige Kriterien für eine gute DH Publikation zu gewinnen.
Das Flaggschiff der DH, LCC, wird von Oxford University Press herausgegeben. OUP ist in seinem Ursprung zwar ein Universitätsverlag, arbeitet aber schon lange profitorientiert, nach kommerziellen, weniger wissenschaftlichen Gesichtspunkten (zu dieser Opposition siehe Fitzpatrick). Der Zugriff ist nicht frei, das Abo kostet für Privatpersonen samt Mitgliedschaft 123 Euro. Das liegt, was Zeitschriften im Bereich der Geistes- und Kulturwissenschaften anlangt, im oberen Bereich. Zum Vergleich: Gesellschaften wie die Renaissance Society of Amercia (RSA) veranschlagen samt Bezug der Renaissance Quarterly nur 50 USD. Ein Open Access Modell, sei es green way oder golden way, mittlerweile als Standard und guter Ton in den DH anerkannt, gibt es von Seiten des Verlages nicht (allenfalls unter Druck). Dass die Autoren im Besitz ihrer Rechte bleiben (vgl. das Editorial von Vanhoutte zum Heft 27 (2012) 1), ist zwar theoretisch ein Pluspunkt, der praktische Nutzen für OA ist jedoch zweifelhaft. Z.B. hat keiner der Beiträger des Heftes 27 (2012), 1  seinen Artikel online gestellt (Suche mit Stichwort Autor,Titel + erste Zeile des Haupttextes; jeweils nur LLC Treffer, d.h. Google indexiert die Hefte). Schaut man sich die Dokumente und Services selbst an, so werden Texte als HTML und PDF (die älteren nur PDF) angeboten, was eine analytische Nachnutzung unterhalb der Titelebene erschwert, denn Texte sind in den DH nicht nur Gegenstände der Lektüre, sondern auch der computergstützten Analyse (vgl. Thaller, in Historical Social Research, 37 (2012) 3) und automatisierten Vernetzung (semantic web). Verknüpfungen funktionieren nur innerhalb des Systems bzw. weitgehend unter Ausschluss nicht kommerziell arbeitender wissenschaftlicher Institutionen (Google Books, crossRef, etc.). Kodierungen von Entitäten im Text (Personen, Orte, Körperschaften, etc.) fehlen. Zitiert wird auf der Dokumentebene, feinere Adressierungen sind mittels Fragment-Identifier auf Grobkapitelebene möglich (dort nicht dokumentiert und daher nicht evident). Basis beibt das Paginierungssystem für Druckerzeugnisse. Erfreulicherweise wird eine DOI zum persistenten Zitieren geliefert. Mit DOI stehen auch weitere Funktionalitäten von crossRef zur Verfügung. Die institutionelle Langzeitarchivierung, die auch Access einschließen würde, ist ungewiss (zum Problem bereits Donald J. Waters, Urgent Action Needed (2005)). OUP untersagt es (deutschen) Bibliotheken, Titel herunterzuladen und selbst zu indexieren, so dass keine Möglichkeit besteht, Texte (langzeitzu)archivieren, zu aggregieren, in Mashups zu verbinden oder nach eigenen Suchkriterien und Rankinkmechanismen zu bearbeiten, allesamt Desiderate für DH Anwendungen (vgl.  zum Prinzip Gabriel Bodard/Juan Garcės, Open Source Critical Editions: A Rationale. In Gabriel Bodard/Juan Garcės, Open Source Critical Editions: A Rationale, In:  Text editing, Print and the Digital World, 83-98).  Möglichkeiten zur freien Annotation innerhalb des Systems und damit eine transparente Alternative zum geschlossenen peer-review System gibt es nicht (Fitzpatrick, Kap.1). In nuce, eine am analogen Modell orientierte profitorientierte Zeitschrift mit einem überkommenen geschlossenen peer-review Modell, das den Nutzen gerade für den analytischen Teil der DH zweifelhaft erscheinen lässt. Natürlich hat die Verbindung mit einem kommerziellen Verlag auch Vorteile. Der Herausgeber, Edward Vanhoutte, hebt hervor, dass mit den erwirtschafteten, nicht unerheblichen Gewinnen DH Projekte gefördert und die freie Schwester DHQ unterstützt werden. Doch bleiben prinzipielle Bedenken. Bei allen Verlockungen des Geldes sollte man gerade für das Flaggschiff der DH die Gefahren einer solchen Verbindung nicht unterschätzen ( vgl. Fitzpatrick und die zunehmende Kommerzialisierung am Beispiel einer ähnlich gelagerten Kooperation der der American Anthropological Association mit Wiley-Blackwell, S. 183f.).
Eine weitere im deutschsprachigen Raum etablierte Zeitschrift ist das Jahrbuch für Computerphilologie - online, hg. v. Georg Braungart, Peter Gendolla und Fotis Jannidis. Die Zeitschrift ist OA. Texte werden nur in HTML angeboten.  Angaben zum persistenten Adressieren finden sich nicht (DOI, URN, PURL o.ä.), die einzelnene Paragraphen sind zwar benannt, aber nicht über z.B. Fragmant-Identifier anspringbar (hier sollten zumindest Anker für interne Links eingefügt werden).  Die Langzeitarchivierung ist über die Deutsche Nationalbibliothek gesichert. Leider werden keine Angaben zur Lizenz gemacht (z.B. CC), so dass ein Forscher oder eine Institution (Universität, Bibliothek, Wikipedia) im Falle einer (textanalytischen) Nachnutzung theoretisch immer anfragen müsste, ob Indexierung und Archivierung möglich sind.  Eine automatisierte Nachnutzung ist auf der Basis des HTML Codes wie bei LLC zwar möglich, aber wie dort alles andere als optimal. Z.B. wäre es nur auf der Basis der class-Attribute möglich, Fußnoten in einer  Suche zu differenzieren. Kodierungen von Entitäten fehlen ebenso wie stabile Verlinkungen von Literatur (zum Nachweis von Querververlinkungen). Systemimmanente Annotations- oder Feedbackmöglichkeiten gibt es nicht. Das Review-Verfahren liegt in der Hand der im Feld wissenschaftlich ausgewiesen Herausgeber, was sicher nicht schlecht ist, aber durch ein flankierendes offenes Annotationssystem gewinnen könnte. Dessen ungeachtet zeigt die Zeitschrift, wie sich mit relativ geringem Aufwand qualitativ hochwertige Beiträge online bringen lassen. Die Verbindung der Online Ausgabe zum mentis Verlag ist eher lose. Die Zeitschrift nutzt sinnvoll die Kompetenzen des Verlages im Print-Bereich, ohne sich ihre Freiheiten beschneiden zu lassen. Schwächen liegen vor allem darin, dass zuviel Wert auf Präsentation und zu wenig auf Möglichkeiten zur automatisierte Verarbeitung gelegt wird. Mit einem deutlich formulierten freien CC-Lizenzmodell könnte man dies ggf. verbessern, indem dadurch Interessenten in die Lage versetzt würden, die Texte herunterzuladen, mit entsprechenden tools zu “strukturieren” und neu zu indexieren.

Ein letzter Blick gilt denen in vielerlei Hinsicht hervorragenden Digital Humanities Quarterly (DHQ). Die erste positive Überraschung ist die Bereitstellung nicht nur als HTML, sondern auch XML, das sich an TEI orientiert, wenn auch nicht konsequent. So haben die Herausgeber proprietäre Namensräume (dhq:) integriert. Hier finden sich echte Strukturinformationen z.B. zu den zitierten Titeln, allerdings wurde – wohl aus Gründen des Aufwandes – darauf verzichtet, Entitäten zu kodieren. Hier zeigt sich ein Problem, dass viele DH Publikationen betrifft, dass nämlich Autoren nach wie vor in klassischen Formen wie WORD oder PDF liefern. Würde man die Ablieferung von XML zur Pflicht machen, wären im Vertrauen auf den Wunsch des Autors, es möglichst professional zu getstalten, weit differenzierte Kodierungen möglich. Die Kodierung selbst liesse sich durch passende Schemata steuern. DHQ bietet neben den eigentlichen Publikationsfunktionalitäten, eine Reihe von social services, wie Diskussions- und Annotationsmöglcihkeiten, die im wissenschaftlichen Umfeld perspektivisch unverzichtbar sind. Hervorzuheben ist, dass auf eine CC Lizenz geachtet wurde, die jedoch mit einer Unklarkeit behaftet ist. Die verwendete sehr enge Lizenz BY-NC-ND bedeutet einerseits, dass “kommerzielle” aber offene Player wie wikipedia ausgeschlossen werden, andererseits ist ND interpretationsbedürftig. Das in der Publishing-Policy  zugesicherte Recht “to include it in other aggregations and indexes to achieve broader impact and visibility” wäre auf der Basis von ND (=”You may not alter, transform, or build upon this work”) eigentlich nicht sinnvoll möglich, denn wie soll eine andere Aggregation aussehen, die keine Änderungen vornimmt? Was ist hier eigentlich dasenige, was nicht verändert werden darf? Hier bedarf es weiterer Präzisierungen. Zu Persistent Linking findet sich bedauerlicherweise nichts. Die Artikel lassen sich auf Paragraphenebene mittels Fragment-Identifiern adressieren. Die Qualität wird im peer review Verfahren sichergestellt, wobei die Zeitschrift engagierte Experten aufruft, sich als reviewer zu beteiligen (zu diesem Thema s. Fitzpatrick wie oben).

Insgesamt ist zu beklagen, dass auf der Artikelebene keine professionelle Erschließung in Bibliotheksverbünden stattfindet, sondern man sich mehr oder weniger mit Google oder privatwirtschaftlichen Suchmöglichkeiten behelfen muss. Hier sind Bibliotheken in der Pflicht, die stärker als bisher auch mit entsprechenden Lizenzen ausgestattete OA Publikationen archivieren und nachweisen sollten.

Aus diesen eher kursorischen Betrachtungen scheinen mir folgende Punkte für eine gute DH Publikation, die mehr sein will als ein Druck im Netz (typischerweise als digitale Inkunabel im PDF Format), empfehlens- und bedenkenswert:

  • OA mit einer freien Lizenz. Idealerweise CC BY-SA. Gemeint sollte damit sein, dass der Name des Autors und die URL der Originalpublikation genannt sein müssen. So ist einerseits die Urform im Sinne von ND referenzierbar, andererseits aber jede Art von Nachbearbeitung (Aggregation, Mashup, Archivierung, Indexierung nach eigenen Rankingmechanism, Textanalyse etc.) möglich. Eine kommerzielle Nachnutzung ist erwünscht, wenn sie das Resultat der Bearbeitung nicht einschließt und unter gleichen Bedingungen weitergibt (z.B. wikipedia). Dass muss nicht bedeuten, dass man kommerzielle Geschäftmodelle, die Services bieten (z.B. spezielle akademische Suchmaschienen), ausschließt. Das Verhältnis von Publikationsoberfläche (HTML, PDF), Strukturebene (XML) und Index bedarf jedoch lizenzrechtlich betrachtet präzisierender Erläuterungen, die ich hier nicht anstellen kann.
  • Persistent Linking (DOI, URN, PURL, Handle usw.) sollte immer mitbedacht werden. Wünschbar wären feinere Granularitätsstufen auf Paragraphen oder, wo möglich, sogar auf Wortebene (z.B. mit Xpointer-Techniken). Verbunden damit sind auch Verlinkungsmechanismen, wie wie in semantic web Anwendungen genutzt werden können (z.B. LOD)
  • Texte sollten nativ in XML verfasst oder von Autoren in XML geliefert werden. Portale wie TextGrid oder Editoren wie oXygen können dazu beitragen, den Schritt von einer den Druck simulierenden zu einer nativen DH Publikation zu erleichtern. Dabei wäre die Anwendung von Standards (z.B. TEI) sehr sinnvoll, um stärker als bisher analytische und automatisierte Nutzungsmöglichkeiten (semantic web) zu eröffnen.
  • Publikationen sollten sich zur Qualitätssicherung stärker transparenten peer-review Verfahren und Annotationsmöglichkeiten bedienen (vgl. Fitzpatrick)
  • Zeitschriften-Portale sollten stets Möglichkeiten des wissenschaftlichen Austausches mitbedenken (Kommentar- und Annotationsfuntionen). Dabei können Standards wie der der Open Annotation Collaboration hilfreich sein.
  • Infrastruktureinrichtungen wie Bibliotheken sollten sich stärker als bisher in die Katalogisierung und das Hosting von DH  Angeboten einbringen, um die technische Seite zu betreuen und die Langzeitarchivierung sicherzustellen. Zugleich müssten sie sich stärker wissenschaftlichen Netzwerken bzw. Fachcommunities öffnen, um durch entsprechende Angebote eine Basis zu schaffen, wissenschaftliche Publikationen wieder als Teil der universitären Infrastruktur und weniger als Gegenstand von “Business-Modellen” (vgl. Fitzpatrick, 181) sichtbar werden zu lassen.

Quelle: http://dhd-blog.org/?p=673

Weiterlesen

CFP: Digital Classicist Seminar Berlin

[english version below]

Das neu gegründete Digital Classicist Seminar Berlin [1], das erstmals im Wintersemester 2012/13 stattfinden wird, freut sich den Call for Papers bekannt zu geben. Diese Seminarreihe orientiert sich an dem Digital Classicist Work in Progress Seminar [2] in London und wird unter anderem von dem Deutschen Archäologischen Institut  und dem Excellenzcluster TOPOI und in Berlin veranstaltet.

Sie sind herzlich dazu eingeladen, Vorschläge zu Beiträgen einzureichen, welche die innovative Anwendung moderner digitaler Methoden, Ressourcen und Techniken in den Altertumswissenschaften thematisieren. Vorschläge in deutscher oder englischer Sprache im Umfang von 300-500 Wörtern (ohne bibliographische Angaben) können bis 14. September 2012 über die unten genannte Webseite hochgeladen werden [3].

Die Vorträge können folgende Themenbereich adressieren: digitale Texte, sprachwissenschaftliche Technologien, Bildverarbeitung und Visualisierung, Linked Data und Semantic Web, Open Access, Raum- und Netzwerk-Analyse und andere digitale oder statistische Methoden. Besonders werden dabei Vorschläge begrüßet, aus denen hervorgeht, wie dank der Anwendung digitaler Methoden fachübergreifende Fragen beantwortet werden können. Die im Seminar präsentierten Inhalten sollten sowohl Philologen, Historiker und Archäologen als auch Informationswissenschaftler und andere Geisteswissenschaftler mit Interesse an den genannten Fragestellungen ansprechen.

Die Seminare werden alle 14 Tage dienstagabends um 17.00 – 18.30 Uhr im Hörsaal des TOPOI-Hauses in Berlin-Dahlem stattfinden [4]. Das vollständige Programm wird Ende September bekannt gegeben. Es ist geplant, Vortragende bei der Finanzierung der Reise- und Unterkunftskosten zu unterstützen. Nähere Details hierzu werden bei Veröffentlichung des Programm mitgeteilt.

[1] http://de.digitalclassicist.org/berlin/

[2] http://www.digitalclassicist.org/wip/

[3] http://de.digitalclassicist.org/berlin/submit

[4] http://www.topoi.org/buildings/

CFP: Digital Classicist Seminar Berlin

We are pleased to announce the Call for Papers for the newly established Digital Classicist Seminar Berlin [1], which will run for the first time in the Winter Term 2012. This initiative, inspired by and connected to London’s Digital Classicist Work in Progress Seminar [2], is organised in association with the German Archaeological Institute and the Excellence Cluster TOPOI.

We invite submissions on research which employ digital methods, resources or technologies in an innovative way in order to enable increased understanding of the ancient world at large. Abstracts, either in English or in German, of 300-500 words max. (bibliographic references excluded) should be uploaded by midnight MET on September 14, 2012 using the special submission form [3].

Themes may include digital text, linguistics technology, image processing and visualisation, linked data and semantic web, open access, spatial and network analysis, serious gaming and any other digital or quantitative methods. We welcome seminar proposals addressing the application of these methods to individual projects, and particularly contributions which show how the digital component can lead to crossing disciplinary boundaries and answer new research questions. Seminar content should be of interest both to classicists, ancient historians or archaeologists, as well as information scientists and digital humanists, with an academic research agenda relevant to at least one of these fields.

Seminars will run fortnightly on Tuesday evenings (17:00-18:30) starting in October 2012 in the TOPOI Building Dahlem [4], hosted by the Excellence Cluster TOPOI. The full programme will be finalised and announced in late September. It is planned to grant an allowance to speakers for travelling and accommodation costs. Further details will be available once the program is finalised.

[1] http://de.digitalclassicist.org/berlin/

[2] http://www.digitalclassicist.org/wip/

[3] http://de.digitalclassicist.org/berlin/submit

[4] http://www.topoi.org/buildings/

Quelle: http://dhd-blog.org/?p=777

Weiterlesen

Digital Humanities: The Movie

Was die Digital Humanities können und sollen, darüber wird in der Zunft trefflich und mit Leidenschaft gestritten. Ihr Potential indessen auch einem breiten Publikum verständlich zu vermitteln, das versucht der von TextGrid produzierte Kurzfilm “Virtuelle Forschungswelten: Neue Technologien in den Geisteswissenschaften”.

Der Film zeigt, wie virtuelle Forschungsumgebungen v.a. den textbasierten Geisteswissenschaften die vernetzte Forschung erleichtern und z.B. der Erstellung digitaler Editionen und der Langzeitarchivierung von Forschungsdaten neue Möglichkeiten eröffnen.

Zu sehen auf YouTube:
http://www.youtube.com/watch?v=JRBYR9OA45Q (dt.)
http://www.youtube.com/watch?v=kjO9epVZHa0 (engl.)

Entstanden ist der Film mit finanzieller Unterstützung der D-Grid GmbH unter Mitwirkung der SUB Göttingen sowie den Kolleginnen und Kollegen von TextGrid (http://www.textgrid.de) und DARIAH-DE (http://www.de.dariah.eu/).

Feedback, Kommentare, Anregungen und Verbreitung herzlich willkommen!

Quelle: http://dhd-blog.org/?p=757

Weiterlesen

?DH? – Verbandsgründung ohne Name, Satzung und Mitglieder?

Dienstag, der 17. Juli 2012 war ein guter Tag für die Digital Humanities in Deutschland. Die DHD-Unconference im Rahmen der DH2012 war eine großartige Gelegenheit, den Stand der digitalen Geisteswissenschaften im deutschprachigen Raum zu demonstrieren und die Gestaltung ihrer Zukunft zu diskutieren. Ebenso spannend wie die Science-Slams und die Podiumsdiskussion verlief die zwischen beiden Blöcken angesetzte Session zur Gründung eines Verbandes zu den Digital Humanities im deutschprachigen Raum. Dem Team um Jan Christoph Meister und den weiteren Mitstreitern aus der Community ist für die Vorbereitung aller drei Teile sehr zu danken.

Es zeigte sich jedoch, dass es hinsichtlich der Gründung eines Verbandes zu den Digital Humanities im deutschsprachigen Raum doch noch mehr Diskussionsbedarf gibt, als von den Organisatoren vielleicht erwartet worden ist. Etliche Punkte der Satzung, die zu der Sitzung verteilt wurde und wohl den meisten Teilnehmern vorher nicht bekannt war,* boten Anlass zu Nachfragen und Verbesserungsvorschlägen. Dies betraf auch ganz zentrale Fragen, so dass die Satzung als Ganzes wohl für den Moment als hinfällig betrachtet werden muss. Ich gehe hier nur auf zwei wesentliche Punkte ein, die noch einer grundsätzlichen Debatte und Klärung bedürfen.

Als Name für den Verband ist “Digital Humanities Deutschland” vorgeschlagen worden, was sinnvoll ist, wenn der Verband vor allem als Lobby-Verband für die Vertretung von Interessen in einem nationalen Kontext oder als Vertretung nationaler Interessen nach außen fungieren soll. Soll er dagegen den gemeinsamen Kulturraum der deutschsprachigen Geisteswissenschaften vertreten, so muss eine Identifikation mit dem Verband auch für Kollegen aus Österreich, der Schweiz, Luxemburg und für deutschsprachige Mitglieder weltweit möglich sein. Dazu sind verschiedene erste Alternativvorschläge genannt worden. “Digital Humanities im deutschsprachigen Raum” ist zwar präzise, wirkt aber leider sprachlich etwas umständlich. “Digital Humanities des deutschsprachigen Raumes” stärkt zwar den Gebrauch des Genitivs, würde aber zum Akronym “DH-DDR” führen. “Digital Humanities deutsch” ist kurz und präzise, provoziert aber vielleicht bei manchen die Konnotation des “man spricht deutsch”. “German Digital Humanities” wäre möglich, sollte aber auf die Zustimmungsfähigkeit der Kolleginnen  aus Österreich und der Schweiz überprüft werden. Ich selbst schicke noch folgende Ideen in’s Rennen, die vermutlich auch nicht besser sind: “Digital Humanities D/AT/CH” sowie “Digital Humanities DACH”. Beide würden ein Beibehalten der Abkürzung DHD erlauben. Beide müssten aber auf die Zustimmungsfähigkeit der Kollegen außerhalb von D/AT/CH geprüft werden. Die gesamte Bennenungsproblematik und die möglichen Lösungen verweisen auf eine grundsätzliche Frage: wie sollen solche Fragen eigentlich geklärt werden? Eine konsensuale Namensfindung sollte wohl nicht in einer Vorbereitungsgruppe oder einem Vorstand organisiert werden, sondern die gesamte Community der potentiellen Verbandsmitglieder einbeziehen.

Das gilt auch für den nächsten wichtigen Punkt, der auf der Versammlung bereits problematisiert und andiskutiert worden ist: Die Frage der Mitgliedschaft. Hier sah der ursprüngliche Satzungsentwurf vor, dass eine Mitgliedschaft durch das Abonnement der Zeitschrift “LLC – Journal of Digital Scholarship in the Humanities” erfolgen sollte. Dies hätte den organisatorischen Vorteil, dass die Mitgliederverwaltung und die Einziehung und Weiterleitung der Mitgliedsbeiträge durch Oxford University Press erfolgen würde. Dem stehen aber mindestens drei gravierende Vorbehalte gegenüber: Erstens ist gefragt worden, ob die deutschen Digital Humanities sich wirklich in dieser Weise an einen Verlag binden wollen, dessen Haltung zu Open Acess und freier Wissenschaftskommunikation möglicherweise nicht vollständig mit den Zielen eines DH-Verbandes in Einklang steht. Zweitens ist nochmals genau nachzurechnen, welcher Anteil der Abonnementskosten (derzeit 53€ für Einzelpersonen für ein reines online-Abonnement) nach den Einbehaltungen durch OUP und den Abführungen an die ALLC eigentlich dem Verband zugute kommen würden und ob diese Quote noch zu rechtfertigen ist, wenn sie z.B. nur 30% betragen würde. Drittens steht zu befürchten, dass trotz der Umbenennung des zuvor (und auf der Webseite immer noch) “Journal for Literary and Linguistic Computing” heißenden Journals, sein weitgehend unveränderter Charakter und Inhalt es schwer machen wird, z.B. Kunsthistoriker oder Archäologen davon zu überzeugen, diese Zeitschrift zu abonnieren, um Mitglied des Verbandes zu werden.

Nachdem der Verbandsname für eine weitere Diskussion geöffnet worden ist und die Frage der Mitgliedschaft aus der Satzung herausgenommen wurde und nun Gegenstand einer noch zu schaffenden Geschäftsordnung werden soll, ist immerhin ein Vorstand gewählt worden. Nach der Aufstellung einer Kandidatenliste, die auch das fachliche Spektrum und die Verortung von Digital-Humanities-Akteuren berücksichtigen sollte, konnte jeder Teilnehmer der Versammlung bis zu sechs Stimmen abgeben, mit denen ein sechsköpfiger Vorstand ermittelt worden ist. Dabei führt dieses Wahlsystem allerdings dazu, dass selbst relative Mehrheiten (die dann eben für alle sechs Plätze eine Mehrheit haben) sich leicht in einer überproportionalen Repräsentation niederschlagen. Dieses Phänomen würde noch verschärft werden, wenn – wie in der Satzung vorgesehen – periodisch immer nur ein Teil des Vorstandes neu gewählt würde.

Angesichts der höchst unklaren Situation, der weitgehenden Hinfälligkeit der Satzung, dem Fehlen eines Namens und der Unklarheit über die Mitgliedschaft scheint folgendes nahe zu liegen:

  1. Der gewählte Vorstand möge sich als “Gründungsvorstand” eines “Digital-Humanities-Verbandes in Gründung” begreifen. Seine Legitimation sollte dann, wenn der Verband zu einer konsensfähigen Satzung und zu einer gewissen Menge an Mitgliedern gekommen ist, durch eine erneute Wahl aller Vorstandsmitglieder erneuert werden. Dabei sollte sicher gestellt werden, dass die Abbildung der Diversität der Community in den Vorstand nicht durch das Wahlsystem behindert wird.
  2. Die Aufgabe des Gründungsvorstandes sollte darin liegen, binnen Jahresfrist (oder Halbjahresfrist) einen Prozess zu organisieren, der zur Ausarbeitung einer mit der Community abgestimmten Satzung und Geschäftsordnung und zur Aufnahme von Mitgliedern führt.
  3. Dieser Prozess sollte, wie anschließend auch die laufende Arbeit des Verbandes dem Ziel demokratischer Entscheidungsprozesse und einem möglichst großen Maß an Transparenz und Partizipation verpflichtet sein. Dazu ist ein geeignetes Forum einzurichten. Namensfindung und Satzungsentwicklung (um nur zwei Beispiele zu nennen) auf den Vorstand zu beschränken (wie anscheinend im Vorstand beschlossen) und die Fachöffentlichkeit und die potentiellen Mitglieder davon auszuschließen entspricht nicht der gebotenen Transparenz und Teilhabe.
  4. Es sollte zunächst ein Konsens darüber herbeigeführt werden, ob und in welcher Weise der zu gestaltende Verband sich als fachlich und räumliche inklusiv betrachten soll und sein Ziel darin sieht, die digitalen Geisteswissenschaften in ihrer ganzen fachlichen und räumlichen Breite einzubinden.

Alles weitere sollte zunächst Gegenstand einer möglichst breiten Diskussion der interessierten Fachgemeinschaft sein.

Siehe auch …

* Der Entwurf, der von google noch unter http://dig-hum.de/sites/default/files/dhd-satzungsentwurf-v4.pdf indiziert worden ist, ist dort inzwischen leider nicht mehr verfügbar.

Quelle: http://dhd-blog.org/?p=740

Weiterlesen

Digital Humanities in der Schweiz: erste Assistenzprofessur in Lausanne eingerichtet

Es ist nicht eine kantonale Universität, die den ersten Schritt hin zu einer Verankerung des neues Themenfeldes Digital Humanities macht, sondern die Technische Hochschule in Lausanne, die EPFL. Und Frédéric Kaplan, der erste Assistenzprofessor für Digital Humanities in der Schweiz, hat bisher mit den Humanties auch nicht viel am Hut gehabt. Er ist Informatiker, Robotik-Spezialist [...]

Quelle: http://weblog.hist.net/archives/6339

Weiterlesen

Bilateral Digital Humanities Program: DFG und NEH fördern gemeinsam

Mit der Veröffentlichung der vierten Ausschreibung im Bilateral Digital Humanities Program setzen das National Endowment for the Humanities (NEH) und die Deutsche Forschungsgemeinschaft (DFG) die gemeinsame Förderung innovativer Projekte im Themenfeld “Digital Humanities” fort. Nachdem in den ersten drei Ausschreibungsrunden seit 2008 die Optimierung digitaler Ressourcen und Sammlungen für die geisteswissenschaftliche Forschung im Vordergrund standen, sind die Förderziele nun deutlich weiter gesteckt: Im Zentrum steht die Verbesserung der digitalen Informationsinfrastruktur für die geisteswissenschaftliche Forschung – sei es durch die Zusammenführung etablierter Informationsangebote, die Verbesserung des Forschungsdatenmanagements, der elektronischen Veröffentlichung von Forschungsergebnissen oder der Entwicklung generischer Werkzeuge und Standards.

Es werden Projekte mit einer Laufzeit von bis zu drei Jahren gefördert. Eine Kooperation zwischen deutschen und u.s.-amerikanischen Partnern ist Fördervoraussetzung. In den Projektanträgen ist insbesondere auch auf den Mehrwert der transatlantischen Kooperation einzugehen. Anträge können bis zum 27. September 2012 in identischer Form bei NEH und DFG eingereicht werden. Beide Förderorganisationen sehen sich dem Prinzip des Open Access verpflichtet und erwarten eine möglichst aktive Verbreitung der Projektergebnisse.

Für eine Beratung stehen Jason Rhody (NEH, jrhody@neh.gov) und Christoph Kümmel (DFG, christoph.kuemmel@dfg.de) zur Verfügung.

Informationen zum Förderangebot auf den Homepages der Förderorganisationen:
http://www.neh.gov/divisions/odh/grant-news/grant-opportunity-nehdfg-bilateral-digital-humanities-program
http://www.dfg.de/foerderung/info_wissenschaft/info_wissenschaft_12_40/index.html

Quelle: http://dhd-blog.org/?p=724

Weiterlesen