Publikation “Leitfaden zum Forschungsdaten-Management”

Die aus dem interdisziplinären WissGrid-Projekt entstandene Publikation “Leitfaden zum Forschungsdaten-Management” ist nun analog und digital erhältlich.

Digitale Forschungsdaten sind eine unverzichtbare Grundlage moderner Wissenschaft. Mit ihnen sind aber eine Reihe von notwendigen Datenmanagement-Aufgaben verbunden, damit sie in der aktiven Forschung bestmöglich eingesetzt werden können.

Der Leitfaden zum Forschungsdaten-Management stellt eine Checkliste und Anleitung bereit, um die wichtigsten Aufgaben und Fragen im Forschungsdaten-Management strukturiert zu beantworten und dessen Umsetzung effizient zu planen.

Die editierte Version ist analog im Verlag Werner Hülsbusch unter http://www.vwh-verlag.de/vwh/?p=814 erhältlich sowie open access und digital unter http://www.wissgrid.de/publikationen/Leitfaden_Data-Management-WissGrid.pdf verfügbar. Die nicht-editierten Versionen der WissGrid-Ergebnisse stehen auch weiterhin auf der Projekt-Homepage bereit.

Quelle: http://dhd-blog.org/?p=1477

Weiterlesen

“Digital Humanities: Neue Herausforderungen für den Forschungsplatz Schweiz” (CfP)

Am 28. und 29. November 2013 findet an der Schweizerischen Akademie der Geistes- und Sozialwissenschaften (SAGW) die Tagung „Digital Humanities: Neue Herausforderungen für den Forschungsplatz Schweiz“ statt. Damit sollen Austausch und Vernetzung gefördert und aktuelle Projekte bekannt gemacht werden.

Der CfP spezifiziert folgende Themen:

• Computerbasierte Forschung in geisteswissenschaftlichen Disziplinen (z.B. Dissertationsprojekte)
• Data mining in den DH
• Informationsdesign
• Software best practices (nicht kommerziell)
• Best practices in data curation
• Methodische oder epistemologische Studien zum digitalen Wandel in den Geisteswissenschaften
• Sicherung digitaler Forschungsresultate
• Aspekte grösserer Forschungsprojekte in den DH (Forschungsinfrastrukturen) etc.

Deadline für Abstracts ist der 26.04.2013.

Weitere Infos: http://www.infoclio.ch/de/node/31005 .

Quelle: http://dhd-blog.org/?p=1465

Weiterlesen

Ein Jahr „Netz und Werk“ – Geschichtswissenschaft zwischen E-Journal und Blogosphäre

  Telse Först und Anton F. Guhl Vor einem Jahr, zum Februar 2012, ging „Netz und Werk“ als einer der Gründungsblogs des deutschsprachigen Hypotheses-Netzwerkes online. Inzwischen sind zwölf Artikel gepostet. In der Spitze haben über 900 verschiedene Besucher bis zu 14.000 … Weiterlesen    

Quelle: http://netzwerk.hypotheses.org/1686

Weiterlesen

Neue BMBF-Förderlinie “E-Humanities”

Es ist soweit: Am gestrigen Montag hat das BMBF nun die neue E-Humanities-Förderlinie bekanntgegeben. Ziel ist der Ausbau institutioneller und personeller Kapazitäten im Bereich der E-Humanities an Hochschulen und außeruniversitären Forschungseinrichtungen in Deutschland.

Gefördert werden zum einen Nachwuchsgruppen an Hochschulen und außeruniversitären Forschungseinrichtungen gefördert, zum anderen aber auch Zentren an deutschen Hochschulen und außeruniversitären Forschungseinrichtungen, die “entweder in einem bestimmten Fachgebiet oder fachgebietsübergreifend in besonderer Weise die E-Humanities in inhaltlicher und methodischer Hinsicht weiterentwickeln. Beide Förderlinien können in einem Vorhaben verknüpft werden, eine Verknüpfung ist aber nicht zwingend.”

Wie bereits im Rahmen des e-Hum-Calls von 2011 sollen bereits bestehende Infrastrukturen z.B. von TextGrid, D-Spin oder DOBES und insbesondere die der ESFRI-Projekte DARIAH und CLARIN genutzt werden bzw. deren Ergebnisse in diese Infrastrukturprojekte eingebracht werden.

Weitere Infos:

http://www.bmbf.de/foerderungen/21126.php

oder im Amtlichen Teil des Bundesanzeigers: https://www.bundesanzeiger.de/old/banz/banzinha/aktuell.htm.

Quelle: http://dhd-blog.org/?p=1236

Weiterlesen

Mal wieder und immer noch: Digitized vs. Digital

NeDiMAH, das „Network for Digital Methods in the Arts and Humanities“ enthält unter anderen eine Arbeitsgruppe zu „Scholarly Digital Editions“. Die erste Veranstaltung (ein „Expert Meeting and Workshop“) zu diesem Themenkomplex hatte laut Call einen Schwerpunkt in der definitorischen Grundfrage: Was ist eigentlich eine „digitale Edition“?

Nachdem ich mich mit dieser Frage nun auch schon seit 15 Jahren beschäftige, sie in meiner Dissertation einigermaßen länglich ausgewalzt habe und meine eigene Definition Grundlage meines Katalogs digitaler Editionen ist, war ich froh, sie nun auch einmal im Expertenkreis zur Diskussion stellen zu können.

Die Präsentation zum Vortrag findet man als und bei prezi, ich fasse sie hier nicht noch einmal zusammen. Nur ein Punkt, der eigentlich ein Nebenaspekt ist, soll hier aufgegriffen werden, weil ich mich frage, ob diese Diskussion nicht auch in anderen Bereichen der Digital Humanities produktiv geführt wird oder werden kann  und insofern keine Digitale-Editionen-Spezialdiskussion ist:

Offensichtlich wird die Digitale Edition sinnvollerweise im Aufgreifen der traditionellen Editorik definiert. Und dann in Abgrenzung zu ihr. Hier entsteht aber ein Problem: wenn eine gedruckte Edition einfach digitalisiert wird, müsste man dann nicht von einer digitalen Edition sprechen? Der normale Gebrauch der deutschen Sprache legt dies zunächst nahe. Es ist geradezu schwierig, dem folgenden Satz wiedersprechen zu wollen: „Eine digitalisierte Edition ist eine digitale Edition“. Trotzdem muss es getan werden und müssen wir akademischen Klugscheißer der allgemeinen Sprachlogik wohl ein wenig Gewalt antun Widerstand leisten. Denn wie ich andernorts schon ausgeführt habe, liegt der Kern der Wandlungen in der Editorik (und den Geisteswissenschaften insgesamt?) nicht in einem Wandel der Werkzeuge und Medien – sondern in einer Bewegung hin zur Transmedialisierung. Dies führt dazu, dass die mediale Präsentation – ob im Buchdruck oder digital – nicht „wesentlich“ ist. Das wiederum bedeutet, dass eine „digitale Edition“ nicht einfach dadurch definiert ist, dass sie digital vorliegt. Das Digitale ist eine notwendige, aber keine hinreichende Bedingung. Es entsteht das quasi-definitorische Statement:

„Eine digitalisierte Edition ist (noch lange) keine digitale Edition.“

Dies ist das Gegenstück zu dem positiven Definitionsbaustein aus der gegensätzlichen Richtung:

„Eine digitale Edition kann nicht ohne substanzielle Verluste an Inhalten oder Funktionalitäten gedruckt werden.“


Diese Definition ist zunächst gut, weil sie die Spezifika der digitalen Edition in den Vordergrund stellt. Leider ist sie nicht besonders scharf, weil man sich lange darüber wird streiten können, was „substanziell“ ist. Der Ansatz wurde in der Diskussion dann auch an genau diesem Punkt hinterfragt: Bieten nicht schon digitalisierte Editionen einen funktionalen Mehrwert, wenn man sie z.B. per Knopfdruck durchsuchen kann? Hm, ja, offensichtlich muss es eine Schwelle geben, die überschritten werden muss, um davon reden zu können, dass es sich bei digitalen Editionen um „andere“ Editionen handelt, als die gedruckten Editionen wie wir sie kennen. Diese Schwelle brauchen wir auch deshalb, weil digitale Editionen aus digitalisierten Editionen sehr wohl „herauswachsen“ können. Viele digitale Editionen beginnen mit der Digitalisierung bereits gedruckt vorliegender Editionen. Ab einer bestimmten Ausbau- und Umbaustufe wird man sie dann aber doch als „digitale Editionen“ bezeichnen wollen. Diese Schwelle ist zunächst – wie oben angedeutet – durch Inhalte und Funktionen bestimmt. Hinter dem begrifflichen Wechsel und hinter der Beschreibung von Eigenschaften muss aber letztlich ein konzeptioneller Unterschied stehen. Die digitale Edition ist durch ein eigenes Theoriegebäude und durch eine eigene Methodik bestimmt. Sie folgt einem „digitalen Paradigma“, zu dem eben Konzepte wie Transmedialisierung, abstrakte Modellierung, Daten-Orientierung, Multitext, Prozesshaftigkeit, Transparenz, besere Zugänglichkeit oder vielleicht auch Soziabilität gehören. Wenn ich die Stimmung in der Diskussion richtig gedeutet habe, scheint das auch weitgehend unterstützt zu werden. Zum einen wurde (von, ich glaube, Roberto Rosselli del Turco) einmal mehr darauf hingewiesen, dass ja heute alle Editionen mit digitalen Werkzeugen erstellt würden, man deshalb auch von „digital born printed editions“ sprechen könne, dies aber eben auch noch lange keine digitalen Editionen ausmachen würde. Zum anderen betonte die gewohnt klarsichtige Elena Pierazzo, dass wir digitale Editionen deshalb machen, weil wir andere Gegenstände erschließen und andere Zielstellungen (z.B. in der Repräsentation der Textgenetik) verfolgen wollen. Deshalb könne es nicht darum gehen, bessere Editionen in der Tradition des Buchdrucks zu machen  – selbst dann nicht, wenn man dazu die besten digitalen Mittel einsetzen würde. Man sei schließlich an Dingen interessiert, die im Druck nicht nur nicht möglich sind, sondern in der Druckkultur noch nicht einmal denkbar waren.

Das ist eine klare, aber radikale Position, die wohl nicht von allen geteilt werden würde. Schließlich gibt es daneben auch viele, die betonen würden, dass es sehr wohl auch um die (bessere) Edition von Materalien geht, die man immer schon edieren wollte und um die dabei jetzt anzuwendenden besseren Methoden und Werkzeuge. Aus dieser Perspektive bleibt es schwierig, ein klares Kriterium zu finden, an dem sich die digitalisierte oder bloß irgendwie in digitaler Form vorliegende Edition von der „wirklich“ digitalen Edition unterscheidet.

Die terminologische Trennung scheint übrigens auch auf der internationalen Ebene zu funktionieren: Digitized is not digital. Es gibt zwar auch noch das Wort „digitalized“, aber das scheint (wenn es nicht nur ein furchtbarer Germanismus oder ein einfaches Synonym zu „digitized“ ist) etwas (und zwar verschiedenes) Anderes zu bedeuten.  Nämlich u.a. eine allgemeinere Durchdringung von Wissenschaft und Welt durch die Prinzipien des Digitalen und nicht so sehr das Digital-Werden von bestimmten „Dingen“ oder Informationen. Zuletzt ist „digitalized“ auch in den Digital Humanities auf einem Buchtitel aufgetaucht, nicht aber in dem betreffenden Buch selbst – so dass auch hier weiterhin unklar bleibt, was es denn genau für unseren Fragenkreis bedeuten und beitragen könnte.

Was das Phänomen „eine digitalisierte Edition ist keine digitale Edition“ in seiner sprachlogischen Problematik betrifft, so hätte ich gerne Analogien aus bisherigen Wortentwicklungen. Es müsste so etwas sein wie „ein befreiter Mensch ist kein freier Mensch“ (nur mit mehr Sinn!). Hat jemand ein besseres Beispiel?

Quelle: http://dhd-blog.org/?p=1122

Weiterlesen

Rezensieren als Prozess – Vom Ende des Einautorprinzips. Oder: Lobo und recensio.net

  In seiner jüngsten Kolumne führt Sascha Lobo das mit der Insolvenz der FR soeben manifest gewordene Zeitungssterben auf einen generellen Rezeptionswandel zurück. Seine Theorie ist spannend und leuchtet unmittelbar ein (wobei ebendies immer die Ahnung nährt, dass eine Sache ganz so einfach denn doch nicht zu fassen sein wird, aber wohl das berühmte Körnchen Wahrheit transportiert). Laut Lobo befinden wir uns mitten in einer „sich selbst prozessualisierenden“ Gesellschaft. An die Stelle von Ergebnissen, etwa in Form von Artikeln, Büchern o.ä. tritt der öffentlich gemachte Entscheidungs- und Entwicklungsprozess. Informationen verflüssigen sich, weil sie vor ihrer Publikation in keine Form mehr gegossen werden und fragmenthaft bleiben. Mikroblogging wird zum flexibelsten aller Nachrichtenkanäle: Wenn es politisch ernst wird, verlässt man sich auf Twitter. Dabei ist der Trend zur Prozessualisierung nicht neu: Früher sorgte das Aufkommen der Tageszeitungen für einen Quantensprung; Artikel konnten binnen 24 Stunden vor aller Augen beantwortet werden. Das Tempo digitaler Medien aber ist schlichtweg nicht mehr steigerbar – also stellt sich das System um. Nachrichten und Diskussionen werden zum Puzzle – und alle puzzeln mit. Veränderte Produktionsgewohnheiten ändern Rezeptionsgewohnheiten und vice versa – am Ende der Kette stehen die Kaufgewohnheiten. Soweit Lobos Kolumne, sehr frei zusammengefasst. Ich würde anfügen wollen, dass die beschriebene Entwicklung durch schwindendes Vertrauen in den „Experten“ beschleunigt wird. In den einen also, der ein Thema in einem dramaturgisch runden Artikel zur Gänze erfasst und zu objektivieren versteht. „Das Ende der Momentaufnahme“ stehe bevor, schreibt Lobo, und es lässt sich eventuell ergänzen, dass sich das nicht nur auf die zeitliche Dimension und das eben nicht mehr steigerbare Tempo bezieht, sondern auch auf die zwangsläufige Ausschnitthaftigkeit und Subjektivität des Einautorprinzips, dessen Akzeptanz schleichend zu Ende geht. Vorausgesetzt ist eine erhöhte Partizipationsbereitschaft beim Einzelnen, denn eine Synthese zu bilden aus all den verfügbaren Fragmenten, liegt anders als früher bei ihm, und je mehr das so ist, desto mehr wächst die Skepsis vor apodiktischen Aussagen (von Politikern, von Wissenschaftlern, vom Nachbarn). Spannend finde ich für unseren Zusammenhang – die Geisteswissenschaften im Allgemeinen und die RKB-Tagung im Speziellen – die Übertragbarkeit auf das Konzept von recensio.net. Fast kam in mir das Gefühl auf, endlich eine Erklärung für unsere vor Jahren gefällte Entscheidung zu haben. Die Entscheidung nämlich, die bislang meistenteils eindimensionale (geschichts-)wissenschaftliche Buchrezension aufzubrechen: Das Web 2.0-Konzept von recensio.net versucht, ergänzend zur klassischen Rezension ein kommentarbasiertes, „lebendiges“ Rezensionsverfahren in die Wissenschaft zu tragen. Das ist nichts anderes als die Prozessualisierung eines bislang statischen Textgenres, dem seine Statik von der Alternativlosigkeit des Papiers in die Wiege gelegt wurde, denn methodisch betrachtet ist wohl kaum ein anderes wissenschaftliches Textgenre so gut geeignet für Fragmentisierung und Prozessualisierung wie die Rezension: Ziel ist Meinungsbildung und  -austausch über Fachliteratur. Kommentare sind in diesem Fall nicht ergänzender Teil des Bewertungsverfahrens, sie SIND das Bewertungsverfahren, ganz in Lobos Sinne, der eben nicht die Kommentarspalte unter dem weiterhin klassischen Artikel als Ausdruck von Prozessualisierung sieht, sondern den Live-Ticker, der den Artikel ersetzt. Und noch viel weniger als bei Blogs scheint mir dabei die Kommentarfrequenz entscheidend, die hier zuletzt angeregt diskutiert wurde – als Qualität und Intention des Kommentars.  Geht es doch weniger darum, per Kommentar das Gegenüber von der eigenen Meinung zu überzeugen, als die eigene Meinung in ein im besten Sinne demokratisches Kaleidoskop einander ergänzender Meinungen einzufügen. Und das Ganze reiht sich dann ein in die gesamtgesellschaftliche Neigung zur Prozessualisierung… Wieder Diskussionsstoff für Panel 3 der RKB-Tagung. Anmeldung läuft!    

Quelle: http://rkb.hypotheses.org/349

Weiterlesen

CfP: Kodikologie und Paläographie im digitalen Zeitalter

Als Fortsetzung der beiden bereits erschienenen Bände der Serie „Kodikologie und Paläographie im digitalen Zeitalter” (KPDZ I, 2009; KPDZ II, 2011) möchte das Institut für Dokumentologie und Editorik weiterhin verschiedene Ansätze im Bereich der Kodikologie und Paläographie dokumentieren und vergleichen. Aus diesem Grund plant das IDE einen dritten Band der Reihe „Kodikologie und Paläographie im digitalen Zeitalter“ zu publizieren. Wir bitten um Beiträge zu folgenden Themen:

  • Moderne Verfahren der Bilderfassung (Multispektrafotografie, Thermografie)
  • Bildverarbeitung (Segmentation, Mustererkennung, Layoutanalyse)
  • Analyse von Schreibmaterialien (Tinten, Beschreibstoffe etc.)
  • Beschreibung und Klassifikation von Handschriften, Schreiberhänden oder Drucktypen
  • Semantische Beschreibung von Handschriften (Normdaten, RDF, Ontologien etc.)
  • Archivierung, Sammlung, Verknüpfung von Informationen und Katalogdaten (z.B. Metakataloge und Portale)
  • Kollaborative Erschließung, Beschreibung, Transkription oder Edition
  • Quantitative Kodikologie und Bibliographie
  • Neue Verfahren der Präsentation von Forschungsdaten (Visualisierung, Apps, Text-Bild-Synopsen, Annotationsmögichkeiten etc.)

Die Publikation soll den interdisziplinären Austausch zwischen ForscherInnen unterschiedlicher Fachdisziplinen anregen. Beiträge zu orientalischen bzw. asiatischen Handschriften oder nicht handschriftlich verfassten Materialien (Inschriften, frühe Drucke etc.) sind ausdrücklich willkommen.

Beiträge, die diese oder ähnliche Themen (vgl. vorherigen Call) behandeln, können in Englisch, Französisch, Deutsch, Italienisch oder Spanisch eingereicht werden. Wir planen, auch diese Publikation als open access zu veröffentlichen. Wir bitten um Abstracts von nicht mehr als 500 Worten bis zum 22.12.2012 an die E-Mailadresse kpdz-iii@i-d-e.de.

Die Herausgeber

  • Oliver Duntze (Staatsbibliothek zu Berlin – Preußischer Kulturbesitz)
  • Oliver Hahn (Bundesanstalt für Materialforschung)
  • Torsten Schaßan (Herzog August Bibliothek Wolfenbüttel)

Call for Papers auf den Seiten des IDE (englisch und deutsch)

Quelle: http://dhd-blog.org/?p=1100

Weiterlesen

Trancribe Bentham in a Panopticon: verspätete Berichterstattung zum Vortrag von Philipp Schofield im Rahmen der Darmstädter Ringvorlesung am 8.11.

Text von Jörg Lehning, TU Darmstadt

Im Rahmen der Ringvorlesung “Digital Humanities” war Philip Schofield, Leiter des Bentham-Projektes und General Editor der Gesammelten Werke Jeremy Benthams zu Gast und erfreute die interessierten Hörerinnen und Hörer mit seinem Vortrag “Transcribe Bentham – An experiment in scholarly crowdsourching”.

Das (im Übrigen preisgekrönte) interdisziplinäre Bentham-Projekt ist ein großartiges Beispiel für ein wissenschaftliches Projekt, das mit den neuen Technologien zusammenwächst. Das “scholarly crowdsourcing”, was man vielleicht mit “wissenschaftliche Bearbeitung durch unwissenschaftliche Mengen” etwas wenig elegant umschreiben könnte, ist hierbei ein elementarer Baustein des Projekts.

Wie Schofield ausführte, sei es auch in diesem Projekt zunächst wichtig, Ziele zu definieren. In diesem Fall sei das die Erstellung einer neuen gedruckten Edition gewesen, ein weiteres, dass diese kostengünstig sein sollte.

Bentham, so Schofield, hätte den technologischen Fortschritt mit offenen Armen begrüßt, und das nicht nur, weil er zeitlebens Technik zur Vereinfachung von Arbeitsabläufen erfunden hatte, sondern auch, weil er mit ihr seine Ideen wesentlich besser hätte umsetzen können.

Das Computerzeitalter wäre mitunter auch hilfreich, veraltete oder nicht hilfreiche Strukturen zu überwinden, meinte Schofield mit Blick auf diverse alte Regularien (Oxford Standard of storage rules), etwas was auch in den Debatten um die Definition der Digital Humanities eine Rolle spielt.

Die Bentham Dokument Datenbank, die von 2003-2006 bearbeitete Dokumente bereitstellt, ist eine zentrale Quelle für Metadaten, die von Editoren und Forschern genutzt werden kann.
Die Technik hat jedoch nicht nur Vorteile: im Rahmen des Arbeitsablaufs wird durch einen wissenschaftlichen Mitarbeiter die Qualität der fertig bearbeiteten Dokumente geprüft, bevor sie hochgeladen werden können. Die Erfahrung zeigt hier, dass händisches XML/TEI-Tagging zu steigender Fehlerzahl und somit auch zu steigendem Zeitverbrauch führen kann. Aber: Die Probleme mit der Technik können mitunter auch durch die Technik behoben werden, so z.B. durch das Interface, das die Text-XML-TEI-Erstellung erleichtert und somit die menschlichen Fehlerquellen in diesem Fall umgeht.

Mitarbeiter werden bei Wunsch genannt und bekommen auch Rückmeldung zu ihrer Arbeit. Von den Transkripten werden 95% von sogenannten “super-transcribers” bearbeitet. Bemerkenswert ist, dass viele der “User”, die an dem Projekt arbeiten, gar nicht unbedingt an Bentham interessiert waren und sind, sondern vor allem die Art der Arbeit im Rahmen des Projekts interessant fanden. Auch die digitale Komponente schien zu reizen.

Projekte wie dieses haben als limitierende Faktoren oft Zeit und Komplexität. Wirtschaftliche Argumente für diese Projekte sind wichtig, wenn es darum geht, sie überhaupt in die Tat umzusetzen. Die ökonomische Rechtfertigung kann hier darin bestehen, dass die Methode des “scholarly crowdsourcing” kosteneffizient ist, z.B. im Vergleich zu bezahlten Forschern.

Abschließend stellte sich Schofield Fragen nach der Berechtigung und dem Erfolg des Projekts und kam zu dem Schluss, dass es ein Erfolg sei, weil Bedarf daran besteht und es wissenschaftlich fundiert sei. Die digitalen Geisteswissenschaften indes würden das Projekt dazu zwingen, die Funde auch mit neuen Methoden aufzubereiten und zu präsentieren.

Fragen hinsichtlich der Existenzberechtigung des Projektes beinhalten die Überprüfung der Zielsetzung Druck im Hinblick auf Ideen und Modelle der “freien Information”. So taucht zum Beispiel die Frage auf, ob nicht nur noch eine editierte Fassung online stehen soll, die die gedruckte Ausgabe ersetzt. Hier stehen sich die Punkte Kosteneffektivität und beständige, gesicherte Referenz durch physikalische Permanenz gegenüber.

Follow us on Twitter: @DHDarmstadt @RappAndrea #DHDarmstadtLecture

Am 22.11.2012 ist Martin Wynne (Oxford University) zu Gast: “Corpus and Text Analysis for Research in the Humanities”; 18.00 Uhr s.t., Schloss, Raum 36. Gäste sind herzlich willkommen.

Quelle: http://dhd-blog.org/?p=1077

Weiterlesen

Die Vision Humboldts in der Digitalen Welt: Start der Ringvorlesung Digital Humanities an der TU Darmstadt mit einem Vortrag von Gregory Crane über ‘Humanities in a Digital Age’

Gregory Crane von der Tufts University in Medford/Boston (Massachusetts), der in den nächsten Jahren eine Humboldt-Professur an der Universität Leipzig wahrnehmen wird, stellte sich der Aufgabe, für den Auftakt der Darmstädter Ringvorlesung einen Überblick zu geben, große Fragen zu stellen und große Linien zu ziehen und beeindruckte die ZuhörerInnen durch seine Offenheit, seine Energie, seine Leidenschaft für das Thema und den Respekt, mit dem er allen InteressentInnen begegnete.

Eines der großen Themen, das er ansprach, war beispielsweise die Frage danach, was der gesellschaftliche Auftrag und was die Ziele der Geisteswissenschaften seien. Für Greg Crane besteht ihre Rolle darin, das intellektuelle Leben der Menschen zu verbessern. Dazu hat man seiner Ansicht nach zwei Möglichkeiten: Bücher zu schreiben, die keiner mehr liest, oder den Menschen zu helfen, mehr über fremde Sprachen und Kulturen zu wissen und ihnen den Zugang dazu ohne Voraussetzungen, ohne Sprachenkenntnisse zu ermöglichen. Wer die Entwicklung und die Erfolgsgeschichte des Perseus-Projekts verfolgt hat, weiß, dass diese Vision eingelöst werden kann: Die antiken Texte sind so umfangreich erschlossen durch Wörterbücher und weitere Materialien, dass man einen Zugang findet – und dieser Zugang war und ist bei Perseus stets transparent und open access. Die intensive Erschließung der Materialien wird auch durch Crowd Sourcing-Aktivitäten erreicht: Studierende werden bei der Lemmatisierung, Kommentierung und Vernetzung eingebunden, jede entsprechende Leistung ist durch Identifier den BearbeiterInnen zugeordnet, so dass jeder Kommentar zu einer micropublication wird. Greg ist immer für unerwartete Vergleiche und Überraschungen gut: Wenn ein World-of-Warcraft-Spieler 500 Stunden Übung benötigt, um einen Charakter zu beherrschen, dann ist es genauso gut möglich, dass er in 500 Stunden Einsatz mit den digitalen Materialien eine antike Sprache besser beherrscht als nach einigen Semestern Studium an der Universität! Die Aufgabe der Lehrenden ist es, den Studierenden zu ermöglichen, digital citizens in der digitalen Welt zu werden. Auf diese Weise sieht er uns erstmals in die Lage versetzt, das alte Humboldtsche Ideal, dass Lehrende und Lernende dazu da sind, der Wissenschaft zu dienen, zu verwirklichen (“Wenn ich etwas neu und cool finde, stelle ich fest, dieser alte Preuße hat es schon geschrieben.”).

Einen Gedanken möchte ich noch herausgreifen, denn er betrifft einen Punkt, der von vielen diskutiert wird. Greg leitete seine Vorlesung folgendermaßen ein: “Ich bin jetzt ein Professor für Digital Humanities, obwohl ich nicht an das Fach glaube.” Er betrachtet sich nach wie vor als Altphilologe, sein Haupt-Forschungsinteresse war und ist die antike Sprache und Kultur, deren Erforschung und Erschließung von ihm u.a. mit computergestützten Ansätzen und Methoden betrieben wird. Dieser Sichtweise würde ich mich anschließen, sie markiert auch mein Selbstverständnis und die Ausrichtung und Weiterentwicklung der Darmstädter Digital Humanities in einer spezifischen Ausprägung als Digital Philology. Unsere Forschungsgegenstände sind Sprache, Literatur und Kultur, wir integrieren hermeneutische und algorithmische Ansätze zu ihrer Erforschung. Wir dürfen also gespannt sein auf die weiteren Positionen und Beiträge zur Ringvorlesung und werden uns bemühen, an dieser Stelle weiter darüber zu berichten. Aufnahmen davon werden Dank einer Kooperation mit dem eLearning-Center der TU Darmstadt auch online zur Verfügung gestellt werden.

Follow us on Twitter: @DHDarmstadt @RappAndrea #DHDarmstadtLecture

Am 8.11.2012 ist Philip Schofield (University College London) zu Gast: “TRANSCRIBE BENTHAM – An experiment in scholarly crowdsourcing”.

Quelle: http://dhd-blog.org/?p=1009

Weiterlesen

Forschungen zur Wissenschaftskommunikation aus linguistischer, historischer, soziologischer und philosophischer Perspektive

Nach drei anregenden thematisch fokussierten Tagungen hat sich am 5. und 6. September 2012 eine Arbeitsgruppe getroffen, um Projektideen und Forschungen zum Thema Wissenschaftskommunikation zu konkretisieren. Die Darmstädter Linguistin Nina Janich hat diesen Forschungsschwerpunkt initiiert und die Tagungen und Treffen gemeinsam mit ihrem Team organisiert und durchgeführt.

Unter dem Namen Scientific Communication Research (SciCoRe) sollen Forschungen zusammengeführt werden, die sich beispielsweise mit Wissensformen, mit Kommunikation innerhalb wissenschaftlicher Communities , aber auch mit nach außen gerichteten Vermittlungskulturen, Medien- und Textformaten beschäftigen (traditionelle und auch neue Formen wie bloggen und twittern). Fragen nach Auswirkungen von Datenaufbereitung wie Datenpräsentation, Virtualisierungen und Visualisierungen, die Tendenz zu Simulationen im Kontrast zu Evidenzbasierung werden ebenso diskutiert wie mediale Aspekte, sprachlich-diskursive Popularisierungsstrategien und politisch-historische Legitimationsprozesse. Dabei werden Unterschiede und Gemeinsamkeiten bei den geistes- und gesellschaftswissenschaftliche Disziplinen und den Experimental- und Technowissenschaften betrachtet und hinterfragt.
Die Gruppe setzt sich zusammen aus Soziologen, Philosophen, Historikern, Sprachwissenschaftlern und Digital Humanists. Obwohl es zunächst so schien, als seien unsere Forschungsinteressen stark divergierend und unsere Ausgangspunkte sehr unterschiedlich, stellen sich in den Gesprächen und Arbeitsgruppen rasch zahlreiche Überschneidungen, Vernetzungen und gemeinsame Fragestellungen heraus.

  • Selbstdarstellung im öffentlichen Diskurs
  • Veränderungen von Publikations- und Kommunikationskulturen in den Fachdisziplinen
  • Forschung zwischen Nichtwissen und Beratungsauftrag
  • Virtualisierung von Forschungsprozessen, Simulationen, Evidenzbasierung
  • Status u d Zuschreibungen von “Experten”, “Dilettanten” und “Laien”, deren jeweilige Performanz in unterschiedlichen medialen Kommunikationszusammenhängen
  • Fehler- und Irrtumskultur, Umgang mit vorläufigen Forschungsergebnissen, Zwischenergebnissen

Was mich besonders interessiert – aus sprachwissenschaftlicher wie Digital Humanities-Perspektive – sind gewiss die Fragen nach Virtualisierungen von Forschungsprozessen, da dieses Thema im Rahmen von TextGrid und Dariah zentral ist. Viele Dinge, die wir in diesem Kontext gewissermaßen aus der Praxis heraus täglich bearbeiten und diskutieren, sind bislang nicht systematisch beschrieben und erforscht. Wie die Entwicklungen der Humanities im Hinblick auf Digital Humanities nach innen in die eigene Community, in die “traditionellen” Fachcommunities und in die Öffentlichkeit kommuniziert werden, wie jeweils “Experten-”Status- und Zugehörigkeitszuschreibungen vorgenommen werden, wie mit Unsicherheiten umgegangen wird, wie “Zwischenergebnisse” (z.B. nicht tief annotierte Rohdaten) zur Nachnutzung weitergegeben werden und wie dafür wissenschaftliche Benefits – auch für den wissenschaftlichen Nachwuchs – generiert werden können, das alles gehört wohl auch auf die Forschungsagenda der Digital Humanities, um die wissenschaftliche Selbstreflexion voranzutreiben und definitorische Beiträge zu den Digital Humanities zu leisten.

Quelle: http://dhd-blog.org/?p=859

Weiterlesen