Trancribe Bentham in a Panopticon: verspätete Berichterstattung zum Vortrag von Philipp Schofield im Rahmen der Darmstädter Ringvorlesung am 8.11.

Text von Jörg Lehning, TU Darmstadt

Im Rahmen der Ringvorlesung “Digital Humanities” war Philip Schofield, Leiter des Bentham-Projektes und General Editor der Gesammelten Werke Jeremy Benthams zu Gast und erfreute die interessierten Hörerinnen und Hörer mit seinem Vortrag “Transcribe Bentham – An experiment in scholarly crowdsourching”.

Das (im Übrigen preisgekrönte) interdisziplinäre Bentham-Projekt ist ein großartiges Beispiel für ein wissenschaftliches Projekt, das mit den neuen Technologien zusammenwächst. Das “scholarly crowdsourcing”, was man vielleicht mit “wissenschaftliche Bearbeitung durch unwissenschaftliche Mengen” etwas wenig elegant umschreiben könnte, ist hierbei ein elementarer Baustein des Projekts.

Wie Schofield ausführte, sei es auch in diesem Projekt zunächst wichtig, Ziele zu definieren. In diesem Fall sei das die Erstellung einer neuen gedruckten Edition gewesen, ein weiteres, dass diese kostengünstig sein sollte.

Bentham, so Schofield, hätte den technologischen Fortschritt mit offenen Armen begrüßt, und das nicht nur, weil er zeitlebens Technik zur Vereinfachung von Arbeitsabläufen erfunden hatte, sondern auch, weil er mit ihr seine Ideen wesentlich besser hätte umsetzen können.

Das Computerzeitalter wäre mitunter auch hilfreich, veraltete oder nicht hilfreiche Strukturen zu überwinden, meinte Schofield mit Blick auf diverse alte Regularien (Oxford Standard of storage rules), etwas was auch in den Debatten um die Definition der Digital Humanities eine Rolle spielt.

Die Bentham Dokument Datenbank, die von 2003-2006 bearbeitete Dokumente bereitstellt, ist eine zentrale Quelle für Metadaten, die von Editoren und Forschern genutzt werden kann.
Die Technik hat jedoch nicht nur Vorteile: im Rahmen des Arbeitsablaufs wird durch einen wissenschaftlichen Mitarbeiter die Qualität der fertig bearbeiteten Dokumente geprüft, bevor sie hochgeladen werden können. Die Erfahrung zeigt hier, dass händisches XML/TEI-Tagging zu steigender Fehlerzahl und somit auch zu steigendem Zeitverbrauch führen kann. Aber: Die Probleme mit der Technik können mitunter auch durch die Technik behoben werden, so z.B. durch das Interface, das die Text-XML-TEI-Erstellung erleichtert und somit die menschlichen Fehlerquellen in diesem Fall umgeht.

Mitarbeiter werden bei Wunsch genannt und bekommen auch Rückmeldung zu ihrer Arbeit. Von den Transkripten werden 95% von sogenannten “super-transcribers” bearbeitet. Bemerkenswert ist, dass viele der “User”, die an dem Projekt arbeiten, gar nicht unbedingt an Bentham interessiert waren und sind, sondern vor allem die Art der Arbeit im Rahmen des Projekts interessant fanden. Auch die digitale Komponente schien zu reizen.

Projekte wie dieses haben als limitierende Faktoren oft Zeit und Komplexität. Wirtschaftliche Argumente für diese Projekte sind wichtig, wenn es darum geht, sie überhaupt in die Tat umzusetzen. Die ökonomische Rechtfertigung kann hier darin bestehen, dass die Methode des “scholarly crowdsourcing” kosteneffizient ist, z.B. im Vergleich zu bezahlten Forschern.

Abschließend stellte sich Schofield Fragen nach der Berechtigung und dem Erfolg des Projekts und kam zu dem Schluss, dass es ein Erfolg sei, weil Bedarf daran besteht und es wissenschaftlich fundiert sei. Die digitalen Geisteswissenschaften indes würden das Projekt dazu zwingen, die Funde auch mit neuen Methoden aufzubereiten und zu präsentieren.

Fragen hinsichtlich der Existenzberechtigung des Projektes beinhalten die Überprüfung der Zielsetzung Druck im Hinblick auf Ideen und Modelle der “freien Information”. So taucht zum Beispiel die Frage auf, ob nicht nur noch eine editierte Fassung online stehen soll, die die gedruckte Ausgabe ersetzt. Hier stehen sich die Punkte Kosteneffektivität und beständige, gesicherte Referenz durch physikalische Permanenz gegenüber.

Follow us on Twitter: @DHDarmstadt @RappAndrea #DHDarmstadtLecture

Am 22.11.2012 ist Martin Wynne (Oxford University) zu Gast: “Corpus and Text Analysis for Research in the Humanities”; 18.00 Uhr s.t., Schloss, Raum 36. Gäste sind herzlich willkommen.

Quelle: http://dhd-blog.org/?p=1077

Weiterlesen

Anmerkungen zu John Heuser, Long Le-Khac (2011): Learning to Read Data: Bringing out the Humanistic in the Digital Humanities.

Im LIBREAS-Weblog pflegen wir seit einigen Jahren die Tradition annotierender Referate zu verschiedenen Publikationen, die sich von traditionellen Rezensionen dahingehend unterscheiden, dass sie einerseits eine perspektivische Lektüre betonen und andererseits gern auch eher essayistisch ausgerichtet sind. Bisweilen finden sich in diesem Bereich auch Texte, die Themen aus dem Bereich der Digital Humanities bzw. Digitalen Geisteswissenschaften berühren (hier das entsprechende Tag im LIBREAS-Weblog).

Nun spricht natürlich nichts dagegen, einschlägige Texte dieser Art auch hier zu bloggen, zumal die inhaltliche Perspektive auf die Digital Humanities bei LIBREAS maßgeblich von der Wechselwirkung mit dem Bibliothekswesen geprägt ist. Daher möchte ich mit der nachfolgenden Betrachtung eine möglichst regelmäßige Beteiligung auch an diesem Weblog beginnen. – Ben Kaden 

Anmerkungen zu: John Heuser, Long Le-Khac (2011): Learning to Read Data: Bringing out the Humanistic in the Digital Humanities. In: Victorian Studies Vol. 54, No. 1 (Autumn 2011), S. 79-86 / http://www.jstor.org/stable/10.2979/victorianstudies.54.1.79

Kernfrage: Wie kann das Verfahren der Wortfrequenzanalyse für die Prüfung von Hypothesen zum viktorianischen Roman sinnvoll eingesetzt werden?

Wer sich im Bereich der Digital Humanities bewegt, sieht sich im Gespräch mit eher traditionell orientierten Geisteswissenschaftlern erfahrungsgemäß schnell unter Legitimationsdruck. Wo man nicht mit genereller Ablehnung konfrontiert ist, wird – durchaus berechtigt – die Forderung aufgestellt, man solle doch erst einmal aufzeigen, welches Erkenntnisplus die Anwendung beispielsweise quantitativer Verfahren für die Literaturwissenschaft tatsächlich bringt.

Eine Publikation, die man bei der nächsten Gelegenheit anführen kann und die nach meiner Wahrnehmung in diesem Weblog noch nicht referiert wurde, erschien vor gut einem Jahr in der Zeitschrift Victorian Studies. Ryan Heuser und Long Le-Khac, vielleicht etwas befangen als Mitarbeiter an Franco Morettis Stanford Literary Lab, leisten in ihrem Aufsatz „Learning to Read Data: Bringing out the Humanistic in the Digital Humanities“ ausgewogen und souverän Überzeugungsarbeit für den Einsatz quantitativer Verfahren in der Literaturwissenschaft. Ihr Ansatz: Quantitative Verfahren der Literaturanalyse (mitunter nicht ganz glücklich als „distant reading“ bezeichnet) sind keinesfalls die Ablösung qualitativer Methoden. Sie sind jedoch sehr hilfreich, wenn es darum geht, bestimmte damit gewonnene Erkenntnisse aposteriorisch zu verifizieren.

Zum Einstieg benennen die Autoren zunächst die bekannte Mischung aus Euphorie und Vorbehalten, die Literaturwissenschaftler gemeinhin befällt, wenn sie dem Möglichkeitsspektrum quantitativer Textanalysen nicht in sprachwissenschaftlichen Umgebungen, sondern ihrer eigenen Domäne begegnen. Besonders treibt sie die Frage um, wie sich das traditionell geisteswissenschaftliche Forschung auszeichnende Differenzierungsvermögen und Gespür für die Zwischentöne sowie die zwangsläufige Komplexität ihrer Fragestellungen in solchen Zusammenhängen abbilden lassen. Die Antwort ist nahezu trivial: Indem man diese Aspekte eben möglichst berücksichtigt und mit den Messverfahren integriert. Beide Aspekte sprechen jeweils einen anderen Bereich der Erkenntnisfindung an. Der Schlüssel liegt folglich darin, sie ihren Stärken gemäß anzuwenden. Der Vorteil der messenden Durchdringung eines Korpus liegt in der vollständigen Erfassung. Die Stärke der interpretierten Durchdringung von Texten liegt in der Möglichkeit, einen in sie eingebetteten Sinn zu verstehen und zu beschreiben. Die Kombination empirischer Parameter mit traditionellen Interpretationsverfahren erfüllt den Zweck einer wechselseitigen Kontrolle, wobei der Schwerpunkt auf der Prüfung der Treffsicherheit einer Hypothese liegt.

Wie sich das konkretisieren lässt, illustrieren Heuser und Le-Khac am Beispiel des viktiorianischen Romans. Für einen Bestand von 2779 britischen Titeln mit der Erscheinungszeit zwischen 1800-1900 analysieren sie die Entwicklung der Verwendung von Ausdrücken aus zwei semantischen Feldern in der Zeit. Sie unterscheiden Ausdrücke mit wertorientierter Bedeutung von solchen mit konkret beschreibender und spezifizierender Semantik. Für das Korpus lässt sich in der Zeitachse eine Verschiebung der Häufigkeit des Auftretens vom ersten Typus zum zweiten feststellen. Der entscheidende Schritt der Analyse liegt nun in der Interpretation dieser Messreihe. Die gelingt nur über die Verortung in einem übergeordneten Kontext. Dieser aber wiederum wird nur aus einem entsprechenden, traditionell geisteswissenschaftlichen Vorwissen eingrenzbar.

Der Interpretation geht folglich die Kombination verschiedener Parametern voraus. Je mehr Datenebenen kombiniert werden, so die sich erstaunlicherweise überrascht zeigenden Autoren, desto enger wird der Spielraum, der für die Interpretation bleibt und desto präziser kann diese ausfallen. Ob sie tatsächlich zutrifft ist freilich auch von einem soliden Forschungsdesign abhängig. Aber dies gilt ohnehin in jeder Wissenschaft. Empirisch wird im beschriebenen Beispielverfahren sichtbar, dass bestimmte Ausdrücke zu einem bestimmten Zeitpunkt in einer bestimmten Häufigkeit verwendet wurden. Über das Abtragen auf der Zeitachse lässt sich eine Variabilität darstellen, die man bei Bedarf wieder unter diversen Gesichtspunkten exakt ausmessen kann. Die Messung stellt eindeutige Verschiebungen im Wortgebrauch fest. Addiert man dazu die allgemeine kulturhistorische Dimensionalität mit Aspekten wie Landflucht, Verstädterung, Industrialisierung und der damit verbundenen Erweiterung individueller Handlungsoptionen und -zwänge, lässt sich die These, dass der viktorianische Roman die sich im 18. Jahrhundert vollziehenden sozialen Veränderungen im Vereinigten Königreich auch auf der Ebene des Vokabulars spiegelt, sehr einsichtig erhärten.

Die Erkenntnis selbst ist vielleicht nicht sonderlich verblüffend, sondern entspricht vielmehr dem Eindruck jedes Lesers, der sich diachron durch diese Literatur gearbeitet hat. Das eigentlich Neue ist jedoch, dass man diesen Eindruck nun mithilfe von Wortfrequenzanalysen eindeutig untermauern kann. Die mehrdimensionale Datenanalyse prüft empirisch eine Hypothese, die durchaus auch streitbarer sein kann, als die von den Autoren beispielhaft durchgespielte.

Verfahren der Digital Humanities lösen, so auch die Argumentation der Autoren, die traditionellen Praxen der Geisteswissenschaft nicht etwa ab. Vielmehr setzen sie diese voraus. Die Anwendung solcher Verfahren erfordert ein breites grundständiges Wissen auf dem Anwendungsgebiet. Eingebettet in ein korrektes Forschungsdesign ermöglichen sie jedoch eine empirische und übergreifende Prüfung von Hypothesen, wie sie ohne diese digitalen Mess- und Visualisierungswerkzeuge kaum möglich ist.

(Berlin, 15.11.2011)

Quelle: http://dhd-blog.org/?p=1061

Weiterlesen

Die Vision Humboldts in der Digitalen Welt: Start der Ringvorlesung Digital Humanities an der TU Darmstadt mit einem Vortrag von Gregory Crane über ‘Humanities in a Digital Age’

Gregory Crane von der Tufts University in Medford/Boston (Massachusetts), der in den nächsten Jahren eine Humboldt-Professur an der Universität Leipzig wahrnehmen wird, stellte sich der Aufgabe, für den Auftakt der Darmstädter Ringvorlesung einen Überblick zu geben, große Fragen zu stellen und große Linien zu ziehen und beeindruckte die ZuhörerInnen durch seine Offenheit, seine Energie, seine Leidenschaft für das Thema und den Respekt, mit dem er allen InteressentInnen begegnete.

Eines der großen Themen, das er ansprach, war beispielsweise die Frage danach, was der gesellschaftliche Auftrag und was die Ziele der Geisteswissenschaften seien. Für Greg Crane besteht ihre Rolle darin, das intellektuelle Leben der Menschen zu verbessern. Dazu hat man seiner Ansicht nach zwei Möglichkeiten: Bücher zu schreiben, die keiner mehr liest, oder den Menschen zu helfen, mehr über fremde Sprachen und Kulturen zu wissen und ihnen den Zugang dazu ohne Voraussetzungen, ohne Sprachenkenntnisse zu ermöglichen. Wer die Entwicklung und die Erfolgsgeschichte des Perseus-Projekts verfolgt hat, weiß, dass diese Vision eingelöst werden kann: Die antiken Texte sind so umfangreich erschlossen durch Wörterbücher und weitere Materialien, dass man einen Zugang findet – und dieser Zugang war und ist bei Perseus stets transparent und open access. Die intensive Erschließung der Materialien wird auch durch Crowd Sourcing-Aktivitäten erreicht: Studierende werden bei der Lemmatisierung, Kommentierung und Vernetzung eingebunden, jede entsprechende Leistung ist durch Identifier den BearbeiterInnen zugeordnet, so dass jeder Kommentar zu einer micropublication wird. Greg ist immer für unerwartete Vergleiche und Überraschungen gut: Wenn ein World-of-Warcraft-Spieler 500 Stunden Übung benötigt, um einen Charakter zu beherrschen, dann ist es genauso gut möglich, dass er in 500 Stunden Einsatz mit den digitalen Materialien eine antike Sprache besser beherrscht als nach einigen Semestern Studium an der Universität! Die Aufgabe der Lehrenden ist es, den Studierenden zu ermöglichen, digital citizens in der digitalen Welt zu werden. Auf diese Weise sieht er uns erstmals in die Lage versetzt, das alte Humboldtsche Ideal, dass Lehrende und Lernende dazu da sind, der Wissenschaft zu dienen, zu verwirklichen (“Wenn ich etwas neu und cool finde, stelle ich fest, dieser alte Preuße hat es schon geschrieben.”).

Einen Gedanken möchte ich noch herausgreifen, denn er betrifft einen Punkt, der von vielen diskutiert wird. Greg leitete seine Vorlesung folgendermaßen ein: “Ich bin jetzt ein Professor für Digital Humanities, obwohl ich nicht an das Fach glaube.” Er betrachtet sich nach wie vor als Altphilologe, sein Haupt-Forschungsinteresse war und ist die antike Sprache und Kultur, deren Erforschung und Erschließung von ihm u.a. mit computergestützten Ansätzen und Methoden betrieben wird. Dieser Sichtweise würde ich mich anschließen, sie markiert auch mein Selbstverständnis und die Ausrichtung und Weiterentwicklung der Darmstädter Digital Humanities in einer spezifischen Ausprägung als Digital Philology. Unsere Forschungsgegenstände sind Sprache, Literatur und Kultur, wir integrieren hermeneutische und algorithmische Ansätze zu ihrer Erforschung. Wir dürfen also gespannt sein auf die weiteren Positionen und Beiträge zur Ringvorlesung und werden uns bemühen, an dieser Stelle weiter darüber zu berichten. Aufnahmen davon werden Dank einer Kooperation mit dem eLearning-Center der TU Darmstadt auch online zur Verfügung gestellt werden.

Follow us on Twitter: @DHDarmstadt @RappAndrea #DHDarmstadtLecture

Am 8.11.2012 ist Philip Schofield (University College London) zu Gast: “TRANSCRIBE BENTHAM – An experiment in scholarly crowdsourcing”.

Quelle: http://dhd-blog.org/?p=1009

Weiterlesen

Call for Papers For a special issue of the Journal « Etudes de communication » n° 41 « Information Architecture : a useful and operational concept ?

Journal website : http://edc.revues.org/

Coordinated by: Ghislaine Chartron (DICEN, CNAM-INTD), Stéphane Chaudiron (GERiiCO, University of Lille 3) and Madjid Ihadjadene (Paragraphe, University of Paris 8)

In 1976, graphic designer Richard Saul Wurman introduced the concept of “Information architecture” in response to the ever-increasing quantity of information produced and exchanged in contemporary society : « I thought the explosion of data needed an architecture, needed a series of systems, needed systemic design, a series of performance criteria to measure it ». In 1986, James C. Brancheau and James C. Wetherbe published “Information architectures : Methods and practice” in the journal Information Processing & Management. The authors use the concept to refer to a profile of corporate information categories, used to assess organizational information needs. In 1996, Louis Rosenfeld and Peter Morville published “Information Architecture for the World Wide Web” and became the pioneers in the field of organizing information in websites, intranets and software applications to help users fulfill their needs.

The concepts of information architecture and information architect are therefore not new. These concepts have been modified and adapted over the past several decades, and today there is renewed interest in the field of information architecture, especially in North America, where information architects have created an association, the IA Institute (IAI). In information architecture, three types of competencies seem to stand out: technical design, content organization and web design, which has been particularly emphasized in recent years.

By analogy with the physical architecture of buildings designed in the real world, information architecture concerns the spatial and temporal organization of information, content structuring, content interaction design and information design. Information architecture thus refers to the underlying organizational structure of a content system (text, image, video). Information architecture, while primarily used in web-based systems, can be applied to any complex informational ecosystem, in particular mobile devices such as smartphones, e-books, video games or serious games. The issue of information architecture has also been raised within the area of digital humanities, particularly with regard to digital art and culture, digital museography, the representation and staging of archeological objects…

Any information system conceived as a form of knowledge mediation raises the question of information architecture, which revolves around several main elements: systems of representation and storage, content representation methods (metadata, visual representations…), information access tools and interfaces (catalogs, bibliographic tools, browsing, search functions…) and processing functions.

Information architecture can be considered from a wide variety of perspectives (visualization, computer programming, ergonomics, semiotics, linguistics, etc.) but the particularity of the Information-Communication Science approach is its holistic view of these approaches. This special issue of Etudes de Communication aims to address the operational dimension of the concept of “information architecture”. More than a presentation of design methods and their results, this issue seeks to analyze the scientific relevance of the concept of information architecture, in a critical perspective.

We solicit proposals in the following areas:

-        The theoretical foundations of information architecture,

-        Information architecture methods and techniques,

-        Cultural issues in information architecture,

-        Development of information architecture in organizations,

-        Differentiated architecture design for different media (websites, mobile devices, graphic tablets…),

-        Digital content structuring and editing  and content strategies,

-        Organization, representation and mediation of information content,

-        Interface design and information design (conception, contextualization, evaluation, appropriation),

-        Information access, “findability”, “usability”

-        User experience,

-        Information architecture and cognitive transformations,

-        User-centered conception and evaluation methods

 

Scientific committee

Inge Alberts, Université d’Ottawa, Canada

Thierry Baccino, Lutin UserLab, Cité des Sciences et de l’industrie

Évelyne Broudoux, CNAM-INTD

Stefano Bussolon, Information Architect – Interaction Designer, Italie

Stéphane Caro Dambreville, Université de Bordeaux 3

Benoît Habert, ENS Lyon

Seth van Hooland, Université Libre de Bruxelles, Belgique

Yves Marcoux, EBSI, Université de Montréal, Canada

Jean-Guy Meunier, Université du Québec à Montréal, Canada

Sylvie Leleu-Merviel, Université de Valenciennes

Bernhard Rieder, University of Amsderdam, Pays-Bas

Jean-Michel Salaün, ENS Lyon

Emmanuel Sander, Université de Paris 8

Joachim Schöpfel, Université de Lille 3

Ismaïl Timimi, Université de Lille 3

Elaine Toms, University of Sheffield, Royaume-Uni

 

Review process

All submissions will go through a two-part review process:

1-     Submission of a 1500-2000 word abstract which should include a presentation of objectives and principle arguments, explain the originality of the paper and provide key bibliographical references,

2-     For accepted abstracts, a second evaluation will take place for final papers (30 000 characters including spaces)

Papers will be peer-reviewed by at least two anonymous referees. Instructions for authors are available at the journal homepage http://edc.revues.org/

Abstracts should be submitted in Word (.doc) or PDF and sent to the following email addresses:

ghislaine.chartron@cnam.fr

madjid.ihadjadene@univ-paris8.fr

stephane.chaudiron@univ-lille3.fr

Abstract submissions may be made in French or English. The final article should be written in French.

 

Important Dates

December 15 2012: Abstract submission deadline

January 15 2013:  Notification of acceptance

May 15 2013: Preliminary version of the papers

May 15, 2013: Final version of accepted articles due

December 2013: Publication date (paper and digital)

 

Quelle: http://dhd-blog.org/?p=1002

Weiterlesen

Informationsinfrastrukturen im Wandel …

Der diesjährige Historikertag wartete mit der erfreulichen Neuerung auf, eine eigene HauptkategorieeHumanities” zu führen, in der jeden Tag mindestens eine Session verortet war. Am Freitag, den 28.9.2012 gab es eine fast vierstündige Sektion unter dem Titel “Informationsinfrastrukturen im Wandel: Zur Vergangenheit, Gegenwart und Zukunft der Informationsverarbeitung in historischer Lehre und Forschung“. Nach einer Reihe von “Impulsreferaten” wurde zunächst mit den Referenten diskutiert, bevor es eine allgemeine Podiumsdiskussion mit anderen Podianten als Vertretern verschiedener Teilbereiche der geschichtswissenschaftlichen Ökosystems (Historiker, Doktoranden, Bibliothekare, Portalbetreiber, Verleger) gab.

Leider hatten alle Teile wenig bis gar nichts mit dem zu tun, was ich selbst unter Informationsinfrastrukturen (geschweige denn in Gegenwart und Zukunft) verstehen würde. Das Thema wurde also eher “implizit” bearbeitet, wenn über die Arbeit des Historikers und die digitalen Wandlungen dieser Arbeit diskutiert wurde. Wenn ich eigens nach Mainz gereist war, um als jemand, der in einem Infrastrukturprojekt beschäftigt ist, etwas über die Sicht der historisch arbeitenden Fachkollegen auf Infrastrukturen zu erfahren, so blieb der Erkenntnisgewinn zu dieser Frage eher gering. Dafür scheinen mir zwei andere Details berichtenswert, die ich hier rein willkürlich herausgreifen möchte und die nicht für die Gesamtheit der Veranstaltung und der Beteiligten stehen.

Zum Einen wurde von Christoph Cornelißen beiläufig darauf hingewiesen, dass die (nicht zuletzt von Peter Haber) viel diskutierten Beschreibungsmuster der Wissenschaftler in der digitalen Welt als “digital immigrants” und als “digital natives” natürlich zu ergänzen sind um die größte, möglichwerweise nicht nur gefühlt 90% umfassende Gruppe der “digital ignorants” – die man bei einer systematischen Betrachtung der gegenwärtigen Wissenschaftstransformation ebenfalls unter die Lupe nehmen müsste. Zum anderen wurde mal wieder (und: ja, ich mache das auch öfters) die Monstranz des “Wir müssen die wissenschaftliche Qualität sichern und die wissenschaftlichen Qualitätsstandards bewahren” aus dem Tabernakel geholt. Dabei ist es immer das gleiche: Die Monstranz wird gezeigt, es wird aber nicht weiter darauf eingegangen, worin die postulierten Qualitäten eigentlich bestehen und wie sie zu sichern, geschweige denn zu prüfen wären. Dass “wissenschaftliche Qualität” in der freien Wildbahn praktisch nur als vage Selbstzuschreibung und als Verteidigungsbegriff gegen alles Andere und Neue vorkommt, ließ sich auch hier wieder eindrücklich beobachten. Pauschal wurde da z.B. von einem auf dem digitalen Feld zu beobachtenden “Wildwuchs” der Angebote gesprochen, die die traditionellen Qualitätsstandards unterlaufen würden und denen gegenüber “Qualitätserfordernisse” definiert werden müssten (was sicher nicht schaden kann). Immerhin mündete der sporadische Verweis auf die Digital Humanities nicht in ein allgemeines DH-bashing, nachdem Charlotte Schubert auf das hohe Maß der Selbstreflexion in den DH verwiesen hatte.

Eine sonderbare Note bekam die Rede über die Qualitätsicherung im historischen Feld allerdings auch dadurch, dass als Grundlage der vorgetragenen Gedanken eine “Diskussion an der Hotelbar am gestrigen Abend” referenziert wurde und dass bemängelt wurde, dass man heute kaum noch einen Vortrag halten könne, ohne dass im Publikum online recherchiert würde, ob der Vortragende auch wirklich keinen Unsinn erzählt (und ich dachte, DAS sei ein Zeichen von Qualitätssicherung). Die reklamierte Qualität der vortragenden Wissenschaftler erscheint so als eine, die sich gerade nicht überprüfen lassen will. Dazu passend wurden dann auch “Freiräume” für den Geisteswissenschaftler reklamiert, die “von elektronischer Beobachtung frei” sein sollten. Die Apologie der digitalen Ignoranz gipfelte im Ausruf, dass man auch heute noch “hervorragende Geschichtswerke ohne das Internet schreiben” könne. Das ist sicher richtig, wenn die historische Erkenntnis rein und vollständig aus den persönlich konsultierten Quellen, aus der Beschäftigung mit der älteren Literatur oder unmittelbar von Gott kommt. Sollte sie allerdings auch auf einem wissenschaftlichen Diskurs gründen, der im Hier und Jetzt stattfindet und der sich nun einmal auch der gegenwärtigen Technologien und Medien bedient, dann wird man die Prozesse der Erkenntnisgewinnung und ihre Qualitätsabschätzung doch etwas differenzierter betrachten müssen. Selbst angelegte Scheuklappen scheinen dann eine eher schlechte Basis für “hervorragende” Wissenschaft zu sein. Und wieso aus Ignoranz Qualität entstehen soll, werde ich vielleicht auch erst später begreifen …

Quelle: http://dhd-blog.org/?p=915

Weiterlesen

Worüber wir reden, wenn wir vom Digital Turn reden

Gibt es ihn, den Paradigmenwechsel in den Geisteswissenschaften, und wenn ja, ist es gar ein “Digital Turn”? Wo und wie sind die deutschen Digital Humanities im internationalen Kontext zu verorten? Nicht nur das Symposium “10 Jahre Forschung & Entwicklung an der SUB Göttingen” verhandelte am gestrigen Donnerstag diese Fragen, sondern auch der Berliner „Tagesspiegel”:

Digitalisierte Geisteswissenschaften: Jedes Wort ein Pixel

Der ebenfalls lesenswerte zugehörige Leser-Kommentar spricht angesichts der vergleichsweise geringen nationalen Fördersummen kritisch von den “BigMacHumanities”.

Immerhin, das Thema schafft es mittlerweile auch in die regionale Tagespresse – ein erfreuliches Zeichen.

Quelle: http://dhd-blog.org/?p=901

Weiterlesen

Das Archiv im Zeitalter seiner digitalen Reproduzierbarkeit oder: Wozu brauchen wir Archive?

“Wir stehen noch mit einem Bein im Papierzeitalter.” (Ulrich Raulff)

In seiner “Kulturfragen”-Sommerreihe “Wozu brauchen wir…?” sendete der Deutschlandfunk gestern nachmittag ein Interview Karin Fischers mit Ulrich Raulff, Leiter des Deutschen Literaturarchivs Marbach, zum Thema “Wozu brauchen wir im digitalen Zeitalter Archive?” Die papiernen Archive verlören heute – und auch in absehbarer Zeit – keinesfalls ihr Lebensrecht, so Raulff diplomatisch, gewönnen aber “neue Lebensrechte auf der digitalen Seite”. Der Deutschlandfunk fragt außerdem: Ist das Horten von Büchern in Hunderten von Regalmetern wirklich noch zeitgemäß?  Wer benutzt heute noch Zettelkataloge? Wozu dienen all die steinernen Bücherhäuser, wenn ganze Nachlässe auf Sticks abgegeben werden? Dazu mehr auf

http://www.dradio.de/dlf/sendungen/kulturfragen/1862168/ (mit Audioplayer).

Quelle: http://dhd-blog.org/?p=870

Weiterlesen

Forschungen zur Wissenschaftskommunikation aus linguistischer, historischer, soziologischer und philosophischer Perspektive

Nach drei anregenden thematisch fokussierten Tagungen hat sich am 5. und 6. September 2012 eine Arbeitsgruppe getroffen, um Projektideen und Forschungen zum Thema Wissenschaftskommunikation zu konkretisieren. Die Darmstädter Linguistin Nina Janich hat diesen Forschungsschwerpunkt initiiert und die Tagungen und Treffen gemeinsam mit ihrem Team organisiert und durchgeführt.

Unter dem Namen Scientific Communication Research (SciCoRe) sollen Forschungen zusammengeführt werden, die sich beispielsweise mit Wissensformen, mit Kommunikation innerhalb wissenschaftlicher Communities , aber auch mit nach außen gerichteten Vermittlungskulturen, Medien- und Textformaten beschäftigen (traditionelle und auch neue Formen wie bloggen und twittern). Fragen nach Auswirkungen von Datenaufbereitung wie Datenpräsentation, Virtualisierungen und Visualisierungen, die Tendenz zu Simulationen im Kontrast zu Evidenzbasierung werden ebenso diskutiert wie mediale Aspekte, sprachlich-diskursive Popularisierungsstrategien und politisch-historische Legitimationsprozesse. Dabei werden Unterschiede und Gemeinsamkeiten bei den geistes- und gesellschaftswissenschaftliche Disziplinen und den Experimental- und Technowissenschaften betrachtet und hinterfragt.
Die Gruppe setzt sich zusammen aus Soziologen, Philosophen, Historikern, Sprachwissenschaftlern und Digital Humanists. Obwohl es zunächst so schien, als seien unsere Forschungsinteressen stark divergierend und unsere Ausgangspunkte sehr unterschiedlich, stellen sich in den Gesprächen und Arbeitsgruppen rasch zahlreiche Überschneidungen, Vernetzungen und gemeinsame Fragestellungen heraus.

  • Selbstdarstellung im öffentlichen Diskurs
  • Veränderungen von Publikations- und Kommunikationskulturen in den Fachdisziplinen
  • Forschung zwischen Nichtwissen und Beratungsauftrag
  • Virtualisierung von Forschungsprozessen, Simulationen, Evidenzbasierung
  • Status u d Zuschreibungen von “Experten”, “Dilettanten” und “Laien”, deren jeweilige Performanz in unterschiedlichen medialen Kommunikationszusammenhängen
  • Fehler- und Irrtumskultur, Umgang mit vorläufigen Forschungsergebnissen, Zwischenergebnissen

Was mich besonders interessiert – aus sprachwissenschaftlicher wie Digital Humanities-Perspektive – sind gewiss die Fragen nach Virtualisierungen von Forschungsprozessen, da dieses Thema im Rahmen von TextGrid und Dariah zentral ist. Viele Dinge, die wir in diesem Kontext gewissermaßen aus der Praxis heraus täglich bearbeiten und diskutieren, sind bislang nicht systematisch beschrieben und erforscht. Wie die Entwicklungen der Humanities im Hinblick auf Digital Humanities nach innen in die eigene Community, in die “traditionellen” Fachcommunities und in die Öffentlichkeit kommuniziert werden, wie jeweils “Experten-”Status- und Zugehörigkeitszuschreibungen vorgenommen werden, wie mit Unsicherheiten umgegangen wird, wie “Zwischenergebnisse” (z.B. nicht tief annotierte Rohdaten) zur Nachnutzung weitergegeben werden und wie dafür wissenschaftliche Benefits – auch für den wissenschaftlichen Nachwuchs – generiert werden können, das alles gehört wohl auch auf die Forschungsagenda der Digital Humanities, um die wissenschaftliche Selbstreflexion voranzutreiben und definitorische Beiträge zu den Digital Humanities zu leisten.

Quelle: http://dhd-blog.org/?p=859

Weiterlesen

Digital Humanities: The Movie

Was die Digital Humanities können und sollen, darüber wird in der Zunft trefflich und mit Leidenschaft gestritten. Ihr Potential indessen auch einem breiten Publikum verständlich zu vermitteln, das versucht der von TextGrid produzierte Kurzfilm “Virtuelle Forschungswelten: Neue Technologien in den Geisteswissenschaften”.

Der Film zeigt, wie virtuelle Forschungsumgebungen v.a. den textbasierten Geisteswissenschaften die vernetzte Forschung erleichtern und z.B. der Erstellung digitaler Editionen und der Langzeitarchivierung von Forschungsdaten neue Möglichkeiten eröffnen.

Zu sehen auf YouTube:
http://www.youtube.com/watch?v=JRBYR9OA45Q (dt.)
http://www.youtube.com/watch?v=kjO9epVZHa0 (engl.)

Entstanden ist der Film mit finanzieller Unterstützung der D-Grid GmbH unter Mitwirkung der SUB Göttingen sowie den Kolleginnen und Kollegen von TextGrid (http://www.textgrid.de) und DARIAH-DE (http://www.de.dariah.eu/).

Feedback, Kommentare, Anregungen und Verbreitung herzlich willkommen!

Quelle: http://dhd-blog.org/?p=757

Weiterlesen

Die Geburt der Theorie aus dem Geiste der Kritik – oder wie zwei neue Publikationen den Stand der Digital Humanities reflektieren

Eine der spannendsten Diskussionen in den Digital Humanities konzentriert sich auf die Frage, was sich sinnvoll mit diesem Begriff verbinden lässt. Interessant ist diese Frage vor allem deshalb, weil sie die Suche nach dem Kern dessen betrifft, was wir Digital Humanists täglich praktizieren und womit wir uns identifizieren. Doch gerade in implementierenden Projekten bleibt zu wenig Zeit für derartige Reflexionen. Einige Disziplinen tendieren dazu, eine solche reflexive Perspektive grundsätzlich aus der alltäglichen Arbeit „outzusourcen“ und sie als Meta-Knowledge zu begreifen (Evans & Foster 2011). Die Schwierigkeit dieser Strategie liegt darin, dass sie die Grundlagen und Voraussetzungen einer Forschung oder einer Forschungsrichtung in etwas Statisches verwandelt, das damit nicht mehr denselben Prinzipien zeitlicher, räumlicher und sozialer Abhängigkeit unterworfen ist wie die projektbezogene Forschung selbst. Gerade Geisteswissenschaftler haben durch ihre alltägliche Arbeit gegenüber dieser Problematik ein besonderes Verhältnis entwickelt. Im Bereich der Digital Humanities lassen sich ganz unterschiedliche Bestrebungen finden, einen Begriff davon zu entwickeln, welchem Konzept der eigenen Wissenschaft man sich zugehörig fühlt. Am bekanntesten dürften dabei wohl offensive Ansätze sein, wie z. B. das Digital Humanities Manifesto 2.0, das eine regelrechte Mobilisierung der Community zur Folge hatte (UCLA 2009). Ein ganz anderer, dagegen fast schon nüchtern anmutender Ansatz ist die empirische Studie The Landscape of Digita Humanities (Svensson 2010). Hier wurde die Diversität an Projekten und Initiativen untersucht, die sich selbst dem Feld der Digital Humanities zuordnen. Trotz zahlreicher weiterer Aktivitäten rund um eine Standortbestimmung fällt seit jüngerer Zeit jedoch auf, dass zunehmend auch kritische Stimmen aus dem Bereich der Digital Humanities selbst ihre Unzufriedenheit gegenüber einem Mangel an reflexiver, theoretischer oder kritischer Durchdringung des Feldes äußern. Stellvertretend mag der Vortrag von Alan Liu auf der Modern Language Association Convention 2011 genannt werden, in dem konstatiert wird:

In the digital humanities, cultural criticism – in both its interpretive and advocacy modes – has been noticeably absent by comparison with the mainstream humanities (Liu 2011)

Darüber hinaus wurde auf Digital Humanities Now unter dem Titel „Digital Humanities and theory round-up“ eine Zusammenstellung an Blog-Artikeln veröffentlicht, die sich der Rollenbestimmung von Theorie in den Digital Humanities widmete (ohne Autor 2011). Und zum Jahresende suchte Frederick Gibbs schließlich noch den „critical discourse in the digital humanities“ (Gibbs 2011). Auch der jüngst stattgefundene „Cologne Dialogue on Digital Humanities“ war nicht unbeeinflusst von diesem sich entwickelnden Thema, so wenn z. B. Willard McCarty im Prelimanry Paper schreibt „it’s the worrying I take interest in. This worrying is worth far more to us than to be treated either as romantic reaction or as premonition“ (McCarty 2012, p.4) und dieser Sorge um die “Idee der Geisteswissenschaften” seinen Vortrag widmet.

Um ein Analysewerkzeug für die beschriebenen Entwicklungen und Äußerungen zu entwickeln, bietet sich ein Anschluss an die hybride Grundkonstellation der Digital Humanities selbst an. Digitale Techniken erscheinen immer noch derart messianisch und besitzen eine solche Innovationsdynamik, dass sie die Vorstellung produzieren, als würde sich die Welt innerhalb der digitalen Techniken reproduzieren. Ein Motiv, welches z. B. in der Rede über die Digital Natives zum Ausdruck kommt, die alles nur noch digital machen. Bezogen auf die Geisteswissenschaften kommt diese Denkart im Blog von Lauren Klein zum Ausdruck, wenn ein Autor das Unternehmen Digital Humanities beschreibt als: „Taking humanities and putting them into a digital format“ (cpeagler1 2012). Wie eine breit angelegte, empirische Studie vor kurzem deutlich gemacht hat, ist der Ansatz des nativ Digitalen eine Mär. Vielmehr kommt es 30 Jahre nach der Etablierung dieses Begriffs zu komplexen und unterschiedlichen Arrangements zwischen digital vermittelten Handlungsweisen und anderen Praktiken (Shah 2011). Um in der beliebten Werkzeugmetapher zu bleiben, die gerne bei der Konzeption von Tools benutzt wird, bedeutet dies im Bereich der Digital Humanities, nicht nur bei einer Suche nach digitalen Werkzeugen/Tools zu verweilen. Vielmehr sollte die Werkzeugmetapher im Rahmen andauernder Reflexion auch auf digitale Techniken als solche angewendet werden. Bevor man das zuvor formulierte Bedürfnis nach einer derartigen Reflexion in einer sehr einfachen Argumentation lediglich als eine gewöhnliche Begleiterscheinung eines Medienwechsels verwirft, ist zu bedenken, dass hiermit auch eine im Kern geisteswissenschaftliche Tätigkeit verworfen werden würde, die immer darin bestand,

nicht nur Lösungen für Probleme anzubieten, (…) sondern über die eigentliche Form dieser Probleme nachzudenken; ein Problem auch genauso zu erkennen, wie wir ein Problem wahrnehmen. (Zizek 2010)

Es sagt also etwas über das Feld der Digital Humanities aus, wenn die bloße Bedürfnisformulierung nach dieser ureigensten geisteswissenschaftlichen Bewegung bei einigen Skepsis und Kritik hervorruft. Gegenteilig könnte man diese Entwicklung auch als Erfolgsgeschichte der Digital Humanities werten. Sie markiert einen Prozess, in dem die Digital Humanities sich wirklich in den Geisteswissenschaften verankern und den Status einer „eingeschworenen Gemeinde“ verlassen. Auch aus der Perspektive empirisch arbeitender Richtungen, die weniger Anlass für ein epistemisch begründetes Zaudern verspüren, sollte eine solche Auseinandersetzung begrüßt werden. Schließlich bietet sie doch die Möglichkeit, vermeintliche oder reale Vorurteilen und Barrieren zu entkräften. Um der Pointe halber diese Beobachtung etwas zu pauschalisieren, ließe sich sagen, dass in den geisteswissenschaftlichen Publikationen in Zusammenhang mit digitalbasierten Medien das diffuse Feld der Digital Humanities bisher primär die Rolle übernahm, die Möglichkeiten dieser Medien für die geisteswissenschaftliche Forschung zu propagieren. Eine Reflexion dieser Medien fand vorwiegend in Bereichen der Medientheorie und der Kulturwissenschaften statt. Für die dortige Forschung waren digitale Medien aber mehr ein Objekt der Forschung denn ein Objekt, mit dem geforscht werden könnte. Durch diese Distanz praktizierten beide Diskursräume in der Vergangenheit zu häufig unabhängig voneinander. Gerade hier findet aber zur Zeit eine Verschiebung statt. Diese zeigt sich, so die angestrebte Pointe und gleichzeitig eigentlicher Anlass dieses Posts, in zwei nahezu zeitgleich publizierten Büchern der letzten Monate:

  • Berry, David M. (Hrsg.): Understanding Digital Humanities, Palgrave Macmillan 2012.

  • Gold, Matthew K. (Hrsg.): Debates in the Digital Humanities, Minneapolis, London: University of Minnesota Press 2012.

Beide Publikationen beinhalten eine Sammlung von Aufsätzen, die versuchen, das Feld Digital Humanities zu erschließen, zu theoretisieren und zu kontextualisieren. Dabei hat sich David Berry von der Universität in Swansee als Herausgeber von „Understanding Digital Humanities“ bisher dem Thema vor allem aus medientheoretischer Richtung genähert. Dazu zählen Beiträge, wie „The Philosophy of Software“ (Berry 2011) oder auch „The Computational Turn“ (Beavers et al. 2011). „Debates in the Digital Humanities brings together leading figures in the field“ und war daher von vornherein stärker als Selbstreflexion der Community konzipiert. Der Umstand, dass einige Autoren in beiden Büchern auftauchen, sowie die stärkere Fokussierung der Medienphilosophie auf das Feld der Digital Humanities jenseits des überfrachteten Forschungsgegenstandes „Computation“ bezeugen die angesprochene Entwicklung. In einer ersten Reaktion auf die Debates durch Ramsay (Ramsay 2012) begrüßt er zwar die Publikation, belastet sie aber gleichzeitig wieder dadurch, dass er der Suche nach einer intensiveren theoretischen Durchdringung der Digital Humanities und der partiell kritischen Distanz einiger Autoren die Ursache der Ängstlichkeit unterstellt. Hoffnungsvoll bleibt er „not because it (die Debates in Digital Humanities, A.d.V.) shows no signs of the anxieties I’ve mentioned, but because “debate” always holds out the possibility that benevolence will be the result.“ Wer so argumentiert, hat für sich im Vorfeld bereits definiert, was das Ziel dieser Diskussion sein soll, und hofft nun auf das „Wohlwollen“ der Diskutierenden. Jenseits seiner Angst, dass dies nicht passieren könnte, sollten wir uns verdeutlichen, dass eine ernsthafte Debatte selbst definiert, wie Ergebnisse und Kriterien „zum Wohle“ der Sache aussehen könnten. Eine Debatte deren Maßstäbe von vornherein festgelegt sind, ist keine offene Debatte mehr, und sie wird mit Sicherheit auch nicht das Unbehagen – Unbehagen, nicht Angst – beseitigen, aus der sie hervorgegangen ist. Vielmehr muss es darum gehen diesem Unbehagen eine wissenschaftliche Form zu geben und dies geschieht in der Theorie.

In diesem Sinne, viel Spaß beim Lesen und Denken…

 

Anon, 2011. Digital Humanities and Theory Round-Up. Digital Humanities Now. Available at: http://digitalhumanitiesnow.org/2011/11/digital-humanities-and-theory-round-up/ [Accessed April 16, 2012].

Anon, 2009. Digital Humanities Manifesto 2.0.

Berry, D.M., 2011. The Philosophy of Software: Code and Mediation in the Digital Age, Palgrave Macmillan. Available at: http://www.amazon.com/Philosophy-Software-Code-Mediation-Digital/dp/0230244181.

cpeagler1, 2012. Digital Humanitites. Digital Humanities. Available at: http://lkleincourses.lcc.gatech.edu/dh12/2012/01/23/digital-humanitites/ [Accessed March 16, 2012].

Evans, J. a. & Foster, J.G., 2011. Metaknowledge. Science, 331(6018), pp.721–725.

Gibbs, F., 2011. Critical Discourse in the Digital Humanities. Historyproef. Available at: http://historyproef.org/blog/digital-humanities/critical-discourse-in-the-digital-humanities/?utm_source=feedburner&utm_medium=feed&utm_campaign=Feed:+DigitalHumanitiesNow+(Digital+Humanities+Now).

Liu, A., 2011. Where is Cultural Criticism in the Digital Humanities, Available at: http://liu.english.ucsb.edu/where-is-cultural-criticism-in-the-digital-humanities/.

McCarty, W., 2012. The residue of uniqueness. In Cologne Dialogue on Digital Humanities. Köln. Available at: http://www.cceh.uni-koeln.de/files/McCarty.pdf.

Ramsay, S., 2012. The Hot Thing. Stephen Ramsay. Available at: http://lenz.unl.edu/papers/2012/04/09/hot-thing.html?utm_source=feedburner&utm_medium=feed&utm_campaign=Feed%3A+DigitalHumanitiesNow+%28Digital+Humanities+Now%29 [Accessed April 12, 2012].

Shah, N., 2011. In Search of the Other: Decoding Digital Natives, Available at: http://dmlcentral.net/blog/nishant-shah/search-other-decoding-digital-natives.

Svensson, P., 2010. The Landscape of Digital Humanities. , 4(1). Available at: http://www.digitalhumanities.org/dhq/vol/4/1/000080/000080.html.

Zizek, S., 2010. Zeit der Monster. Le Monde Diplomatique (Deutsch). Available at: http://www.monde-diplomatique.de/pm/2010/11/12.mondeText.artikel,a0048.idx,14 [Accessed April 5, 2012].

 

Quelle: http://dhd-blog.org/?p=458

Weiterlesen