Datenpublikation und die Rolle der Informationswissenschaft

In seinem Editorial für die aktuelle Ausgabe des Journal of the American Society for Information Science and Technology reflektiert Blaise Cronin, Chefredakteur dieser für die Informationswissenschaft zentralen Zeitschrift, die Rolle von Daten im Publikationsprozess und stellt fest:

„Data are not simply addenda or second-order artifacts; rather, they are the heart of much of the narrative literature, the protean stuff, that allows for inference, interpretation, theory building, innovation, and invention.” (Cronin, 2013)

Für die Digitalen Geisteswissenschaften, die zu großen Teilen darauf basieren, geisteswissenschaftliche Gegenstände und Bezugsmaterialien möglichst feingliedrig in maschinenlesbare Daten umzuwandeln, um sie mit digital grundierten Methoden durchforschbar zu machen, steckt darin wenig Neues. Das Stichwort Datenpublikation, die die Publikation der Erkenntnisse und Schlussfolgerungen begleitet, und die damit verbundenen Standards markieren daher fraglos ein wichtiges Thema auch für die Digitalen Geisteswissenschaften. Diese müssen ebenfalls grundsätzlich das klären, was die Wissenschaftskommunikation aller Disziplinen, bzw. die Akteure, die diese Kommunikationen professionell organisieren, derzeit mehr oder weniger intensiv umtreibt:

(1)    [H]ow data are to be handled and incorporated into the scholarly workflow […]

(2)    [H]ow and under what conditions authors should make their data available for others to validate, replicate, or reuse as they see fit

Cronin befindet sich damit (erwartungsgemäß und per Zitation bestätigt) in Einklang mit den von Christine L. Borgman ebenfalls in JASIST vor knapp einem Jahr formulierten Grundprinzipien für die Verbreitung von Forschungsdaten (Borgman, 2012):

-            To reproduce or to verify research
-            To make the results of publicly funded research available to the public
-            To enable others to ask new questions of extant data
-            To advance the state of research and innovation

Es ist offensichtlich, dass passende wissenschaftliche Standards zum ersten Prinzip vorrangig innerhalb der Community ausgehandelt werden müssen, dass das zweite Prinzip sehr stark mit der generellen Frage von Open Access verwoben ist, dass das dritte Prinzip vor allem wissenschaftsethisch eine weiterführende Forschung auf gemeinsamen Datengrundlagen betont und schließlich der vierte Aspekt etwas allgemeiner die Förderung von Wissenschaft und Innovation an sich als Ziel verfolgt. All das deutet auf einen notwendigen Metadiskurs darüber hin, welchen Sinn die Publikation von Daten haben kann und soll.

Cronin schreibt zutreffend:

„Humanists and social scientists of all stripes are faced with similar challenges relating to image collections, demographic statistics, economic time series data, literary corpora, social media metroics, etc.: To every field its data trove.” (Cronin, 2013)

Gerade weil der Data Turn jede Disziplin ergreift und man sich neue und vielleicht sogar die interessanteren Ergebnisse zukünftig vor allem aus der Wechselbeziehung von Daten aus unterschiedlichen Feldern vorstellen kann, scheint ein interdisziplinärer Dialog zu den Standards der Datenpublikation und –nachnutzbarkeit geboten.

Die Informationswissenschaft (bzw. Bibliotheks- und Informationswissenschaft) versucht sich naheliegend als Vermittlungsdisziplin zu etablieren. Cronin ist beizupflichten, wenn er meint: „we should avoid advocating procrustean policies“, wenn dies disziplinäre Dateninseln oder die Einschränkung der Data Diversity auf sehr restriktive Vorgaben zur Folge hat. Andererseits wird unter anderem hinsichtlich kommender Forschungskonzepte die Frage, wie heterogene Datenbestände direkt aufeinander bezogen werden, metadisziplinär relevant. Dabei geht es tatsächlich nicht um „an airtight set of requirements or a single, mulitpurpose data availability policy.” Wohl aber um eine Verständigung auch zu fachübergreifenden (Nach)Nutzungsmöglichkeiten von Datenbeständen.

Cronin will als Redakteur von JASIST natürlich erst einmal klären, wie Datenpublikation in seiner eigenen Zeitschrift überhaupt aussehen kann. Nichtsdestotrotz sollte man meines Erachtens darüber hinaus und besonders auch aus der Perspektive der Digital Humanities nicht nur dazu reflektieren, wie Datenpublikationsprozesse in den Digitalen Geisteswissenschaften möglichst nach den Prämissen Transparenz und Nachvollziehbarkeit der Forschung, Open Access sowie Nachnutzbarkeit für weitere Forschungen innerhalb eines jeweils konkreten disziplinären Rahmen gestaltet sein sollen. Sondern – angeregt vom vierten Grundprinzip bei Christine L. Borgman – ebenso überlegen, wie sich interdisziplinär auch über die Digital Humanities hinaus möglichst verbindliche Normen zur (auch verschränkten) Nutzung von Datenbeständen entwickeln lassen.

Da das Problem alle gleichermaßen betrifft, wenn auch unterschiedlich ausdifferenziert, könnte man in der jetzigen Frühphase Lösungen, Standards und Empfehlungen kooperativ nicht zuletzt mit der Maßgabe entwickeln, das zukünftige interdisziplinäre Wechselwirkungen direkt unterstützt werden. Die Debatte darum, ob die Digitalen Geisteswissenschaften eine neue Wissenschaftsdisziplin oder eine neuer Methodenbereich sind (vgl. exemplarisch diesen Kommentar von Charlotte Schubert) zeigt meiner Ansicht nach, dass wir die hier entstehenden Forschungsperspektiven ohnehin disziplinär übergreifend denken müssen. An dieser Stelle eröffnet sich nicht zuletzt die Möglichkeit, sich sehr zukunftsgerichtet zu profilieren.

Ich vermute stark, dass das, was wir derzeit unter den verschiedenen Digital- und eHumanities-Synonyma diskutieren, erst den Einstieg in viel grundlegendere Transformationen der Wissenschaft an sich darstellt. Daraus ergibt nach meinem Verständnis eine Gestaltungspflicht. Als Bibliotheks- und Informationswissenschaftler sehe ich für die Frage nach der Integration der formalisierten Datenpublikation in die Prozesse der Wissenschaftskommunikation einerseits meine eigene Disziplin als Vermittlungswissenschaft in der Verantwortung, sind doch die Prozesse der Sammlung, Erschließung und Vermittlung von Informationen traditionell ihr Kerngebiet. Zudem erscheint es mir andererseits als sehr sinnvoll, wenn die Fachcommunities einen entsprechenden Dialog aktiv suchen. Denn der interdisziplinäre Erkenntnistransfer kann erfahrungsgemäß nur gelingen, wenn er auf gegenseitigem Verstehen beruht.

Quellen

Borgman, Christine L. (2012): The conundrum of sharing research data. In: Journal of the American Society for Information Science and Technology. 63 (6), S. 1059-1078. DOI: 10.1002/asi.22634

Cronin, Blaise (2013): Thinking About Data. Editorial. In:  In: Journal of the American Society for Information Science and Technology. 64 (3), S. 435-436. DOI: 10.1002/asi.22928

Quelle: http://dhd-blog.org/?p=1419

Weiterlesen

Von Lichtenberg zu Voyant und TextGrid und zurück

Geoffrey Rockwell, TAPoR-Gründer und Professor der Philosophie und Humanities Computing an der kanadischen University of Alberta, bloggt auf theoreti.ca erfreut zu unserem DH-Film “Virtual Research Worlds: New Technologies in the Humanities”, in den wir ja einige Anwendungen des von ihm mitentwickelten Tools Voyant eingebaut hatten. Und auch der gute Lichtenberg schafft es auf diese Weise von seiner Bank im Hof des Historischen SUB-Gebäudes zu Göttingen in Rockwells Blog zu multimedia, electronic texts, and computer games:

http://theoreti.ca/?p=4648#more-4648

Der Film auf deutsch ebenfalls bei YouTube: “Virtuelle Forschungswelten: Neue Technologien in den Geisteswissenschaften”

Quelle: http://dhd-blog.org/?p=1352

Weiterlesen

DH Award 2012 Nominee: Totenbuch-Visualisierung

Bei den aktuellen DH Awards (jeder ist aufgerufen, mit abzustimmen!) sind betrüblicherweise nur 2,5 Kandidaten aus dem deutschprachigen Raum nominiert. Neben dem Blog von Anne Baillot, der immerhin in Berlin “spielt” sind das das Institut für Dokumentologie und Editorik (IDE) und – für die Kategorie “Best DH visualization or infographic” – eine Visualisierung aus dem “Totenbuch-Projekt” der Universität Bonn, welches von der Nordrhein-Westfälischen Akademie der Wissenschaften gefördert und vom Cologne Center for eHumanities (CCeH) DH-seitig begleitet wird. Die Visualisierung ist ein recht komplexes “Ding” so dass es sich vielleicht lohnt, auch hier noch einmal ein paar erklärende Worte dazu zu verlieren.

Totenbuch-Gesamtvisualisierung

Worum geht es? Es geht um das altägyptische Totenbuch. Das altägyptische Totenbuch ist ein Textkorpus. Eine Sammlung von Sprüchen, die über einen langen Zeitraum hinweg immer wieder zusammengestellt und aufgeschrieben wurden, um sie einem/r Verstorbenen mit ins Grab zu geben auf dass die Sprüche ihm oder ihr beim Übergang in das Reich der Toten helfen mögen. Das Totenbuch-Projekt dokumentiert die überlieferten Textzeugen (ca. 3000 Totenbücher mit ca. 30.000 einzelnen Spruchnachweisen) und leistet Grundlagenarbeit für die weitere Erforschung des Totenbuchs. Dazu gehört auch, dass man sich einen Gesamteindruck von den einzelnen Sprüchen und ihrer Überlieferung verschaffen möchte.

Häufig und selten überlieferte Sprüche

Die hier zu diskutierende Grafik zeigt zunächst die von der Forschung “kanonisierten” Sprüche in ihrer kanonisierten Reihenfolge. Dabei steht jeder blaue Punkt für einen Spruch. Die Größe des Punktes steht für die Häufigkeit der Überlieferung des Spruches. Man erkennt auf einen Blick, welche Sprüche und Spruchgruppen breit überliefert sind und welche nicht.

Innerhalb des digitalen Textzeugenarchivs als Web-Präsentation des Projekts wird ausgiebig Gebrauch von Visualisierungen gemacht, um die Strukturen und die quantitativen Eigenschaften der überlieferten Textzeugen zu veranschaulichen. Bei dieser Grafik steht eine speziellere Fragestellung im Hintergrund, die einen Schritt in die eher analytische Dimension der Visualisierung markiert. Die Frage lautet: Entspricht die durch die Forschung etablierte kanonische Ordnung der Sprüche (die hauptsächlich auf einem Leitzeugen beruht) der Wirklichkeit der Gesamtüberlieferung? Wie gut entspricht sie ihr? Und wie kanonisch ist die Abfolge der Sprüche auf den Textzeugen wirklich?

Dazu visualisiert die Grafik die Nachbarschaftsverhältnisse zwischen Sprüchen. Es wird ausgezählt, wer die Nachbarn eines Spruches auf einem Textzeugen sind. Auf den überlieferten Objekten häufig benachbarte Sprüche werden in der Grafik durch Linien verbunden. Je dicker die Linie, desto häufiger ist eine Nachbarschaft belegt. Gäbe es eine deterministische Reihenfolge im Textkorpus, dann gäbe es nur eine einzige Verbindungslinie durch alle Sprüche. Wäre die Reihenfolge ganz beliebig, dann gäbe es eine große Zahl unterschiedlichster Verbindungslinien zwischen den Sprüchen. Die Gesamtvisualisierung liefert hier ein recht deutliches Signal: wenn man bedenkt, dass die Überlieferung einen langen Zeitraum (2.300 Jahre), eine große geografische Spannweite (17 Breitengrade), unterschiedlichste materielle Objekte (von Papyrus über Mumienbinden bis zu Grabinschriften) und verschiedenste Überlieferungszustände umfasst, dann ist die Abfolge als durchaus wenig variant zu betrachten. Und sie steht zunächst nicht im Widerspruch zu der Abfolge, mit der die Forschung selbst arbeitet. Ein genauerer Blick kann aber weitere Fragen anstoßen, die diesen Gesamteindruck bestätigen oder relativieren.

Scheinausreißer

Schnell fallen dabei einige dicke Linien auf, die der These einer relativ festen Abfolge zu widersprechen scheinen. Dies ist aber manchmal darauf zurückzuführen, dass aus inhaltlichen Gründen im Projekt Sprüche zusammengelegt wurden, die einen ähnlichen Text bieten. Die stärkste Verbindung von Spruch 47 scheint z.B. nach oben ganz woanders hin zu gehen, tatsächlich zielt sie aber auf Spruch 10/48. Hätte man die beiden nicht zusammengelegt, dann wäre die Reihe durchaus intakt. Das gleiche gilt für die nach unten gehende Linie bei Spruch 50, die auf Spruch 11/49 zielt.

Was ist hier los?

Andere Fälle erklären sich nicht in der gleichen Weise von selbst. So ist die Reihung von 136 zu 137 möglicherweise fragwürdig. Denn ein unmittelbarer Nachbar von 136/136A bzw 136B ist nur in 14 Fällen Spruch 137. Dagegen folgt auf 136B allein 49 mal Spruch 149 und auf 136/136A allein 47 mal Spruch 138 oder 139. Allerdings bedeutet das immer noch nicht, dass eine andere Reihung zu einem “glatteren” System führen würde. Hier wäre vielleicht in einem nächsten Schritt eine differenziertere Untersuchung anzusetzen, die z.B. Zeitstufen oder andere Gruppierungsmerkmale in den Blick nehmen könnte, um der Sache auf den Grund zu gehen.
Dies sind nur willkürliche Beispiel dafür, wie die Gesamtgrafik gelesen werden kann. Sie kann nichts weiter sein als ein ersten Schritt zu einem Verständnis der Gesamtstruktur und erste Einblicke in Details bieten. Dazu bedient sie sich mit der Berücksichtigung nur unmittelbarer Nachbarschaften eines sehr einfachen Modells, das methodisch durchaus fragwürdig ist und ggf. weiter zu verfeinern wäre.
Eines der hier leitenden Designziele ist das Konzept von “Overview & Detail”: man will zugleich einen Gesamteindruck herstellen UND bei näherer Betrachtung (am Bildschirm muss man wohl vom “reinzoomen” sprechen) immer feinere Details erkennbar machen. Das hat, wenn man es konsequent verfolgt, durchaus Nachteile und Kosten: Die Grafik ist recht groß. Zu groß für einen Monitor. Das aber ist Absicht. Es geht um eine Gesamtvisualisierung mit dem Potential für lokale Detailstudien.

Das Ding in meiner Küche

Das Ding im Besprechungsraum

Deshalb war das Ziel von Anfang an nicht eine Darstellung in den Grenzen eines Browserfensters. Tatsächlich sind die größeren Fassungen auch gar nicht vollständig in normalen Browserfenstern darstellbar, weil z.B. Firefox nur ein 7-faches Herauszoomen ermöglicht – und damit ist man immer noch nicht weit genug weg. Die Grafik ist trotzdem auf eine Breite von 210cm ausgelegt worden. Denn hier geht es nicht nur um die Digitalisierung einer materiellen Überlieferung, sondern auch um die Materialisierung digitaler Daten! Die Grafik funktioniert am Bildschirm als Werkzeug für Detailstudien. Hier offenbart auch jede Verbindungslinie beim onmouseover Start- und Endpunkt sowie die absoluten Fallzahlen. Für das Paradigma des Overview&Detail aber muss man seinen Schreibtischstuhl verlassen und die Maus loslassen. Ihre eigentliche heuristische Kraft entfaltet “die Tür”, wie wir den Ausdruck auf einer Forex-Platte nennen erst, wenn man sich vor sie stellt, sie abschreitet und vor- und zurücktritt. Erst diese körperliche Auseinandersetzung mit dem materiellen Objekt, sei es (derzeit, leihweise) in meiner Küche oder im Besprechungsraum des Instituts, entspricht der Informations- und Interaktionsintention der Visualisierung.

Die Menschen dahinter? Die Programmierung lag bei Ulrike Henny, ausgehend von und in einem Prozess der Konzeption und Diskussion mit anderen Kollegen vom CCeH. Wirklich “gemacht” haben aber vor allem die Daten, auf denen alles beruht, eine große Zahl ägyptologischer Fachwissenschaftler, zuletzt unter der Leitung von Marcus Müller, die alle Informationen in den letzten 20 Jahren zusammengetragen haben. Ohne diese Arbeit wüssten wir nichts und könnten nichts sehen.

Die Technik dahinter? Eine xQuery-Abfrage auf den Daten in einer XML-Datenbank (eXist) schreibt eine SVG …

Ausgangsdaten, lokales XML

xQuery schreibt …

… SVG (reduziert)

Quelle: http://dhd-blog.org/?p=1315

Weiterlesen

Das nächste Kapitel aufschlagen! Die Digital Humanities auf den Hochschul- und Berufsinformationstagen (hobit) in Darmstadt

Was sind eigentlich diese Digital Humanities, was macht man da(mit) denn? Diese Fragen unserer “traditionell” ausgerichteten FachkollegInnen haben wir sicherlich alle schon häufig beantworten müssen. Nun, da die DH im Begriff sind, sich zu institutionalisieren, Professuren eingerichtet werden, Module, Schwerpunkte und Studiengänge entstehen, müssen wir auch die Fragen von SchülerInnen, Studieninteressierten und wissenschaftlichem Nachwuchs beantworten. Da an der TU Darmstadt zum einen bereits Erfahrungen in dem seit 2006/07 akkreditierten Masterstudiengang Linguistic and Literary Computing (LLC) bestehen, zum anderen konkrete Pläne zur Entwicklung eines BA-Studienganges Digital Philologies verfolgt werden, sollten Wege gefunden und Materialien konkret erprobt werden, diese Adressatengruppe zu informieren – im Idealfall zu begeistern! Eine weitere Überlegung war, dass Studierende nicht nur die InteressentInnen am besten informieren können, sondern dass es darüber hinaus zu den Berufs- und Schlüsselkompetenzen gehören muss, adressatenorientierte Info-Materialien zu erstellen. Im Rahmen des Seminars “Was sind Digital Humanities? Grundlagen, Voraussetzungen, Vermittlung” des laufenden Wintersemesters 2012/13 haben daher Studierende aus den Studiengängen Joint BA Germanistik, Master Germanistik und Master LLC verschiedene Materialien zusammengestellt, die über die Digital Humanities und entsprechende Studienmöglichkeiten an der TU Darmstadt informieren. Diese Materialien kamen gewissermaßen im Praxistest zum ersten Mal auf den Darmstädter Hochschul- und Berufsinformationstagen (hobit) zum Einsatz, wo die Seminar-Gruppe ebenfalls die Betreuung des Infostandes, der alle Studiengänge des Instituts für Sprach- und Literaturwissenschaft präsentierte, mitübernahm. Da die hobit von zahlreichen SchülerInnen der Rhein-Main-Region besucht werden, die sehr gezielte Fragen nach Ausbildungsinhalten, bedingungen und Berufsperspektiven mitbringen, bot sich eine ausgezeichnete Gelegenheit zum Praxistest. Flankiert wurden die Stand-Aktivitäten durch Vorträge der Lehrenden, die mit jeweils über 100 Interessenten gut besucht waren.

Konkrete Erfahrungen: 1. Bei der Erstellung 2. Auf der Messe 3. Lessons learned.

1. Bei der Erstellung: Eine Herausforderung des Seminars bestand darin, dass die 18 TeilnehmerInnen unterschiedliche Voraussetzungen in Bezug auf den Kenntnisstand zu den DH mitbrachten, da es polyvalent für unterschiedliche Module eingesetzt werden konnte. Im Joint BA Germanistik stand es für die Module Sprache in Texten sowie für den Optionalbereich zur Verfügung, im Master Germanistik deckte es die Felder Texte und Editionen, Angewandte Linguistik und Sprache im Beruf ab, und im Master LLC schließlich die Bereiche Texte und Editionen sowie die Projekte Corpuslinguistik oder Computerphilologie. Diese bewusst gewählte Zusammenstellung von Voraussetzungen und Anforderungen erwies sich jedoch wie erhofft als Vorteil für die Kreativität und die Möglichkeiten zur Zusammensetzung und Ausrichtung der Teams: In vier eng zusammenarbeitenden und ständig interagierenden Unter-Gruppen wurden folgende Materialien erstellt:

• Gruppe 1: Homepage- und Flyertexte – Salmana Iqbal, Christina Klingler, Nicole Volz, Nicole Woitzik
• Gruppe 2: Poster & Flyer – Sascha Bay, Florian Enders, Tim Feuerbach, Antoine McCracken
• Gruppe 3: Berufsperspektiven – Karla Ayllon, Raissa Breder-Bigoszewski, Lena Jungbauer, Sebastian Steinhaus, Nurhayat Yasar
• Gruppe 4: Filme, Präsentationen & Interviews – Leonie Blumenschein, Fenja Kastendiek, Nadezhda Petrova, Christopher Tauchmann, Livia Weber

In den ersten Sitzungen wurde geklärt, wo die notwendigen Sachinformationen eingeholt werden konnten, wo die Kompetenzen und Interessen der TeilnehmerInnen lagen und welche Materialien erstellt werden sollten. Die entsprechenden Gruppen fanden sich zusammen, erste Konkretisierungen der gemeinsam beschlossenen Ideen wurden in den Gruppen selbständig erarbeitet.

Es folgte eine Plenumsphase, in der die Ideen zur Diskussion gestellt, kritisch reflektiert, optimiert und untereinander abgestimmt wurden. In weiteren Iterationen wechselten sich Gruppenarbeitsphasen und Plenums-Rückkopplung ab. Viel Zeit wurde außerhalb der Seminarsitzungen investiert. Alle TeilnehmerInnen blieben dem Seminar treu, niemand sprang ab.

2. Auf der Messe.

Hobit Darmstadt 2013 – Stand des Instituts für Sprach- und Literaturwissenschaft

Realitätskonfrontation: Der Stand ist klein, eng, versteckt. Die Poster drängeln sich auf den erkämpften Stellwänden, der Bildschirm, auf dem der Film läuft, könnte größer sein, der Ton geht im Lärm des allgemeinen Messe-Gewirrs unter. Dennoch: Die Lust, mit der alles zusammengestellt wurde, wird deutlich, der Stand quillt über vor Material, Konventionelles (Bücher, Gummibärchen) mischt sich mit Originellem (Poster, Film, Quiz, Buttons …).

DH Darmstadt Buttons

Mit viel Aufregung und ein wenig Unsicherheit (Wieviele InteressentInnen werden vorbeikommen? Werden sie uns überhaupt finden? Wie spreche ich schüchtern vorbeischauende SchülerInnen an? Welche Fragen werden sie stellen? Weiß ich genug über unsere Studiengänge und Berufsperspektiven?) werden die ersten Gespräche geführt und Flyer verteilt, schließlich sogar gezielt SchülerInnen an den Stand gelockt. Zu den Stoßzeiten geraten wir in den Beratungsflow – die Zeit verfliegt, wir reden und reden. Bei Flaute (am Nachmittag) tauschen wir uns untereinander und mit den KollegInnen an den Nachbarständen aus. Was uns erstaunt (warum eigentlich?): Viele SchülerInnen erzählen uns, dass sie gerne und besessen lesen, gerne mit Sprache umgehen, dass sie daher den dringenden Wunsch verspüren, Germanistik zu studieren; viele finden die Digital Humanities aufregend, weil sie neu sind, die SchülerInnen äußern sich mutig und experimentierfreudig; sehr viele interessieren sich vor allem für konkrete Berufsperspektiven und wissen die Darmstädter Germanistik-Einbettung in das spezifische Umfeld einer technischen Universität, die Ausrichtung auf Angewandte Linguistik, Deutsch als Fremdsprache und Digital Humanities besonders zu schätzen, können die Rahmenbedingungen kritisch einordnen und würdigen.

3. Lessons learned: Man hat immer zu wenig Zeit. Die Materialien werden trotzdem fertig, denn alle geben 200%. Die Möglichkeit, nicht nur für die Schreibtischschublade der Lehrenden, sondern für einen praktischen Einsatz zu arbeiten, verbunden mit der Möglichkeit zu konkreter persönlicher Bewährung setzt Kreativität, Arbeitslust und Verantwortungsbewusstsein frei. Spaß!

Was haben die Studierenden (für die Digital Humanities und für ihre persönliche Bildung) erreicht?
• neues Wissen, Wissen recherchieren, bündeln, auswählen
• Texte adressatenadäquat konzipieren und schreiben
• Text- und Bildsprache reflektieren
• Verantwortung für gemeinsame Projektergebnisse übernehmen, Qualitätssicherungsprozesse
• Team- und Zeitmanagement, Organisation verteilter Arbeitsprozesse
• Berücksichtigung von Designvorgaben und Urheberrecht
• Softwarekenntnisse
• Kommunikationskompetenz (untereinander und nach außen), Umgang mit Kritik (äußern und annehmen, produktiv umsetzen)
• Vermittlungskompetenz, schriftlich und mündlich
• Selbstreflexion: warum studiere ich eigentlich Germanistik/LLC, was erwarte ich für mich und meine
Berufsperspektiven davon? Identifikation mit der Institution und der “Fachheimat”

Was haben wir als Lehrende und als VertreterInnen der sich entwickelnden und etablierenden Digital Humanities gelernt? Das Interesse für neue Studieninhalte und Studienfächer ist riesig – das bestärkt uns im Plan der Entwicklung eines BA-Studiengangs. Gute Beispiele, die veranschaulichen, was Digital Humanists machen, womit sie sich beschäftigen, sind wichtig, genauso wichtig ist aber auch die Zukunfts-, die konkrete Berufsperspektive – ich denke, damit können wir besonders gut punkten. Die Verbindung von Forschung, Abstraktionsvermögen, Theorie- und Modellbildung, die einhergeht mit der Rückbindung an die Praxis, an materielle Artefakte des kulturellen Erbes, an Werkzeuge, an konkrete Anwendungsmöglichkeiten – was die Digital Humanities ja auszeichnet –, stößt auf größtes Interesse und vermag zu überzeugen. Studierende als “Vermittlungsinstanzen” können Ängste der InteressentInnen gut abbauen (Ist die Informatik zu schaffen? Muss ich diesen oder jenen Leistungskurs belegt haben?). Die Digital Humanities haben sich hier als “junge”, offene, mutige Disziplin bestätigt.

Fazit: Im nächsten Jahr unbedingt wieder! Ein herzlicher Dank geht an alle TeilnehmerInnen des Seminars, alle HelferInnen, alle InteressentInnen und an die diesjährigen Organisatorinnen des Instituts-Messestandes Sandra Denzer und Lisa Rhein!

Quelle: http://dhd-blog.org/?p=1258

Weiterlesen

Über die Kartierbarkeit der Geschichte: Anne Kelly Knowles und Historical GIS.

Tony Horwitz: Looking at the Battle of Gettysburg Through Robert E. Lee’s Eyes. In: Smithsonian magazine. Dec. 2012. URL: http://www.smithsonianmag.com/history-archaeology/Looking-at-the-Battle-of-Gettysburg-Through-Robert-E-Lees-Eyes-180014191.html?c=y&story=fullstory

Kernfrage: Welche Rolle können GIS (=Geographic Information Systems)-Verfahren für die Analyse historischer Fragestellungen spielen?

In der Dezember-Ausgabe des Smithsonian Magazine berichtet Tony Horwitz über die Arbeit von Anne Kelly Knowles. Die Geographin erhielt dieses Jahr den Smithsonian Ingenuity Award im Bereich Historical Scholarship und zwar offensichtlich vor allem deshalb, weil sie eine Vorreiterfunktion im Bereich des Einsatzes Historical Geographic Information Systems (HGIS) übernahm. Dabei benutzt man für die Kartographie entwickelte Technologien buchstäblich zum Mapping historischer Ereignisse bzw. Strukturen. Bekannte Beispielanwendungen finde sich im Great Britain Historical Geographical Information System (GBHGIS) oder auch bei HGIS Germany.

Die Digitalisierung historischer Landkarten und das verortende Auftragen von Bezugspunkten (=georeferencing) ermöglicht es, bestimmte Sachverhalte in gewisser im Raum in ihrem Verlauf abzubilden. Die Abbildung der Entwicklung von Grenzverläufen ist da nur ein sehr nahe liegendes Beispiel. Spannend wird es, wenn diese spatiale Dimension mit möglichst konkreten historischen Fakten in Beziehung gesetzt wird. Und Anne Kelly Knowles wird konkret:

“In this instance, she wants to know what commanders could see of the battlefield on the second day at Gettysburg. A red dot denotes General Lee’s vantage point from the top of the Lutheran Seminary. His field of vision shows as clear ground, with blind spots shaded in deep indigo. Knowles has even factored in the extra inches of sightline afforded by Lee’s boots. “We can’t account for the haze and smoke of battle in GIS, though in theory you could with gaming software,” she says.” (Hervorhebung und Einbettung des Links: BK)

Welche Fragestellung man über die Kombination diverser Parameter tatsächlich sinnvoll bearbeitet, hängt selbstverständlich von dem jeweiligen Forschungsgegenstand und -ansatz ab. Deutlich wird jedoch das Potenzial beispielsweise für eine empirische Gegenprüfung überlieferter Quellen. Die Wissenschaftlerin spricht selbst von einer korrektiven Funktion des Mappings. So ermöglicht der Einsatz derartiger Technologien eine neue Perspektive auf bekannte Themen und in gleicher Weise das Aufwerfen von neuen Fragestellungen sowie, drittens, generell neue Möglichkeiten zur Formulierung von Forschungsfragen.

Das Verfahren selbst ist auch eine Art Kombination. Im Webkontext würde man vielleicht von Mash-Up sprechen. Tatsächlich waren Mapping-Anwendung wie das Crime Mapping des Los Angeles Police Departments bahnbrechend bei der Popularisierung derartiger Verknüpfungen. Dass sich die Kombination von (a) raumstrukturierender Visualisierung (Stadtpläne, Landkarten) mit (b) Ereignisdaten (hier: Straftaten) sowie zu mit diesen assoziierten qualitativen Ergänzungsdaten (hier: demographische Angaben) und schließlich (c) einer Zeitachse anbietet, um bestimmte Entwicklungen, Häufungen, Regularitäten und Anomalien zu visualisieren, dürfte spätestens seit Google Maps weithin anerkannt sein. Eine entsprechende Datenbasis vorausgesetzt, lässt sich eigentlich alles, was Geographie, Entwicklung in der Zeit und eine qualitative Konkretisierung verbindet, GIS-basiert abbilden – von der Wetterkarte und Vegetationszyklen bis hin zum Schlagloch.

GIS war vor allem aus der Regionalplanung und kommerziellen Kontexten bekannt. Anne Kelly Knowles realisierte relativ früh (die von ihr herausgegebene Sonderausgabe von Social Science History mit dem Thema Historical GIS: The Spatial Turn in Social Science History erschien im Jahr 2000), dass man diese Technologie ebenfalls sehr gut in geschichtswissenschaftlichen Zusammenhängen einsetzen kann:

“I knew there was a GIS method, used to site ski runs and real estate views, and wondered what would happen if I applied that to Gettysburg.”

Eine wichtige Nebenwirkung dieser Art von Empirisierung mittels expliziter Kartographierung könnte – nicht ganz unpassend zur Kartographie – das Erkennen von Grenzen sein. Nämlich von solchen der Erkenntnisreichweite scheinbar stabiler Einschätzungen sowie der Wege, auf denen diese entstehen:

“We can learn to become more modest about our judgments, about what we know or think we know and how we judge current circumstances.”

Als weiterer Effekt droht im Gegenzug die von Skeptikern häufig angemahnte Überbetonung der Muster gegenüber den Inhalten. Visualisierungen sind in der Regel visuell eindrucksvoll, bleiben bisweilen aber zur Frage, was man konkret aus ihnen ablesen kann, erstaunlich opak.

Anne Kelly Knowles ist mit diesem Problem offensichtlich gut vertraut, zumal sie derzeit das HGIS-Prinzip in einem Projekt zur Holocaust-Forschung („a profoundly geographical event” – A.K. Knowles) einsetzt. Sie weiß also um die Schwierigkeit, „of using quantitative techniques to study human suffering.” Entsprechend argumentiert sie mit der gebotenen Vorsicht:

Knowles is careful to avoid over-hyping GIS, which she regards as an exploratory methodology. She also recognizes the risk that it can produce “mere eye candy,” providing great visuals without deepening our understanding of the past.

Und sie erkennt noch eine weitere Herausforderung: Die der Übersetzung von Messungen und gemappten Strukturen in eine erklärende und verständliche sprachliche Abbildungsform:

Another problem is the difficulty of translating complex maps and tables into meaningful words and stories.

Informationsvisualisierung hat gegenüber der Beschreibung den klaren Vorteil einer Informationsverdichtung. Informationswissenschaftlich gilt der Grundsatz, dass ein Bild sehr viel Information (mehr jedenfalls als tausend Worte) jedoch eher wenig Wissen (nach einem informationswissenschaftlichen Wissensbegriff) speichern kann. Dieses Prinzip wird freilich bei der Hinzunahme einer zeitlichen Dimensionen relativiert. Dennoch bleibt es jedenfalls derzeit notwendig, parallel zur graphischen Abbildung im Mustern eine schlussfolgernde Ableitung des Dargestellten in Textform vorzunehmen. Die visualisierte Informationsmenge muss demzufolge auf Aussagen heruntergefiltert bzw. ausgedeutet werden.

Was man folglich aus dem Artikel und der dort wiedergegebenen Position Anne Kelly Knowles’ mitnehmen kann, ist, dass das Mapping historischer Entwicklungen und Ereignisse mittels GIS einerseits vor allem dafür geeignet ist, bekannte Fragestellungen neu zu betrachten und entsprechend möglicherweise empirisch zu validieren. Und andererseits, im exploratorischen Sinn, Zusammenhänge neu erkennbar zu machen. Für beide Anwendungsfälle gilt jedoch (wie eigentlich immer):

“The technology is just a tool, and what really matters is how you use it”

Wobei zur gelingenden Anwendung insbesondere die Befähigung zur historisch sensiblen und sinnvollen Schlussfolgerung und Interpretation zählen dürfte.

P.S. Eine Kurzbescheibung ihrer Arbeit gibt Anne Kelly Knowles in diesem kurzen Clip.

Quelle: http://dhd-blog.org/?p=1165

Weiterlesen

Mal wieder und immer noch: Digitized vs. Digital

NeDiMAH, das „Network for Digital Methods in the Arts and Humanities“ enthält unter anderen eine Arbeitsgruppe zu „Scholarly Digital Editions“. Die erste Veranstaltung (ein „Expert Meeting and Workshop“) zu diesem Themenkomplex hatte laut Call einen Schwerpunkt in der definitorischen Grundfrage: Was ist eigentlich eine „digitale Edition“?

Nachdem ich mich mit dieser Frage nun auch schon seit 15 Jahren beschäftige, sie in meiner Dissertation einigermaßen länglich ausgewalzt habe und meine eigene Definition Grundlage meines Katalogs digitaler Editionen ist, war ich froh, sie nun auch einmal im Expertenkreis zur Diskussion stellen zu können.

Die Präsentation zum Vortrag findet man als und bei prezi, ich fasse sie hier nicht noch einmal zusammen. Nur ein Punkt, der eigentlich ein Nebenaspekt ist, soll hier aufgegriffen werden, weil ich mich frage, ob diese Diskussion nicht auch in anderen Bereichen der Digital Humanities produktiv geführt wird oder werden kann  und insofern keine Digitale-Editionen-Spezialdiskussion ist:

Offensichtlich wird die Digitale Edition sinnvollerweise im Aufgreifen der traditionellen Editorik definiert. Und dann in Abgrenzung zu ihr. Hier entsteht aber ein Problem: wenn eine gedruckte Edition einfach digitalisiert wird, müsste man dann nicht von einer digitalen Edition sprechen? Der normale Gebrauch der deutschen Sprache legt dies zunächst nahe. Es ist geradezu schwierig, dem folgenden Satz wiedersprechen zu wollen: „Eine digitalisierte Edition ist eine digitale Edition“. Trotzdem muss es getan werden und müssen wir akademischen Klugscheißer der allgemeinen Sprachlogik wohl ein wenig Gewalt antun Widerstand leisten. Denn wie ich andernorts schon ausgeführt habe, liegt der Kern der Wandlungen in der Editorik (und den Geisteswissenschaften insgesamt?) nicht in einem Wandel der Werkzeuge und Medien – sondern in einer Bewegung hin zur Transmedialisierung. Dies führt dazu, dass die mediale Präsentation – ob im Buchdruck oder digital – nicht „wesentlich“ ist. Das wiederum bedeutet, dass eine „digitale Edition“ nicht einfach dadurch definiert ist, dass sie digital vorliegt. Das Digitale ist eine notwendige, aber keine hinreichende Bedingung. Es entsteht das quasi-definitorische Statement:

„Eine digitalisierte Edition ist (noch lange) keine digitale Edition.“

Dies ist das Gegenstück zu dem positiven Definitionsbaustein aus der gegensätzlichen Richtung:

„Eine digitale Edition kann nicht ohne substanzielle Verluste an Inhalten oder Funktionalitäten gedruckt werden.“


Diese Definition ist zunächst gut, weil sie die Spezifika der digitalen Edition in den Vordergrund stellt. Leider ist sie nicht besonders scharf, weil man sich lange darüber wird streiten können, was „substanziell“ ist. Der Ansatz wurde in der Diskussion dann auch an genau diesem Punkt hinterfragt: Bieten nicht schon digitalisierte Editionen einen funktionalen Mehrwert, wenn man sie z.B. per Knopfdruck durchsuchen kann? Hm, ja, offensichtlich muss es eine Schwelle geben, die überschritten werden muss, um davon reden zu können, dass es sich bei digitalen Editionen um „andere“ Editionen handelt, als die gedruckten Editionen wie wir sie kennen. Diese Schwelle brauchen wir auch deshalb, weil digitale Editionen aus digitalisierten Editionen sehr wohl „herauswachsen“ können. Viele digitale Editionen beginnen mit der Digitalisierung bereits gedruckt vorliegender Editionen. Ab einer bestimmten Ausbau- und Umbaustufe wird man sie dann aber doch als „digitale Editionen“ bezeichnen wollen. Diese Schwelle ist zunächst – wie oben angedeutet – durch Inhalte und Funktionen bestimmt. Hinter dem begrifflichen Wechsel und hinter der Beschreibung von Eigenschaften muss aber letztlich ein konzeptioneller Unterschied stehen. Die digitale Edition ist durch ein eigenes Theoriegebäude und durch eine eigene Methodik bestimmt. Sie folgt einem „digitalen Paradigma“, zu dem eben Konzepte wie Transmedialisierung, abstrakte Modellierung, Daten-Orientierung, Multitext, Prozesshaftigkeit, Transparenz, besere Zugänglichkeit oder vielleicht auch Soziabilität gehören. Wenn ich die Stimmung in der Diskussion richtig gedeutet habe, scheint das auch weitgehend unterstützt zu werden. Zum einen wurde (von, ich glaube, Roberto Rosselli del Turco) einmal mehr darauf hingewiesen, dass ja heute alle Editionen mit digitalen Werkzeugen erstellt würden, man deshalb auch von „digital born printed editions“ sprechen könne, dies aber eben auch noch lange keine digitalen Editionen ausmachen würde. Zum anderen betonte die gewohnt klarsichtige Elena Pierazzo, dass wir digitale Editionen deshalb machen, weil wir andere Gegenstände erschließen und andere Zielstellungen (z.B. in der Repräsentation der Textgenetik) verfolgen wollen. Deshalb könne es nicht darum gehen, bessere Editionen in der Tradition des Buchdrucks zu machen  – selbst dann nicht, wenn man dazu die besten digitalen Mittel einsetzen würde. Man sei schließlich an Dingen interessiert, die im Druck nicht nur nicht möglich sind, sondern in der Druckkultur noch nicht einmal denkbar waren.

Das ist eine klare, aber radikale Position, die wohl nicht von allen geteilt werden würde. Schließlich gibt es daneben auch viele, die betonen würden, dass es sehr wohl auch um die (bessere) Edition von Materalien geht, die man immer schon edieren wollte und um die dabei jetzt anzuwendenden besseren Methoden und Werkzeuge. Aus dieser Perspektive bleibt es schwierig, ein klares Kriterium zu finden, an dem sich die digitalisierte oder bloß irgendwie in digitaler Form vorliegende Edition von der „wirklich“ digitalen Edition unterscheidet.

Die terminologische Trennung scheint übrigens auch auf der internationalen Ebene zu funktionieren: Digitized is not digital. Es gibt zwar auch noch das Wort „digitalized“, aber das scheint (wenn es nicht nur ein furchtbarer Germanismus oder ein einfaches Synonym zu „digitized“ ist) etwas (und zwar verschiedenes) Anderes zu bedeuten.  Nämlich u.a. eine allgemeinere Durchdringung von Wissenschaft und Welt durch die Prinzipien des Digitalen und nicht so sehr das Digital-Werden von bestimmten „Dingen“ oder Informationen. Zuletzt ist „digitalized“ auch in den Digital Humanities auf einem Buchtitel aufgetaucht, nicht aber in dem betreffenden Buch selbst – so dass auch hier weiterhin unklar bleibt, was es denn genau für unseren Fragenkreis bedeuten und beitragen könnte.

Was das Phänomen „eine digitalisierte Edition ist keine digitale Edition“ in seiner sprachlogischen Problematik betrifft, so hätte ich gerne Analogien aus bisherigen Wortentwicklungen. Es müsste so etwas sein wie „ein befreiter Mensch ist kein freier Mensch“ (nur mit mehr Sinn!). Hat jemand ein besseres Beispiel?

Quelle: http://dhd-blog.org/?p=1122

Weiterlesen

Trancribe Bentham in a Panopticon: verspätete Berichterstattung zum Vortrag von Philipp Schofield im Rahmen der Darmstädter Ringvorlesung am 8.11.

Text von Jörg Lehning, TU Darmstadt

Im Rahmen der Ringvorlesung “Digital Humanities” war Philip Schofield, Leiter des Bentham-Projektes und General Editor der Gesammelten Werke Jeremy Benthams zu Gast und erfreute die interessierten Hörerinnen und Hörer mit seinem Vortrag “Transcribe Bentham – An experiment in scholarly crowdsourching”.

Das (im Übrigen preisgekrönte) interdisziplinäre Bentham-Projekt ist ein großartiges Beispiel für ein wissenschaftliches Projekt, das mit den neuen Technologien zusammenwächst. Das “scholarly crowdsourcing”, was man vielleicht mit “wissenschaftliche Bearbeitung durch unwissenschaftliche Mengen” etwas wenig elegant umschreiben könnte, ist hierbei ein elementarer Baustein des Projekts.

Wie Schofield ausführte, sei es auch in diesem Projekt zunächst wichtig, Ziele zu definieren. In diesem Fall sei das die Erstellung einer neuen gedruckten Edition gewesen, ein weiteres, dass diese kostengünstig sein sollte.

Bentham, so Schofield, hätte den technologischen Fortschritt mit offenen Armen begrüßt, und das nicht nur, weil er zeitlebens Technik zur Vereinfachung von Arbeitsabläufen erfunden hatte, sondern auch, weil er mit ihr seine Ideen wesentlich besser hätte umsetzen können.

Das Computerzeitalter wäre mitunter auch hilfreich, veraltete oder nicht hilfreiche Strukturen zu überwinden, meinte Schofield mit Blick auf diverse alte Regularien (Oxford Standard of storage rules), etwas was auch in den Debatten um die Definition der Digital Humanities eine Rolle spielt.

Die Bentham Dokument Datenbank, die von 2003-2006 bearbeitete Dokumente bereitstellt, ist eine zentrale Quelle für Metadaten, die von Editoren und Forschern genutzt werden kann.
Die Technik hat jedoch nicht nur Vorteile: im Rahmen des Arbeitsablaufs wird durch einen wissenschaftlichen Mitarbeiter die Qualität der fertig bearbeiteten Dokumente geprüft, bevor sie hochgeladen werden können. Die Erfahrung zeigt hier, dass händisches XML/TEI-Tagging zu steigender Fehlerzahl und somit auch zu steigendem Zeitverbrauch führen kann. Aber: Die Probleme mit der Technik können mitunter auch durch die Technik behoben werden, so z.B. durch das Interface, das die Text-XML-TEI-Erstellung erleichtert und somit die menschlichen Fehlerquellen in diesem Fall umgeht.

Mitarbeiter werden bei Wunsch genannt und bekommen auch Rückmeldung zu ihrer Arbeit. Von den Transkripten werden 95% von sogenannten “super-transcribers” bearbeitet. Bemerkenswert ist, dass viele der “User”, die an dem Projekt arbeiten, gar nicht unbedingt an Bentham interessiert waren und sind, sondern vor allem die Art der Arbeit im Rahmen des Projekts interessant fanden. Auch die digitale Komponente schien zu reizen.

Projekte wie dieses haben als limitierende Faktoren oft Zeit und Komplexität. Wirtschaftliche Argumente für diese Projekte sind wichtig, wenn es darum geht, sie überhaupt in die Tat umzusetzen. Die ökonomische Rechtfertigung kann hier darin bestehen, dass die Methode des “scholarly crowdsourcing” kosteneffizient ist, z.B. im Vergleich zu bezahlten Forschern.

Abschließend stellte sich Schofield Fragen nach der Berechtigung und dem Erfolg des Projekts und kam zu dem Schluss, dass es ein Erfolg sei, weil Bedarf daran besteht und es wissenschaftlich fundiert sei. Die digitalen Geisteswissenschaften indes würden das Projekt dazu zwingen, die Funde auch mit neuen Methoden aufzubereiten und zu präsentieren.

Fragen hinsichtlich der Existenzberechtigung des Projektes beinhalten die Überprüfung der Zielsetzung Druck im Hinblick auf Ideen und Modelle der “freien Information”. So taucht zum Beispiel die Frage auf, ob nicht nur noch eine editierte Fassung online stehen soll, die die gedruckte Ausgabe ersetzt. Hier stehen sich die Punkte Kosteneffektivität und beständige, gesicherte Referenz durch physikalische Permanenz gegenüber.

Follow us on Twitter: @DHDarmstadt @RappAndrea #DHDarmstadtLecture

Am 22.11.2012 ist Martin Wynne (Oxford University) zu Gast: “Corpus and Text Analysis for Research in the Humanities”; 18.00 Uhr s.t., Schloss, Raum 36. Gäste sind herzlich willkommen.

Quelle: http://dhd-blog.org/?p=1077

Weiterlesen

Anmerkungen zu John Heuser, Long Le-Khac (2011): Learning to Read Data: Bringing out the Humanistic in the Digital Humanities.

Im LIBREAS-Weblog pflegen wir seit einigen Jahren die Tradition annotierender Referate zu verschiedenen Publikationen, die sich von traditionellen Rezensionen dahingehend unterscheiden, dass sie einerseits eine perspektivische Lektüre betonen und andererseits gern auch eher essayistisch ausgerichtet sind. Bisweilen finden sich in diesem Bereich auch Texte, die Themen aus dem Bereich der Digital Humanities bzw. Digitalen Geisteswissenschaften berühren (hier das entsprechende Tag im LIBREAS-Weblog).

Nun spricht natürlich nichts dagegen, einschlägige Texte dieser Art auch hier zu bloggen, zumal die inhaltliche Perspektive auf die Digital Humanities bei LIBREAS maßgeblich von der Wechselwirkung mit dem Bibliothekswesen geprägt ist. Daher möchte ich mit der nachfolgenden Betrachtung eine möglichst regelmäßige Beteiligung auch an diesem Weblog beginnen. – Ben Kaden 

Anmerkungen zu: John Heuser, Long Le-Khac (2011): Learning to Read Data: Bringing out the Humanistic in the Digital Humanities. In: Victorian Studies Vol. 54, No. 1 (Autumn 2011), S. 79-86 / http://www.jstor.org/stable/10.2979/victorianstudies.54.1.79

Kernfrage: Wie kann das Verfahren der Wortfrequenzanalyse für die Prüfung von Hypothesen zum viktorianischen Roman sinnvoll eingesetzt werden?

Wer sich im Bereich der Digital Humanities bewegt, sieht sich im Gespräch mit eher traditionell orientierten Geisteswissenschaftlern erfahrungsgemäß schnell unter Legitimationsdruck. Wo man nicht mit genereller Ablehnung konfrontiert ist, wird – durchaus berechtigt – die Forderung aufgestellt, man solle doch erst einmal aufzeigen, welches Erkenntnisplus die Anwendung beispielsweise quantitativer Verfahren für die Literaturwissenschaft tatsächlich bringt.

Eine Publikation, die man bei der nächsten Gelegenheit anführen kann und die nach meiner Wahrnehmung in diesem Weblog noch nicht referiert wurde, erschien vor gut einem Jahr in der Zeitschrift Victorian Studies. Ryan Heuser und Long Le-Khac, vielleicht etwas befangen als Mitarbeiter an Franco Morettis Stanford Literary Lab, leisten in ihrem Aufsatz „Learning to Read Data: Bringing out the Humanistic in the Digital Humanities“ ausgewogen und souverän Überzeugungsarbeit für den Einsatz quantitativer Verfahren in der Literaturwissenschaft. Ihr Ansatz: Quantitative Verfahren der Literaturanalyse (mitunter nicht ganz glücklich als „distant reading“ bezeichnet) sind keinesfalls die Ablösung qualitativer Methoden. Sie sind jedoch sehr hilfreich, wenn es darum geht, bestimmte damit gewonnene Erkenntnisse aposteriorisch zu verifizieren.

Zum Einstieg benennen die Autoren zunächst die bekannte Mischung aus Euphorie und Vorbehalten, die Literaturwissenschaftler gemeinhin befällt, wenn sie dem Möglichkeitsspektrum quantitativer Textanalysen nicht in sprachwissenschaftlichen Umgebungen, sondern ihrer eigenen Domäne begegnen. Besonders treibt sie die Frage um, wie sich das traditionell geisteswissenschaftliche Forschung auszeichnende Differenzierungsvermögen und Gespür für die Zwischentöne sowie die zwangsläufige Komplexität ihrer Fragestellungen in solchen Zusammenhängen abbilden lassen. Die Antwort ist nahezu trivial: Indem man diese Aspekte eben möglichst berücksichtigt und mit den Messverfahren integriert. Beide Aspekte sprechen jeweils einen anderen Bereich der Erkenntnisfindung an. Der Schlüssel liegt folglich darin, sie ihren Stärken gemäß anzuwenden. Der Vorteil der messenden Durchdringung eines Korpus liegt in der vollständigen Erfassung. Die Stärke der interpretierten Durchdringung von Texten liegt in der Möglichkeit, einen in sie eingebetteten Sinn zu verstehen und zu beschreiben. Die Kombination empirischer Parameter mit traditionellen Interpretationsverfahren erfüllt den Zweck einer wechselseitigen Kontrolle, wobei der Schwerpunkt auf der Prüfung der Treffsicherheit einer Hypothese liegt.

Wie sich das konkretisieren lässt, illustrieren Heuser und Le-Khac am Beispiel des viktiorianischen Romans. Für einen Bestand von 2779 britischen Titeln mit der Erscheinungszeit zwischen 1800-1900 analysieren sie die Entwicklung der Verwendung von Ausdrücken aus zwei semantischen Feldern in der Zeit. Sie unterscheiden Ausdrücke mit wertorientierter Bedeutung von solchen mit konkret beschreibender und spezifizierender Semantik. Für das Korpus lässt sich in der Zeitachse eine Verschiebung der Häufigkeit des Auftretens vom ersten Typus zum zweiten feststellen. Der entscheidende Schritt der Analyse liegt nun in der Interpretation dieser Messreihe. Die gelingt nur über die Verortung in einem übergeordneten Kontext. Dieser aber wiederum wird nur aus einem entsprechenden, traditionell geisteswissenschaftlichen Vorwissen eingrenzbar.

Der Interpretation geht folglich die Kombination verschiedener Parametern voraus. Je mehr Datenebenen kombiniert werden, so die sich erstaunlicherweise überrascht zeigenden Autoren, desto enger wird der Spielraum, der für die Interpretation bleibt und desto präziser kann diese ausfallen. Ob sie tatsächlich zutrifft ist freilich auch von einem soliden Forschungsdesign abhängig. Aber dies gilt ohnehin in jeder Wissenschaft. Empirisch wird im beschriebenen Beispielverfahren sichtbar, dass bestimmte Ausdrücke zu einem bestimmten Zeitpunkt in einer bestimmten Häufigkeit verwendet wurden. Über das Abtragen auf der Zeitachse lässt sich eine Variabilität darstellen, die man bei Bedarf wieder unter diversen Gesichtspunkten exakt ausmessen kann. Die Messung stellt eindeutige Verschiebungen im Wortgebrauch fest. Addiert man dazu die allgemeine kulturhistorische Dimensionalität mit Aspekten wie Landflucht, Verstädterung, Industrialisierung und der damit verbundenen Erweiterung individueller Handlungsoptionen und -zwänge, lässt sich die These, dass der viktorianische Roman die sich im 18. Jahrhundert vollziehenden sozialen Veränderungen im Vereinigten Königreich auch auf der Ebene des Vokabulars spiegelt, sehr einsichtig erhärten.

Die Erkenntnis selbst ist vielleicht nicht sonderlich verblüffend, sondern entspricht vielmehr dem Eindruck jedes Lesers, der sich diachron durch diese Literatur gearbeitet hat. Das eigentlich Neue ist jedoch, dass man diesen Eindruck nun mithilfe von Wortfrequenzanalysen eindeutig untermauern kann. Die mehrdimensionale Datenanalyse prüft empirisch eine Hypothese, die durchaus auch streitbarer sein kann, als die von den Autoren beispielhaft durchgespielte.

Verfahren der Digital Humanities lösen, so auch die Argumentation der Autoren, die traditionellen Praxen der Geisteswissenschaft nicht etwa ab. Vielmehr setzen sie diese voraus. Die Anwendung solcher Verfahren erfordert ein breites grundständiges Wissen auf dem Anwendungsgebiet. Eingebettet in ein korrektes Forschungsdesign ermöglichen sie jedoch eine empirische und übergreifende Prüfung von Hypothesen, wie sie ohne diese digitalen Mess- und Visualisierungswerkzeuge kaum möglich ist.

(Berlin, 15.11.2011)

Quelle: http://dhd-blog.org/?p=1061

Weiterlesen

Die Vision Humboldts in der Digitalen Welt: Start der Ringvorlesung Digital Humanities an der TU Darmstadt mit einem Vortrag von Gregory Crane über ‘Humanities in a Digital Age’

Gregory Crane von der Tufts University in Medford/Boston (Massachusetts), der in den nächsten Jahren eine Humboldt-Professur an der Universität Leipzig wahrnehmen wird, stellte sich der Aufgabe, für den Auftakt der Darmstädter Ringvorlesung einen Überblick zu geben, große Fragen zu stellen und große Linien zu ziehen und beeindruckte die ZuhörerInnen durch seine Offenheit, seine Energie, seine Leidenschaft für das Thema und den Respekt, mit dem er allen InteressentInnen begegnete.

Eines der großen Themen, das er ansprach, war beispielsweise die Frage danach, was der gesellschaftliche Auftrag und was die Ziele der Geisteswissenschaften seien. Für Greg Crane besteht ihre Rolle darin, das intellektuelle Leben der Menschen zu verbessern. Dazu hat man seiner Ansicht nach zwei Möglichkeiten: Bücher zu schreiben, die keiner mehr liest, oder den Menschen zu helfen, mehr über fremde Sprachen und Kulturen zu wissen und ihnen den Zugang dazu ohne Voraussetzungen, ohne Sprachenkenntnisse zu ermöglichen. Wer die Entwicklung und die Erfolgsgeschichte des Perseus-Projekts verfolgt hat, weiß, dass diese Vision eingelöst werden kann: Die antiken Texte sind so umfangreich erschlossen durch Wörterbücher und weitere Materialien, dass man einen Zugang findet – und dieser Zugang war und ist bei Perseus stets transparent und open access. Die intensive Erschließung der Materialien wird auch durch Crowd Sourcing-Aktivitäten erreicht: Studierende werden bei der Lemmatisierung, Kommentierung und Vernetzung eingebunden, jede entsprechende Leistung ist durch Identifier den BearbeiterInnen zugeordnet, so dass jeder Kommentar zu einer micropublication wird. Greg ist immer für unerwartete Vergleiche und Überraschungen gut: Wenn ein World-of-Warcraft-Spieler 500 Stunden Übung benötigt, um einen Charakter zu beherrschen, dann ist es genauso gut möglich, dass er in 500 Stunden Einsatz mit den digitalen Materialien eine antike Sprache besser beherrscht als nach einigen Semestern Studium an der Universität! Die Aufgabe der Lehrenden ist es, den Studierenden zu ermöglichen, digital citizens in der digitalen Welt zu werden. Auf diese Weise sieht er uns erstmals in die Lage versetzt, das alte Humboldtsche Ideal, dass Lehrende und Lernende dazu da sind, der Wissenschaft zu dienen, zu verwirklichen (“Wenn ich etwas neu und cool finde, stelle ich fest, dieser alte Preuße hat es schon geschrieben.”).

Einen Gedanken möchte ich noch herausgreifen, denn er betrifft einen Punkt, der von vielen diskutiert wird. Greg leitete seine Vorlesung folgendermaßen ein: “Ich bin jetzt ein Professor für Digital Humanities, obwohl ich nicht an das Fach glaube.” Er betrachtet sich nach wie vor als Altphilologe, sein Haupt-Forschungsinteresse war und ist die antike Sprache und Kultur, deren Erforschung und Erschließung von ihm u.a. mit computergestützten Ansätzen und Methoden betrieben wird. Dieser Sichtweise würde ich mich anschließen, sie markiert auch mein Selbstverständnis und die Ausrichtung und Weiterentwicklung der Darmstädter Digital Humanities in einer spezifischen Ausprägung als Digital Philology. Unsere Forschungsgegenstände sind Sprache, Literatur und Kultur, wir integrieren hermeneutische und algorithmische Ansätze zu ihrer Erforschung. Wir dürfen also gespannt sein auf die weiteren Positionen und Beiträge zur Ringvorlesung und werden uns bemühen, an dieser Stelle weiter darüber zu berichten. Aufnahmen davon werden Dank einer Kooperation mit dem eLearning-Center der TU Darmstadt auch online zur Verfügung gestellt werden.

Follow us on Twitter: @DHDarmstadt @RappAndrea #DHDarmstadtLecture

Am 8.11.2012 ist Philip Schofield (University College London) zu Gast: “TRANSCRIBE BENTHAM – An experiment in scholarly crowdsourcing”.

Quelle: http://dhd-blog.org/?p=1009

Weiterlesen

Call for Papers For a special issue of the Journal « Etudes de communication » n° 41 « Information Architecture : a useful and operational concept ?

Journal website : http://edc.revues.org/

Coordinated by: Ghislaine Chartron (DICEN, CNAM-INTD), Stéphane Chaudiron (GERiiCO, University of Lille 3) and Madjid Ihadjadene (Paragraphe, University of Paris 8)

In 1976, graphic designer Richard Saul Wurman introduced the concept of “Information architecture” in response to the ever-increasing quantity of information produced and exchanged in contemporary society : « I thought the explosion of data needed an architecture, needed a series of systems, needed systemic design, a series of performance criteria to measure it ». In 1986, James C. Brancheau and James C. Wetherbe published “Information architectures : Methods and practice” in the journal Information Processing & Management. The authors use the concept to refer to a profile of corporate information categories, used to assess organizational information needs. In 1996, Louis Rosenfeld and Peter Morville published “Information Architecture for the World Wide Web” and became the pioneers in the field of organizing information in websites, intranets and software applications to help users fulfill their needs.

The concepts of information architecture and information architect are therefore not new. These concepts have been modified and adapted over the past several decades, and today there is renewed interest in the field of information architecture, especially in North America, where information architects have created an association, the IA Institute (IAI). In information architecture, three types of competencies seem to stand out: technical design, content organization and web design, which has been particularly emphasized in recent years.

By analogy with the physical architecture of buildings designed in the real world, information architecture concerns the spatial and temporal organization of information, content structuring, content interaction design and information design. Information architecture thus refers to the underlying organizational structure of a content system (text, image, video). Information architecture, while primarily used in web-based systems, can be applied to any complex informational ecosystem, in particular mobile devices such as smartphones, e-books, video games or serious games. The issue of information architecture has also been raised within the area of digital humanities, particularly with regard to digital art and culture, digital museography, the representation and staging of archeological objects…

Any information system conceived as a form of knowledge mediation raises the question of information architecture, which revolves around several main elements: systems of representation and storage, content representation methods (metadata, visual representations…), information access tools and interfaces (catalogs, bibliographic tools, browsing, search functions…) and processing functions.

Information architecture can be considered from a wide variety of perspectives (visualization, computer programming, ergonomics, semiotics, linguistics, etc.) but the particularity of the Information-Communication Science approach is its holistic view of these approaches. This special issue of Etudes de Communication aims to address the operational dimension of the concept of “information architecture”. More than a presentation of design methods and their results, this issue seeks to analyze the scientific relevance of the concept of information architecture, in a critical perspective.

We solicit proposals in the following areas:

-        The theoretical foundations of information architecture,

-        Information architecture methods and techniques,

-        Cultural issues in information architecture,

-        Development of information architecture in organizations,

-        Differentiated architecture design for different media (websites, mobile devices, graphic tablets…),

-        Digital content structuring and editing  and content strategies,

-        Organization, representation and mediation of information content,

-        Interface design and information design (conception, contextualization, evaluation, appropriation),

-        Information access, “findability”, “usability”

-        User experience,

-        Information architecture and cognitive transformations,

-        User-centered conception and evaluation methods

 

Scientific committee

Inge Alberts, Université d’Ottawa, Canada

Thierry Baccino, Lutin UserLab, Cité des Sciences et de l’industrie

Évelyne Broudoux, CNAM-INTD

Stefano Bussolon, Information Architect – Interaction Designer, Italie

Stéphane Caro Dambreville, Université de Bordeaux 3

Benoît Habert, ENS Lyon

Seth van Hooland, Université Libre de Bruxelles, Belgique

Yves Marcoux, EBSI, Université de Montréal, Canada

Jean-Guy Meunier, Université du Québec à Montréal, Canada

Sylvie Leleu-Merviel, Université de Valenciennes

Bernhard Rieder, University of Amsderdam, Pays-Bas

Jean-Michel Salaün, ENS Lyon

Emmanuel Sander, Université de Paris 8

Joachim Schöpfel, Université de Lille 3

Ismaïl Timimi, Université de Lille 3

Elaine Toms, University of Sheffield, Royaume-Uni

 

Review process

All submissions will go through a two-part review process:

1-     Submission of a 1500-2000 word abstract which should include a presentation of objectives and principle arguments, explain the originality of the paper and provide key bibliographical references,

2-     For accepted abstracts, a second evaluation will take place for final papers (30 000 characters including spaces)

Papers will be peer-reviewed by at least two anonymous referees. Instructions for authors are available at the journal homepage http://edc.revues.org/

Abstracts should be submitted in Word (.doc) or PDF and sent to the following email addresses:

ghislaine.chartron@cnam.fr

madjid.ihadjadene@univ-paris8.fr

stephane.chaudiron@univ-lille3.fr

Abstract submissions may be made in French or English. The final article should be written in French.

 

Important Dates

December 15 2012: Abstract submission deadline

January 15 2013:  Notification of acceptance

May 15 2013: Preliminary version of the papers

May 15, 2013: Final version of accepted articles due

December 2013: Publication date (paper and digital)

 

Quelle: http://dhd-blog.org/?p=1002

Weiterlesen