Internationale Konferenz “Public History of the Holocaust”

Die internationale Konferenz Public History of the Holocaust – Historical Research in the Digital Age hat die Auswirkungen des Internets auf die Holocaust-Forschung zum Thema und Möglichkeiten ihnen durch neue, digitale Forschungsinfrastrukturen zu begegnen. Sie wird am 9. Juli 2013 im jüdischen Museum in Berlin stattfinden.

Organisiert wird die die Konferenz von den Infrastrukturprojekten DARIAH (Digital Research Infrastructure for the Arts and Humanities), EHRI (European Holocaust Research Infrastructure) und TextGrid (Virtuelle Forschungsumgebung für die Geisteswissenschaften). Das Bundesministerium für Bildung und Forschung (BMBF) konnte als Förderer gewonnen werden.

Die Registrierung kann nur durch eine persönliche Einladung erfolgen. Bei Interesse melden Sie sich bitte bei Frau Dr. Heike Neuroth neuroth@sub.uni-goettingen.de.

Nähere Informationen zur Konferenz (in englischer Sprache): www.ehri-project.eu/public-history-holocaust.

Das digitale Zeitalter stellt HistorikerInnen gleichwie BesitzerInnen historischer Sammlungen vor besondere Herausforderungen – bietet aber gleichzeitig neue Möglichkeiten. Immer mehr Menschen haben durch das Internet nicht nur Zugang zu Daten, sondern können auch eigene Daten hochladen, anderen zur Verfügung stellen, analysieren und kommentieren und tragen so so einer neue (digitale) öffentliche Geschichtsschreibung bei.

Dies hat für die Holocaust-Forschung besondere Relevanz, da sie nie auf rein wissenschaftliche Forschung beschränkt war. Das Internet hat einen öffentlichen Raum geschaffen, in dem WissenschaftlerInnen zusammen mit historisch interessierten Laien zusammen Geschichte schreiben und analysieren können.

Eine zentrale Fragestellung der Konferenz wird sein, inwieweit neuartige digitale Methoden und Verfahren der Holocaustforschung Antworten auf neue und „alte“ Forschungsfragen liefern. So ist es z.B. möglich, mit Hilfe digitaler Methoden Hinweise auf die Namen der 2 Millionen noch unbekannten Opfer des Holocaust zu finden oder aber die genaue Struktur der Vernichtungslager digital zu rekonstruieren.

 

Quelle: http://dhd-blog.org/?p=1839

Weiterlesen

Publikation “Leitfaden zum Forschungsdaten-Management”

Die aus dem interdisziplinären WissGrid-Projekt entstandene Publikation “Leitfaden zum Forschungsdaten-Management” ist nun analog und digital erhältlich.

Digitale Forschungsdaten sind eine unverzichtbare Grundlage moderner Wissenschaft. Mit ihnen sind aber eine Reihe von notwendigen Datenmanagement-Aufgaben verbunden, damit sie in der aktiven Forschung bestmöglich eingesetzt werden können.

Der Leitfaden zum Forschungsdaten-Management stellt eine Checkliste und Anleitung bereit, um die wichtigsten Aufgaben und Fragen im Forschungsdaten-Management strukturiert zu beantworten und dessen Umsetzung effizient zu planen.

Die editierte Version ist analog im Verlag Werner Hülsbusch unter http://www.vwh-verlag.de/vwh/?p=814 erhältlich sowie open access und digital unter http://www.wissgrid.de/publikationen/Leitfaden_Data-Management-WissGrid.pdf verfügbar. Die nicht-editierten Versionen der WissGrid-Ergebnisse stehen auch weiterhin auf der Projekt-Homepage bereit.

Quelle: http://dhd-blog.org/?p=1477

Weiterlesen

DH in den Medien: Die FAZ über Digitale Geschichtswissenschaft

Wenn in den Medien über DH berichtet wird, startet meine Rezeption immer mit gemischten Gefühlen: Freude, dass wargenommen wird, woran man arbeitet und was einen selbst interessiert; Sorge, ob ein sinnvoller Bericht dabei herauskommt und ob der Journalist oder die Journalistin auch verstanden hat, wovon er oder sie schreibt. Beim Lesen des Artikels “Mittel auf der Suche nach einem Zweck” von Thomas Thiel, FAZ, 11.2.2013, überwiegt die Freude über eine gelungene Annäherung an ein nicht ganz einfaches Thema: der zunehmende Einsatz digitaler Verfahren in den Geschichtswissenschaften und die daraus resultierenden Auswirkungen auf die Methodik und die Praxis der Geschichtsforschung bzw. Geschichtsschreibung. Am Rande rührt das natürlich auch an einer der Grundfragen, die uns wohl alle hier umtreiben: Helfen digitale Werkzeuge bei der besseren Beantwortung alter Fragen? Führen sie zu einer Veränderung der Fragestellungen? Legen sie ganz neue Fragen nahe?

Am Beispiel der Tendenz zu quantifizierenden, jedenfalls aber formalisierten Untersuchungen, die sich hier vor allem auf Textmining und Textanalyse beziehen und für den Bereich der historischen Forschung wird dies zumindest angedeutet. Dabei ist klar, dass im Mainstream der Forschung und in der journalistischen Berichterstattung zunächst nur die einfachsten Verfahren ankommen: hier das Vorkommen oder gemeinsame Vorkommen (Co-Occurence) von Wörtern in Textkorpora. Dass dabei eine gewisse Neuheit behauptet werden muss, ist der Logik des Journalismus geschuldet. Den durchschnittlichen FAZ-Leser wird schließlich nicht so sehr interessieren, dass genau diese Fragen auch schon Pater Busa vor 60 Jahren beim Aufbau seines Index Thomisticus angetrieben haben, dass sich seit Jahrzehnten die Digital Humanities und Spezialbereiche wie die Computerlinguistik oder die in den 80er und 90er Jahren des vergangenen Jahrhunderts schon einmal in Blüte gestanden habende quantifizierende Geschichtsforschung mit diesen Verfahren beschäftig(t)en und dabei theoretisch, methodisch und in der Werkzeugentwicklung sehr viel weiter als bis zum einfachen Auszählen von Co-Occurences gekommen sind.

Eine anderes – leider nicht nur journalistisches – Wahrnehmungsmuster, das in einem Blog über Digital Humanities wohl thematisiert werden kann, ist die Unschärfe bzw. Ignoranz gegenüber dem Fachbereich, der diese Wandlungen auf der Entwicklungsseite vorantreibt: den Digital Humanities. Diese kommen in dem Artikel nämlich überhaupt nicht vor. Statt dessen scheint es (einmal mehr) so, als ob Methoden und Werkzeuge entweder einfach “da” sind und in den Geisteswissenschaften nur aufgegriffen werden, oder dass sie – wie es am vorgestellten Projekt “Historical Semantic Corpus Management (HSCM)” beschrieben – in Zusammenarbeit mit (wörtlich: “assistiert von”) einem “Informatiker” entwickelt würden. Dabei wird unterschlagen, dass es eben nicht die allgemeine Informatik ist, die die informatische Wende in den Geisteswissenschaften ermöglicht, sondern mit den Digital Humanities eine eigene Disziplin, die von manchen zwar als “Fachinformatik” klassifiziert wird, deren Wesen damit aber nur unzureichend zu fassen ist. Dabei reicht ein Blick auf die Webseite des Historical Semantic Corpus Management (HSCM), um zu sehen, dass das Projekt sich sogar selbst als “Digital Humanities Project” bezeichnet. Dort ist dann zwar die Rede von einer Zusammenarbeit zwischen “humanities and informatics”. Die “informatics”-Seite wird dann aber vertreten von Alexander Mehler und der hat eben keinen Abschluss in “Informatik”, sondern “graduated in computational linguistics [... and] got his PhD in computational linguistics” (so seine Website) – und das ist ja auch gut so, wenn man eben Verfahren zum Text-Mining in historischen Korpora braucht.

Quelle: http://dhd-blog.org/?p=1398

Weiterlesen

Wie schreibt man DH richtig? II

DH ernst zu nehmen, scheint mir gerade als Geisteswissenschaftler ein höchst selbstreferentieller Prozess zu sein (s.a. meinen Beitrag zu Open Access http://dhd-blog.org/?p=673). Nachdem die Kulturtechnik Lesen unter Titeln wie distant reading (Moretti), hyperreading (Sosnoski) oder maschine reading (Hayles) umfassend thematisiert wurde, verwundert es ein wenig, dass bisher dem Schreiben vergleichsweise wenig Aufmerksamkeit zuteil wurde, auch wenn natürlich die Literatur z.B. zu Markup mittlerweile Legion ist. Es ist aber m.E. ein Unterschied, ob man vorhandenene Texte “editorisch” mit Markup versieht oder ob man selbst Texte nicht mehr layoutbasiert, sondern strukturell schreibt, eben Texte, die den Anforderungen einer computergestützten Geistes- und Kulturwissenschaft genügen.

In der Theorie weiss man natürlich, dass Word-Dateien mit Blick auf ihre maschinelle Nachbearbeitung und -nutzung enge Grenzen haben und dass es besser wäre, statt dem WYSIWYG Prinzip zu huldigen, sich wieder auf Textstrukturen und – bedeutung zu besinnen. Nun ist WYSIWYG ein süßes Gift und hat viel dazu beigetragen, den Computer in den Geisteswissenschaften zu etablieren. Diese Leichtigkeit des Schreibens in Frage zu stellen und WORD z.B. mit einem XML Editor wie oXygen zu vertauschen, ist denn auch ein Schritt, den viele unserer Zunft vermutlich scheuen werden, und doch scheint mir genau dieser Schritt zum Strukturellen Schreiben, wie ich es nennen möchte, unverzichtbar, um das volle Potential der DH ausschöpfen zu können. Ich habe mich daher in einem Beitrag im Bibliotheksdienst (s. vor allem den ersten Teil DOI 10.1515/bd-2013-0005) einmal mit dieser Frage auseinandergesetzt und versucht “basale” Strukturen für das strukturelle Schreiben, oder wie man es nennen möchte, zu identifizieren. Das Pikante daran ist natürlich, dass,  wenn man schon über Strukturelles Schreiben “schreibt”, dann es auch füglich selbst tun sollte. Ich hatte daher dem Verlag abbedungen, den Beitrag nicht mit einer moving wall zu belegen, sondern ihn unter einer CC BY-SA Lizenz zu veröffentlichen und bereitete zeitgleich eine alternative Publikation vor, die mitttlerweile auch vorliegt (vgl http://diglib.hab.de/ebooks/ed000149/start.htm). Unterdessen hat aber auch der Verlag den Text online gestellt (DOI s.o.). Dies nun ist interessant, denn wenn man die beiden Versionen vergleicht, wird unmittelbar deutlich, warum online allein nicht ausreicht (auch wenn OA ein Wert an sich ist), und es einer intensiveren Bemühung um den Text bedarf, um ihn wirklich nutzbar zu machen. Augenfällig ist, dass z.B. die Links fehlen.  Sie sind in dem Beitrag auf der Verlagsseite allesamt nicht clickbar. Überhaupt hinterlässt er einen etwas lieblosen Eindruck. Das Entscheinde liegt aber unter der Oberfläche dieser Version, die unter “strukturellen Gesichtspunkten”(Markup)  gänzlich ungenügend ist. Z.B. würde man sich zu Schlagworten und Personen GND Nummern wünschen. Diese habe ich in meiner Version ergänzt (wenn auch noch nicht sichtbar gemacht). Sie stecken im XML Quelltext (http://diglib.hab.de/ebooks/ed000149/BD-2013-01.xml) und werden später vor allem in übergreifenden Suchalgorithmen ausgewertet werden (zum Einsatz wird die DB eXist kommen). Mit Blick auf zukünftige Szenarien der Nachnutzung im semantic web habe ich zudem einige grundlegende Dinge, wie Titel, Autor, Schlagworte mit RDFa markiert,. z.B. <span property=”dc:title”>Wie schreibt man Digital Humanities richtig…<span> (eine gut verständliche Einführung zu RDFa findet sich hier:http://www.w3.org/TR/xhtml-rdfa-primer/). Nebenbei habe ich auch versucht diesen Blockbeitrag zu “semantisieren”, was allerdings fehlschlug, weil WordPress Attribute wie @property aus den Tags zu entfernen scheint. Aber vielleicht hat dazu jemand eine Idee?

Das Besondere und die Herausforderung, in dieser Art zu schreiben, liegt darin, dass man sich ständig reflexiv mit dem Text auseinander setzen muss. Besonders schwierig ist dabei die Frage, in welcher Tiefe und Granularität Texte ausgezeichnet werden müssen und sollen. Hier bedarf es sicher weiterer Erfahrungen und auch einer gewissen Kanonisierung. Da sich in einem Webumfeld auch die Lineariät des Textes nicht mehr selbstverständlich versteht, muss man als Autor die Visualisierung des Textes im Auge behalten, – und hier gilt es, nicht nur mit Landow an die hypertextuellen Strukturen zu denken (Verlinkungen zu anderen Texten oder Gegenständen), sondern auch an Dinge wie z.B. ein zu- und aufklappbares Inhaltsverzeichnis und Abstrakt. Die Dinge werden also komplizierter, aber, so meine Überzeugung, die Möglichkeiten des strukturellen Schreibens erhöhen auch die Sichtbarkeit, Funktionalität und Nachnutzbarkeit elektronischer Publikationen und ebenen den Weg zu einem semantic web, das auch Forschungsliteratur auf verschiedenen Ebenen des Textes integriert.

 

Quelle: http://dhd-blog.org/?p=1370

Weiterlesen

DH Award 2012 Nominee: Totenbuch-Visualisierung

Bei den aktuellen DH Awards (jeder ist aufgerufen, mit abzustimmen!) sind betrüblicherweise nur 2,5 Kandidaten aus dem deutschprachigen Raum nominiert. Neben dem Blog von Anne Baillot, der immerhin in Berlin “spielt” sind das das Institut für Dokumentologie und Editorik (IDE) und – für die Kategorie “Best DH visualization or infographic” – eine Visualisierung aus dem “Totenbuch-Projekt” der Universität Bonn, welches von der Nordrhein-Westfälischen Akademie der Wissenschaften gefördert und vom Cologne Center for eHumanities (CCeH) DH-seitig begleitet wird. Die Visualisierung ist ein recht komplexes “Ding” so dass es sich vielleicht lohnt, auch hier noch einmal ein paar erklärende Worte dazu zu verlieren.

Totenbuch-Gesamtvisualisierung

Worum geht es? Es geht um das altägyptische Totenbuch. Das altägyptische Totenbuch ist ein Textkorpus. Eine Sammlung von Sprüchen, die über einen langen Zeitraum hinweg immer wieder zusammengestellt und aufgeschrieben wurden, um sie einem/r Verstorbenen mit ins Grab zu geben auf dass die Sprüche ihm oder ihr beim Übergang in das Reich der Toten helfen mögen. Das Totenbuch-Projekt dokumentiert die überlieferten Textzeugen (ca. 3000 Totenbücher mit ca. 30.000 einzelnen Spruchnachweisen) und leistet Grundlagenarbeit für die weitere Erforschung des Totenbuchs. Dazu gehört auch, dass man sich einen Gesamteindruck von den einzelnen Sprüchen und ihrer Überlieferung verschaffen möchte.

Häufig und selten überlieferte Sprüche

Die hier zu diskutierende Grafik zeigt zunächst die von der Forschung “kanonisierten” Sprüche in ihrer kanonisierten Reihenfolge. Dabei steht jeder blaue Punkt für einen Spruch. Die Größe des Punktes steht für die Häufigkeit der Überlieferung des Spruches. Man erkennt auf einen Blick, welche Sprüche und Spruchgruppen breit überliefert sind und welche nicht.

Innerhalb des digitalen Textzeugenarchivs als Web-Präsentation des Projekts wird ausgiebig Gebrauch von Visualisierungen gemacht, um die Strukturen und die quantitativen Eigenschaften der überlieferten Textzeugen zu veranschaulichen. Bei dieser Grafik steht eine speziellere Fragestellung im Hintergrund, die einen Schritt in die eher analytische Dimension der Visualisierung markiert. Die Frage lautet: Entspricht die durch die Forschung etablierte kanonische Ordnung der Sprüche (die hauptsächlich auf einem Leitzeugen beruht) der Wirklichkeit der Gesamtüberlieferung? Wie gut entspricht sie ihr? Und wie kanonisch ist die Abfolge der Sprüche auf den Textzeugen wirklich?

Dazu visualisiert die Grafik die Nachbarschaftsverhältnisse zwischen Sprüchen. Es wird ausgezählt, wer die Nachbarn eines Spruches auf einem Textzeugen sind. Auf den überlieferten Objekten häufig benachbarte Sprüche werden in der Grafik durch Linien verbunden. Je dicker die Linie, desto häufiger ist eine Nachbarschaft belegt. Gäbe es eine deterministische Reihenfolge im Textkorpus, dann gäbe es nur eine einzige Verbindungslinie durch alle Sprüche. Wäre die Reihenfolge ganz beliebig, dann gäbe es eine große Zahl unterschiedlichster Verbindungslinien zwischen den Sprüchen. Die Gesamtvisualisierung liefert hier ein recht deutliches Signal: wenn man bedenkt, dass die Überlieferung einen langen Zeitraum (2.300 Jahre), eine große geografische Spannweite (17 Breitengrade), unterschiedlichste materielle Objekte (von Papyrus über Mumienbinden bis zu Grabinschriften) und verschiedenste Überlieferungszustände umfasst, dann ist die Abfolge als durchaus wenig variant zu betrachten. Und sie steht zunächst nicht im Widerspruch zu der Abfolge, mit der die Forschung selbst arbeitet. Ein genauerer Blick kann aber weitere Fragen anstoßen, die diesen Gesamteindruck bestätigen oder relativieren.

Scheinausreißer

Schnell fallen dabei einige dicke Linien auf, die der These einer relativ festen Abfolge zu widersprechen scheinen. Dies ist aber manchmal darauf zurückzuführen, dass aus inhaltlichen Gründen im Projekt Sprüche zusammengelegt wurden, die einen ähnlichen Text bieten. Die stärkste Verbindung von Spruch 47 scheint z.B. nach oben ganz woanders hin zu gehen, tatsächlich zielt sie aber auf Spruch 10/48. Hätte man die beiden nicht zusammengelegt, dann wäre die Reihe durchaus intakt. Das gleiche gilt für die nach unten gehende Linie bei Spruch 50, die auf Spruch 11/49 zielt.

Was ist hier los?

Andere Fälle erklären sich nicht in der gleichen Weise von selbst. So ist die Reihung von 136 zu 137 möglicherweise fragwürdig. Denn ein unmittelbarer Nachbar von 136/136A bzw 136B ist nur in 14 Fällen Spruch 137. Dagegen folgt auf 136B allein 49 mal Spruch 149 und auf 136/136A allein 47 mal Spruch 138 oder 139. Allerdings bedeutet das immer noch nicht, dass eine andere Reihung zu einem “glatteren” System führen würde. Hier wäre vielleicht in einem nächsten Schritt eine differenziertere Untersuchung anzusetzen, die z.B. Zeitstufen oder andere Gruppierungsmerkmale in den Blick nehmen könnte, um der Sache auf den Grund zu gehen.
Dies sind nur willkürliche Beispiel dafür, wie die Gesamtgrafik gelesen werden kann. Sie kann nichts weiter sein als ein ersten Schritt zu einem Verständnis der Gesamtstruktur und erste Einblicke in Details bieten. Dazu bedient sie sich mit der Berücksichtigung nur unmittelbarer Nachbarschaften eines sehr einfachen Modells, das methodisch durchaus fragwürdig ist und ggf. weiter zu verfeinern wäre.
Eines der hier leitenden Designziele ist das Konzept von “Overview & Detail”: man will zugleich einen Gesamteindruck herstellen UND bei näherer Betrachtung (am Bildschirm muss man wohl vom “reinzoomen” sprechen) immer feinere Details erkennbar machen. Das hat, wenn man es konsequent verfolgt, durchaus Nachteile und Kosten: Die Grafik ist recht groß. Zu groß für einen Monitor. Das aber ist Absicht. Es geht um eine Gesamtvisualisierung mit dem Potential für lokale Detailstudien.

Das Ding in meiner Küche

Das Ding im Besprechungsraum

Deshalb war das Ziel von Anfang an nicht eine Darstellung in den Grenzen eines Browserfensters. Tatsächlich sind die größeren Fassungen auch gar nicht vollständig in normalen Browserfenstern darstellbar, weil z.B. Firefox nur ein 7-faches Herauszoomen ermöglicht – und damit ist man immer noch nicht weit genug weg. Die Grafik ist trotzdem auf eine Breite von 210cm ausgelegt worden. Denn hier geht es nicht nur um die Digitalisierung einer materiellen Überlieferung, sondern auch um die Materialisierung digitaler Daten! Die Grafik funktioniert am Bildschirm als Werkzeug für Detailstudien. Hier offenbart auch jede Verbindungslinie beim onmouseover Start- und Endpunkt sowie die absoluten Fallzahlen. Für das Paradigma des Overview&Detail aber muss man seinen Schreibtischstuhl verlassen und die Maus loslassen. Ihre eigentliche heuristische Kraft entfaltet “die Tür”, wie wir den Ausdruck auf einer Forex-Platte nennen erst, wenn man sich vor sie stellt, sie abschreitet und vor- und zurücktritt. Erst diese körperliche Auseinandersetzung mit dem materiellen Objekt, sei es (derzeit, leihweise) in meiner Küche oder im Besprechungsraum des Instituts, entspricht der Informations- und Interaktionsintention der Visualisierung.

Die Menschen dahinter? Die Programmierung lag bei Ulrike Henny, ausgehend von und in einem Prozess der Konzeption und Diskussion mit anderen Kollegen vom CCeH. Wirklich “gemacht” haben aber vor allem die Daten, auf denen alles beruht, eine große Zahl ägyptologischer Fachwissenschaftler, zuletzt unter der Leitung von Marcus Müller, die alle Informationen in den letzten 20 Jahren zusammengetragen haben. Ohne diese Arbeit wüssten wir nichts und könnten nichts sehen.

Die Technik dahinter? Eine xQuery-Abfrage auf den Daten in einer XML-Datenbank (eXist) schreibt eine SVG …

Ausgangsdaten, lokales XML

xQuery schreibt …

… SVG (reduziert)

Quelle: http://dhd-blog.org/?p=1315

Weiterlesen

Berliner Gespräche zur Digitalen Kunstgeschichte

Am 30. November 2012 finden die ersten Berliner Gespräche zur Digitalen Kunstgeschichte am Institut für Kunst- und Bildgeschichte (IKB) der Humboldt-Universität zu Berlin statt.

Thema wird Bildannotation sein, es werden diverse bekannte und unbekanntere Tools vorgestellt werden.

Da nur noch wenige Plätze frei sind, wird um eine kurze Anmeldung bei Georg Schelbert gebeten.

Termin: 30.11.2012, 10:00-16:30 Uhr
Ort: Institut für Kunst- und Bildgeschichte (IKB) der Humboldt-Universität zu Berlin
Raum 0.12
Georgenstraße 47
D-10117 Berlin

Quelle: http://dhd-blog.org/?p=1096

Weiterlesen

Trancribe Bentham in a Panopticon: verspätete Berichterstattung zum Vortrag von Philipp Schofield im Rahmen der Darmstädter Ringvorlesung am 8.11.

Text von Jörg Lehning, TU Darmstadt

Im Rahmen der Ringvorlesung “Digital Humanities” war Philip Schofield, Leiter des Bentham-Projektes und General Editor der Gesammelten Werke Jeremy Benthams zu Gast und erfreute die interessierten Hörerinnen und Hörer mit seinem Vortrag “Transcribe Bentham – An experiment in scholarly crowdsourching”.

Das (im Übrigen preisgekrönte) interdisziplinäre Bentham-Projekt ist ein großartiges Beispiel für ein wissenschaftliches Projekt, das mit den neuen Technologien zusammenwächst. Das “scholarly crowdsourcing”, was man vielleicht mit “wissenschaftliche Bearbeitung durch unwissenschaftliche Mengen” etwas wenig elegant umschreiben könnte, ist hierbei ein elementarer Baustein des Projekts.

Wie Schofield ausführte, sei es auch in diesem Projekt zunächst wichtig, Ziele zu definieren. In diesem Fall sei das die Erstellung einer neuen gedruckten Edition gewesen, ein weiteres, dass diese kostengünstig sein sollte.

Bentham, so Schofield, hätte den technologischen Fortschritt mit offenen Armen begrüßt, und das nicht nur, weil er zeitlebens Technik zur Vereinfachung von Arbeitsabläufen erfunden hatte, sondern auch, weil er mit ihr seine Ideen wesentlich besser hätte umsetzen können.

Das Computerzeitalter wäre mitunter auch hilfreich, veraltete oder nicht hilfreiche Strukturen zu überwinden, meinte Schofield mit Blick auf diverse alte Regularien (Oxford Standard of storage rules), etwas was auch in den Debatten um die Definition der Digital Humanities eine Rolle spielt.

Die Bentham Dokument Datenbank, die von 2003-2006 bearbeitete Dokumente bereitstellt, ist eine zentrale Quelle für Metadaten, die von Editoren und Forschern genutzt werden kann.
Die Technik hat jedoch nicht nur Vorteile: im Rahmen des Arbeitsablaufs wird durch einen wissenschaftlichen Mitarbeiter die Qualität der fertig bearbeiteten Dokumente geprüft, bevor sie hochgeladen werden können. Die Erfahrung zeigt hier, dass händisches XML/TEI-Tagging zu steigender Fehlerzahl und somit auch zu steigendem Zeitverbrauch führen kann. Aber: Die Probleme mit der Technik können mitunter auch durch die Technik behoben werden, so z.B. durch das Interface, das die Text-XML-TEI-Erstellung erleichtert und somit die menschlichen Fehlerquellen in diesem Fall umgeht.

Mitarbeiter werden bei Wunsch genannt und bekommen auch Rückmeldung zu ihrer Arbeit. Von den Transkripten werden 95% von sogenannten “super-transcribers” bearbeitet. Bemerkenswert ist, dass viele der “User”, die an dem Projekt arbeiten, gar nicht unbedingt an Bentham interessiert waren und sind, sondern vor allem die Art der Arbeit im Rahmen des Projekts interessant fanden. Auch die digitale Komponente schien zu reizen.

Projekte wie dieses haben als limitierende Faktoren oft Zeit und Komplexität. Wirtschaftliche Argumente für diese Projekte sind wichtig, wenn es darum geht, sie überhaupt in die Tat umzusetzen. Die ökonomische Rechtfertigung kann hier darin bestehen, dass die Methode des “scholarly crowdsourcing” kosteneffizient ist, z.B. im Vergleich zu bezahlten Forschern.

Abschließend stellte sich Schofield Fragen nach der Berechtigung und dem Erfolg des Projekts und kam zu dem Schluss, dass es ein Erfolg sei, weil Bedarf daran besteht und es wissenschaftlich fundiert sei. Die digitalen Geisteswissenschaften indes würden das Projekt dazu zwingen, die Funde auch mit neuen Methoden aufzubereiten und zu präsentieren.

Fragen hinsichtlich der Existenzberechtigung des Projektes beinhalten die Überprüfung der Zielsetzung Druck im Hinblick auf Ideen und Modelle der “freien Information”. So taucht zum Beispiel die Frage auf, ob nicht nur noch eine editierte Fassung online stehen soll, die die gedruckte Ausgabe ersetzt. Hier stehen sich die Punkte Kosteneffektivität und beständige, gesicherte Referenz durch physikalische Permanenz gegenüber.

Follow us on Twitter: @DHDarmstadt @RappAndrea #DHDarmstadtLecture

Am 22.11.2012 ist Martin Wynne (Oxford University) zu Gast: “Corpus and Text Analysis for Research in the Humanities”; 18.00 Uhr s.t., Schloss, Raum 36. Gäste sind herzlich willkommen.

Quelle: http://dhd-blog.org/?p=1077

Weiterlesen

Call for Papers For a special issue of the Journal « Etudes de communication » n° 41 « Information Architecture : a useful and operational concept ?

Journal website : http://edc.revues.org/

Coordinated by: Ghislaine Chartron (DICEN, CNAM-INTD), Stéphane Chaudiron (GERiiCO, University of Lille 3) and Madjid Ihadjadene (Paragraphe, University of Paris 8)

In 1976, graphic designer Richard Saul Wurman introduced the concept of “Information architecture” in response to the ever-increasing quantity of information produced and exchanged in contemporary society : « I thought the explosion of data needed an architecture, needed a series of systems, needed systemic design, a series of performance criteria to measure it ». In 1986, James C. Brancheau and James C. Wetherbe published “Information architectures : Methods and practice” in the journal Information Processing & Management. The authors use the concept to refer to a profile of corporate information categories, used to assess organizational information needs. In 1996, Louis Rosenfeld and Peter Morville published “Information Architecture for the World Wide Web” and became the pioneers in the field of organizing information in websites, intranets and software applications to help users fulfill their needs.

The concepts of information architecture and information architect are therefore not new. These concepts have been modified and adapted over the past several decades, and today there is renewed interest in the field of information architecture, especially in North America, where information architects have created an association, the IA Institute (IAI). In information architecture, three types of competencies seem to stand out: technical design, content organization and web design, which has been particularly emphasized in recent years.

By analogy with the physical architecture of buildings designed in the real world, information architecture concerns the spatial and temporal organization of information, content structuring, content interaction design and information design. Information architecture thus refers to the underlying organizational structure of a content system (text, image, video). Information architecture, while primarily used in web-based systems, can be applied to any complex informational ecosystem, in particular mobile devices such as smartphones, e-books, video games or serious games. The issue of information architecture has also been raised within the area of digital humanities, particularly with regard to digital art and culture, digital museography, the representation and staging of archeological objects…

Any information system conceived as a form of knowledge mediation raises the question of information architecture, which revolves around several main elements: systems of representation and storage, content representation methods (metadata, visual representations…), information access tools and interfaces (catalogs, bibliographic tools, browsing, search functions…) and processing functions.

Information architecture can be considered from a wide variety of perspectives (visualization, computer programming, ergonomics, semiotics, linguistics, etc.) but the particularity of the Information-Communication Science approach is its holistic view of these approaches. This special issue of Etudes de Communication aims to address the operational dimension of the concept of “information architecture”. More than a presentation of design methods and their results, this issue seeks to analyze the scientific relevance of the concept of information architecture, in a critical perspective.

We solicit proposals in the following areas:

-        The theoretical foundations of information architecture,

-        Information architecture methods and techniques,

-        Cultural issues in information architecture,

-        Development of information architecture in organizations,

-        Differentiated architecture design for different media (websites, mobile devices, graphic tablets…),

-        Digital content structuring and editing  and content strategies,

-        Organization, representation and mediation of information content,

-        Interface design and information design (conception, contextualization, evaluation, appropriation),

-        Information access, “findability”, “usability”

-        User experience,

-        Information architecture and cognitive transformations,

-        User-centered conception and evaluation methods

 

Scientific committee

Inge Alberts, Université d’Ottawa, Canada

Thierry Baccino, Lutin UserLab, Cité des Sciences et de l’industrie

Évelyne Broudoux, CNAM-INTD

Stefano Bussolon, Information Architect – Interaction Designer, Italie

Stéphane Caro Dambreville, Université de Bordeaux 3

Benoît Habert, ENS Lyon

Seth van Hooland, Université Libre de Bruxelles, Belgique

Yves Marcoux, EBSI, Université de Montréal, Canada

Jean-Guy Meunier, Université du Québec à Montréal, Canada

Sylvie Leleu-Merviel, Université de Valenciennes

Bernhard Rieder, University of Amsderdam, Pays-Bas

Jean-Michel Salaün, ENS Lyon

Emmanuel Sander, Université de Paris 8

Joachim Schöpfel, Université de Lille 3

Ismaïl Timimi, Université de Lille 3

Elaine Toms, University of Sheffield, Royaume-Uni

 

Review process

All submissions will go through a two-part review process:

1-     Submission of a 1500-2000 word abstract which should include a presentation of objectives and principle arguments, explain the originality of the paper and provide key bibliographical references,

2-     For accepted abstracts, a second evaluation will take place for final papers (30 000 characters including spaces)

Papers will be peer-reviewed by at least two anonymous referees. Instructions for authors are available at the journal homepage http://edc.revues.org/

Abstracts should be submitted in Word (.doc) or PDF and sent to the following email addresses:

ghislaine.chartron@cnam.fr

madjid.ihadjadene@univ-paris8.fr

stephane.chaudiron@univ-lille3.fr

Abstract submissions may be made in French or English. The final article should be written in French.

 

Important Dates

December 15 2012: Abstract submission deadline

January 15 2013:  Notification of acceptance

May 15 2013: Preliminary version of the papers

May 15, 2013: Final version of accepted articles due

December 2013: Publication date (paper and digital)

 

Quelle: http://dhd-blog.org/?p=1002

Weiterlesen

Informationsinfrastrukturen im Wandel …

Der diesjährige Historikertag wartete mit der erfreulichen Neuerung auf, eine eigene HauptkategorieeHumanities” zu führen, in der jeden Tag mindestens eine Session verortet war. Am Freitag, den 28.9.2012 gab es eine fast vierstündige Sektion unter dem Titel “Informationsinfrastrukturen im Wandel: Zur Vergangenheit, Gegenwart und Zukunft der Informationsverarbeitung in historischer Lehre und Forschung“. Nach einer Reihe von “Impulsreferaten” wurde zunächst mit den Referenten diskutiert, bevor es eine allgemeine Podiumsdiskussion mit anderen Podianten als Vertretern verschiedener Teilbereiche der geschichtswissenschaftlichen Ökosystems (Historiker, Doktoranden, Bibliothekare, Portalbetreiber, Verleger) gab.

Leider hatten alle Teile wenig bis gar nichts mit dem zu tun, was ich selbst unter Informationsinfrastrukturen (geschweige denn in Gegenwart und Zukunft) verstehen würde. Das Thema wurde also eher “implizit” bearbeitet, wenn über die Arbeit des Historikers und die digitalen Wandlungen dieser Arbeit diskutiert wurde. Wenn ich eigens nach Mainz gereist war, um als jemand, der in einem Infrastrukturprojekt beschäftigt ist, etwas über die Sicht der historisch arbeitenden Fachkollegen auf Infrastrukturen zu erfahren, so blieb der Erkenntnisgewinn zu dieser Frage eher gering. Dafür scheinen mir zwei andere Details berichtenswert, die ich hier rein willkürlich herausgreifen möchte und die nicht für die Gesamtheit der Veranstaltung und der Beteiligten stehen.

Zum Einen wurde von Christoph Cornelißen beiläufig darauf hingewiesen, dass die (nicht zuletzt von Peter Haber) viel diskutierten Beschreibungsmuster der Wissenschaftler in der digitalen Welt als “digital immigrants” und als “digital natives” natürlich zu ergänzen sind um die größte, möglichwerweise nicht nur gefühlt 90% umfassende Gruppe der “digital ignorants” – die man bei einer systematischen Betrachtung der gegenwärtigen Wissenschaftstransformation ebenfalls unter die Lupe nehmen müsste. Zum anderen wurde mal wieder (und: ja, ich mache das auch öfters) die Monstranz des “Wir müssen die wissenschaftliche Qualität sichern und die wissenschaftlichen Qualitätsstandards bewahren” aus dem Tabernakel geholt. Dabei ist es immer das gleiche: Die Monstranz wird gezeigt, es wird aber nicht weiter darauf eingegangen, worin die postulierten Qualitäten eigentlich bestehen und wie sie zu sichern, geschweige denn zu prüfen wären. Dass “wissenschaftliche Qualität” in der freien Wildbahn praktisch nur als vage Selbstzuschreibung und als Verteidigungsbegriff gegen alles Andere und Neue vorkommt, ließ sich auch hier wieder eindrücklich beobachten. Pauschal wurde da z.B. von einem auf dem digitalen Feld zu beobachtenden “Wildwuchs” der Angebote gesprochen, die die traditionellen Qualitätsstandards unterlaufen würden und denen gegenüber “Qualitätserfordernisse” definiert werden müssten (was sicher nicht schaden kann). Immerhin mündete der sporadische Verweis auf die Digital Humanities nicht in ein allgemeines DH-bashing, nachdem Charlotte Schubert auf das hohe Maß der Selbstreflexion in den DH verwiesen hatte.

Eine sonderbare Note bekam die Rede über die Qualitätsicherung im historischen Feld allerdings auch dadurch, dass als Grundlage der vorgetragenen Gedanken eine “Diskussion an der Hotelbar am gestrigen Abend” referenziert wurde und dass bemängelt wurde, dass man heute kaum noch einen Vortrag halten könne, ohne dass im Publikum online recherchiert würde, ob der Vortragende auch wirklich keinen Unsinn erzählt (und ich dachte, DAS sei ein Zeichen von Qualitätssicherung). Die reklamierte Qualität der vortragenden Wissenschaftler erscheint so als eine, die sich gerade nicht überprüfen lassen will. Dazu passend wurden dann auch “Freiräume” für den Geisteswissenschaftler reklamiert, die “von elektronischer Beobachtung frei” sein sollten. Die Apologie der digitalen Ignoranz gipfelte im Ausruf, dass man auch heute noch “hervorragende Geschichtswerke ohne das Internet schreiben” könne. Das ist sicher richtig, wenn die historische Erkenntnis rein und vollständig aus den persönlich konsultierten Quellen, aus der Beschäftigung mit der älteren Literatur oder unmittelbar von Gott kommt. Sollte sie allerdings auch auf einem wissenschaftlichen Diskurs gründen, der im Hier und Jetzt stattfindet und der sich nun einmal auch der gegenwärtigen Technologien und Medien bedient, dann wird man die Prozesse der Erkenntnisgewinnung und ihre Qualitätsabschätzung doch etwas differenzierter betrachten müssen. Selbst angelegte Scheuklappen scheinen dann eine eher schlechte Basis für “hervorragende” Wissenschaft zu sein. Und wieso aus Ignoranz Qualität entstehen soll, werde ich vielleicht auch erst später begreifen …

Quelle: http://dhd-blog.org/?p=915

Weiterlesen