Berliner Gespräche zur Digitalen Kunstgeschichte

Am 30. November 2012 finden die ersten Berliner Gespräche zur Digitalen Kunstgeschichte am Institut für Kunst- und Bildgeschichte (IKB) der Humboldt-Universität zu Berlin statt.

Thema wird Bildannotation sein, es werden diverse bekannte und unbekanntere Tools vorgestellt werden.

Da nur noch wenige Plätze frei sind, wird um eine kurze Anmeldung bei Georg Schelbert gebeten.

Termin: 30.11.2012, 10:00-16:30 Uhr
Ort: Institut für Kunst- und Bildgeschichte (IKB) der Humboldt-Universität zu Berlin
Raum 0.12
Georgenstraße 47
D-10117 Berlin

Quelle: http://dhd-blog.org/?p=1096

Weiterlesen

Trancribe Bentham in a Panopticon: verspätete Berichterstattung zum Vortrag von Philipp Schofield im Rahmen der Darmstädter Ringvorlesung am 8.11.

Text von Jörg Lehning, TU Darmstadt

Im Rahmen der Ringvorlesung “Digital Humanities” war Philip Schofield, Leiter des Bentham-Projektes und General Editor der Gesammelten Werke Jeremy Benthams zu Gast und erfreute die interessierten Hörerinnen und Hörer mit seinem Vortrag “Transcribe Bentham – An experiment in scholarly crowdsourching”.

Das (im Übrigen preisgekrönte) interdisziplinäre Bentham-Projekt ist ein großartiges Beispiel für ein wissenschaftliches Projekt, das mit den neuen Technologien zusammenwächst. Das “scholarly crowdsourcing”, was man vielleicht mit “wissenschaftliche Bearbeitung durch unwissenschaftliche Mengen” etwas wenig elegant umschreiben könnte, ist hierbei ein elementarer Baustein des Projekts.

Wie Schofield ausführte, sei es auch in diesem Projekt zunächst wichtig, Ziele zu definieren. In diesem Fall sei das die Erstellung einer neuen gedruckten Edition gewesen, ein weiteres, dass diese kostengünstig sein sollte.

Bentham, so Schofield, hätte den technologischen Fortschritt mit offenen Armen begrüßt, und das nicht nur, weil er zeitlebens Technik zur Vereinfachung von Arbeitsabläufen erfunden hatte, sondern auch, weil er mit ihr seine Ideen wesentlich besser hätte umsetzen können.

Das Computerzeitalter wäre mitunter auch hilfreich, veraltete oder nicht hilfreiche Strukturen zu überwinden, meinte Schofield mit Blick auf diverse alte Regularien (Oxford Standard of storage rules), etwas was auch in den Debatten um die Definition der Digital Humanities eine Rolle spielt.

Die Bentham Dokument Datenbank, die von 2003-2006 bearbeitete Dokumente bereitstellt, ist eine zentrale Quelle für Metadaten, die von Editoren und Forschern genutzt werden kann.
Die Technik hat jedoch nicht nur Vorteile: im Rahmen des Arbeitsablaufs wird durch einen wissenschaftlichen Mitarbeiter die Qualität der fertig bearbeiteten Dokumente geprüft, bevor sie hochgeladen werden können. Die Erfahrung zeigt hier, dass händisches XML/TEI-Tagging zu steigender Fehlerzahl und somit auch zu steigendem Zeitverbrauch führen kann. Aber: Die Probleme mit der Technik können mitunter auch durch die Technik behoben werden, so z.B. durch das Interface, das die Text-XML-TEI-Erstellung erleichtert und somit die menschlichen Fehlerquellen in diesem Fall umgeht.

Mitarbeiter werden bei Wunsch genannt und bekommen auch Rückmeldung zu ihrer Arbeit. Von den Transkripten werden 95% von sogenannten “super-transcribers” bearbeitet. Bemerkenswert ist, dass viele der “User”, die an dem Projekt arbeiten, gar nicht unbedingt an Bentham interessiert waren und sind, sondern vor allem die Art der Arbeit im Rahmen des Projekts interessant fanden. Auch die digitale Komponente schien zu reizen.

Projekte wie dieses haben als limitierende Faktoren oft Zeit und Komplexität. Wirtschaftliche Argumente für diese Projekte sind wichtig, wenn es darum geht, sie überhaupt in die Tat umzusetzen. Die ökonomische Rechtfertigung kann hier darin bestehen, dass die Methode des “scholarly crowdsourcing” kosteneffizient ist, z.B. im Vergleich zu bezahlten Forschern.

Abschließend stellte sich Schofield Fragen nach der Berechtigung und dem Erfolg des Projekts und kam zu dem Schluss, dass es ein Erfolg sei, weil Bedarf daran besteht und es wissenschaftlich fundiert sei. Die digitalen Geisteswissenschaften indes würden das Projekt dazu zwingen, die Funde auch mit neuen Methoden aufzubereiten und zu präsentieren.

Fragen hinsichtlich der Existenzberechtigung des Projektes beinhalten die Überprüfung der Zielsetzung Druck im Hinblick auf Ideen und Modelle der “freien Information”. So taucht zum Beispiel die Frage auf, ob nicht nur noch eine editierte Fassung online stehen soll, die die gedruckte Ausgabe ersetzt. Hier stehen sich die Punkte Kosteneffektivität und beständige, gesicherte Referenz durch physikalische Permanenz gegenüber.

Follow us on Twitter: @DHDarmstadt @RappAndrea #DHDarmstadtLecture

Am 22.11.2012 ist Martin Wynne (Oxford University) zu Gast: “Corpus and Text Analysis for Research in the Humanities”; 18.00 Uhr s.t., Schloss, Raum 36. Gäste sind herzlich willkommen.

Quelle: http://dhd-blog.org/?p=1077

Weiterlesen

Call for Papers For a special issue of the Journal « Etudes de communication » n° 41 « Information Architecture : a useful and operational concept ?

Journal website : http://edc.revues.org/

Coordinated by: Ghislaine Chartron (DICEN, CNAM-INTD), Stéphane Chaudiron (GERiiCO, University of Lille 3) and Madjid Ihadjadene (Paragraphe, University of Paris 8)

In 1976, graphic designer Richard Saul Wurman introduced the concept of “Information architecture” in response to the ever-increasing quantity of information produced and exchanged in contemporary society : « I thought the explosion of data needed an architecture, needed a series of systems, needed systemic design, a series of performance criteria to measure it ». In 1986, James C. Brancheau and James C. Wetherbe published “Information architectures : Methods and practice” in the journal Information Processing & Management. The authors use the concept to refer to a profile of corporate information categories, used to assess organizational information needs. In 1996, Louis Rosenfeld and Peter Morville published “Information Architecture for the World Wide Web” and became the pioneers in the field of organizing information in websites, intranets and software applications to help users fulfill their needs.

The concepts of information architecture and information architect are therefore not new. These concepts have been modified and adapted over the past several decades, and today there is renewed interest in the field of information architecture, especially in North America, where information architects have created an association, the IA Institute (IAI). In information architecture, three types of competencies seem to stand out: technical design, content organization and web design, which has been particularly emphasized in recent years.

By analogy with the physical architecture of buildings designed in the real world, information architecture concerns the spatial and temporal organization of information, content structuring, content interaction design and information design. Information architecture thus refers to the underlying organizational structure of a content system (text, image, video). Information architecture, while primarily used in web-based systems, can be applied to any complex informational ecosystem, in particular mobile devices such as smartphones, e-books, video games or serious games. The issue of information architecture has also been raised within the area of digital humanities, particularly with regard to digital art and culture, digital museography, the representation and staging of archeological objects…

Any information system conceived as a form of knowledge mediation raises the question of information architecture, which revolves around several main elements: systems of representation and storage, content representation methods (metadata, visual representations…), information access tools and interfaces (catalogs, bibliographic tools, browsing, search functions…) and processing functions.

Information architecture can be considered from a wide variety of perspectives (visualization, computer programming, ergonomics, semiotics, linguistics, etc.) but the particularity of the Information-Communication Science approach is its holistic view of these approaches. This special issue of Etudes de Communication aims to address the operational dimension of the concept of “information architecture”. More than a presentation of design methods and their results, this issue seeks to analyze the scientific relevance of the concept of information architecture, in a critical perspective.

We solicit proposals in the following areas:

-        The theoretical foundations of information architecture,

-        Information architecture methods and techniques,

-        Cultural issues in information architecture,

-        Development of information architecture in organizations,

-        Differentiated architecture design for different media (websites, mobile devices, graphic tablets…),

-        Digital content structuring and editing  and content strategies,

-        Organization, representation and mediation of information content,

-        Interface design and information design (conception, contextualization, evaluation, appropriation),

-        Information access, “findability”, “usability”

-        User experience,

-        Information architecture and cognitive transformations,

-        User-centered conception and evaluation methods

 

Scientific committee

Inge Alberts, Université d’Ottawa, Canada

Thierry Baccino, Lutin UserLab, Cité des Sciences et de l’industrie

Évelyne Broudoux, CNAM-INTD

Stefano Bussolon, Information Architect – Interaction Designer, Italie

Stéphane Caro Dambreville, Université de Bordeaux 3

Benoît Habert, ENS Lyon

Seth van Hooland, Université Libre de Bruxelles, Belgique

Yves Marcoux, EBSI, Université de Montréal, Canada

Jean-Guy Meunier, Université du Québec à Montréal, Canada

Sylvie Leleu-Merviel, Université de Valenciennes

Bernhard Rieder, University of Amsderdam, Pays-Bas

Jean-Michel Salaün, ENS Lyon

Emmanuel Sander, Université de Paris 8

Joachim Schöpfel, Université de Lille 3

Ismaïl Timimi, Université de Lille 3

Elaine Toms, University of Sheffield, Royaume-Uni

 

Review process

All submissions will go through a two-part review process:

1-     Submission of a 1500-2000 word abstract which should include a presentation of objectives and principle arguments, explain the originality of the paper and provide key bibliographical references,

2-     For accepted abstracts, a second evaluation will take place for final papers (30 000 characters including spaces)

Papers will be peer-reviewed by at least two anonymous referees. Instructions for authors are available at the journal homepage http://edc.revues.org/

Abstracts should be submitted in Word (.doc) or PDF and sent to the following email addresses:

ghislaine.chartron@cnam.fr

madjid.ihadjadene@univ-paris8.fr

stephane.chaudiron@univ-lille3.fr

Abstract submissions may be made in French or English. The final article should be written in French.

 

Important Dates

December 15 2012: Abstract submission deadline

January 15 2013:  Notification of acceptance

May 15 2013: Preliminary version of the papers

May 15, 2013: Final version of accepted articles due

December 2013: Publication date (paper and digital)

 

Quelle: http://dhd-blog.org/?p=1002

Weiterlesen

Informationsinfrastrukturen im Wandel …

Der diesjährige Historikertag wartete mit der erfreulichen Neuerung auf, eine eigene HauptkategorieeHumanities” zu führen, in der jeden Tag mindestens eine Session verortet war. Am Freitag, den 28.9.2012 gab es eine fast vierstündige Sektion unter dem Titel “Informationsinfrastrukturen im Wandel: Zur Vergangenheit, Gegenwart und Zukunft der Informationsverarbeitung in historischer Lehre und Forschung“. Nach einer Reihe von “Impulsreferaten” wurde zunächst mit den Referenten diskutiert, bevor es eine allgemeine Podiumsdiskussion mit anderen Podianten als Vertretern verschiedener Teilbereiche der geschichtswissenschaftlichen Ökosystems (Historiker, Doktoranden, Bibliothekare, Portalbetreiber, Verleger) gab.

Leider hatten alle Teile wenig bis gar nichts mit dem zu tun, was ich selbst unter Informationsinfrastrukturen (geschweige denn in Gegenwart und Zukunft) verstehen würde. Das Thema wurde also eher “implizit” bearbeitet, wenn über die Arbeit des Historikers und die digitalen Wandlungen dieser Arbeit diskutiert wurde. Wenn ich eigens nach Mainz gereist war, um als jemand, der in einem Infrastrukturprojekt beschäftigt ist, etwas über die Sicht der historisch arbeitenden Fachkollegen auf Infrastrukturen zu erfahren, so blieb der Erkenntnisgewinn zu dieser Frage eher gering. Dafür scheinen mir zwei andere Details berichtenswert, die ich hier rein willkürlich herausgreifen möchte und die nicht für die Gesamtheit der Veranstaltung und der Beteiligten stehen.

Zum Einen wurde von Christoph Cornelißen beiläufig darauf hingewiesen, dass die (nicht zuletzt von Peter Haber) viel diskutierten Beschreibungsmuster der Wissenschaftler in der digitalen Welt als “digital immigrants” und als “digital natives” natürlich zu ergänzen sind um die größte, möglichwerweise nicht nur gefühlt 90% umfassende Gruppe der “digital ignorants” – die man bei einer systematischen Betrachtung der gegenwärtigen Wissenschaftstransformation ebenfalls unter die Lupe nehmen müsste. Zum anderen wurde mal wieder (und: ja, ich mache das auch öfters) die Monstranz des “Wir müssen die wissenschaftliche Qualität sichern und die wissenschaftlichen Qualitätsstandards bewahren” aus dem Tabernakel geholt. Dabei ist es immer das gleiche: Die Monstranz wird gezeigt, es wird aber nicht weiter darauf eingegangen, worin die postulierten Qualitäten eigentlich bestehen und wie sie zu sichern, geschweige denn zu prüfen wären. Dass “wissenschaftliche Qualität” in der freien Wildbahn praktisch nur als vage Selbstzuschreibung und als Verteidigungsbegriff gegen alles Andere und Neue vorkommt, ließ sich auch hier wieder eindrücklich beobachten. Pauschal wurde da z.B. von einem auf dem digitalen Feld zu beobachtenden “Wildwuchs” der Angebote gesprochen, die die traditionellen Qualitätsstandards unterlaufen würden und denen gegenüber “Qualitätserfordernisse” definiert werden müssten (was sicher nicht schaden kann). Immerhin mündete der sporadische Verweis auf die Digital Humanities nicht in ein allgemeines DH-bashing, nachdem Charlotte Schubert auf das hohe Maß der Selbstreflexion in den DH verwiesen hatte.

Eine sonderbare Note bekam die Rede über die Qualitätsicherung im historischen Feld allerdings auch dadurch, dass als Grundlage der vorgetragenen Gedanken eine “Diskussion an der Hotelbar am gestrigen Abend” referenziert wurde und dass bemängelt wurde, dass man heute kaum noch einen Vortrag halten könne, ohne dass im Publikum online recherchiert würde, ob der Vortragende auch wirklich keinen Unsinn erzählt (und ich dachte, DAS sei ein Zeichen von Qualitätssicherung). Die reklamierte Qualität der vortragenden Wissenschaftler erscheint so als eine, die sich gerade nicht überprüfen lassen will. Dazu passend wurden dann auch “Freiräume” für den Geisteswissenschaftler reklamiert, die “von elektronischer Beobachtung frei” sein sollten. Die Apologie der digitalen Ignoranz gipfelte im Ausruf, dass man auch heute noch “hervorragende Geschichtswerke ohne das Internet schreiben” könne. Das ist sicher richtig, wenn die historische Erkenntnis rein und vollständig aus den persönlich konsultierten Quellen, aus der Beschäftigung mit der älteren Literatur oder unmittelbar von Gott kommt. Sollte sie allerdings auch auf einem wissenschaftlichen Diskurs gründen, der im Hier und Jetzt stattfindet und der sich nun einmal auch der gegenwärtigen Technologien und Medien bedient, dann wird man die Prozesse der Erkenntnisgewinnung und ihre Qualitätsabschätzung doch etwas differenzierter betrachten müssen. Selbst angelegte Scheuklappen scheinen dann eine eher schlechte Basis für “hervorragende” Wissenschaft zu sein. Und wieso aus Ignoranz Qualität entstehen soll, werde ich vielleicht auch erst später begreifen …

Quelle: http://dhd-blog.org/?p=915

Weiterlesen

Wie schreibt man digital humanities?

Wie Kathleen Fitzpatrick in ihrem lesenswerten Buch “Planned Obsolence” (2011) [preprint] konstatiert, ist die Analyse dessen, was zu Digital Humanities gehört, leichter zu bewerkstelligen als DH wirklich zu praktizieren und die Kultur der kritischen Selbstreflexion bei der Texterstellung – immer noch das Hauptfeld der geistes- und kulturwissenschaftlichen Tätigkeit -  ist bislang selbst unter den DH Affinen zu wenig ausgeprägt. Die Gründungsveranstaltung der deutschen Dependance der DH in Hamburg hat es in der kontroversen Diskussion um das Pflichtabo der Literary & Linguistic Computing( LLC), das mit der Mitgliedschaft erworben werden muss, gezeigt: Kann es sein, dass sich die Neugründung der DHD mit einem kommerziell operierenden Verlag verbindet, der wichtige Elemente wie OA verweigert? Was aber muss eine DH Zeitschrift leisten oder genauer: was sollten Autoren oder die community tun, die im Bereich der DH arbeiten, kurz, wie “schreibt” man DH richtig? Ich habe mir vor dem Hintergrund der kontroversen Diskussion und unter dem Eindruck von Fitzpatricks glänzender Analyse zur Frage der Zukunft des wissenschaftlichen Publizierens einmal drei DH Zeitschriften angesehen (in subjektiver Auswahl), um nicht zuletzt auch im Sinne eines Selbstfindungsprozesses einige Kriterien für eine gute DH Publikation zu gewinnen.
Das Flaggschiff der DH, LCC, wird von Oxford University Press herausgegeben. OUP ist in seinem Ursprung zwar ein Universitätsverlag, arbeitet aber schon lange profitorientiert, nach kommerziellen, weniger wissenschaftlichen Gesichtspunkten (zu dieser Opposition siehe Fitzpatrick). Der Zugriff ist nicht frei, das Abo kostet für Privatpersonen samt Mitgliedschaft 123 Euro. Das liegt, was Zeitschriften im Bereich der Geistes- und Kulturwissenschaften anlangt, im oberen Bereich. Zum Vergleich: Gesellschaften wie die Renaissance Society of Amercia (RSA) veranschlagen samt Bezug der Renaissance Quarterly nur 50 USD. Ein Open Access Modell, sei es green way oder golden way, mittlerweile als Standard und guter Ton in den DH anerkannt, gibt es von Seiten des Verlages nicht (allenfalls unter Druck). Dass die Autoren im Besitz ihrer Rechte bleiben (vgl. das Editorial von Vanhoutte zum Heft 27 (2012) 1), ist zwar theoretisch ein Pluspunkt, der praktische Nutzen für OA ist jedoch zweifelhaft. Z.B. hat keiner der Beiträger des Heftes 27 (2012), 1  seinen Artikel online gestellt (Suche mit Stichwort Autor,Titel + erste Zeile des Haupttextes; jeweils nur LLC Treffer, d.h. Google indexiert die Hefte). Schaut man sich die Dokumente und Services selbst an, so werden Texte als HTML und PDF (die älteren nur PDF) angeboten, was eine analytische Nachnutzung unterhalb der Titelebene erschwert, denn Texte sind in den DH nicht nur Gegenstände der Lektüre, sondern auch der computergstützten Analyse (vgl. Thaller, in Historical Social Research, 37 (2012) 3) und automatisierten Vernetzung (semantic web). Verknüpfungen funktionieren nur innerhalb des Systems bzw. weitgehend unter Ausschluss nicht kommerziell arbeitender wissenschaftlicher Institutionen (Google Books, crossRef, etc.). Kodierungen von Entitäten im Text (Personen, Orte, Körperschaften, etc.) fehlen. Zitiert wird auf der Dokumentebene, feinere Adressierungen sind mittels Fragment-Identifier auf Grobkapitelebene möglich (dort nicht dokumentiert und daher nicht evident). Basis beibt das Paginierungssystem für Druckerzeugnisse. Erfreulicherweise wird eine DOI zum persistenten Zitieren geliefert. Mit DOI stehen auch weitere Funktionalitäten von crossRef zur Verfügung. Die institutionelle Langzeitarchivierung, die auch Access einschließen würde, ist ungewiss (zum Problem bereits Donald J. Waters, Urgent Action Needed (2005)). OUP untersagt es (deutschen) Bibliotheken, Titel herunterzuladen und selbst zu indexieren, so dass keine Möglichkeit besteht, Texte (langzeitzu)archivieren, zu aggregieren, in Mashups zu verbinden oder nach eigenen Suchkriterien und Rankinkmechanismen zu bearbeiten, allesamt Desiderate für DH Anwendungen (vgl.  zum Prinzip Gabriel Bodard/Juan Garcės, Open Source Critical Editions: A Rationale. In Gabriel Bodard/Juan Garcės, Open Source Critical Editions: A Rationale, In:  Text editing, Print and the Digital World, 83-98).  Möglichkeiten zur freien Annotation innerhalb des Systems und damit eine transparente Alternative zum geschlossenen peer-review System gibt es nicht (Fitzpatrick, Kap.1). In nuce, eine am analogen Modell orientierte profitorientierte Zeitschrift mit einem überkommenen geschlossenen peer-review Modell, das den Nutzen gerade für den analytischen Teil der DH zweifelhaft erscheinen lässt. Natürlich hat die Verbindung mit einem kommerziellen Verlag auch Vorteile. Der Herausgeber, Edward Vanhoutte, hebt hervor, dass mit den erwirtschafteten, nicht unerheblichen Gewinnen DH Projekte gefördert und die freie Schwester DHQ unterstützt werden. Doch bleiben prinzipielle Bedenken. Bei allen Verlockungen des Geldes sollte man gerade für das Flaggschiff der DH die Gefahren einer solchen Verbindung nicht unterschätzen ( vgl. Fitzpatrick und die zunehmende Kommerzialisierung am Beispiel einer ähnlich gelagerten Kooperation der der American Anthropological Association mit Wiley-Blackwell, S. 183f.).
Eine weitere im deutschsprachigen Raum etablierte Zeitschrift ist das Jahrbuch für Computerphilologie - online, hg. v. Georg Braungart, Peter Gendolla und Fotis Jannidis. Die Zeitschrift ist OA. Texte werden nur in HTML angeboten.  Angaben zum persistenten Adressieren finden sich nicht (DOI, URN, PURL o.ä.), die einzelnene Paragraphen sind zwar benannt, aber nicht über z.B. Fragmant-Identifier anspringbar (hier sollten zumindest Anker für interne Links eingefügt werden).  Die Langzeitarchivierung ist über die Deutsche Nationalbibliothek gesichert. Leider werden keine Angaben zur Lizenz gemacht (z.B. CC), so dass ein Forscher oder eine Institution (Universität, Bibliothek, Wikipedia) im Falle einer (textanalytischen) Nachnutzung theoretisch immer anfragen müsste, ob Indexierung und Archivierung möglich sind.  Eine automatisierte Nachnutzung ist auf der Basis des HTML Codes wie bei LLC zwar möglich, aber wie dort alles andere als optimal. Z.B. wäre es nur auf der Basis der class-Attribute möglich, Fußnoten in einer  Suche zu differenzieren. Kodierungen von Entitäten fehlen ebenso wie stabile Verlinkungen von Literatur (zum Nachweis von Querververlinkungen). Systemimmanente Annotations- oder Feedbackmöglichkeiten gibt es nicht. Das Review-Verfahren liegt in der Hand der im Feld wissenschaftlich ausgewiesen Herausgeber, was sicher nicht schlecht ist, aber durch ein flankierendes offenes Annotationssystem gewinnen könnte. Dessen ungeachtet zeigt die Zeitschrift, wie sich mit relativ geringem Aufwand qualitativ hochwertige Beiträge online bringen lassen. Die Verbindung der Online Ausgabe zum mentis Verlag ist eher lose. Die Zeitschrift nutzt sinnvoll die Kompetenzen des Verlages im Print-Bereich, ohne sich ihre Freiheiten beschneiden zu lassen. Schwächen liegen vor allem darin, dass zuviel Wert auf Präsentation und zu wenig auf Möglichkeiten zur automatisierte Verarbeitung gelegt wird. Mit einem deutlich formulierten freien CC-Lizenzmodell könnte man dies ggf. verbessern, indem dadurch Interessenten in die Lage versetzt würden, die Texte herunterzuladen, mit entsprechenden tools zu “strukturieren” und neu zu indexieren.

Ein letzter Blick gilt denen in vielerlei Hinsicht hervorragenden Digital Humanities Quarterly (DHQ). Die erste positive Überraschung ist die Bereitstellung nicht nur als HTML, sondern auch XML, das sich an TEI orientiert, wenn auch nicht konsequent. So haben die Herausgeber proprietäre Namensräume (dhq:) integriert. Hier finden sich echte Strukturinformationen z.B. zu den zitierten Titeln, allerdings wurde – wohl aus Gründen des Aufwandes – darauf verzichtet, Entitäten zu kodieren. Hier zeigt sich ein Problem, dass viele DH Publikationen betrifft, dass nämlich Autoren nach wie vor in klassischen Formen wie WORD oder PDF liefern. Würde man die Ablieferung von XML zur Pflicht machen, wären im Vertrauen auf den Wunsch des Autors, es möglichst professional zu getstalten, weit differenzierte Kodierungen möglich. Die Kodierung selbst liesse sich durch passende Schemata steuern. DHQ bietet neben den eigentlichen Publikationsfunktionalitäten, eine Reihe von social services, wie Diskussions- und Annotationsmöglcihkeiten, die im wissenschaftlichen Umfeld perspektivisch unverzichtbar sind. Hervorzuheben ist, dass auf eine CC Lizenz geachtet wurde, die jedoch mit einer Unklarkeit behaftet ist. Die verwendete sehr enge Lizenz BY-NC-ND bedeutet einerseits, dass “kommerzielle” aber offene Player wie wikipedia ausgeschlossen werden, andererseits ist ND interpretationsbedürftig. Das in der Publishing-Policy  zugesicherte Recht “to include it in other aggregations and indexes to achieve broader impact and visibility” wäre auf der Basis von ND (=”You may not alter, transform, or build upon this work”) eigentlich nicht sinnvoll möglich, denn wie soll eine andere Aggregation aussehen, die keine Änderungen vornimmt? Was ist hier eigentlich dasenige, was nicht verändert werden darf? Hier bedarf es weiterer Präzisierungen. Zu Persistent Linking findet sich bedauerlicherweise nichts. Die Artikel lassen sich auf Paragraphenebene mittels Fragment-Identifiern adressieren. Die Qualität wird im peer review Verfahren sichergestellt, wobei die Zeitschrift engagierte Experten aufruft, sich als reviewer zu beteiligen (zu diesem Thema s. Fitzpatrick wie oben).

Insgesamt ist zu beklagen, dass auf der Artikelebene keine professionelle Erschließung in Bibliotheksverbünden stattfindet, sondern man sich mehr oder weniger mit Google oder privatwirtschaftlichen Suchmöglichkeiten behelfen muss. Hier sind Bibliotheken in der Pflicht, die stärker als bisher auch mit entsprechenden Lizenzen ausgestattete OA Publikationen archivieren und nachweisen sollten.

Aus diesen eher kursorischen Betrachtungen scheinen mir folgende Punkte für eine gute DH Publikation, die mehr sein will als ein Druck im Netz (typischerweise als digitale Inkunabel im PDF Format), empfehlens- und bedenkenswert:

  • OA mit einer freien Lizenz. Idealerweise CC BY-SA. Gemeint sollte damit sein, dass der Name des Autors und die URL der Originalpublikation genannt sein müssen. So ist einerseits die Urform im Sinne von ND referenzierbar, andererseits aber jede Art von Nachbearbeitung (Aggregation, Mashup, Archivierung, Indexierung nach eigenen Rankingmechanism, Textanalyse etc.) möglich. Eine kommerzielle Nachnutzung ist erwünscht, wenn sie das Resultat der Bearbeitung nicht einschließt und unter gleichen Bedingungen weitergibt (z.B. wikipedia). Dass muss nicht bedeuten, dass man kommerzielle Geschäftmodelle, die Services bieten (z.B. spezielle akademische Suchmaschienen), ausschließt. Das Verhältnis von Publikationsoberfläche (HTML, PDF), Strukturebene (XML) und Index bedarf jedoch lizenzrechtlich betrachtet präzisierender Erläuterungen, die ich hier nicht anstellen kann.
  • Persistent Linking (DOI, URN, PURL, Handle usw.) sollte immer mitbedacht werden. Wünschbar wären feinere Granularitätsstufen auf Paragraphen oder, wo möglich, sogar auf Wortebene (z.B. mit Xpointer-Techniken). Verbunden damit sind auch Verlinkungsmechanismen, wie wie in semantic web Anwendungen genutzt werden können (z.B. LOD)
  • Texte sollten nativ in XML verfasst oder von Autoren in XML geliefert werden. Portale wie TextGrid oder Editoren wie oXygen können dazu beitragen, den Schritt von einer den Druck simulierenden zu einer nativen DH Publikation zu erleichtern. Dabei wäre die Anwendung von Standards (z.B. TEI) sehr sinnvoll, um stärker als bisher analytische und automatisierte Nutzungsmöglichkeiten (semantic web) zu eröffnen.
  • Publikationen sollten sich zur Qualitätssicherung stärker transparenten peer-review Verfahren und Annotationsmöglichkeiten bedienen (vgl. Fitzpatrick)
  • Zeitschriften-Portale sollten stets Möglichkeiten des wissenschaftlichen Austausches mitbedenken (Kommentar- und Annotationsfuntionen). Dabei können Standards wie der der Open Annotation Collaboration hilfreich sein.
  • Infrastruktureinrichtungen wie Bibliotheken sollten sich stärker als bisher in die Katalogisierung und das Hosting von DH  Angeboten einbringen, um die technische Seite zu betreuen und die Langzeitarchivierung sicherzustellen. Zugleich müssten sie sich stärker wissenschaftlichen Netzwerken bzw. Fachcommunities öffnen, um durch entsprechende Angebote eine Basis zu schaffen, wissenschaftliche Publikationen wieder als Teil der universitären Infrastruktur und weniger als Gegenstand von “Business-Modellen” (vgl. Fitzpatrick, 181) sichtbar werden zu lassen.

Quelle: http://dhd-blog.org/?p=673

Weiterlesen

CFP: Digital Classicist Seminar Berlin

[english version below]

Das neu gegründete Digital Classicist Seminar Berlin [1], das erstmals im Wintersemester 2012/13 stattfinden wird, freut sich den Call for Papers bekannt zu geben. Diese Seminarreihe orientiert sich an dem Digital Classicist Work in Progress Seminar [2] in London und wird unter anderem von dem Deutschen Archäologischen Institut  und dem Excellenzcluster TOPOI und in Berlin veranstaltet.

Sie sind herzlich dazu eingeladen, Vorschläge zu Beiträgen einzureichen, welche die innovative Anwendung moderner digitaler Methoden, Ressourcen und Techniken in den Altertumswissenschaften thematisieren. Vorschläge in deutscher oder englischer Sprache im Umfang von 300-500 Wörtern (ohne bibliographische Angaben) können bis 14. September 2012 über die unten genannte Webseite hochgeladen werden [3].

Die Vorträge können folgende Themenbereich adressieren: digitale Texte, sprachwissenschaftliche Technologien, Bildverarbeitung und Visualisierung, Linked Data und Semantic Web, Open Access, Raum- und Netzwerk-Analyse und andere digitale oder statistische Methoden. Besonders werden dabei Vorschläge begrüßet, aus denen hervorgeht, wie dank der Anwendung digitaler Methoden fachübergreifende Fragen beantwortet werden können. Die im Seminar präsentierten Inhalten sollten sowohl Philologen, Historiker und Archäologen als auch Informationswissenschaftler und andere Geisteswissenschaftler mit Interesse an den genannten Fragestellungen ansprechen.

Die Seminare werden alle 14 Tage dienstagabends um 17.00 – 18.30 Uhr im Hörsaal des TOPOI-Hauses in Berlin-Dahlem stattfinden [4]. Das vollständige Programm wird Ende September bekannt gegeben. Es ist geplant, Vortragende bei der Finanzierung der Reise- und Unterkunftskosten zu unterstützen. Nähere Details hierzu werden bei Veröffentlichung des Programm mitgeteilt.

[1] http://de.digitalclassicist.org/berlin/

[2] http://www.digitalclassicist.org/wip/

[3] http://de.digitalclassicist.org/berlin/submit

[4] http://www.topoi.org/buildings/

CFP: Digital Classicist Seminar Berlin

We are pleased to announce the Call for Papers for the newly established Digital Classicist Seminar Berlin [1], which will run for the first time in the Winter Term 2012. This initiative, inspired by and connected to London’s Digital Classicist Work in Progress Seminar [2], is organised in association with the German Archaeological Institute and the Excellence Cluster TOPOI.

We invite submissions on research which employ digital methods, resources or technologies in an innovative way in order to enable increased understanding of the ancient world at large. Abstracts, either in English or in German, of 300-500 words max. (bibliographic references excluded) should be uploaded by midnight MET on September 14, 2012 using the special submission form [3].

Themes may include digital text, linguistics technology, image processing and visualisation, linked data and semantic web, open access, spatial and network analysis, serious gaming and any other digital or quantitative methods. We welcome seminar proposals addressing the application of these methods to individual projects, and particularly contributions which show how the digital component can lead to crossing disciplinary boundaries and answer new research questions. Seminar content should be of interest both to classicists, ancient historians or archaeologists, as well as information scientists and digital humanists, with an academic research agenda relevant to at least one of these fields.

Seminars will run fortnightly on Tuesday evenings (17:00-18:30) starting in October 2012 in the TOPOI Building Dahlem [4], hosted by the Excellence Cluster TOPOI. The full programme will be finalised and announced in late September. It is planned to grant an allowance to speakers for travelling and accommodation costs. Further details will be available once the program is finalised.

[1] http://de.digitalclassicist.org/berlin/

[2] http://www.digitalclassicist.org/wip/

[3] http://de.digitalclassicist.org/berlin/submit

[4] http://www.topoi.org/buildings/

Quelle: http://dhd-blog.org/?p=777

Weiterlesen

Bilateral Digital Humanities Program: DFG und NEH fördern gemeinsam

Mit der Veröffentlichung der vierten Ausschreibung im Bilateral Digital Humanities Program setzen das National Endowment for the Humanities (NEH) und die Deutsche Forschungsgemeinschaft (DFG) die gemeinsame Förderung innovativer Projekte im Themenfeld “Digital Humanities” fort. Nachdem in den ersten drei Ausschreibungsrunden seit 2008 die Optimierung digitaler Ressourcen und Sammlungen für die geisteswissenschaftliche Forschung im Vordergrund standen, sind die Förderziele nun deutlich weiter gesteckt: Im Zentrum steht die Verbesserung der digitalen Informationsinfrastruktur für die geisteswissenschaftliche Forschung – sei es durch die Zusammenführung etablierter Informationsangebote, die Verbesserung des Forschungsdatenmanagements, der elektronischen Veröffentlichung von Forschungsergebnissen oder der Entwicklung generischer Werkzeuge und Standards.

Es werden Projekte mit einer Laufzeit von bis zu drei Jahren gefördert. Eine Kooperation zwischen deutschen und u.s.-amerikanischen Partnern ist Fördervoraussetzung. In den Projektanträgen ist insbesondere auch auf den Mehrwert der transatlantischen Kooperation einzugehen. Anträge können bis zum 27. September 2012 in identischer Form bei NEH und DFG eingereicht werden. Beide Förderorganisationen sehen sich dem Prinzip des Open Access verpflichtet und erwarten eine möglichst aktive Verbreitung der Projektergebnisse.

Für eine Beratung stehen Jason Rhody (NEH, jrhody@neh.gov) und Christoph Kümmel (DFG, christoph.kuemmel@dfg.de) zur Verfügung.

Informationen zum Förderangebot auf den Homepages der Förderorganisationen:
http://www.neh.gov/divisions/odh/grant-news/grant-opportunity-nehdfg-bilateral-digital-humanities-program
http://www.dfg.de/foerderung/info_wissenschaft/info_wissenschaft_12_40/index.html

Quelle: http://dhd-blog.org/?p=724

Weiterlesen

Ansichtssache: DH Nachwuchs bloggt zur DH2012

Unter http://dh.z-f-g.de/ werden die StudentInnen des Bachelor-Studiengangs Digital Humanities der Universität Würzburg über die diesjährige Digital Humanities Conference in Hamburg bloggen was das Zeug hält. Ihre “Ansichtssache” stellen sie zudem im Science Slam auf der DHD-Unconference am 17.7.2012 vor.

 

Quelle: http://dhd-blog.org/?p=714

Weiterlesen

Ausschreibung: Methodenworkshop Metadaten (DARIAH und IEG Mainz)

Veranstalter: DARIAH-DE (http://de.dariah.eu) & Leibniz-Institut für Europäische Geschichte | IEG (http://www.ieg-mainz.de/)
Ort: Leibniz-Institut für Europäische Geschichte, Alte Universitätsstraße 19, 55116 Mainz
Beginn: 24. September 2012, 13.00 Uhr
Ende: 25. September 2012, 16.00 Uhr

Der Umgang mit Quellen und (Sekundär)-Literatur ist von zentraler Bedeutung für den Forschungs- und Erkenntnisprozess von Historikern und aller historisch arbeitenden Geisteswissenschaftler. In der Erfassung und Erschließung des Quellenmaterials (z.B. Fotografien, Drucke, Manuskripte, Artefakte oder auch Oral-History-Interviews) liegen wesentliche Voraussetzungen, um dieses Material in Bezug auf eine bestimmte Fragestellung problembezogen analysieren zu können. Diese Erschließung mittels beschreibender “Meta”-Daten ist ein zentraler und komplexer Schritt im geisteswissenschaftlichen Forschungsprozess. Zwar liefern Bibliotheken für moderne Forschungsliteratur und für historische Drucke oftmals standardisierte und qualifizierte Beschreibungen. Möchte der Forscher oder die Forscherin aber ein breiteres Spektrum an – ggf. bisher unveröffentlichten – Quellen und Forschungsprimärdaten untersuchen, so können sie oftmals nicht auf bereits vorliegende Metadaten zurückgreifen. Zugleich eröffnen die digitale Erfassung, Speicherung und Nutzung von (neuen oder vorhandenen) Metadaten neue Herausforderungen und Möglichkeiten für die historisch arbeitenden Geisteswissenschaften.

Vor diesem Hintergrund und den daraus resultierenden vielfältigen Möglichkeiten der Digital Humanities laden das Verbundprojekt DARIAH-DE (Aufbau von Forschungsinfrastrukturen für die e-Humanities) gemeinsam mit dem Leibniz-Institut für Europäische Geschichte (IEG) Mainz zu einem “Methodenworkshop Metadaten” ein, der Grundlagen zum Umgang mit Metadaten und deren Verwendung in historisch arbeitenden Geisteswissenschaften vermitteln und bereits vorhandene Lösungsansätze und -szenarien mit den Teilnehmern diskutieren will. Der Methodenworkshop bildet den Auftakt einer Reihe von Veranstaltungen, die DARIAH-DE in Kooperation mit Partnerinstitutionen in den kommenden Jahren mit unterschiedlichen geisteswissenschaftlichen disziplinären Schwerpunkten durchführen wird.

Der Methodenworkshop Metadaten richtet sich an Historiker und andere historisch arbeitende Geistes- und Kulturwissenschaftler und möchte sowohl Nachwuchswissenschaftler (Doktoranden und Post-Doktoranden) als auch erfahrene Wissenschaftler ansprechen, die sich in ihrem Forschungsalltag mit der Erfassung und Analyse von Metadaten, und mit Konzepten der Interoperabilität und Nachnutzung von Forschungsdaten auseinandersetzen bzw. diese Fragen bei zukünftigen Forschungsprojekten stärker als bisher berücksichtigen möchten.

Am Nachmittag des ersten Workshop-Tages wird als einführender Teil in mehreren Vorträgen der Themenkomplex „Metadaten“ aus verschiedenen geisteswissenschaftlichen und technischen Blickwinkeln beleuchtet. So wird hierbei u.a. die Vergabe von Metadaten im Kontext von Forschungsprozessen thematisiert sowie problematisiert, ob disziplinäre bzw. interdisziplinäre Metadatenstandards für spezifische geschichtswissenschaftliche Forschungsfragen und Erkenntnisinteressen anwendbar sind bzw. welche Bedeutung eine standardisierte Erfassung für den Forschungsprozess hat. Darüber hinaus werden der Spannungsbogen geisteswissenschaftliche Forschung und IT sowie das Thema Metadaten unter der Perspektive einer interoperablen und interdisziplinären Nachnutzung diskutiert.

In einem öffentlichen Abendvortrag wird Prof. Dr. Wolfgang Schmale (Universität Wien) zum Thema „Geisteswissenschaften im ‚Digital Turn‘?“ sprechen. Am zweiten Tag werden eine Reihe von anwendungsorientierten Sitzungen die Grundlagen der Anwendung von Metadatenstandards, die Erfassung und Verwaltung von Metadaten, sowie die forschungsorientierte Nutzung von Metadaten vermitteln.

Um einen reibungslosen Ablauf zu gewährleisten, werden die Teilnehmer gebeten, ihre eigenen Notebooks mitzubringen, so dass kollaborativ anhand von Beispieldaten einige Tools und Anwendungsszenarien getestet werden können. Es besteht ferner die Möglichkeit, dass die Teilnehmer vor Beginn des Workshops Daten (Metadaten, Schemata oder Collection Descriptions) aus ihren eigenen Forschungsprojekten zur Verfügung stellen, um mithilfe dieser Daten exemplarische Erfassungsprobleme thematisieren und Anwendungsoptionen diskutieren zu können.

Der Methodenworkshop Metadaten findet unmittelbar vor Beginn des 49. Deutschen Historikertags in Mainz statt, so dass alle Teilnehmer die Möglichkeit haben, unmittelbar nach Tagungsende an den Veranstaltungen des Historikertages teilzunehmen.

Auf der Webseite des Workshops finden Sie das ausführliche Programm des Workshops sowie weiterführende Informationen und ggf. Aktualisierungen. Für die Teilnahme wird ein Unkostenbeitrag von 20 Euro erhoben, der bei Tagungsbeginn zu entrichten ist. Anmeldungen sind ab sofort bis zum 31. August 2012 möglich. Senden Sie hierzu eine E-Mail mit Ihren Kontaktinformationen an: schmunk@ieg-mainz.de

Bei inhaltlichen oder organisatorischen Rückfragen wenden Sie sich bitte an:
Dr. Christof Schöch – Uni Würzburg – christof.schoech@uni-wuerzburg.de und/oder
Dr. des. Stefan Schmunk – IEG Mainz – schmunk@ieg-mainz.de

Quelle: http://dhd-blog.org/?p=700

Weiterlesen

IDE Summer School “Digitale Editionen – Methoden und Technologien für Fortgeschrittene” 8. – 12. Oktober 2012

Die Kritische Digitale Edition ist ein zentrales Feld des Einsatzes moderner Computertechnologien in den Geisteswissenschaften. In den letzten Jahrzehnten hat sich dazu bereits eine umfassende Methodologie herausgebildet. Die technische Basis bilden Text-Auszeichnungssprachen und hier vor allem der de-facto-Standard der Text Encoding Initiative (TEI). Diese Technologien (XML und co) und Praktiken (TEI) werden ansatzweise auch schon in der universitären Lehre vermittelt. In spezieller Ausrichtung auf die Bedürfnisse der edierenden Geistenswissenschaften bemüht sich das Institut für Dokumentologie und Editorik e.V. (IDE) seit 2008 um die Verbreitung dieser Kenntnisse in regelmäßigen außercurricularen Veranstaltungen (Summer Schools). Für die erfolgreiche Umsetzung einer digitalen Edition sind jedoch nicht nur Kenntnisse zur sachgerechten Kodierung der Textbasis nötig. Deshalb richtet das IDE in unregelmäßigen Abständen auch Veranstaltungen für fortgeschrittene Teilnehmer aus.

Die Veranstaltung hat vier Schwerpunkte: Erstens beschäftigt sie sich mit der Erstellung digitaler Texte. Sie vertieft die Kenntnisse der TEI und aktuelle Diskussionen in und um die TEI. Zweitens vermittelt sie nötiges Wissen für das Suchen in und die Weiterverarbeitung von Dokumenten, die mit Hilfe der TEI strukturiert wurden, sowie die Fähigkeit, jene in unterschiedliche Ausgabeformate zu transformieren. Drittens stellt sie Werkzeuge vor, welche das Potential digitalen Edierens zeigen, wie z.B. Software zur automatischen Kollation. Viertens führt die Veranstaltung in die Benutzung von Software und Frameworks zur Publikation der Digitalen Edition im Internet ein.

Die Veranstaltung richtet sich also an Wissenschaftler, welche digitale Methoden in einem konkreten Editionsprojekt einsetzen und erste Kenntnisse in der Kodierung der Texte mit TEI besitzen (z.B. durch die Teilnahme an einem Anfängerkurs „Digitale Edition“ des IDE oder durch eigene praktische Arbeit), welche aber weiter gehende Kenntnisse erwerben wollen, um mit ihren Daten effizienter umgehen zu können, und sich in den Strategien zur Publikation Digitaler Editionen orientieren wollen.

In der Veranstaltung können die Teilnehmer unter Betreuung von Tutoren den theoretischen Lernstoff an den von ihnen mitgebrachten Projekten praktisch einüben.

Die Teilnehmerinnen und Teilnehmer sollen damit befähigt, komplexe Editionsvorhaben sicher im TEI-Standard zu kodieren, Stylesheets für eine einfache Webpräsentation zu schreiben, welche Text, Bilder und Register darstellt, sowie mit Fachleuten kompetent über die Umsetzung einer komplexeren Anwendung (mit Hilfe von existierenden oder noch zu entwickeln Frameworks) zu verhandeln.

Die Veranstaltung vom 8.-12.10.2012 wird in Zusammenarbeit mit dem Institut für Germanistik der TU Chemnitz ausgerichtet. Wir müssen die Teilnehmer leider um einen Kostenbeitrag von 100,- EUR bitten. Wenn Sie sich für den Kurs interessieren, melden Sie sich bitte bei <spring-school@i-d-e.de> mit Angaben zu Ihren Vorkenntnissen und zum inhaltlichen Kontext Ihres Interesses am Kurs an. Die Kapazität des Kurses ist auf 20 Personen beschränkt. Um eine frühzeitige Anmeldung wird deshalb gebeten.

Zum vorläufigen Programm

Quelle: http://dhd-blog.org/?p=684

Weiterlesen
1 13 14 15