Key Ideas and Concepts of Digital Humanities – Anmeldung zur Tagung

Vom 26. bis zum 28. Oktober 2015 findet an der Technischen Universität Darmstadt die DFG-geförderte Tagung „Key Ideas and Concepts of Digital Humanities“ statt. Alle DH-Interessierten sind herzlich eingeladen, die Teilnahme ist kostenlos. Die Anmeldung für diese Tagung ist ab jetzt möglich unter:

http://www.dh-concepts.tu-darmstadt.de.



[...]

Quelle: http://dhd-blog.org/?p=5605

Weiterlesen

Handbuch Digital Humanities: Public Beta

Was bieten die Digital Humanities? Welche Forschungsfragen, Werkzeuge und Projekte gibt es; was ist beim Umgang mit Daten zu beachten? Mit Unterstützung der Open Knowledge Foundation Deutschland hat ein Autorenteam aus Partnerinstitutionen der Forschungsinfrastruktur DARIAH-DE  in drei Tagen zusammen ein praxisorientiertes Handbuch Digital Humanities erstellt. Bis Mitte September kann es durch Anregungen und Kommentare ergänzt werden: Alle DH-Interessierten sind herzlich aufgerufen, sich zu beteiligen.

Handbuch Digital Humanities

Handbuch Digital Humanities: http://bit.ly/DH-Handbuch

Im Rahmen eines Booksprints in den Räumen der Open Knowledge Foundation Deutschland e.V. (Berlin) vom 10.

[...]

Quelle: http://dhd-blog.org/?p=5566

Weiterlesen

Einladung zum Workshop „Veröffentlichung und Vernetzung digitaler wissenschaftlicher Forschungsdatensammlungen in den Geisteswissenschaften“

Der wissenschaftliche Umgang mit Forschungsdaten entfaltet seinen größten Nutzen, wenn das Wissen über ihre Existenz und Nachnutzbarkeit bestmöglich verbreitet wird. Im Projekt DARIAH-DE werden darum Empfehlungen, Beratungsangebote und Werkzeuge speziell für GeisteswissenschaftlerInnen entwickelt. Diese Tools und Services ermöglichen es den WissenschaftlerInnen, den Ansprüchen an die zeitgemäße Veröffentlichung und Vernetzung von Forschungsdaten gerecht zu werden. Im Rahmen des Workshops werden die Tools und Services gebündelt vorgestellt und den TeilnehmerInnen die Gelegenheit geboten, die Werkzeuge unter Anleitung selbst zu testen.

Die geisteswissenschaftliche Fachgemeinschaft ist eingeladen, eigene Anforderungen an die Veröffentlichung und Vernetzung ihrer Forschungsdaten an DARIAH-DE heranzutragen, damit die Angebote kontinuierlich am Bedarf orientiert weiterentwickelt werden können. Stellvertretend für die Fachgemeinschaft werden Dr. Felix Schäfer und Maurice Henrich aus dem Projekt „IANUS – Forschungsdatenzentrum Archäologie & Altertumswissenschaften“ mit einem Impulsreferat aus der Sicht eines fachspezifischen Forschungsdatenzentrums skizzieren, wie die Aufgabenteilung und Zusammenarbeit mit der generisch angelegten Forschungsinfrastruktur von DARIAH-DE realisiert werden kann, um Forschungsdaten zu speichern, auf längere Dauer zu archivieren und zugleich einen persistenten Zugriff zu ermöglichen. Ebenfalls wird Johanna Puhl vom Institut für Historisch-Kulturwissenschaftliche Informationsverarbeitung der Universität zu Köln unterschiedliche Stationen eines Forschungsdaten-Lifecycles vorstellen und die damit verbundenen spezifischen aber auch generischen Anforderungen thematisieren. Des Weiteren wird Harald Lordick vom Salomon Ludwig Steinheim-Institut für deutsch-jüdische Geschichte an der Universität Duisburg-Essen das Vernetzungspotential durch Nutzung von Normdaten thematisieren, was durch orts- und raumbezogene Forschungsdatenauswertungen kontextualisiert werden soll.

[...]

Quelle: http://dhd-blog.org/?p=5539

Weiterlesen

Heidelberger Forum Edition: Videointerview zu Early Chinese Periodicals Online

An der Universität Heidelberg, der Heidelberger Akademie der Wissenschaften und der Hochschule für Jüdische Studien gibt es eine Vielzahl renommierter Editions-, Kommentierungs- und Übersetzungsprojekte. Die Initiative »Heidelberger Forum Edition« setzt sich zum Ziel, diese Editionsprojekte in einen gemeinsamen Diskussionszusammenhang zu bringen und diesen der Öffentlichkeit zu vermitteln.

Das »Heidelberger Forum Edition« versteht sich als wissenschaftliche und zugleich kulturelle Initiative, die zwischen literarisch-historischen Quellen und der Gegenwart vermitteln will. Die Initiative der drei Träger gliedert sich in das von der Stadt Heidelberg als »Unesco City of Literature« geförderte Programm ein und erhält zudem über den Forschungsbereich »Kulturelle Dynamik in globalisiertem Welten« (Field of Focus 3) Mittel aus der Exzellenzinitiative der Universität Heidelberg.

Im Zuge einer Vortragsreihe stellen Wissenschaft­lerinnen und Wissenschaftler aus unterschiedlichen Disziplinen ihre Editionsaktivitäten der Öffentlichkeit vor. Die Breite und Intensität der editionsphilologischen Aktivitäten in Heidelberg wird außerdem auf dieser eigens eingerichteten Website dokumentiert und der Öffentlichkeit allgemeinverständlich präsentiert. Videointerviews mit den Projektleitern und Mitarbeitern der Heidelberger Editionsprojekte beleuchten exemplarisch die Hintergründe der editorischen Arbeit.



[...]

Quelle: http://dhd-blog.org/?p=5346

Weiterlesen

DARIAH-DE Lizensierungsworkshop vom 11. bis 13. Mai 2015

Vom 11. bis 13. Mai 2015 fanden im Tagungszentrum an der Sternwarte in Göttingen der DARIAH-DE Workshop “Store it, share it, use it. Lizenzierung digitaler Forschungsdaten in den Sprach- und Literaturwissenschaften” und das 7. TextGrid Nutzertreffen “Archivieren und Publizieren mit TextGrid” statt.

Aspekte zur Lizenzierung digitaler Forschungsdaten standen am ersten und am zweiten Tag vormittags im Mittelpunkt. Für digitale Editionen geisteswissenschaftlicher Forschungsvorhaben bieten sich heute verschiedene Wege der elektronischen Publikation und Präsentation ihrer Forschungsdaten. Aber auch im digitalen Raum gilt es, Urheber-, Nutzungs- und Leistungsschutzrechte zu beachten. Der erste Vortrag von Paul Klimpel (iRights) ging auf die aktuelle Rechtslage bei der Lizenzierung geisteswissenschaftlicher Daten ein.

[...]

Quelle: http://dhd-blog.org/?p=5341

Weiterlesen

Einladung zur Tagung “#DigitalHumanities in der Praxis”

Nach drei Jahren praktischer Erfahrung mit den Ansätzen und Methoden der Digital Humanities ist es Zeit, zu rekapitulieren. Im Digital-Humanities-Forschungsverbund, der vom Niedersächsischen Ministerium für Wissenschaft und Kultur gefördert wird, arbeiten Historiker und Philologen, Politologen und Soziologen mit Informationswissenschaftlern und Programmierern zusammen. Zu den direkten Partnern gehören neben der Georg-August-Universität Göttingen und der Niedersächsischen Staats- und Universitätsbibliothek Göttingen auch die Göttinger Akademie der Wissenschaften, die Wolfenbütteler Herzog August Bibliothek und das Max-Planck-Institut zur Erforschung multireligiöser und multiethnischer Gesellschaften. Bei der Kooperation geht es um den Aufbau digitaler Ressourcen und deren Nutzung, aber auch um die Etablierung eines DH-Lehrprogramms am Standort Göttingen.

Eine Wortwolke der erwähnten Formate, Methoden, Datenquellen und Software würde ungefähr so aussehen: Semantic Web, XML (TEI), RDF, TextGrid, OCR, Wikis, Twitter, Network Analysis, Gephi, Python, Java, arXiv.org, ATLAS.ti, GIS, imeji, … Das technologische Know-how und die verschiedenen Datengrundlagen dienen dabei immer dazu, die geisteswissenschaftliche Forschung zu unterstützen. Die einzelnen Vorträge bieten dementsprechend ergebnisorientierte Einblicke in die verschiedenen Teilprojekte. Deutlich wird dabei, wie durch gemeinsame Probleme und Lösungsansätze beim Umgang mit digitalen Daten die Kooperation über Fächergrenzen hinweg auf neue Weisen möglich ist.

[...]

Quelle: http://dhd-blog.org/?p=5066

Weiterlesen

Minutes of WS “Computer-based analysis of drama” now online

Am 12. und 13. März 2015 hat in München der Workshop Computer-based analysis of drama and its uses for literary criticism and historiography. Die computergestützte Analyse von Dramen ist ein gerade entstehendes Feld, das nur zum Teil an die quantitative Dramenanalyse des 20. Jahrhunderts (Solomon Marcus, Manfred Pfister) anschließt. Digitalisierte Korpora, neue Verfahren des Text Mining und die Verknüpfung von quantitativen Ergebnissen mit Fragen der Literaturgeschichtsschreibung (vgl. Matthew Jockers, Franco Moretti, Stephen Ramsay) haben in den letzten Jahren dafür gesorgt, dass neue Forschung zu Dramen entstanden ist, die hier erstmals gebündelt wurde. Lesen Sie den Konferenzbericht in voller Länge hier. Der Blog soll in Zukunft auch eine Bibliographie und eine Liste von Projekten zur computer-gestützten Dramenanalyse bieten. Hinweise sind erwünscht.

 

Quelle: http://dhd-blog.org/?p=4880

Weiterlesen

Round Table II “Annotation von Digitalen Medien”

von Michael Bender, Luise Borek und Ruth Reiche, Technische Universität Darmstadt

Wenn Forscherinnen und Forscher aus verschiedenen Digital Humanities-Projekten über das Thema Annotationen diskutieren, kann es schon mal passieren, dass man zunächst aneinander vorbei redet. Für die einen steht ein Tool im Mittelpunkt, das Annotationen vor allem als flüchtige Anmerkungen im individuellen Forschungsprozess unterstützt. Andere begreifen Annotationen vor allem als Mikropublikationen, die am annotierten Gegenstand bzw. im jeweiligen Repositorium verankert sein müssen und einer langfristigen und nachnutzbaren Archivierung bedürfen. Annotationen als Zwischenschritt und Grundlage für Analyse- und Visualisierungsverfahren oder Machine Learning bilden eine weitere Perspektive auf das Thema.

Nicht nur die Ziele einer Annotation und die damit verbundenen Methoden können sehr verschieden sein, sondern auch die Gegenstände (bzw. ihre digitalen Repräsentationen), die annotiert werden. Sie bilden ein breites Spektrum aus unterschiedlichen Forschungsobjekten, darunter z.B. schriftsprachliche Texte und deren Abbildungen, graphische Elemente und Bilder, Videos, Noten oder gar 3D-Objekte. Doch nicht nur der Annotationsgegenstand, sondern auch die Annotationsinhalte selbst sind vielgestaltig. Annotationen sind nicht immer schriftsprachlich, auch die Unterstreichung eines Wortes, die strukturelle Untermalung einer Textseite, die formale Erfassung der Komposition eines Bildes stellen typische Beispiele für Annotationen dar.

Heterogenität und Diversität mögen auf den ersten Blick hinderlich wirken, um zu gemeinsamen Standards und Verfahrenswegen zu finden. Sie eröffnen jedoch auch die Chance, zu neuen Perspektiven und spezifischen Sichtweisen zu gelangen – sei es durch den wechselseitigen, praxisorientierten Austausch, die differenzierte Betrachtung verschiedener Annotationsverfahren oder die Bündelung einzelner Facetten im Annotationsprozess. Wenn Annotationen mehr als nur individuelle Gedankenstützen sein sollen, können sie ihr  Potential nur dann optimal entfalten, wenn bestimmte  Standards verwendet werden. Denn nur dadurch können  Austauschbarkeit und Nachnutzung von Forschungs(zwischen)ergebnissen gewährleistet werden. Um gemeinsame Lösungen möglichst nachhaltig zu entwickeln und das Thema in der geisteswissenschaftlichen Community zu diskutieren, ist die Kopplung an vorhandene Forschungsinfrastrukturen von großer Bedeutung.

Der von DARIAH-DE organisierte Expertenworkshop Annotation of Digital Media: Infrastructural Needs (Round Table II), der am 23. und 24. März 2015 an der Technischen Universität Darmstadt stattfand, zielte auf genau diese Punkte. Den Grundstein für die konstruktive Diskussionsrunde bildeten die Ergebnisse eines ersten Round Table, der im Juni 2014 von der HRA Heidelberg ausgerichtet wurde. Neben der definitorischen Abgrenzung, also der Frage, was Annotationen denn nun eigentlich sind, standen schon in diesem ersten Workshop Differenzierungen zwischen manuell und maschinell generierten Annotationen, verschiedenen Öffentlichkeitsgraden sowie zwischen Flüchtigkeit und Persistenz von Annotationen zur Diskussion. Daran anknüpfend wurde nun im Rahmen des zweiten Workshops versucht, zu konkretisieren, welche Kriterien und Ansatzpunkte für die Entwicklung von technisch-infrastrukturellen Lösungen relevant sind, um letztlich dem großen Ziel ein wenig näher zu kommen, Analyse- und Annotationsprozesse zusammenzuführen und hierdurch Zusammenhänge sichtbar zu machen  so wie es einst Niklas Luhmann mit seinem Zettelkasten vorgeführt hat.

Zwei Perspektiven erwiesen sich in diesen Zusammenhängen als besonders bedeutend: zum einen die auf Anforderungen an Annotations-Tools, zum anderen die auf Speicherorte bzw. Repositorien und Datenbanken. Damit waren Fragen verbunden wie: Auf welche Datenmodelle, Tagsets, Vokabulare oder Ontologien muss ein Annotationstool zurückgreifen können und inwiefern kann hierbei Standardisierung umgesetzt werden? Wo setzt ein Tool am Gegenstand an, worauf greift es zu, wo werden Annotationen verankert, abgelegt und verwaltet? Wie wird der Zugriff unterschiedlicher Akteure darauf organisiert? Wie stabil bzw. veränderbar muss oder kann der zu annotierende Gegenstand sein, wie die Annotationsebene? Wie geht man mit verschiedenen Versionen um? Wie kann bei Annotationen Zitierbarkeit und gleichzeitig Nachnutzbarkeit erreicht werden? Wie können verschiedene inhaltliche Schichten von Annotationen (z.B. aus verschiedenen Fachperspektiven) selektiv zugänglich gemacht werden? Wie lassen sich Annotationen zu einem Referenz- bzw. Wissensnetzwerk verknüpfen? Diese und noch viele weitere Fragen wurden vor allem  aber nicht nur  mit Blick auf technische Lösungsmöglichkeiten diskutiert. Festgehalten werden die gemeinsam erschlossenen Lösungswege in einem kollaborativ verfassten Positionspapier, das in Kürze in den DARIAH-DE Working Papers erscheint.

Im Rahmen des DARIAH-DE-Clusters Fachwissenschaftliche Annotationen sind bereits weitere Workshops rund um das Annotieren geplant. Gelegenheit zur fächerübergreifenden und multiperspektivischen Diskussion bietet zudem auch die Mailingliste Annotationen. Wir freuen uns über rege Beteiligung!

Quelle: http://dhd-blog.org/?p=4913

Weiterlesen

BMBF geförderte Nachwuchsgruppe “eTRAP – electronic Text Re-use Acuisition Project”

gcdh_logo_highresWir freuen uns, die durch das Bundesministerium für Bildung und Foschung (BMBF) finanzierte und am Göttingen Centre for Digital Humanities (GCDH) angesiedelte Nachwuchsgruppe eTRAP (electronic Text Reuse Acquisition Project) bekannt machen zu dürfen.

eTRAP ist eine international und interdisziplinär zusammengestellte Forschergruppe, die ab 1. März 2015 für vier Jahre vor dem Hintergrund der Klassischen Philologie, Geschichte, den Digital Humanities, der Natürlichen Sprachverarbeitung sowie der Visualisierung und der Paläografie/Kodikologie (Handschriftenkunde) an der Georg-August-Universität Göttingen forschen und lehren wird.

Im Fokus der Arbeiten steht dabei das Interesse daran, wie Paraphrasen, Allusionen oder auch Übersetzungen (im Generellen Re-Use) von historischen Autoren in ihren Arbeiten weitergegeben wurden, warum Re-use weiter gegeben wurde und welche Intensionen und Einflüsse dabei eine Rolle gespielt haben. Die Nachwuchsgruppe möchte damit eine Methodik schaffen, mit der „Historischer Text Re-use“ trotz seiner starken Diversität (aufgrund langer Überlieferungslinien, sprachlicher und kultureller Einflüsse, Zerstörung) beschrieben und messbar gemacht werden kann. So werden beispielsweise viele statistische Maße unbrauchbar, wenn historische Texte einen signifikanten Anteil von Re-use enthalten. Diesen  gründlich zu erfassen, ist jedoch auf variantem, historischem Text noch keineswegs gelöst. Als Untersuchungsgrundlage werden Big Data hinzugezogen, also Daten, die zu umfangreich sind, um sie manuell bearbeiten zu können. Es werden Texte in den Sprachen Altgriechisch, Deutsch, Englisch, Italienisch und Latein bearbeitet.

Weitere Informationen zum Projekt und zur Nachwuchsgruppe finden Sie unter http://etrap.gcdh.de/

Quelle: http://dhd-blog.org/?p=4853

Weiterlesen

International Journal of Digital Art History – Call for Manuscripts

gemeldet von Dr. Harald Klinke M.Sc., Institut für Kunstgeschichte, LMU München

No_zeroThe Digital Age has revolutionized economy, society and our private lives. For decades now, digitalization has also touched most branches of the humanities. With the rising importance of the so called Digital Humanities, Art History is about to change significantly. Since the slide library is irreversibly replaced by image databases, the fact that our media have turned digital opens up to new possibilities. Academic books and journals are increasingly accessed and published via internet. Data-driven approaches enable us to visualize large data-sets and big image data. Computer vision, gamification and citizen science spur new epistemic approaches.

Many such approaches are currently evolving in the international sphere of Art History. Those ideas and projects are in need of a platform of interchange and discourse. A discourse that is linked to Digital Humanities, but regards the special interests and needs of Art History as a historical image science at the interface to Information Science. Thus, the “International Journal of Digital Art History” (DAH) will give authors in this field the opportunity to reach a wider audience, spark a discussion on the future of our discipline and generate an international and interdisciplinary network of scholars and practitioners.

This is a call for manuscripts. The first issue of DAH is scheduled for early 2015. It will focus on the definition of “Digital Art History” in relation to “non-digital”, to information science and general DH. It will encompass the range of the field and its vector into the future. It will also highlight exceptional projects and feature book reviews.

Featured author will be Lev Manovich. He is Professor at The Graduate Center, CUNY, and a Director of the Software Studies Initiative that works on the analysis and visualization of big cultural data.

Manuscripts may be sent to the editors Harald Klinke and Liska Surkemper (editors@dah-journal.org) by Jan, 30 2015. For more information for authors, please visit “Information for Authors”.

ISSN-Print 2363-5398
ISSN-Internet 2363-5401

Quelle: http://dhd-blog.org/?p=4327

Weiterlesen
1 3 4 5 6 7 9