Stellenausschreibung: Lexikographie

Im Kompetenzzentrum für elektronische Erschließungs- und Publikationsverfahren in den Geisteswissenschaften an der Universität Trier | Trier Center for Digital Humanities ist zum nächstmöglichen Zeitpunkt eine Stelle als

Wissenschaftlicher Mitarbeiter/Wissenschaftliche Mitarbeiterin EG 13 TV-L (50%)

zu besetzen. Die Stelle ist zunächst befristet auf ein Jahr, es besteht aber die Möglichkeit zur Verlängerung bis zum 31.12.2016.

Zu den zentralen Aufgaben gehören die konzeptionelle Optimierung und Weiterentwicklung des Trierer Wörterbuchnetzes (woerterbuchnetz.de/). Im Trierer Wörterbuchnetz stehen zurzeit mehr als 20 unterschiedliche Nachschlagewerke zur Verfügung. Neben eigenen, durch das Kompetenzzentrum zumeist im Rahmen von drittmittelgeförderten (Retro-)Digita­lisierungsprojekten entstandenen Wörterbuchressourcen, können auch externe Nach­schlagewerke abgefragt werden. Eingebunden in ein Team von Digital Humanists, Informati­kern und Webdesignern ist der Stelleninhaber/die Stelleninhaberin verantwortlich für den weiteren Ausbau des Wörterbuchnetzes. Dazu gehören nicht nur die Einbindung weiterer Ressourcen, sondern auch die Anwendung innovativer Erschließungs- und Visualisierungs­methoden der digitalen Lexikographie und die Integration einer Social Media-Komponente.

Erwartet werden ein Hochschulabschluss im Sinne von § 56 Abs. 2 Nr. 1 Hochschulgesetz Rheinland-Pfalz in einer Philologie mit historisch-sprachwissen­schaftlichem Schwerpunkt, Kenntnisse der Theorie und Praxis insbesondere der historischen Lexikographie und Lexikologie, Kenntnisse im Bereich der EDV-Philologie (XML, TEI, Daten­banken, Visualisierung) und digitalen Lexikographie, Erfahrung in der Organisation wissen­schaftlicher Arbeit und erwiesene Teamfähigkeit und Flexibilität sowie die Bereit­schaft, sich in neue Inhalte einzuarbeiten. Erwünscht ist außerdem Expertise in der Drittmittelakquise.

Das Kompetenzzentrum für elektronische Erschließungs- und Publikationsverfahren in den Geisteswissenschaften an der Universität Trier hat sich seit seiner Gründung im Jahr 1998 zu einem national und international etablierten Zentrum für Digital Humanities (DH) entwickelt. Es wird vom Land Rheinland-Pfalz sowie der Universität Trier gefördert.

Sein Ziel ist es, durch die (Weiter-)Entwicklung und Anwendung innovativer informations­technologischer Methoden und Verfahren geistes-, kultur- und sozialwissenschaftliche Forschungsvorhaben zu unterstützen, neue Forschungsansätze in diesen Fachdisziplinen zu begründen und gleichzeitig zur Ausbildung neuer Forschungsfelder, Methoden und Metho­dologien in den informatiknahen Fächern beizutragen. Zum besonderen Profil des Zentrums gehören die Schaffung innovativer Erschließungs-, Vernetzungs- und Publikationsformen für geistes-, kultur- und sozialwissenschaftliche Grundlagen­werke, die semantische Analyse und Visualisierung von größeren zusammenhängenden Textkorpora sowie die Entwicklung virtueller Forschungsumgebungen. Die Zusammenarbeit zwischen verschiedenen geistes-, kultur- und sozialwissenschaftlichen Disziplinen, Informatik und Computerlinguistik und die daraus resultierende Methoden- und Perspektivenvielfalt stehen dabei im Mittelpunkt des Zentrums. Die konsequente Verwendung offener Standards ist leitende Philosophie.

Weitere Informati­onen stehen auf der Homepage des Kompetenzzentrums zur Verfügung: www.kompetenzzentrum.uni-trier.de.

Wohnsitznahme in Trier ist erforderlich.

Schwerbehinderte werden bei entsprechender Eignung bevorzugt eingestellt.

Die Universität Trier ist bestrebt, die Zahl ihrer Wissenschaftlerinnen zu erhöhen, und fordert diese nachdrücklich zu einer Bewerbung auf.

Bewerbungen mit Lebenslauf, Zeugniskopien und Schriftenverzeichnis sind bis zum 08.06.2014 zu richten an die Wissenschaftliche Leitung des Kompetenzzentrums, Prof. Dr. Claudine Moulin, Universität Trier, Fachbereich II/Germanistik, D-54286 Trier (moulin@uni-trier.de).

Weitere Informationen können auch bei der Geschäftsführung des Kompetenzzentrums, Dr. Thomas Burch (burch@uni-trier.de) oder Dr. Vera Hildenbrandt (vera.hildenbrandt@uni-trier.de) eingeholt werden.

Wir bitten, Bewerbungsunterlagen nicht in Mappen oder Hüllen und auch nur als unbeglaubigte Kopie vorzulegen, da die Unterlagen nicht zurückgesandt werden; sie werden nach Abschluss des Auswahlverfahrens vernichtet. Bewerbungen in digitaler Form sind möglich; wir bitten alle Dokumente in einer PDF-Datei zusammenzufassen.

WM E 13 – KompZe_Stellenausschreibung_Lexikographie

Quelle: http://dhd-blog.org/?p=3552

Weiterlesen

Stellenausschreibung: Projektmanagement

Im Kompetenzzentrum für elektronische Erschließungs- und Publikationsverfahren in den Geisteswissenschaften an der Universität Trier | Trier Center for Digital Humanities ist zum nächstmöglichen Zeitpunkt eine Stelle als

Wissenschaftlicher Mitarbeiter/Wissenschaftliche Mitarbeiterin EG 13 TV-L (100%)

zu besetzen. Die Stelle ist zunächst befristet auf ein Jahr, es besteht aber die Möglichkeit zur Verlängerung bis zum 31.12.2016.

Zu den zentralen Aufgaben des Mitarbeiters/der Mitarbeiterin gehören die Konzeption neuer Projektideen unter Berücksichtigung aktuellster Entwicklungen im Bereich der Digital Humanities, die Ausarbeitung von Projektanträgen und die Administration und Koordination laufender Forschungsvorhaben in enger Zusammenarbeit mit der Leitung und Geschäfts­führung des Zentrums sowie den beteiligten externen Partnern.

Voraussetzung ist eine herausragende Promotion in einem geistes-, kultur- oder sozial­wissenschaftlichen Fach. Erwartet werden außerdem Erfahrungen im Bereich des Wissen­schaftsmanagements und der Projektakquise sowie auf dem Gebiet der digitalen Geistes­wissenschaften (insbesondere mit Standard-Technologien wie XML, TEI, UNICODE). Wenn Sie sich kreativ-konzeptionell in ein großes DH-Team einbringen möchten, flexibel und team­fähig sind und über die Bereitschaft verfügen, sich rasch in neue Inhalte einzuarbeiten, freuen wir uns über Ihre Bewerbung.

Das Kompetenzzentrum für elektronische Erschließungs- und Publikationsverfahren in den Geisteswissenschaften an der Universität Trier hat sich seit seiner Gründung im Jahr 1998 zu einem national und international etablierten Zentrum für Digital Humanities (DH) entwickelt. Es wird vom Land Rheinland-Pfalz sowie der Universität Trier gefördert.

Sein Ziel ist es, durch die (Weiter-)Entwicklung und Anwendung innovativer informations­technologischer Methoden und Verfahren geistes-, kultur- und sozialwissenschaftliche Forschungsvorhaben zu unterstützen, neue Forschungsansätze in diesen Fachdisziplinen zu begründen und gleichzeitig zur Ausbildung neuer Forschungsfelder, Methoden und Metho­dologien in den informatiknahen Fächern beizutragen. Zum besonderen Profil des Zentrums gehören die Schaffung innovativer Erschließungs-, Vernetzungs- und Publikationsformen für geistes-, kultur- und sozialwissenschaftliche Grundlagen­werke, die semantische Analyse und Visualisierung von größeren zusammenhängenden Textkorpora sowie die Entwicklung virtueller Forschungsumgebungen. Die Zusammenarbeit zwischen verschiedenen geistes-, kultur- und sozialwissenschaftlichen Disziplinen, Informatik und Computerlinguistik und die daraus resultierende Methoden- und Perspektivenvielfalt stehen dabei im Mittelpunkt des Zentrums. Die konsequente Verwendung offener Standards ist leitende Philosophie.

Weitere Informati­onen stehen auf der Homepage des Kompetenzzentrums zur Verfügung: www.kompetenzzentrum.uni-trier.de.

Wohnsitznahme in Trier ist erforderlich.

Schwerbehinderte werden bei entsprechender Eignung bevorzugt eingestellt.

Die Universität Trier ist bestrebt, die Zahl ihrer Wissenschaftlerinnen zu erhöhen, und fordert diese nachdrücklich zu einer Bewerbung auf.

Bewerbungen mit Lebenslauf, Zeugniskopien, ev. Schriftenverzeichnis sind bis zum 8. Juni 2014 zu richten an die Wissenschaftliche Leitung des Kompetenzzentrums, Prof. Dr. Claudine Moulin, Universität Trier, Fachbereich II/Germanistik, D-54286 Trier (moulin@uni-trier.de).

Weitere Informationen können auch bei der Geschäftsführung des Kompetenzzentrums, Dr. Thomas Burch (burch@uni-trier.de) oder Dr. Vera Hildenbrandt (hildenbr@uni-trier.de) eingeholt werden.

Wir bitten, Bewerbungsunterlagen nicht in Mappen oder Hüllen und auch nur als unbeglaubigte Kopie vorzulegen, da die Unterlagen nicht zurückgesandt werden; sie werden nach Abschluss des Auswahlverfahrens vernichtet. Bewerbungen in digitaler Form sind möglich; wir bitten alle Dokumente in einer PDF-Datei zusammenzufassen.

WM E 13 – KompZe_Stellenausschreibung_Projektmanagement

Quelle: http://dhd-blog.org/?p=3546

Weiterlesen

Masterstudiengang: Digital Humanities an der Universität Trier

Voraussichtlich ab dem Wintersemester 2014/15 können die ersten Studierenden an der Universität Trier ein Masterstudium im Studiengang Digital Humanities (M. Sc.) aufnehmen.

Der neu eingerichtete bilinguale (Deutsch – English) Studiengang ist im Fach Computerlinguistik und Digital Humanities angesiedelt und wird in Zusammenarbeit mit dem Trier Center for Digital Humanities angeboten. An der Schnittstelle von Informatik- und Geisteswissenschaften vermittelt das Studium Bachelor-Absolventen beider Disziplinen Kernkompetenzen eines aufstrebenden Wissenschaftszweiges.

In einer Regelstudienzeit von vier Semestern erwerben die Studierenden zunächst die den persönlichen Schwerpunkt ergänzenden Grundlagen aus den Bereichen Informatik oder Geisteswissenschaften. Im weiteren Verlauf werden Fertigkeiten der Repräsentation, der digitalen Aufbereitung sowie der Visualisierung und Analyse geistes- und kulturwissenschaftlicher Daten, sowohl textueller als auch multimedialer Natur, vermittelt.

Trier bietet nicht nur aufgrund seines kulturellen Erbes und seiner langen Forschungstradition in den Digital Humanities und der Computerlinguistik einen idealen Ausgangspunkt für innovative geisteswissenschaftliche Forschung, auch die Vernetzung zur Universität der Großregion mit den Ländern Frankreich, Luxembourg und Deutschland fördert interkulturelle Vielfalt. Studierende erhalten durch die Verknüpfung mit sprach- und literaturwissenschaftlichen sowie kunsthistorischen Seminaren eine breite geisteswissenschaftliche Ausrichtung. Zudem ermöglicht die enge Anbindung an das Trier Center for Digital Humanities sowie die Kooperation mit verschiedenen kulturhistorischen Instituten in der Region die projektnahe Praxis für angehende Wissenschaftler.

Der Studiengang wird vorbehaltlich der ausstehenden Akkreditierung ab dem Wintersemester 2014/15 angeboten. Die Bewerbungsfrist für Studierende endet am 13.09.2014, für ausländische Studierende am 15.07.2014.

Weitere Informationen erhalten Sie auf der Seite des Faches Computerlinguistik und Digital Humanities

Ansprechpartner:

Prof. Dr. Caroline Sporleder
Universität Trier
FB II – Computerlinguistik und Digital Humanities
+49 651 201-3363
sporledc@uni-trier.de

Plakat_DH-Studiengang

Quelle: http://dhd-blog.org/?p=3517

Weiterlesen

Zweitägiger Workshop: Forschungsdaten für Andere. Lizenzen und Werkzeuge für Historiker

Das IEG Mainz als Partner in DARIAH-DE (Digital Research Infrastructure for the Arts and Humanities) richtet einen zweitägigen Workshop zur Lizenzierung von Forschungsdaten aus und läd dazu Historikerinnen und Historiker ein, die selbst über Forschungsdaten verfügen, planen diese zu veröffentlichen und nun nach einer geeigneten Lizenz für ihre Daten suchen. Der Workshop findet im Leibniz-Institut für Europäische Geschichte, Alte Universitätsstraße 19 in Mainz statt, beginnt am 12.06. um 10:00 Uhr und endet am 13.06.2014 um 14:00 Uhr.

“Primärdaten als Grundlagen für Veröffentlichungen sollen auf haltbaren und gesicherten Trägern in der Institution, wo sie entstanden sind, für zehn Jahre aufbewahrt werden.” Diese Empfehlung findet sich in den “Vorschlägen für gute wissenschaftliche Praxis” der Deutschen Forschungsgemeinschaft. Doch allein mit der Archivierung von Daten ist die Nachvollziehbarkeit wissenschaftlicher Ergebnisse nicht gegeben. Daneben ist die Bereitstellung von Daten eine mindestens genauso wichtige wie berechtigte Forderung. Ein möglichst freier, überregionaler und langfristiger Zugriff auf Daten wirft aber eine Reihe von rechtlichen Fragen auf, die mit Hilfe von Lizenzen geregelt werden können. Sie geben u. a. Antworten darauf, was Forschende mit Forschungsdaten anderer tun dürfen und was nicht.

In dem ersten Themenblock werden Experten auf die rechtlichen Grundlagen der Forschungsdatenlizenzierung eingehen und die Themenkomplexe Urheberrechte, Nutzungsrechte und Datenschutz skizzieren. Dabei sollen auch die praktischen Erfahrungen einzelner Projekte und Einrichtungen mit Lizenzlösungen für den internationalen und nationalen Datenaustausch diskutiert werden.
Im Rahmen der zweiten Einheit bekommen die TeilnehmerInnen die Möglichkeit, an einem eigenen Rechner Tools zu testen, die sie bei der Lizenzentscheidung und -erstellung unterstützen sollen. Die Ergebnisse des Nutzerfeedbacks aus dem Workshops werden in die Weiterentwicklung dieser Tools einfließen.
Zwischen diesen beiden Themenblöcken werden die TeilnehmerInnen Gelegenheit dazu haben, von ihren Erfahrungen und Anforderungen über die Bereitstellung von Daten zu berichten.

Anmeldungen sind ab sofort bis zum 04.06.2014 über das Registrierungsformular möglich. Der Workshop ist auf max. 18 Personen beschränkt, die Vergabe der Plätze und eine Zusage über eine Teilnahme erfolgt in der Reihenfolge der Anmeldungen. Die TeilnehmerInnen werden gebeten, Ihren eigenen Computer/Laptop mitzubringen, um an den Hands-On-Sessions aktiv teilnehmen zu können.

Quelle: http://dhd-blog.org/?p=3488

Weiterlesen

Wo Preußen Sachsen küsst…

Der Kultursommer in Deutschland ist dieses Jahr von Jubiläen aller Art geprägt. Zahlreiche Ausstellungen sind geplant, und viele davon drehen sich um die Epoche der Frühen Neuzeit. Hier werden in den nächsten Wochen einige von diesen vorgestellt.

Im Laufe einer ersten Recherche stieß ich auf die erste Brandenburgische Landesausstellung Preußen und Sachsen. Szenen einer Nachbarschaft  (07.06.2014-02.11.2014). Obwohl der Anlass das 200. Jubiläum des Wiener Kongresses ist, steht im Mittelpunkt die Zeit von der Mitte des 17. bis zum 19. Jahrhundert. Der Grund, weswegen ich diese Ausstellung schon vorgreifend vorstellen möchte, ist der sehr gut gemachte und wirklich lustige Trailer zur Ausstellung. Die Produktion von Studierenden der Hochschule für Film und Fernsehen “Konrad Wolf” Potsdam-Babelsberg (HFF) zeigt in etwa einer Minute das Programm der Ausstellung auf. Die Beziehung zwischen Preußen und Sachsen von Freundschaft über kulturellen und wirtschaftlichen Austausch bis hin zur Konkurrenz und offenen Rivalität wird im Trailer durch eine Schlacht mit kuriosem Ende dargestellt. Wenn die Ausstellung nur halb so gut wird wie der Werbefilm, ist sie auf jeden Fall einen Besuch wert!

Quelle: http://frueheneuzeit.hypotheses.org/1702

Weiterlesen

Digitale Kunstgeschichte in der Schweiz: Voraussetzungen und Perspektiven

Das digitale Zeitalter hat die Disziplin der Kunstgeschichte nachhaltig verändert. Primärquellen aus Archiv- und Bibliotheksbeständen werden laufend digitalisiert und sind in zunehmendem Mass online auffindbar. Immer mehr digitale Repositorien bieten den Forschenden Informationen zu Personen, Institutionen und Kunstwerken.

Das SIK-ISEA (Schweizerisches Institut für Kunstwissenschaft) organisiert in Zusammenarbeit mit dem Kunsthistorischen Institut der Universität Zürich und mit dem Institut für Geschichte und Theorie der Architektur (gta) der ETH Zürich zu diesem Thema eine internationale Arbeitstagungin Zürich..

Datum: 26.–27.6.2014

Programm: Donnerstag, 26. Juni 2014

11.00–11.15 Uhr: Begrüssung / Einführung
11.15–12.00 Uhr
Prof. Dr. Anna Schreurs-Morét
Albert-Ludwigs-Universität Freiburg i. Br.
Keynote (30 Min.) mit Diskussion (15 Min.)

12.00–13.00 Uhr: Mittagspause
13.00–15.00 Uhr
Parallel durchgeführte, protokollierte Workshops (Modul 1)

Open Access
-Moderation: Dr. Dirk Verdicchio, Koordinator Open Access,
Universität Bern, Universitätsbibliothek
-Co-Moderation: Dr. iur. Kai-Peter Uhlig, Rechtsanwalt, Zürich

Digital Workspace
-Moderation: Dr. Sonja Palfner, Projektleiterin E-Science Interfaces
-Co-Moderation: Dr. Heike Neuroth, Leiterin der Gruppe Forschung und
Entwicklung, Niedersächsische Staats- und Universitätsbibliothek
Göttingen

Normdaten
-Moderation: Dr. Christian Bracht, Direktor Bildarchiv Foto Marburg
-Co-Moderation: Thomas Hänsli, dipl. arch. ETHZ, Leiter Digitale
Kunstgeschichte, Institut gta (ETH Zürich) und Kunsthistorisches
Institut (Universität Zürich)

Digitalisierung und Methodologie
-Moderation: Prof. Dr. Martin Warnke, Professor für Digitale Medien und
Kulturinformatik, Leuphana Universität, Lüneburg
-Co-Moderation: lic. phil. Michael Schmid, Leiter Schweizerisches
Kunstarchiv, SIK-ISEA, Zürich

15.00–16.00 Uhr: Pause
16.00–17.30 Uhr
Plenum: Präsentation der Ergebnisse aus den Workshops von Modul 1 (je 20
Minuten) mit Diskussion

Open Access: Dr. Dirk Verdicchio
Digital Workspace: Dr. Sonja Palfner
Normdaten: Dr. Christian Bracht
Digitalisierung und Methodologie: Prof. Dr. Martin Warnke

17.30–18.00 Uhr: Pause
18.00–19.00 Uhr
Abendvortrag

Prof. Dr. David Gugerli
Professur für Technikgeschichte, ETH Zürich
“Korrespondenzen der digitalen Gesellschaft. Wie die Welt in den
Computer kam”

19.00 Uhr: Ende des ersten Tagungstages

Freitag, 27. Juni 2014
9.00–9.45 Uhr
Prof. Dr. Hubertus Kohle
Ludwig Maximilians-Universität München
Keynote (30 Min.) mit Diskussion (15 Min.)

10.00–12.00 Uhr
Parallel durchgeführte, protokollierte Workshops (Modul 2)

Big Data
-Moderation: Thomas Hänsli, dipl. arch. ETHZ, Leiter Digitale
Kunstgeschichte, Institut gta (ETH Zürich) und Kunsthistorisches
Institut Universität Zürich)
-Co-Moderation: Dr. Christian Bracht, Direktor Bildarchiv Foto Marburg

Archive und Sammlungen
-Moderation: lic. phil. Michael Schmid, Leiter Schweizerisches
Kunstarchiv, SIK-ISEA, Zürich
-Co-Moderation: Prof. Dr. Martin Warnke, Professor für Digitale Medien
und Kulturinformatik, Leuphana Universität, Lüneburg

Digitalisierung und Recht
-Moderation: Dr. Kai-Peter Uhlig, Rechtsanwalt, Zürich
-Co-Moderation: Dr. Dirk Verdicchio, Koordinator Open Access,
Universität Bern, Universitätsbibliothek

Nachhaltigkeit
-Moderation: Dr. Heike Neuroth, Leiterin der Gruppe Forschung und
Entwicklung, Niedersächsische Staats- und Universitätsbibliothek
Göttingen
-Co-Moderation: Dr. Sonja Palfner, Projektleiterin E-Science Interfaces

12.00–13.30 Uhr: Mittagspause
13.30–15.00 Uhr
Plenum: Präsentation der Ergebnisse aus den Workshops von Modul 2 (je 20
Minuten) mit Diskussion

Big Data: Thomas Hänsli, dipl. arch. ETHZ
Archive und Sammlungen: lic. phil Michael Schmid
Digitalisierung und Recht: Dr. Kai-Peter Uhlig
Nachhaltigkeit: Dr. Heike Neuroth

15.00–16.00 Uhr: Pause
16.00–17.00 Uhr
Roundtable mit Diskussion im Plenum
Moderation: Prof. Dr. Anna Schreurs, Prof. Dr. Hubertus Kohle, Vertreter
der Organisatoren

Verabschiedung der Erklärung “Acht Punkte zu einer digitalen
Kunstgeschichte” / “Eight Points Towards a Digital Art History”

17.00–18.00 Uhr: Aperitif
18.00 Uhr Ende der Tagung

Vorträge / Moderation
Christian Bracht, Dr. phil.
Direktor, Bildarchiv Foto Marburg

Roger Fayet, Dr. phil.
Direktor, Schweizerisches Institut für Kunstwissenschaft (SIK-ISEA),
Zürich

David Gugerli, Prof. Dr.
Professur für Technikgeschichte, ETH Zürich

Thomas Hänsli, dipl. arch. ETHZ
Leiter Digitale Kunstgeschichte, Institut gta (ETH Zürich) und
Kunsthistorisches Institut (Universität Zürich)

Hubertus Kohle, Prof. Dr.
Lehrstuhl für Mittlere und Neuere Kunstgeschichte,
Ludwig-Maximilians-Universität München

Heike Neuroth, Dr. rer. nat.
Leiterin der Gruppe Forschung und Entwicklung, Niedersächsische Staats-
und Universitäts-bibliothek Göttingen

Matthias Oberli, Dr. phil.
Abteilungsleiter Kunstdokumentation, Schweizerisches Institut für
Kunstwissenschaft (SIK-ISEA), Zürich

Sonja Palfner, Dr. phil.
Projektleiterin E-Science Interfaces, Friedland-Weichensdorf

Michael Schmid, lic. phil.
Leiter Schweizerisches Kunstarchiv, Schweizerisches Institut für
Kunstwissenschaft (SIK-ISEA), Zürich

Anna Schreurs-Morét, Prof. Dr.
Professur für Kunstgeschichte der Frühen Neuzeit,
Albert-Ludwigs-Universität, Freiburg i. Br.

Kai-Peter Uhlig, Dr. iur.
Rechtsanwalt, Zürich

Dirk Verdicchio, Dr. phil.
Koordinator Open Access, Universität Bern, Universitätsbibliothek Bern

Martin Warnke, Prof. Dr.
Professur für Digitale Medien und Kulturinformatik, Leuphana
Universität, Lüneburg

Tristan Weddigen, Prof. Dr.
Lehrstuhl für Kunstgeschichte der Neuzeit, Universität Zürich

Konzept und Organisation:
Schweizerisches Institut für Kunstwissenschaft (SIK-ISEA)
Dr. Roger Fayet, Direktor
Dr. Matthias Oberli, Abteilungsleiter Kunstdokumentation
lic. phil. Michael Egli, Leiter Datenbanken
lic. phil. Regula Krähenbühl, Leiterin Wissenschaftsforum

Universität Zürich, Kunsthistorisches Institut
Prof. Dr. Tristan Weddigen

ETH Zürich, Institut für Geschichte und Theorie der Architektur gta
(D-ARCH)
Thomas Hänsli, dipl. arch. ETHZ, Leiter Digitale Kunstgeschichte /
Digitale Diathek

Die Tagung haben – neben anderen – unterstützt
Schweizerische Akademie der Geistes- und Sozialwissenschaften (SAGW)
Schweizerischer Nationalfonds zur Förderung der wissenschaftlichen
Forschung (SNF)

Tagungsort
SIK-ISEA, Zollikerstrasse 32 (Nähe Kreuzplatz), CH-8032 Zürich
T +41 44 388 51 51 / F +41 44 381 52 50
sik@sik-isea.ch, www.sik-isea.ch

Deadline zur Registrierung: 13. Mai 2014

Teilnahme und Anmeldung
Von den Teilnehmenden wird eine aktive Mitarbeit in je einem Workshop in den Modulen 1 und 2 erwartet. Tagungssprache ist Deutsch.  Bitte melden Sie sich an bis am 13. Juni 2014 (per Post, per E-Mail oder per Fax an die oben angegebenen Koordinaten) und geben Sie uns Ihre Workshop-Präferenzen sowie Ihren Arbeitsschwerpunkt bekannt.
Die Teilnahme an der Tagung ist kostenlos. Die Platzzahl ist beschränkt.

Weitere Informationen: http://www.sik-isea.ch/Aktuell/Veranstaltungen/tabid/116/activeid/1560/Default.aspx

Programm und Abstracts
www.sik-isea.ch/digital-art-history

 

Quelle: http://dhd-blog.org/?p=3441

Weiterlesen

Explore, play, analyse your corpus with TXM

A short introduction of TXM by José Calvo and Silvia Gutiérrez

 

On Feburary 6-7, 2014, the Department for Literary Computing, Würzburg University, organized a DARIAH-DE Workshop called “Introduction to the TXM Content Analysis Platform“. The workshop leader was Serge Heiden (ENS-Lyon) who is in charge of the conceptualizing and implementing TXM at the ICAR Laboratory in France.

The workshop included a brief explanation of TXM’s background, but it concentrated on a very practical approach. We learned about the “Corpora options” (that is what you can know about your corpus: POS descriptions, text navigation), but also what you can do with it: find Key Words In Context (KWIC), retrieve Parts of Speech, and moreover how you can analyse these results querying for the Most Frequent Words or the cooccurrences.

In the evening of day one, we got an overview of the state of art of the use of “Natural Language Processing for Historical Texts” in a keynote by Michael Piotrowski (IEG Mainz). First of all, he started by defining Historical Texts as all those texts that will bring major problems to NLP. In order to clarify these definitions, Dr. Piotrowski listed some of the greatest difficulties:

  • Medium and integrity: we have to remember that in order to analyse an old script that was written in clay tablets or marble, it is compulsory to first find a way to transfer this information into a digital format (not an easy task); plus: some texts are defective or unclear, and transcriptions may introduce new errors
  • Language, writing system and spelling: many of the historical texts were written in extinct languages or variants different from today’s variants; as for the writing system, the many abbreviation forms and the variety of typefaces are more or less problematic; finally, we should not forget the little problem of non-standardized spelling!
  • State of art: Historical languages are less-resourced-languages, there are few texts available, and NLP for historical languages is carried out in specific projects; that is, there are no common standards and everyone has to start from zero.

Not to discourage his public, he then offered an overview of what can be done: Part-of-speech tagging. Creating a tagger for a historical language can be done with the the following methods:

  1. From scratch: manually annotating your text
  2. Using a modern tagger and manually correcting all errors
  3. Modernizing spelling
  4. Bootstraping POS tagger (with many versions of the same text, like the Bible)

Now let’s get back to the TXM workshop. In this post, you will find a brief practical introduction to this tool. We will provide you with a rough idea of what is this software about and what you can do with it. If you would like to learn more, do check the links we have shared towards the end of this post. By the way, all words marked with a little * are explained at the end, in the “Vocabulary” section.

What is TXM?

This software is at the juncture of linguistics and scholarly editing and it’s made to help scholars analyse the content of any kind of digital text (Unicode encoded raw texts or XML/TEI tagged texts).

To get to know more about the TXM background, don’t miss Serge Heiden’s Workshop slides:

Where can I work with it?

You may work on the desktop (download page) or online version of the tool. Both platforms have advantages and disadvantages. The online version allows you to start the work without downloading or installing anything, and share your corpora with other colleagues. With the desktop version, you can easily lemmatize and analyse the Parts of Speech (POS*) of your own texts.

So that you can get a better idea of the way it works, we’ll guide you with some practical examples. Say you want to search for the lemma politics on the “Brown Corpus*. First you have to open the Index option:

2014-02-15_19h28_12

Then you use the query box to type in the query, using the following structure from the CQL* query language: [enlemma=“politics”]. In the desktop version, the results will look as follows (the web version is very similar):

2014-02-12_11h02_39

What can I do with TXM?

Explore your corpus

Corpora options

On the first column of both interfaces there’s a list of the corpora you can work with (in this case DISCOURS, GRAAL, BROWN). When you click with the right button of your mouse on one of your corpora, you will see a list of icons:

png;base6465a19490765df979These are the main tools of TXM and you will use one of these to analyse your corpus in different ways.

Corpus description (Dimensions)

Before you start with the fun, you should click the “Dimensions” option and have a look at some general information about the corpus (number of words, properties, and structural units, as well as the lexical and structural units properties). This information is richer in the desktop version:

2014-02-12_11h12_23

Text navigation

A very practical TXM feature is the text display. If you wish to open a list of the corpus’ elements, you just have to click on the book icon (called “Texts” in the online version and “Open edition” in the other). A list like the following will be shown:

2014-02-12_11h17_48

Moreover, if you click on the book icon in the “edition” column, TXM will open a readable version of our text:

2014-02-12_11h18_47

Play with your corpus

Key Words In Context (KWIC)

A very typical visualization of a corpus is the so called KWIC view, which you have already seen displayed in the politics lemma example.

With TXM you can sort the results using different criteria organizing them according to the right or left context of your word, the word form, etc; besides, you can choose which elements you want to visualize. Say you’re searching for collocations of present as an adjective and NOT the data related to the noun nor the verb form (to present). First of all you need to go to the INDEX.

Once you open this, you can set the options in the “Keyword” column and visualize the grammatical category along with the word form. Then you type “JJ_present”, where “JJ” means “adjective” and “present” is the verb form, so that only those instances of the graphical form present are selected which are adjectives. It is also possible to order this data by different criteria.

As you can see in the next screenshot, you are looking for the lemma present. Therefore, you should set the first “Sort keys” menu to “Left context”, and the second one to “Keyword”; what you’re saying to the software is that you want all the examples sorted by the Left context as a first criteria and the Keyword as a second. In the “Keyword” > “View” menu we have set “enpos, word”. With that we are ordering TXM to show us not just the word form, but also the POS. That is why we see the keywords as “VVN_present” (that means, present as a verb) or JJ_present (present as an adjective):

png;base64f22bacff5fc65745

Parts of Speech

Another way to display specific words according to their POS can be run by using the Index tool (A|Z icon), from a lexicologist point of view one the most interesting options of TXM. If you search again for the lemma present and in the properties box, you chose to see not only the word form but the POS as well, TXM will tell you the frequency, word form and POS of each different word form found in the corpus:

2014-02-12_11h53_26

If you only want the word forms of the verb to present, you can add the POS information to the query: [enlemma=“present” & enpos=“VV.*”]

These index can able to create lists of n-grams. Let’s search for the most frequent words that appear after the lemma present:

2014-02-12_11h57_37

Quantative analysis

Most Frequent Words

To query something you have to have a specific question and know some basic information, for instance: in which language is the corpus? A way to have a general idea about the texts is the Lexicon option, the icon with AZ both on white background. When you click on it, you will see a list of the most frequent word forms:

2014-02-13_11h58_08

 

You can change the settings of the query and ask to count not the word forms but the lemmas. In that case the verb to be climbs up some positions, now that is, are, were, been etc. count as one single unity:

png;base64c5510467d9a7ff1f

 

Coocurrences

Another quantitative analysis concerns the coocurrences, that is, the words (or other unities) that frequently appear close to a specific word (or to other unities). Unlike n-grams, coocurrences do not have to appear exactly after or before the unity, they just have to be somewhere close to it.

The Brown corpus was compiled in the 1960s in the United States, the main years of the Cold War. So let’s see the vocabulary related to the words United States and which one to Soviet Union:

2014-02-13_12h13_56

Progression

Another statistical option that exists on the Desktop version is the Progression (icon with an arrow). This option helps visualize how many times a unity appears in a corpus or a text. This might be interesting to see the progress of a word between two dates or see the development of a word in the different parts of a text.

For the next example, the text of Bram Stocker’s novel Dracula was imported (the version used is from the University of Adelaide). With the information of the chapters kept in XML elements, you can look for the name of the main characters and see how many times and where they appear. The next screen-shot shows the complete query:

2014-02-13_13h41_35

To understand the next graphic, you have to keep in mind that if the lines ascends, that means the name has been mentioned; if the line keeps going horizontally, it means the name didn’t appear any more.

 

2014-02-08_15h54_49

 

As you can see, the Count Dracula (yellow) is the most mentioned name in the first four chapters, but it almost disappears towards the 17th chapter. In this gap, Lucy (blue) becomes the main character and, from the 9th chapter, the Professor van Helsing (red) takes the “leading” role. It is also remarkable that this last character is not only the most frequent, but the most stable.

Sub-corpora and partitions

You can divide your corpus into two options: sub-corpora and partitions. With a sub-corpus you can choose some texts from a corpus and work with them. With the partition, you can split the corpus into more than one part and easily compare the results of the different parts. On the next screenshot, you have the menu where a Partition called “Fiction and Press partition” is being created, using the XML “text” and the property “type” to choose which kind of text is wanted. This partition will have two parts: one called “Fiction” and the other one called “Press” and each of it will contain the respective type of texts.

2014-02-13_13h26_05

Useful links

“A gentle introduction to TXM key concepts in 90 minutes” by Serge Heiden: http://sourceforge.net/projects/txm/files/documentation/IQLA-GIAT%202013%20TXM-workshop.pdf/download

Tutorial video introducing TXM 0.4.6 (WARNING: the software, specially it’s surface, is now very different): http://textometrie.ens-lyon.fr/IMG/html/intro-discours.htm

TXM background http://fr.slideshare.net/slheiden/txm-background

TXM import process http://fr.slideshare.net/slheiden/txm-import-process

Vocabulary

 

Brown Corpus

The Brown corpus consists of 500 English-language texts, with roughly one million words, compiled from works published in the United States in 1961. You can learn more about it here.

CQL

TXM uses an underlying Contextual Query Language, which is a formal system for representing queries to information retrieval systems such as web indexes, bibliographic catalogues and museum collection information. More information in the official web-page: http://www.loc.gov/standards/sru/cql/

 

POS

Here is a useful alphabetical list of part-of-speech tags used in the Penn Treebank Project (tag and description): https://www.ling.upenn.edu/courses/Fall_2003/ling001/penn_treebank_pos.html

Quelle: http://dhd-blog.org/?p=3384

Weiterlesen

CfP: DARIAH Workshop “Innovative Teaching Methods and Practices in Digital Humanities” @DH2014 verlängert!

Dear colleagues,

the deadline for contributions to the full-day DARIAH VCC2 workshop “Innovative Teaching Methods and Practices in Digital Humanities” on July 7 at the DH2014 in Lausanne has been extended to April 28!
Also, we are delighted to announce that DARIAH Austria will sponsor a 200 Euro award for the best contribution (voted on by the participants), which will also be used as a showcase in consecutive DARIAH events!

See the PDF version [CfPDARIAHWorkshop] of the call or check it out online at: http://tinyurl.com/dariah-eu-cfp

Proposals should consist of an abstract of up to 500 words and a short bio which should be submitted by e-mail to: zim@uni-graz.at
The submission deadline is April 28.
Notifications regarding the acceptance of proposals will be sent out by May 19.

 

Quelle: http://dhd-blog.org/?p=3366

Weiterlesen

Nachlese DHd 2014: Forschungsfragen und -methoden

Die Auftakt-Session der DARIAH-DE Pre-Conference widmete sich Forschungsfragen- und Methoden (digitaler) Geisteswissenschaften. Christof Schöch (Uni Würzburg) und Dirk Wintergrün (MPIWG) gaben darin einen Überblick über das Methodenfeld unter Einbeziehung von veranschaulichenden Use Cases und stellten Überlegungen zu Grundfunktionen digitaler Forschungsumgebungen an.

Einen roten Faden dieser Methoden-Sitzung bildete der Umgang mit der Heterogenität der Geisteswissenschaften – repräsentiert durch ein interdisziplinär aufgestelltes Fachpublikum mit unterschiedlichen Forschungsinteressen – und ihrer Auswirkung auf Tools sowie das Erzielen möglicher Synergie-Effekte. Die Interaktion von GeisteswissenschaftlerInnen untereinander und mit/tels Anwendungen sind Ziele, die es durch eine tragende Forschungsinfrastruktur bestmöglich zu unterstützen gilt.

So wurden Möglichkeiten zum Auffinden methodischer Gemeinsamkeiten über Disziplinen- und Projektgrenzen hinweg ebenso diskutiert wie der Transfer geisteswissenschaftlicher Methoden in eine technische Umsetzung. Schließlich wurde die Rolle von Forschungsinfrastrukturen und ihre Anforderungen anhand der Themenfelder ‘Annotation’ und ‘Big Data’ (in DARIAH II vertreten durch entsprechend thematisch ausgerichtete Cluster) perspektivisch aufgezeigt.

Eine Herausforderung an Tools und Dienste, die beim Beantworten geisteswissenschaftlicher Fragestellungen helfen oder weitere Forschungsfelder eröffnen, liegt darin, so generisch ausgerichtet zu sein, dass sie für verschiedene Kontexte Relevant haben. Aus einer generischen Basisinfrastruktur heraus müssen jedoch problemorientierte, spezifische Fragestellungen adressiert werden können. Anhand von zwei Beispielen, der Taxonomy of Digital Research Activities in the Humanities (TaDiRAH) und des DARIAH-DE GeoBrowsers lässt sich dieses Verfahren veranschaulichen:

Bei TaDiRAH handelt es sich um ein von der Community mitgestaltetes Taxonomie-Projekt von DARIAH-DE, DiRT und DHCommons, das anwendungsorientiert ist, indem es ausgehend von generisch angelegten Forschungszielen und –methoden die Möglichkeit bietet, Objekte und Techniken maßgeschneidert für den konkreten Anwendungsfall zu kombinieren und einen strukturierten Zugang zu den Daten zu eröffnen. Auf diese Art ist die Verwendung der Taxonomie in verschiedenen Bereichen von der Auszeichnung von Tool-Verzeichnissen (DiRT) über die Anreicherung bibliografischer Angaben (DARIAHs Doing DH Bibliography) möglich. Gleichzeitig kann TaDiRAH zur Reflexion über die digitale Forschungspraxis im Allgemeinen herangezogen werden.

Der in DARIAH-DE entwickelte GeoBrowser ermöglicht die Visualisierung einer zeitlich/geografischen Verteilung und bildet somit ein Paradebeispiel vielseitiger Einsatzmöglichkeiten, die von der Analyse von Raum-Zeit-Relationen bis hin zur Visualisierung entsprechender Daten und deren Anreicherung mit existierenden Ressourcen reicht.

Mit Digivoy liegt zudem ein Beispiel vor, das zeigt, wie ein etabliertes Tool – in diesem Fall die von Stéfan Sinclair und Geoffrey Rockwell entwickelten Textanalysewerkzeuge, Voyant Tools, zur Analyse eines bestehenden Angebotes (das TextGridRep) integriert werden kann.

Ein abschließender Blick auf die Themenfelder Big Data und Annotation veranschaulicht zum einen die unterschiedliche disziplinäre Auffassung der Begriffe und zeigt zum anderen das Potential digitaler Verfahren für die Geisteswissenschaften.

Das geisteswissenschaftliche ‘Big Data’ definiert sich dabei nicht über Terabyte-Einheiten. Vielmehr sind es heterogene Faktoren wie Strukturiertheit der Daten und der Grad ihrer semantischen Erschließung, die geisteswissenschaftliche Daten zu komplexen Big Data werden lassen. Hinzu kommt, dass der riesige Pool geisteswissenschaftlicher Daten (“Die meisten Daten, die da draußen rumlungern sind geisteswissenschaftlicher Art!”) nicht nur heterogenes Material umfasst sondern es sich dabei auch um verteilte Daten handelt. Mittels quantitativer Verfahren ist es nun erstmals möglich, diese Daten analysieren zu können. Entscheidendes Kriterium ist dabei die Skalierbarkeit digitaler Methoden, die gleichzeitig den Mehrwert gegenüber (rein) händischen Verfahren ausmacht.

Am Annotationsbegriff zeigen sich Heterogenität und Homogenität der (digitalen) Geisteswissenschaften gleichermaßen. Das Annotieren ist eine disziplinübergreifend etablierte Praxis. Dabei reicht das Spektrum des Begriffs vom Anfügen von Notizen bis hin zu einer vollständigen Tiefenerschließung. Hinzu kommt die Anwendbarkeit auf eine Vielfalt von Daten, z.B. Bildannotationen, Fußnoten im erweiterten Sinn oder Verknüpfungen zwischen Quellen etc.

Das Beispiel der Annotation verdeutlicht den Bedarf weiterer Annäherungen. Diese zu leisten und die wesentliche, aber keineswegs triviale Verbindung zwischen Daten und Tools herzustellen, fordert einerseits digital arbeitende GeisteswissenschaftlerInnen und erfordert andererseits eine Infrastruktur notwendig, die sie dabei unterstützt, indem sie ihre Vernetzung befördert und Schnittstellen über Standards bereitstellt.

 

Referenzen:

DHd 2014. Digital Humanities – methodischer Brückenschlag oder ‘feindliche Übernahme’? Chancen und Risiken der Begegnung zwischen Geisteswissenschaften und Informatik, 1. Jahrestagung der Digital Humanities im deutschsprachigen Raum, 25.-28. März 2014, Universität Passau, http://www.dhd2014.uni-passau.de/

Digivoy: Schöch, Christof. Digivoy. TextGrids Digitale Bibliothek mit Voyant entdecken. https://de.dariah.eu/digivoy

GeoBrowser: http://geobrowser.de.dariah.eu/

TaDiRAH: Taxonomy of Digital Research Activities in the Humanities. V. 0.5, Februar 2014. https://github.com/dhtaxonomy/TaDiRAH

Voyant: Sinclair, Stéfan; Rockwell, Geoffrey. Voyant Tools. Privacy v. 1.0 beta. 2014. via http://voyant-tools.org

Quelle: http://dhd-blog.org/?p=3316

Weiterlesen

CfP: Workshop “Innovative Teaching Methods and Practices in Digital Humanities”

We would like to share our Call for Proposals to participate in the full-day DARIAH VCC2 workshop “Innovative Teaching Methods and Practices in Digital Humanities” on July 7 at the Digital Humanities Conference 2014 in Lausanne.

With this workshop, we would like to encourage the participants – and, consequently, the DH community at large – to share their thoughts and ideas on how the development of a digital pedagogy for digital humanities should proceed. We are encouraging proposals from both long-time practitioners of DH and recent adopters with innovative ideas, methods and interest in digital humanities pedagogy. We are looking for thoughtful and creative contributions that will be surprising, enlightening and inspirational. We are interested not only in what works but also what doesn’t — and what we can learn from failed experiments.

The workshop will be divided into two sessions:

  • Showcasing best practices for teaching and learning DH

In the morning session, participants will have the opportunity to present their ideas and/or actual teaching methods and materials.

  • Challenges in DH pedagogy

The afternoon session will provide a forum for the participants to discuss the most prominent challenges and issues in (digital) teaching of DH as well as the necessary next steps in promoting DH through digital pedagogy.

 

Proposals should consist of an abstract of up to 500 words and a short bio which should be submitted by e-mail to: zim@uni-graz.at

The submission deadline is April 13.

The proposals will be evaluated and selected by a program committee of international experts. The length allocated to each contribution (10-15 minutes) will be decided by the program committee, depending on the number of contributions and the strength of the proposals.

Notifications regarding the acceptance of proposals will be sent out by May 12.

See the full version of the call on the DARIAH-EU website at: http://tinyurl.com/DARIAH-cfp-DH2014

Please distribute the call to any colleagues, blogs and mailing lists that you find appropriate!

 

We are looking forward to your contributions!

Claire Clivaz, Walter Scholger and Toma Tasovac

Quelle: http://dhd-blog.org/?p=3236

Weiterlesen