MOOC on Digital Art & Culture

An Open Online Course about identification, documentation and conservatory understanding of digital art and culture

June 4th to  October 19th 2014

The BUA-MOOC on Digital Art and Culture provides insight into the digital net culture, the aspects of its historical development and its current challenges. MOOC means Massive Open Online Course and is a public learning format, which is accessible via internet for free to whom it may concern.

The BUA-MOOC on Digital Art and Culture shows where Digital Art and Culture can be found on the net and how it actually looks like. It explains how “digital culture” (as art) can be read and learnt and how this engagement in artistic works and interventions help us understand contemporary art.

Theoretical inputs and fundamental techniques like identification and documentation, as well as, applied approaches to preservation will be presented. The MOOC illustrates the important stages in the digital lifecycle, production, reception and preservation, clearly showing how, where and with whom the introduced issues are debated.

The BUA-MOOC is divided into three thematic sections

Finding & Identifying artistic & cultural activities on the Internet.

  • Identifying places on the internet where digital culture can be found
  • Learning how to qualify relevance and understanding the basic structure of digital curation & preservation lifecycles
  • Learning from examples and case studies of others

Reading & Documenting artistic & cultural activities of digital art and culture.

  • Reading technologies – approaching to web-based content from the users side
  • Identification tools and technologies
  • Describing and documenting experiences in a clearly structured and reproducible way

Living & Understanding artistic & cultural activities.

  • Database based artworks / Artistic Examples
  • Maintaining and safe-guarding of complex digital objects
  • Databases to store knowledge on cultural heritage objects

The MOOC shows the state of the art and presents different perspectives, techniques and level of depths. Apart from general reference materials and an overview of information portals, journals and platforms, individual exercises are available to revise your daily work practices. Helpful tools and standards e.g. CIRDOC CRM are introduced.

Course Structure

The MOOC is open from June 4th to October 19th 2014. During the course case studies and other research activities can be presented. Collaboration in smaller learning groups is intended.

Webinars: We will start with a series of 3 live online seminars (webinars) (90-min). The three online seminars (webinars) introduce the three thematic sections with the use of input presentations. Subsequent to the presentations a moderated discussion takes place, where the questions posted by the audience over the virtual seminar chat room, are addressed and discussed.

Date: June 4th, 5th and 6th 2014 each at 04:30 pm

Access: online https://collab.switch.ch/bua_mooc/.

Technical requirements: Web browser and Internet connection, speakers/headphones.

No pre-registration necessary.

When entering the room you will be asked to provide your name.

Online Videos

The contents of the webinars are extracted and bundled into short video sequences and then each set of extract made available successively. The contents are linked to youtube and the MOOC website: http://mooc.pdach.ch/index.php/Moocvideos.

Advanced online course

After the webinars an e-learning platform gives you the opportunity to enhance the acquired knowledge. For this purpose the e-learning platform provides comprehensive references, which are regularly updated and amended during the MOOCs.

Instructions for the Login

Target Audience

The MOOC is aimed at anyone involved in the fields of culture and/or media, whereby the focus is clearly set on rather classical art works. The core aim is to address questions on conservation.

Condition of participation

Access is free of charge, no previous knowledge required. It is solely your decision when and what you look up online and how actively you want take part.

Course registration and enrolment is now open. Enrolled users will receive timely reminders on webinars and will be updated and informed of any alterations.

Additional Information

Courses are held in English.

Announcement_engl

http://mooc.pdach.ch

 

Quelle: http://dhd-blog.org/?p=3504

Weiterlesen

Explore, play, analyse your corpus with TXM

A short introduction of TXM by José Calvo and Silvia Gutiérrez

 

On Feburary 6-7, 2014, the Department for Literary Computing, Würzburg University, organized a DARIAH-DE Workshop called “Introduction to the TXM Content Analysis Platform“. The workshop leader was Serge Heiden (ENS-Lyon) who is in charge of the conceptualizing and implementing TXM at the ICAR Laboratory in France.

The workshop included a brief explanation of TXM’s background, but it concentrated on a very practical approach. We learned about the “Corpora options” (that is what you can know about your corpus: POS descriptions, text navigation), but also what you can do with it: find Key Words In Context (KWIC), retrieve Parts of Speech, and moreover how you can analyse these results querying for the Most Frequent Words or the cooccurrences.

In the evening of day one, we got an overview of the state of art of the use of “Natural Language Processing for Historical Texts” in a keynote by Michael Piotrowski (IEG Mainz). First of all, he started by defining Historical Texts as all those texts that will bring major problems to NLP. In order to clarify these definitions, Dr. Piotrowski listed some of the greatest difficulties:

  • Medium and integrity: we have to remember that in order to analyse an old script that was written in clay tablets or marble, it is compulsory to first find a way to transfer this information into a digital format (not an easy task); plus: some texts are defective or unclear, and transcriptions may introduce new errors
  • Language, writing system and spelling: many of the historical texts were written in extinct languages or variants different from today’s variants; as for the writing system, the many abbreviation forms and the variety of typefaces are more or less problematic; finally, we should not forget the little problem of non-standardized spelling!
  • State of art: Historical languages are less-resourced-languages, there are few texts available, and NLP for historical languages is carried out in specific projects; that is, there are no common standards and everyone has to start from zero.

Not to discourage his public, he then offered an overview of what can be done: Part-of-speech tagging. Creating a tagger for a historical language can be done with the the following methods:

  1. From scratch: manually annotating your text
  2. Using a modern tagger and manually correcting all errors
  3. Modernizing spelling
  4. Bootstraping POS tagger (with many versions of the same text, like the Bible)

Now let’s get back to the TXM workshop. In this post, you will find a brief practical introduction to this tool. We will provide you with a rough idea of what is this software about and what you can do with it. If you would like to learn more, do check the links we have shared towards the end of this post. By the way, all words marked with a little * are explained at the end, in the “Vocabulary” section.

What is TXM?

This software is at the juncture of linguistics and scholarly editing and it’s made to help scholars analyse the content of any kind of digital text (Unicode encoded raw texts or XML/TEI tagged texts).

To get to know more about the TXM background, don’t miss Serge Heiden’s Workshop slides:

Where can I work with it?

You may work on the desktop (download page) or online version of the tool. Both platforms have advantages and disadvantages. The online version allows you to start the work without downloading or installing anything, and share your corpora with other colleagues. With the desktop version, you can easily lemmatize and analyse the Parts of Speech (POS*) of your own texts.

So that you can get a better idea of the way it works, we’ll guide you with some practical examples. Say you want to search for the lemma politics on the “Brown Corpus*. First you have to open the Index option:

2014-02-15_19h28_12

Then you use the query box to type in the query, using the following structure from the CQL* query language: [enlemma=“politics”]. In the desktop version, the results will look as follows (the web version is very similar):

2014-02-12_11h02_39

What can I do with TXM?

Explore your corpus

Corpora options

On the first column of both interfaces there’s a list of the corpora you can work with (in this case DISCOURS, GRAAL, BROWN). When you click with the right button of your mouse on one of your corpora, you will see a list of icons:

png;base6465a19490765df979These are the main tools of TXM and you will use one of these to analyse your corpus in different ways.

Corpus description (Dimensions)

Before you start with the fun, you should click the “Dimensions” option and have a look at some general information about the corpus (number of words, properties, and structural units, as well as the lexical and structural units properties). This information is richer in the desktop version:

2014-02-12_11h12_23

Text navigation

A very practical TXM feature is the text display. If you wish to open a list of the corpus’ elements, you just have to click on the book icon (called “Texts” in the online version and “Open edition” in the other). A list like the following will be shown:

2014-02-12_11h17_48

Moreover, if you click on the book icon in the “edition” column, TXM will open a readable version of our text:

2014-02-12_11h18_47

Play with your corpus

Key Words In Context (KWIC)

A very typical visualization of a corpus is the so called KWIC view, which you have already seen displayed in the politics lemma example.

With TXM you can sort the results using different criteria organizing them according to the right or left context of your word, the word form, etc; besides, you can choose which elements you want to visualize. Say you’re searching for collocations of present as an adjective and NOT the data related to the noun nor the verb form (to present). First of all you need to go to the INDEX.

Once you open this, you can set the options in the “Keyword” column and visualize the grammatical category along with the word form. Then you type “JJ_present”, where “JJ” means “adjective” and “present” is the verb form, so that only those instances of the graphical form present are selected which are adjectives. It is also possible to order this data by different criteria.

As you can see in the next screenshot, you are looking for the lemma present. Therefore, you should set the first “Sort keys” menu to “Left context”, and the second one to “Keyword”; what you’re saying to the software is that you want all the examples sorted by the Left context as a first criteria and the Keyword as a second. In the “Keyword” > “View” menu we have set “enpos, word”. With that we are ordering TXM to show us not just the word form, but also the POS. That is why we see the keywords as “VVN_present” (that means, present as a verb) or JJ_present (present as an adjective):

png;base64f22bacff5fc65745

Parts of Speech

Another way to display specific words according to their POS can be run by using the Index tool (A|Z icon), from a lexicologist point of view one the most interesting options of TXM. If you search again for the lemma present and in the properties box, you chose to see not only the word form but the POS as well, TXM will tell you the frequency, word form and POS of each different word form found in the corpus:

2014-02-12_11h53_26

If you only want the word forms of the verb to present, you can add the POS information to the query: [enlemma=“present” & enpos=“VV.*”]

These index can able to create lists of n-grams. Let’s search for the most frequent words that appear after the lemma present:

2014-02-12_11h57_37

Quantative analysis

Most Frequent Words

To query something you have to have a specific question and know some basic information, for instance: in which language is the corpus? A way to have a general idea about the texts is the Lexicon option, the icon with AZ both on white background. When you click on it, you will see a list of the most frequent word forms:

2014-02-13_11h58_08

 

You can change the settings of the query and ask to count not the word forms but the lemmas. In that case the verb to be climbs up some positions, now that is, are, were, been etc. count as one single unity:

png;base64c5510467d9a7ff1f

 

Coocurrences

Another quantitative analysis concerns the coocurrences, that is, the words (or other unities) that frequently appear close to a specific word (or to other unities). Unlike n-grams, coocurrences do not have to appear exactly after or before the unity, they just have to be somewhere close to it.

The Brown corpus was compiled in the 1960s in the United States, the main years of the Cold War. So let’s see the vocabulary related to the words United States and which one to Soviet Union:

2014-02-13_12h13_56

Progression

Another statistical option that exists on the Desktop version is the Progression (icon with an arrow). This option helps visualize how many times a unity appears in a corpus or a text. This might be interesting to see the progress of a word between two dates or see the development of a word in the different parts of a text.

For the next example, the text of Bram Stocker’s novel Dracula was imported (the version used is from the University of Adelaide). With the information of the chapters kept in XML elements, you can look for the name of the main characters and see how many times and where they appear. The next screen-shot shows the complete query:

2014-02-13_13h41_35

To understand the next graphic, you have to keep in mind that if the lines ascends, that means the name has been mentioned; if the line keeps going horizontally, it means the name didn’t appear any more.

 

2014-02-08_15h54_49

 

As you can see, the Count Dracula (yellow) is the most mentioned name in the first four chapters, but it almost disappears towards the 17th chapter. In this gap, Lucy (blue) becomes the main character and, from the 9th chapter, the Professor van Helsing (red) takes the “leading” role. It is also remarkable that this last character is not only the most frequent, but the most stable.

Sub-corpora and partitions

You can divide your corpus into two options: sub-corpora and partitions. With a sub-corpus you can choose some texts from a corpus and work with them. With the partition, you can split the corpus into more than one part and easily compare the results of the different parts. On the next screenshot, you have the menu where a Partition called “Fiction and Press partition” is being created, using the XML “text” and the property “type” to choose which kind of text is wanted. This partition will have two parts: one called “Fiction” and the other one called “Press” and each of it will contain the respective type of texts.

2014-02-13_13h26_05

Useful links

“A gentle introduction to TXM key concepts in 90 minutes” by Serge Heiden: http://sourceforge.net/projects/txm/files/documentation/IQLA-GIAT%202013%20TXM-workshop.pdf/download

Tutorial video introducing TXM 0.4.6 (WARNING: the software, specially it’s surface, is now very different): http://textometrie.ens-lyon.fr/IMG/html/intro-discours.htm

TXM background http://fr.slideshare.net/slheiden/txm-background

TXM import process http://fr.slideshare.net/slheiden/txm-import-process

Vocabulary

 

Brown Corpus

The Brown corpus consists of 500 English-language texts, with roughly one million words, compiled from works published in the United States in 1961. You can learn more about it here.

CQL

TXM uses an underlying Contextual Query Language, which is a formal system for representing queries to information retrieval systems such as web indexes, bibliographic catalogues and museum collection information. More information in the official web-page: http://www.loc.gov/standards/sru/cql/

 

POS

Here is a useful alphabetical list of part-of-speech tags used in the Penn Treebank Project (tag and description): https://www.ling.upenn.edu/courses/Fall_2003/ling001/penn_treebank_pos.html

Quelle: http://dhd-blog.org/?p=3384

Weiterlesen

TAToM, oder: Text Analysis with Topic Models (Tutorial)

Eine "topic heatmap" für die Tragödien von Jean Racine

Eine “topic heatmap” für die Tragödien von Jean Racine

Die Schulungsmaterialien “TAToM – Text Analysis with Topic Models for the Humanities and Social Sciences“, die von Allen Riddell im Rahmen von DARIAH-DE erstellt wurden, sind soeben erschienen.

Sie bestehen aus einer Serie von Tutorials, die grundlegende Verfahren der quantitativen Textanalyse abdecken. Sie thematisieren die Vorbereitung eines Textkorpus für die Analyse sowie die Exploration von Textsammlungen mit Verfahren wie Topic Modeling und Maschinellem Lernen. Besonderes Augenmerk liegt darauf, dass NutzerInnen weitestgehende Kontrolle über die Vorgänge der Textprozessierung behalten können. Wichtig war bei der Entwicklung der Materialien darüber hinaus, den Aspekt der Visualisierung von Topic Models mit in das Verfahren einzubeziehen.

Die Tutorials behandeln sowohl einige grundlegende als auch fortgeschrittene Themen und bauen in gewisser Weise auf den Materialien zu Python Programming for the Humanities von Folgert Kastorp und Maarten van Gompel auf bzw. setzen diese teilweise voraus. Die Tutorials nutzen in erster Linie die beliebte Skriptsprache Python, um mit den Textdaten umzugehen.

Die Inhalte in der Übersicht:
- Preliminaries & Getting started
- Working with text
- Preprocessing
- Feature selection: finding distinctive words
- Topic modeling with MALLET
- Topic modeling in Python
- Visualizing topic models
- Classification, Machine Learning, and Logistic Regression
- Case Study: Racine’s early and late tragedies

Die Tutorials wurden von Allen Riddell für DARIAH-DE verfasst und im März 2014 in Version 1.0 veröffentlicht. Die Koordination lag bei Christof Schöch am Lehrstuhl für Computerphilologie der Universität Würzburg. Rückmeldung zu den Tutorials ist immer willkommen, ebenso wie Hinweise auf Fehler. Bitte nutzen Sie hierfür den issue tracker auf GitHub. Die Tutorials werden unter der Lizenz Creative Commons Attribution 4.0 International zur Verfügung gestellt.

Quelle: http://dhd-blog.org/?p=3275

Weiterlesen

DARIAH-DE Workshop “Introduction to the TXM Content Analysis Platform”

The Department for Literary Computing, Würzburg University, will organize a DARIAH-DE Workshop called “Introduction to the TXM Content Analysis Platform”.

Workshop outline

The objective of the “Introduction to TXM” tutorial is to introduce the participants to the methodology of text analysis through working with the TXM software directly on their own laptop computers. At the end of the tutorial, the participants will be able to input their own textual corpora (Unicode encoded raw texts or XML/TEI tagged texts) into TXM and to analyze them with the panel of content analysis tools available: word patterns frequency lists, kwic concordances and text browsing, rich full text search engine syntax (allowing to express various sequences of word forms, part of speech and lemma combinations constrained by XML structures), statistically specific sub-corpus vocabulary analysis, statistical collocation analysis, etc.). The portal version of TXM, allowing the on line access and analysis of corpora, will also be introduced.

Basic information

  • Time: February 6-7, 2014
  • Place: Würzburg University (details tba)
  • Workshop leader: Serge Heiden (Lyon)
  • Local organizer: Christof Schöch (Würzburg)

For further information:

Practical matters

The workshop is aimed at younger as well as experienced scholars from the humanities dealing with textual data. It is being organized by the Department for Literary Computing at Würzburg University, Germany, under the auspices of the DARIAH-DE initiative. It will be held by Serge Heiden, leader of the TXM project. It will take place on Feb. 6-7, 2014 at Würzburg University.

The maximum number of participants is limited to 15 and places will be filled on a first-come first-serve basis. The deadline for applications is January 20th, 2014. There is no fee for participating in this event. You will need to bring along your own laptop computer. Access to the internet will be available. Please contact Dr. Christof Schöch for further details and to sign up for the event at christof.schoech@uni-wuerzburg.de.

Preliminary programme

Thursday, February 6

  • 13:30-14:00 – Welcome
  • 14:00-15:30 – Introduction to TXM
  • 15:30-16:00 – Coffee break
  • 16:00-17:30 – Hands-on Session 1
  • 18:00-19:15 – Lecture by invited speaker (tba)
  • 20:00- – Dinner

Friday, Feb 7

  • 9:00-11:00 – Hands-on Session 2
  • 11:00-11:30 – Coffee break
  • 11:30-13:00 – Hands-on Session 3
  • 13:00-13:30 – Final discussion and farewell

Note: This event is being organized by DARIAH-DE with funding provided by the German Federal Ministry of Education and Research (BMBF) under the identifier 01UG1110J.

Quelle: http://dhd-blog.org/?p=2782

Weiterlesen

Zertifikatsstudiengang CAS Documentation of Complex Digital Objects (07.03.2014-15.11.2014)

Digitale Kunstwerke und Kulturgüter sind einer doppelten Gefahr ausgeliefert: selbst wenn die schwierige Aufgabe der physischen Erhaltung auf der Objektebene (Bitstreampreservation) gelingt, verändert sich nicht selten in der Zwischenzeit der technische und der kulturelle Kontext.

Um einen späteren Zugang und das Verständnis der Werke zu ermöglichen, bedarf es umfassender Dokumentationen. Heutige Dokumentationsformate müssen häufig ganze Anwendungen oder Datenbündeln abbilden und mit komplexen Formaten zurechtkommen, die nicht selten instabil sind.

Der CAS* Documentation of Complex Digital Objects widmet sich dieser Herausforderung. Er vermittelt umfassende Dokumentationsmethoden, neuartige Dokumentationsstandards und softwarebasierte Erfassungssystematiken.

Der CAS Documentation of Complex Digital Objectsist spezialisiert auf das kulturelle Umfeld und lehrt die Anwendung und Überprüfung mediengestützter Dokumentationsformen für digitale Artefakte.

Ausgehend von klassischen Dokumentationsansätzen (Text, Bild, Datenbank) über die Beschreibung von Ablageprozessen und Überlieferungszyklen bis zur Dokumentation kontextsensitiver Werkformen (z.B. digitale Kunstwerke, digitale Nachlässe etc.) werden vielfältige Beispiele vorgestellt, praktische Anwendungsfälle erläutert und an eigenen Testdaten erprobt.

Fachliche Ausrichtung

Der CAS Documentation kombiniert theoretische Grundlagen und praktische Erfahrungen von drei Fächern:

  • Digitale Konservierung & Restaurierung
  • Kulturinformatik & Technologie
  • Medientheorie & Digitale Medienkultur

Die fachliche und methodische Vielfalt wird durch Gastdozierende abgedeckt, die ihre Expertisen anschaulich vermitteln und Vernetzungsoptionen schaffen.

Zielpublikum und Zielsetzung

Der CAS Documentation richtet sich an Berufstätige, denen die nachhaltige Dokumentation und Überlieferung digitaler Kunstwerke, Kulturgüter und Kulturpraktiken ein Anliegen ist.

Die Absolvierenden werden befähigt, dokumentarische Anforderungen digitaler Kulturgüter zu erkennen und objektspezifisch, dokumentarisch zu beschreiben. Sie lernen, komplexe Primär- und Sekundär-Informationen im Werkzusammenhang, in Datenbanken sowie weiteren Dokumentationsformaten zu erfassen, zu verknüpfen und zu überprüfen (Monitoring).

Zulassungsvoraussetzungen

Einschreibungsvoraussetzung ist ein abgeschlossenes Hochschulstudium in folgenden Bereichen:

  • Konservierung/Restaurierung, Geschichte, Kunstwissen-schaft,  Museologie (inkl. Curatorial Studies & Museumstechnik).
  • Mitarbeitende archivarischer oder kultureller Sammlungen sowie Bibliotheken (inkl. digitale Informationsverarbeitung).
  • Absolventen und Absolventinnen künstlerischer oder gestalterischer Fächer.

Für Personengruppen anderer Berufsfelder oder ohne Hochschulabschluss besteht die Option einer Zulassung «sur dossier».

Sprache

Unterrichtssprache ist deutsch. Grundkenntnisse in Englisch sind empfehlenswert.

Vernetzung & Qualitätssicherung

Der CAS Documentation ist Bestandteil des MAS Preservation of Digital Art and Cultural Heritage (www.pdach.ch) und kann einzeln oder in Kombination studiert werden. Der CAS Documentation ist dem Fachbereich Konservierung & Restaurierung (Swiss Conservation & Restoration Campus) assoziiert, was die Vermittlung der ethisch-konservatorischen Standards garantiert.

Abschluss

Certificate of Advanced Studies BFH in Documentation of Complex Digital Objects

Informationen zur Durchführung

Der CAS Documentation umfasst 12 ECTS. Ein Credit entspricht einer Arbeitszeit von 30 Stunden.

Der CAS Documentation kann einzeln oder in Kombination mit den übrigen Modules des Master of Advanced Studies BFH in Preservation of Digital Art & Cultural Heritage (MAS PDACH) studiert werden.

Pro Lektion findet ein Input im Kontaktunterricht statt (je freitags 15:45 – 18:00 sowie Sa. 09:15 – 15:30); hinzu kommt ein hoher Anteil an Selbststudium. Betreute Praxisworkshops und Exkursionen ergänzen die vermittelte Theorie.

Terminübersicht

Studienbeginn: März 2014

Vorläufige Studientermine 2014:
07./08.03.2014    21./22.03.2014    11./12.04.2014    25./26.04.2014
09./10.05.2014    06./07.06.2014    03./04.07.2014    29./30.08.2014
19./20.09.2014    17./18.10.2014    31.10/1.11.2014  14./15.11.2014

Anmeldeschluss: 15. Januar 2014

Leitung

Tabea Lurk, Dozentin für digitale Konservierung

Studiengebühr

Studiengebühr CHF 5850.– plus Anmeldegebühr CHF 150.–

 

* CAS steht für Certificate of Advanced Studies und bezeichnet eine vertiefte, berufsbegleitende akademische Zusatzqualifikation in ausgewählten Fachgebieten, welche strengen Richtlinien und Vorgaben unterliegt.

Quelle: http://dhd-blog.org/?p=2778

Weiterlesen

Geisteswissenschaftliches Bloggen – wie, warum und wozu?

Eintägiger Workshop zur Einführung in Fragen und Praxis des geisteswissenschaftlichen Bloggens heute (24. Januar 2014, Berlin)

Die Idee des geisteswissenschaftlichen Bloggens mutet in vielerlei Hinsichten geradezu konträr zur geisteswissenschaftlichen Praxis an, wo Zwischenstufen in der Regel nicht veröffentlicht werden, der Sprachduktus anonymisiert ist und Transdisziplinarität eher gut klingt als dass sie Anerkennung fördert.

In diesem Workshop geht es darum, die Bedingungen auszuloten, unter denen es Sinn macht, sich als GeisteswissenschaftlerIn in der Blogosphäre zu betätigen. Wie fördert Bloggen die Entwicklung der eigenen Forschung? Was kann man sich davon erhoffen? Und wie geht das überhaupt?

Der Workshop richtet sich an fortgeschrittene StudentInnen und WissenschaftlerInnen aller geisteswissenschaftlichen Fachrichtungen. Die Vormittagsrunde ist öffentlich, während zur Nachmittagsrunde aufgrund der begrenzten Zahl verfügbarer Plätze bevorzugt TeilnehmerInnen akzeptiert werden, die eine konkrete Blog-Idee mit der Blogplattform de.hypotheses. org ins Auge fassen oder die Plattform bereits nutzen.

Die Veranstaltung wird von Anne Baillot mit der Unterstützung vom Centre Marc Bloch und von DARIAH-EU organisiert und findet am 24. Januar 2014 im Centre Marc Bloch (Friedrichstrase 191, Berlin) statt.

Um Anmeldung wird bis 15.01.2014 jeweils für die Vormittags- und für die Nachmittagssitzung über folgende Seite gebeten: http://www.digital-humanities-berlin.de/wissenschaftliches-bloggen Fragen zum Workshop sind an anne.baillot@hu-berlin.de zu richten.

Programm

9:15-12:30 Geisteswissenschaftliches Bloggen – wie, warum und wozu?

9:15 Anne Baillot: Begrüßung und Einführung

9:30 Christof Schöch: Wissenschaftliches Bloggen im Kontext digitaler Publikationsmedien

10:00 Laurent Romary: Nein, meine Ideen werden mir nicht geklaut, wenn ich sie online stelle

10:30 Kaffeepause

11:00 Jan Hecker-Stampehl: Wissenschaftliches Bloggen als Wissenstransfer

11:30 Anne Baillot und Studierende des Seminars „WP als literaturwissenschaftliches Instrument“: Einzelbloggen vs. Gemeinschaftsbloggen – Erfahrungsberichte

Die Referenten führen selbst Blogs, auf die im Laufe der Veranstaltung Bezug genommen wird:

12:00-14:00 Mittagspause

14:00-18:00 Sascha Foerster: Einführung in das wissenschaftliche Bloggen mit WordPress bei de.hypotheses

Sascha Foerster ist Community Manager bei de.hypotheses.org und hat bereits eine Reihe von Schulung in ganz Deutschland durchgeführt.

Für die Nachmittagssitzung ist jede(r) TeilnehmerIn gebeten, den eigenen Laptop mitzubringen.

Quelle: http://dhd-blog.org/?p=2687

Weiterlesen

App fontes: neue web-basierte Applikation für Historiker

Mit App fontes wurde gestern eine neue mobile hilfswissenschaftliche Anwendung veröffentlicht, die das bewährte Ad fontes Lernangebot der Universität Zürich ergänzt. Wie Ad Fontes umfasst App Fontes eine Auswahl an wichtigen wissenschaftlichen Hilfsmitteln und Übungen für den Umgang mit historischen Schriftquellen in lateinischer und deutscher Sprache. Ergänzend zum Angebot auf Ad fontes wurden didaktisch neuartige Übungen gestaltet, die speziell für den mobilen Gebrauch am kleinen Bildschirm konzipiert sind.

Wie Projektkoordinator Christian Di Giusto in einem Video erklärt, wurden bei der Entwicklung der Übungen die Chancen und Grenzen kleiner Bildschirme und mobiler Anwendungsszenarien bedacht. Das Konzept der App fontes-Übungen ist darauf ausgelegt, dass sie in kürzerer Zeit und mit wenig Bildschirmfläche gelöst werden können, als es beim Webportal der Fall ist. Von den bestehenden Ad fontes-Hilfsmitteln wurden vorerst vier auf die mobile Anwendung übertragen:

  • Auflösen von Datierungen (basierend auf Grotefends Taschenbuch zur Zeitrechnung)
  • Abkürzungsassistent (basierend auf ausgewählten Lexika wie Capellis Lexicon Abbreviaturarum)
  • Verzeichnis lateinischer Ortsnamen (basierend auf Grässes Orbis Latinus)
  • Musteralphabete zu verschiedenen Schrifttypen

Verschiedene Suchfunktionalitäten erhöhen die Nutzbarkeit der bewährten Hilfsmittel. Der Abkürzungsassistent beispielsweise erlaubt dank einem Ausschlussprinzip die Abkürzung von Auflösungen, von welchen nur einzelne Zeichen entziffert werden können. Leider wurden vorerst nur ausgewählte Abkürzungen erfasst, Erweiterungen sind aber angekündigt.

AppFontes

Ausserdem bietet das auch offline nutzbare App fontes paläographische Trainingseinheiten zur Auflösung von Abkürzungen und einzelner Wörter sowie zur typologischen und chronologischen Einordnung alter Schriften. Während sich Transkriptionen im E-Learning-Portal Ad fontes auf längere Textpassagen beziehen und Wörter vielfach aus dem Kontext zu erschliessen sind, sollen die App fontes-Übungen andere Fähigkeiten trainieren, indem Abkürzungen und Wörter isoliert, d.h. herausgelöst aus ihrer inhaltlichen und paläographischen Umgebung, aufgelöst und transkribiert werden. Dadurch wird eine gründlichere Beschäftigung mit dem einzelnen Buchstaben und die Auseinandersetzung mit den spezifischen Eigenschaften der Schrift erforderlich.

Die App, die am Historischen Seminar der Universität Zürich (Lehrstuhl Prof. Dr. Simon Teuscher) entwickelt wurde, wird kostenlos zur Verfügung gestellt.

Zusätzliche Informationen und Installationsanleitung: http://www.adfontes.uzh.ch/1410.php

Quelle: http://dhd-blog.org/?p=2658

Weiterlesen

Methodenworkshop »Techniken der digitalen Edition für die historisch arbeitenden Textwissenschaften«

  • Veranstalter: Leibniz-Institut für Europäische Geschichte (IEG, http://www.ieg-mainz.de/) und DARIAH-DE (http://de.dariah.eu)
  • Ort: Leibniz-Institut für Europäische Geschichte, Alte Universitätsstraße 19, 55116 Mainz
  • Beginn: 29. Januar 2014, 14.00 Uhr
  • Ende: 30. Januar, 13.00 Uhr

Die Vorrangstellung der Informationsstrukturierung und -vermittlung in Form gedruckter Bücher hat durch den Übergang von traditionellen hin zu neuen, digitalen Formen der Erschließung und Repräsentation von Texten an Bedeutung verloren. Zunehmend lösen digitale Texte die »klassischen« Medien ab. Infolge dieser Entwicklung wird vom Wissenschaftsrat in seinen publizierten Empfehlungen zu »Forschungsinfrastrukturen in den Geistes- und Sozialwissenschaften« empfohlen, »sich nachhaltig für einen Ausbau forschungstauglicher Digitalisierungen« einzusetzen; auch auf wissenschaftspolitischer Ebene können die Vorteile der digitalen Erschließung und Aufbereitung als unbestritten gelten.

Vor diesem Hintergrund und den daraus resultierenden vielfältigen Möglichkeiten der Digital Humanities möchte der vom IEG im Rahmen von DARIAH-DE (gefördert vom Bundesministerium für Bildung und Forschung) organisierte Workshop Grundlagen, Methoden und Techniken von Digitalen Editionen für die historisch arbeitenden Textwissenschaften vermitteln und bereits vorhandene Lösungsansätze und -szenarien mit den Teilnehmern diskutieren. Der Methodenworkshop ist Teil einer Veranstaltungsreihe von DARIAH-DE, die in Kooperation mit Partnerinstitutionen mit unterschiedlichen geisteswissenschaftlichen Schwerpunkten durchgeführt werden.

Der Methodenworkshop nimmt thematisch die Forderung nach dem Ausbau forschungstauglicher Digitalisierungen in Form von »digitalen Editionen« auf. Digitale Editionen sollen dabei das klassische Editionskonzept nicht verwerfen, sondern ergänzen, weil auch dort das Ergebnis der Arbeit darin bestand, mehrere Schichten von Informationen (z.B. in Form von Erläuterungen, inhaltlichen Anmerkungen, Angaben von Textvarianten, bibliographischen Angaben usw.) zu einem Text zu sammeln, zu systematisieren und dem Nutzer in Form eines abgeschlossenen Werks zur Verfügung zu stellen. Mit anderen Worten, beim klassischen Editionsmodell handelt es sich bereits um einen Hypertext. Die Schichtenstruktur klassischer Editionen lässt sich digital leichter – und konsequenter – abbilden. Dabei können viele Beschränkungen des konventionellen Buchdrucks überwunden werden, insbesondere diejenigen, die die materielle Überlieferung betreffen (visuelle Wiedergabe des Textes, Informationsumfang). Gleichzeitig kommen ganz neue Möglichkeiten hinzu wie Mehrdimensionalität und Modifizierbarkeit.

Der Methodenworkshop widmet sich konkret der Frage: Was bedeutet Digitalisierung im Kontext historischer Editionen? Wo müssen Schwerpunkte gesetzt werden, um aus komplexen Textstrukturen digitale Objekte zu erzeugen? Und vor allem: Wie müssen diese Textstrukturen aufbereitet werden, um aus ihnen eine digitale Edition zu formen?

Eine grundlegende Technik zur Erstellung von Digitalen Editionen bilden die Auszeichnungsstandards der Text Encoding Initiative (TEI). TEI wurde als XML-basierte Auszeichnungssprache speziell für die Zwecke der Geisteswissenschaften konzipiert und stellt mittlerweile einen De-facto-Standard für die wissenschaftliche Textkodierung dar, die wiederum als Grundlage für die Aufarbeitung von Texten zu betrachten ist.

Im Rahmen des Workshops werden Grundkenntnisse im Bereich der Textkodierung mit XML/TEI, der Weiterverarbeitung XML-kodierter Daten sowie ihrer Aufbereitung vermittelt, die  als Grundlage für die Erstellung von digitalen Editionen dienen.

Am ersten Tag werden zunächst die Grundlagen von Konzeption und Planung digitaler Ausgaben an zwei konkreten Editionsprojekten (Briefedition Alfred Escher & Kritische Online-Edition der Nuntiaturberichte von Eugenio Pacelli 1917–1929) erläutert. Ausgehend davon können unterschiedliche Konzepte digitaler Editionen diskutiert sowie der jeweils damit verbundene Aufwand und die Anwendbarkeit für verschiedene editorische Fragestellungen/Bedürfnisse thematisiert werden.

Am zweiten Tag sollen sich die Teilnehmer, nach einer knappen allgemeinen Einführung in XML, anhand von kleinen Übungen in die Praxis der Textauszeichnung mit TEI einarbeiten und einen Überblick über die Bedeutung und die verschiedenen Module dieser Sprache erhalten. Vordergründiges Ziel dieser »hands-on session« ist es, die Teilnehmer zum selbstständigen Umgang mit den TEI-Guidelines anzuleiten, um ihnen so ein Werkzeug in die Hand zu geben, mit dem sie später im Rahmen ihrer Projekte selbst arbeiten können.

Der Methodenworkshop ‘Techniken der digitalen Edition für die historisch arbeitenden Textwissenschaften’ richtet sich an alle historisch arbeitenden Textwissenschaftler und möchte insbesondere Nachwuchswissenschaftler (Doktoranden und Post-Doktoranden), aber auch Forscher ansprechen, die sich in ihrem Forschungsalltag und in aktuellen Projekten mit Themen der Planung und Erstellung von Digitalen Editionen beschäftigen.

Um einen reibungslosen Ablauf zu gewährleisten, werden die Teilnehmer gebeten, ihre eigenen Notebooks mitzubringen, so dass gemeinsam anhand von Beispieldaten einige Tools und Anwendungsszenarien getestet werden können. Es besteht ferner die Möglichkeit, dass die Teilnehmer vor Workshopbeginn Daten aus ihren eigenen Forschungsprojekten einreichen, um mithilfe dieser Daten exemplarische Erfassungsprobleme thematisieren und Anwendungsoptionen diskutieren zu können.

Das ausführliche Programm des Workshops, weiterführende Informationen und ggf. weitere Aktualisierungen werden auf www.staff.uni-mainz.de/marcuhel/methods2014 veröffentlicht.

Die Teilnehmerzahl ist auf 20 begrenzt.

Bewerbungen zur Teilnahme am Workshop sind ab sofort bis zum 18. Dezember 2013 möglich. Eine verbindliche Einladung erfolgt am 20. Dezember 2013.

Für die Bewerbung senden Sie bitte eine E-Mail mit einem kurzen Lebenslauf und einem kurzen Motivationsschreiben (jeweils max. eine Seite) an: aurast@ieg-mainz.de und held@ieg-mainz.de.

Bei inhaltlichen oder organisatorischen Rückfragen wenden Sie sich bitte an:

Quelle: http://dhd-blog.org/?p=2626

Weiterlesen

CENDARI Visiting Research Fellowships 2014 Call for Applications

Das Projekt CENDARI (Collaborative European Digital Archive Infrastructure) hat den Bewerbungsprozess für Visiting Research Fellowships jetzt geöffnet. Stipendien für das Jahr 2014 werden von fünf Partner-Einrichtungen in Deutschland, Irland, der Tschechischen Republik und  von dem Vereinigten Königreich vergeben.

Diese Stipendien bieten  WissenschaftlerInnen und NachwuchswissenschafterInnen die Möglichkeit, Kenntnisse über Digital-Humanities-Methoden und Verfahren zu sammeln, sowie Zugang zu Archivbeständen im Bereich Erster Weltkrieg und Mediävistik.  Bewerbungsschluss ist der 9. Dezember 2013.

Mehr Information unter http://www.cendari.eu/research/visiting-research-fellowships/

Quelle: http://dhd-blog.org/?p=2544

Weiterlesen

Studienfach: Digital Humanities. Bericht vom DARIAH-Dozenten-Workshop zu DH-Curricula am 4. September 2013 in Köln

Die Digital Humanities sind ein Forschungsfeld, ein weit gespannter Fächer an Methoden und ein universitäres Lehrfach – das an etlichen Standorten als Studienprogramm „Digital Humanities“ oder „als spezialisierteres Studienprogramm, das dem Bereich der DH zuzurechnen ist“, angeboten wird. Vertreter dieses Faches haben ein natürliches Interesse daran, ihr Fachgebiet als solches besser sichtbar zu machen. Ein Mittel zu diesem Zweck ist die Abstimmung über curriculare Fragen mit dem Fernziel eines abgestimmten Referenzcurriculums, das ein gemeinsamen Verständnis der Ausbildung in den Digital Humanities stärkt, die Durchlässigkeit verbessert und Standortwechsel für Studierende erleichtert sowie die Erkennbarkeit des Faches z.B. auf Seiten potentieller Studierender, der Politik und des Arbeitsmarktes fördert.

Dazu haben sich Vertreter von DH-Lehrangeboten an Hochschulen im deutschsprachigen Raum seit 2009 und nun schon zum vierten Mal, jetzt zu einem DARIAH-Dozenten-Workshop, in Köln getroffen. Zu den Ergebnissen dieser kontinuierlichen Zusammenarbeit, die auch in einer eigenen Mailingliste organisiert wird, gehörte u.a. 2011 eine Zusammenstellung aller DH-Studienangebote im deutschsprachigen Raum. Die Aktivitäten zur Abstimmung laufen seit 2011 auch im Rahmen von DARIAH-DE und sollen hier zu einem gemeinsamen Curriculum führen. Auf dem Weg dorthin haben KollegInnen vom Göttingen Center for Digital Humanities (GCDH) eine empirische Datengrundlage geschaffen, die über 100 DH-Studienprogramme (hauptsächlich BA- und MA-Programme) auf der Welt sowie rund 80 Module und über 1000 Kurse aus den Studienprogrammen zusammenträgt. Auf der Grundlage dieser Daten und vor allem der vielfältigen Diskussionen der letzten Jahre ist ein Bericht über den Stand der DH-Ausbildung, insbesondere in den expliziten DH-Studiengängen entstanden, der (als Vorfassung einer offizielleren Publikation) unter dem Titel „DH studieren! Auf dem Weg zu einem Kern- und Referenzcurriculum“ zur Verfügung steht. Er erhebt den Anspruch, nicht nur die gegenwärtige Situation systematisch zu beschreiben, sondern auch Beiträge zu einem Referenzcurriculum zu liefern.

Auf dem aktuellen Workshop, der im Twitterstrom unter #Dhcurricular13 lief, wurde von Patrick Sahle (CCeH) zunächst der Report vorgestellt und anschließend diskutiert. Danach präsentierte Marcus Held (IEG) Überlegungen zur bildungstheoretischen Einordnung und Fundierung gemeinsamer Curricularbestrebungen, sowie zur Qualitätsentwicklung und -sicherung, die für ein gemeinsames formales Curriculum noch von großem Wert sein werden (Paper 1, Paper 2).

Von besonderem Interesse dürfte die allgemeine Berichtsrunde gewesen sein, auf der sich die verschiedenen TeilnehmerInnen über die neueren Entwicklungen an den verschiedenen Standorten informierten. Mit KollegInnen aus Bamberg, Berlin, Darmstadt, Erlangen, Frankfurt, Gießen, Göttingen, Graz, Köln, Leipzig, Mainz, Passau, Potsdam, Saarbrücken, Trier, Tübingen und Würzburg waren fast alle wichtigen Einrichtungen vertreten, die bereits DH-Lehre anbieten oder ihren Aufbau planen. Unter den etablierten Standorten ließen sich Bielefeld und Hamburg entschuldigen, unter den „Newcomern“ wäre man noch auf Vertreter aus Bern oder Heidelberg gespannt gewesen, wo in Zukunft möglicherweise Aktivitäten auch in Richtung der DH-Ausbildung entfaltet werden. Aus den Berichten zu den aktuellen Entwicklungen lassen sich – subjektiv – die folgenden Beobachtungen und Tendenzen zusammenfassen:

  • Die Szene ist in starker Bewegung; an vielen Standorten gibt es Bestrebungen zum Aus- oder Aufbau von Lehrangeboten jetzt oder in den kommenden Jahren.
  • Dazu sind in letzter Zeit etliche Stellen auf den Ebenen Lecturer/Lehrkräfte, Koordinatoren und Professuren ausgeschrieben worden (u.a. Bern, Darmstadt, Heidelberg, Köln, Leipzig, Passau, Tübingen); weitere Ausschreibungen sind angekündigt.
  • Der Ausbau der Lehre kann die Ergänzung von bestehenden Masterstudiengängen um ein Bachelorangebot (Darmstadt: BA Digital Philologies) oder die Fortführung von bestehenden Bachelorstudiengängen auf der Masterebene (Würzburg: MA Digital Humanities) betreffen.
  • Bestehende spezialisierte Angebote können zu umfassenderen Studiengängen umgebaut werden (Trier: von der Computerlinguistik zu den Digital Humanities).
  • Lehrprogramme können von Grund auf neu aufgebaut werden, wobei sich verschiedene Stufen unterscheiden lassen …
    • Der Aufbau von neuen BA- oder MA-Programmen ist schwierig und kann sich u.U. über einen längeren Zeitraum (18-36 Monaten) erstrecken (Frankfurt, Göttingen).
    • Lehrangebote auf der Ebene der Kurse, Module, Studienschwerpunkte oder Zertifikatsstudien sind deutlich leichter einzurichten und können teilweise binnen 6 Monaten gestartet werden (Detmold/Paderborn, Frankfurt, Leipzig, Passau, Tübingen).
    • Solche Lehrangebote können ebenso ein Schritt in Richtung auf BA-/MA-Studiengängen sein, wie die Öffnung von Informatik-Studiengängen für eine leichtere Kombination mit geisteswissenschaftlichen Programmen.

An den Präsentationen und Berichten entzündeten sich über den ganzen Tag hinweg verschiedene Diskussionspunkte. Dazu gehörten …

  • Wie können DH-Lehrprogramme überhaupt aufgebaut werden? Welche Ressourcen benötigt man dafür? Welche Strategien können eingeschlagen werden?
  • Wie weit lassen sich bestehende Kurse aus anderen Fächern (z.B. der Informatik) importieren? Wo sind eigenständige neue Angebote unerlässlich?
  • Wie ist insgesamt das Verhältnis zur Informatik?
    • Inhaltlich: Welche Teile der Informatik müssen in einem DH-Studiengang gelehrt und abgedeckt werden? Lassen sich Mindestanforderungen für einen DH-Studiengang formulieren?
    • Organisatorisch: Besteht die Gefahr, dass die Digital Humanities von der Informatik unter Verlust ihrer eigenen (geisteswissenschaftlichen) Spezifik übernommen oder (Zitat:) „aufgemischt“ werden? Sollen die DH hier ungeachtet ihrer eigenen Tradition und des inzwischen erreichten state of the art einmal mehr neu erfunden werden?
  • Welche Rolle spielt die „Digital Literacy“ in den DH? Sollten in diesem  Bereich auch niederschwellige Lehrangebote für benachbarte Disziplinen oder für alle Fächer gemacht werden? Sind die DH auch für Teile der propädeutischen Ausbildung und für bestimmte Schlüsselqualifikationen zuständig? Besteht eine Verpflichtung, DH-Methoden auch in andere Fächer aktiv hineinzutragen? Sollten mehr orientierende Veranstaltungen „Was ist und was kann DH“ angeboten werden? Oder bedeuten breitere und „einfachere“ Angebote eine Trivialisierung der DH und eine Gefahr für den Bestand der expliziten DH-Studiengänge selbst?
  • Sollten sich die DH-Studiengänge auch für die Ausbildung von Informatik-LehrerInnen an höheren Schulen öffnen?
  • Wie lässt sich das Problem der unterschiedlichen Studienverläufe und Vorkenntnisse bei nicht-konsekutiven DH-Master-Programmen lösen? Sollten Master-Programme dazu verschiedene „Profile“ anbieten?

An die Berichte schlossen sich weitere Ausführungen von Manfred Thaller zu Referenzcurricula im Allgemeinen, den Empfehlungen der Gesellschaft für Informatik für den Aufbau von Informatik-Studiengängen als Vergleichsbeispiel und zu seinem eigenen „Zwiebelschalenmodell“ (siehe Report, Anhang) als Beschreibungsansatz für die DH-Ausbildungslandschaft an. Außerdem wurden hier Vorschläge für das weitere Vorgehen gemacht und diskutiert. Ein gemeinsames Referenzcurriculum könnte unter der redaktionellen Koordination von Gerrit Weber bis zum Frühjahr 2014 kollaborativ von der gesamten Gruppe der interessierten KollegInnen erarbeitet werden. Zu den allgemeinen Beschreibungen des Feldes „DH als Studienfach“ soll auch das Konzept eines idealtypischen, allgemeinen BA-/MA-Studiengangs „Digital Humanities“ als Referenzpunkt gegeben werden. Organisatorisch soll das Curriculum zunächst mit Dariah-DE verbunden sein, wo Gerrit Weber auch seit dem 1. September 2013 beschäftigt ist. Zu prüfen ist daneben eine Verbindung mit den entsprechenden Arbeitspaketen zu Schulungen und Trainingsmaterialien in CLARIN. Von der Logik der Sache her wäre mittelfristig eine Anlehnung an den DHd-Verband naheliegend. Hier wäre zu prüfen, ob die bisherige informelle Gruppe nicht in eine Arbeitsgruppe im Verband umgewandelt werden könnte.

Die bisherigen Aktivitäten im deutschsprachigen Raum sollen nach Auskunft von Walter Scholger (Graz) außerdem auf der europäischen Ebene von DARIAH, d.h. im Virtual Competency Center 2 (VCC2) zu Research and Education, das sich ebenfalls mit Ausbildungsfragen beschäftigt, aufgenommen und damit auf internationaler Ebene vorangetrieben werden. Hier wird u.a. an eine „registry“ für DH-Studiengängen nachgedacht.

Unter den Workshop-Teilnehmern schienen insgesamt zwei Wünsche bestehen zu bleiben: Zum Einen soll am Ziel eines Referenzcurriculums festgehalten und dieses in absehbarer Zeit erreicht werden. Zum Anderen wurde die Relevanz der Curricular-Treffen betont und für eine weitere kontinuierliche Abstimmung der Fachgemeinschaft plädiert. Dies würde bereits vor und dann neben der Verabschiedung eines formalen Curriculums zu einem besseren gegenseitigen Verständnis beitragen und die Konvergenzen zwischen den Akteuren deutlich erhöhen.

Quelle: http://dhd-blog.org/?p=2248

Weiterlesen
1 7 8 9