Professur (W1) für Digital Humanities an der Universität Köln zu besetzen

An der Philosophischen Fakultät der Universität zu Köln ist zum 01.10.2013 eine Professur (W1) für Digital Humanities zu besetzen. Die Stelle ist für das Cologne Center for eHumanities (CCeH) zuständig. Ihr Aufgabengebiet umfasst den Einsatz der Informationstechnologien in den Geisteswissenschaften, von den Philologien bis hin zu den objektbezogenen Fächern wie der Kunstgeschichte oder Archäologie. Zu […]

Quelle: http://www.einsichten-online.de/2013/04/4088/

Weiterlesen

Semantic Web – das Wissen der Welt vernetzten

Informationen zu sammeln ist evolutionär, ja beinahe als eine jener Eigenschaften des Menschen anzusehen, die ihn einzigartig machen. Je mehr Informationen über seine Umwelt der Mensch hatte, desto größer waren seine Chancen, in einer noch nicht kontrollierbaren Welt zu überleben. … Weiterlesen

Quelle: http://kristinoswald.hypotheses.org/733

Weiterlesen

Was Sie schon immer über “research technologists” wissen wollten und nie zu fragen wagten

Vom 11. bis 12. März fand am Corpus Christi College in Oxford ein Workshop zum Thema “Recognising Research Technologists in Research: an Action Plan” statt. Der Workshop wurde von JISC (UK) gemeinsam mit SURF (NL) und dem CSC (FIN) organisiert und fand im Rahmen des e-Infrastructure Policy Forums statt. Zwei kurze Tage lang diskutierten Wissenschaftler aus unterschiedlichen Disziplinen und europäischen Ländern darüber, was “research technologists” definiert, welche Rolle sie im Forschungsprozess insbesondere im Kontext der Digitalisierung haben, und wie man ihren Status und ihre Karrierepfade, ihre Ausbildung und ihre Anerkennung verbessern könnte. Einige Ergebnisse des Workshops sollen hier in Form von Frage & Antwort berichtet werden.

1. Was sind “research technologists” überhaupt?

Torsten Reimer, "Old Tunnel, New Light"

Licht am Ende des Tunnels? (Keller der Bodleian Library, Oxford) – Torsten Reimer, “Old Tunnel, New Light”. Mit freundlicher Genehmigung, all rights reserved, Quelle: http://www.flickr.com/photos/torstenreimer/8554250760/sizes/h/in/photostream/.

Der Begriff “research technologist” (je nach Kontext auch “scientific programmer” oder “data technologist” genannt) bezeichnet kurz gesagt eine Personengruppe, die technisch-informatische Kompetenzen und Lösungen in den wissenschaftlichen Forschungsprozess einbringt. Dabei kann man sie in einem Kontinuum verorten, das zwischen zwei Polen aufgespannt ist: auf der einen Seite die rein auf ihre disziplinäre Forschung fokussierten Wissenschaftler (von denen heute allerdings zumindest eine gewisse technische Expertise erwartet wird); auf der anderen Seite die reinen technischen oder informatischen Dienstleister, die generische Standard-Lösungen für bestimmte Probleme (wie Datenspeicherung, Datenmanagement, Retrieval-Lösungen, etc.) anbieten können. Zwischen diesen beiden Polen sind einereits, näher am wissenschaftlichen Pol, die “digital humanists” oder “e-scientists” angesiedelt, die zwar primär ihren eigenen Forschungszielen verpflichtet sind, diese Ziele aber unter Einsatz individuell angepasster technologischer Lösungen zu erreichen suchen; andererseits, und näher am technologischen Pol angesiedelt, gibt es eben die research technologists, die einen primär technisch-informatischen Hintergrund mit einem tieferen Verständnis für Forschungsfragen verbinden und die forschungsgetriebene, individuell angepasste technologische Lösungen entwickeln und umsetzen.

2. Warum sind “research technologists” wichtig?

Im Kontext der zunehmenden Digitalisierung des kulturellen Erbes in den Geisteswissenschaften, der evidenzbasierten Sozialwissenschaften und der datengetriebenen Naturwissenschaften ist innovative Forschung ohne spezifische technisch-informatische Kompetenzen, die über generische Standard-Lösungen hinaus gehen, kaum noch denkbar. Die Europäische Kommission und das eIPF haben jedenfalls formuliert, dass ohne eine gut aufgestellte community von research technologists wettbewerbsfähige Forschung in den nächsten Jahren und Jahrzehnten zunehmend schwieriger sein wird. Die Spezialisierung und Arbeitsteilung in der Wissenschaft macht es zunehmend unmöglich, dass ein/e einzelne/r Wissenschaftler/in alle im engeren Sinne forschungsgetriebenen und alle technologischen Aspekte seiner/ihrer Forschung selbst beherrschen, anpassen und neu entwickeln kann. Zugleich sind “research technologists” mit meist informatischem Hintergrund in der Industrie und dem Service-Sektor gefragte Arbeitskräfte, sodass es für die Wissenschaft oft schwierig ist, geeignete Mitarbeiter/innen zu finden und zu halten. Viele Projekte in den digitalen Geisteswissenschaften sind davon betroffen.

3. Warum ist der Status von research technologists derzeit problematisch?

Zur Zeit haben “research technologists” keinen klar definierten Status; den meisten Wissenschaftlern ist der Begriff selbst unbekannt. Da sie nicht selbst disziplinär verankerte Forschungsprojekte leiten oder eine solche Leitungsposition anstreben, steht ihnen anders als “normalen” Wissenschaftlern keine akademische Karriere offen. Da sie andererseits nicht zum festen Personal von Rechenzentren gehören, die überwiegend nicht für so forschungsnahe und projektgetriebene Forschungsprojekte zuständig sind, haben sie auch hier keine konkreten Aufstiegschancen. Weil sie überwiegend projektbasiert eingestellt werden, sind sie zumindestens in den Geistes- und Sozialwissenschaften häufig befristet und unsicher beschäftigt. Und weil sie zu oft als Dienstleister gesehen werden, und nicht als vollwertig am Forschungsprozess beteiligte, sind sie häufig nicht Ko-Autoren wissenschaftlicher Artikel über ihr Forschungsprojekt und bekommen demnach nicht einmal symbolisches akademisches Kapital für ihre Arbeit.

4. Was können verschiedene Akteure unternehmen?

Es wurden verschiedenste Lösungsansätze diskutiert, vier davon scheinen mit aber besonders wichtig. Erstens sollte der genuine, forschungsorientierte Beitrag, den “research technologists” zum Forschungsprozess beitragen dadurch gewürdigt werden, dass sie mit Bezug auf ihre Gehaltsstufe als Wissenschaftler eingestuft werden oder zumindest besser gestellt werden, als dies derzeit oft der Fall ist. Zweitens und kurzfristig sollten sie aus dem gleichen Grund am Verfassen und Publizieren von wissenschaftlichen Artikeln beteiligt werden, was möglicherweise die Inhalte ebenso beeinflussen würde wie die geeigneten Publikationsorte. Drittens und mittelfristig sollten veränderte Publikationsgewohnheiten es “research technologists” erlauben, durch die Publikation von Tools und Code ebenfalls “academic credit” zu erwerben. Viertens (und das scheint mir der Bereich zu sein, wo am deutlichsten eine win-win-Situation hergestellt werden könnte), sollten an den Universitäten idealerweise auf Fakultätsebene “Research Technology Centers” oder “Digitale Forschungszentren” eingerichtet werden, die “research technologists” dauerhaft eingerichtete Stellen anbieten können. Das würde den RTs eine dauerhafte Perspektive eröffnen und es Projekten zugleich erlauben, zeitweise und flexibel Expertise ins Projekt zu holen, ohne dass die RTs nach Abschluss des Projekts auf der Straße stehen, und ohne dass der Universität wertvolle Expertise verloren geht.

Klar wird auf jeden Fall, dass die Entwicklung in der Forschungspraxis nicht haltmacht, während die kulturellen und institutionellen Gegebenheiten nur langsam reagieren. Hier sind in der Tat individuelle Forscher/innen ebenso gefragt wie Entscheider/innen auf institutioneller Ebene! Auch Input aus der Community ist hier gerne gefragt: Welche (vielleicht abweichende) Erfahrungen haben Sie in Ihren Projekten mit “research technologists” gemacht? Sind Sie vielleicht selbst eine/r? Was sehen Sie als dringlichste Probleme?

Quelle: http://dhd-blog.org/?p=1487

Weiterlesen

[Guest post] Wikipedia & Local History: a case study by Conny Reichling


On February 7, 2013 an UGR Symposium on eLearning took place at the University of Luxembourg at Campus Walferdange. Bob Reuter invited Agnès Prüm (about Moodle), Benoît Majerus (about Twitter) and me to talk about our eLearning experiences in the classroom.

During the summer semester 2011 Sonja Kmec and I animated a seminar using Wikipedia as a tool to work on local history. I presented our experiences at the eLearning colloquium as a case study on “Using Wikipedia as a tool in local history”.

One of the objectives of the seminar was to confront the toolbox (methods of historical analysis and ways of dissemination) of a historian with the possibilities given by the Web 2.0. Compared to the tools a historian would traditionally use, the Web 2.0 blurs the line between author and reader. Everyone can become an author on the Web 2.0 if he or she wishes. Knowledge is travelling faster and is somewhat democratized, providing there is no censorship and there is Internet access. Students were thus encouraged not simply to consume historical texts, but to participate themselves in the production of knowledge. Another purpose of using Wikipedia as a tool for feedback on existing literature and generation of new knowledge was to consolidate the presence of local history on the Internet.

We chose Wikipedia for its dynamic features (as opposed to a blog or a journal) and for its democratic quality control (see TED talk by Jimmy Wales). Students were asked to create or edit a Wikipedia encyclopedia entry about Luxembourgian local history and benefit from the comments added and alterations made to their article in order to complete or correct their final work, which consisted in a traditional scientific essay.

In the course of this experiment with new transmedial methods, Wikipedia became the link between grey literature of difficult access and the Web 2.0 providing information on as good as every subject. Although, the general malaise regarding the use of Wikipedia in an academic environment is still very present in comments made by our students in the anonymous evaluation of your course, such as “I wouldn’t want my work published somewhere else than wiki – meaning a serious webpage” or “Je trouve que le travail sur wikipédia [n’] est absolument pas nécessaire, surtout parce que les profs nous ont interdit d’utiliser ce site”.

Because historiography on Luxembourg – like most local history – is mostly done by laymen and therefore the output consists mainly of so-called grey literature, Sonja and I chose to involve local historians in this project from the start and invited them to attend the seminar by distributing flyers. We recruited 32 participants (13 auditeurs libres and 19 ‘regular’ history students). Although these numbers appeared to be nicely balanced, the students felt somehow threatened by the (mostly) elderly people attending and actively contributing to the seminar. This is very clear from the anonymous evaluation at the end of the term, as the following quotes show: “Zu viele auditeurs libres!!” and “Je pense que le mixe entre étudiants jeunes et séniors était difficile dans ce cours, en particulier à cause du travail sur les ordinateurs.” While some students were obviously more computer literate that most auditeurs libres, this was not the case for all students. While the attending local historians had no qualms about asking for IT advice during class, students did not ask questions during the seminar, but preferred to send emails as to the proper use of Wikipedia afterwards. This may be linked to peer pressure, as their need for help would discriminate them from their own age group or it may be related to their refusal to give up and wish to experiment some more after class.

The participants were to study a geographical site in Luxemburg of their choice and write a few small encyclopedic entries, a bibliography and a scientific paper as well as to discuss their research methods in an oral presentation during the seminar. In order to motivate the students a little bit more, we offered the possibility to publish the best papers – with the author’s name – on a homepage dedicated to this seminar. 5 out of 32 papers met the criteria for publishing, but only two accepted to be published online.

One side product of the seminar consists in the confrontation blurring between historical facts such as learned by the students and the memories (Erinnerung und Gedächtnis) recounted by the older people attending the class. This lead to a more critical understanding of Oral History and written sources, the authority of which were increasingly questioned. Thus we’ve added a session about Oral History and its methods and pitfalls.

Despite the fact that students evidently use Wikipedia very commonly as a source for their work at the university, they are very reluctant when it comes to actually working with Wikipedia. We also noticed that the administrators of Wikipedia are very active and very fast in moderation contributions. The students were free to work on Wikipedia in French, German, English and Luxemburgish, knowing that the Luxembourgian Wikipedians knew about this project and the moderators weren’t quite as severe as on the French Wikipedia for instance where articles not meeting the Wikipedia guidelines would be removed without any warning. On the Luxembourgish Wikipedia, the moderators monitored the entries made by the students and would intervene via comment when things had to be modified.

Most of their critics regarding the students’ Wikipedia contributions concerned the lack of respect of the encyclopedic writing style. Most of the students did indeed copy-paste their scientific papers into the Wikipedia entry without using the proper posting guidelines. This resulted sometimes in heavy editing by more seasoned Wikipedians.

None of the participants was a Wikipedia contributor before the seminar; most remain reluctant towards the active use of Wikipedia. Only a few auditeurs libres and students are still active Wikipedians one year after the seminar took place.

Another idea worth keeping in mind for the years to come is to work closer with the researchers from educational sciences (Bob Reuter) and pick up on their offer to see the seminar scientifically through combining the teaching process with the learning process more thoroughly.

Conny Reichling (on twitter @connyreichling)

 

Quelle: http://majerus.hypotheses.org/645

Weiterlesen

Schöne neue Welt?

Michael Kaiser meint in seinem Statement zur Tagung “Kathedralen des Wissens – Bibliotheken im Internetzeitalter”:

Auch das war Bibliothek: Sie war nicht mehr restriktiv und gängelnd, im Gegenteil. Sie war ubiquitär und barrierefrei – auf einmal ergaben sich ganz neue Arbeitsmöglichkeiten und neue Recherchemöglichkeiten. Wer ähnliche Erfahrungen gemacht hat, kann den Wechsel von der traditionellen Bibliothek zur neuen Bibliothek im Internetzeitalter kaum als Verlusterfahrung begreifen. Vielmehr erlebte man durchweg Verbesserungen und es ergaben sich neue Chancen.
[Die neue Bibliothek: Die Perspektive eines wissenschaftlichen Nutzers]

Die neuen Chancen sind unbestritten – vor allem die im Text angesprochene Möglichkeit, jederzeit auf Rara zuzugreifen, diese bei Bedarf einfach auszudrucken und dann damit/darauf/darin zu arbeiten, ohne K(r)ampf mit Schaumstoffkeilen, Bleischnüren, ohne das Gefühl, allein durch das Berühren des Bandes des Bestand zu gefährden, ohne Diskussionen über den (Un-)Sinn weißer Handschuhe.

Die neuen Chancen wären noch größer und verlockender, wäre die Bibliothek tatsächlich ubiquitär und barrierefrei. In der Praxis türmen fehlende und/oder unzulängliche Recherchemöglichkeiten, die mit den Anforderungen und Möglichkeiten des 21. Jahrhunderts nicht Schritt halten, neue Barrieren auf, sodass die Suche nach Digitalisaten den wissenschafltichen Nutzer vielfach in Vor-OPAC-Zeiten zurückwirft.

Aus der Sicht des Nutzers scheinen Katalogsysteme nicht für Bücher, die vor 1850 produziert wurden, gemacht zu sein – und auch nicht dafür anpassbar zu sein. Die diversen Richtlinien wie RAK-WB und Datenformate wie MAB2, MARC21, UNIMARC, MAB1/MAB2, Pica+/Pica3, ZDB-ZETA, etc. werden immer ausgefeilter. Die Möglichkeiten, Objekte in Bibliothekskatalogen zu beschreiben, immer ausgefeilter. Aber zwischen dem regelkonformen und systemkonformen Erfassen eines Buches für einen Katalog/eine Datenbank und dem Zugriff durch die wissenschaftliche Nutzerin liegen Welten:

  • Bibliographische Daten in Originalschrift werden nicht/nur teilweise angezeigt
  • Umschriften für nicht-lateinische Schriften werden willkürlich gewählt bzw. frei kombiniert – oder wie ist es zu verstehen, wenn bei der Transkription chinesischer Titel in Hanyu Pinyin 漢語拼音 Wörter nicht zusammengeschrieben werden, sondern allenfalls Silben mit Bindestrich verbunden werden? Die Daten sind de facto unbrauchbar.
  • OPAC und digitale Bibliothek sind nicht verknüpft (bzw. dauert der Abgleich häufig zumindest 4-6 Wochen) – sodass die Digitalisierungs-RSS-Feeds Objekte anzeigen, die dann entweder noch nicht verfügbar oder aber über normale Wege (= Katalog) nicht auffindbar sind
  • Kataloge, die nach 2 Minuten Inaktivätet ‘aus Sicherheitsgründen’ Sitzungen abbrechen – da sind die neuerdings 10 Minuten schon ein Riesenschritt:

    @monikalehner Ab heute längeres Time-Out im OPAC: Session-Unterbrechung erst nach 10 Min. 120s-Time-Out gilt für lange dauernde Suchanfragen

    — Staatsbibliothek (@bsb_muenchen) 5. Februar 2013

  • Metadaten sind kaum vorhanden / so rudimentär, dass Ausgaben nicht mehr erkannt und Adligate nicht (mehr) gefunden werden können.
  • Möglichkeiten, offensichtliche (Schreib/Lese)Fehler anzuzeigen gibt es (von wenigen Ausnahmen abgesehen) nicht -  der Katalog irrt nie, prinzipill ist die Nutzerin das Problem.

Die Klagen ließen sich lange fortsetzen … und vermutlich könnten BibliothekarInnen ebensolange Listen mit Klagen schreiben. Die Lösung kann nicht sein, durch immer neue Regelwerke und immer neue Umbauten der User-Interfaces Mauern zu halten und zu verstärken und ‘Stellungen zu verteidigen’.

Die ‘Kathedralen des Wissens’ – in meinem Fall so unterschiedliche Orte und Räume wie der Augustiner-Lesesaal der Österreichischen Nationalbibliothek, die UB Leiden mit dem offenen Magazin, die Staatsbibliothek Preußischer Kulturbesitz, die Bibliothek der School of Oriental and African Studies und viele andere – waren und sind Orte, die Texte verfügbar hielten und – manchmal mit Hindernissen – zugänglich machten. Die Art der Eröffnung des Zugangs (= Katalog i.w.S.) hat sich zwar äußerlich verändert, sich aber nur wenig den modernen Nutzeranforderungen angepasst. Für Einsteiger gaukelt die ‘einfache Suche’ einen leichten Zugang vor, für den fortgeschrittenen Benutzer, der mit einer Fülle unterschiedlicher Datenbanken, Bibliographien und Kataloge arbeitet, sind die ‘eigerlegenden Wollmilchsäue’ eher Frust denn Erleichterung.

Die geänderten technischen Möglichkeiten bringen es mit sich, dass viele Texte, deren Beschaffung vor wenigen Jahren noch eine große Herausforderung (und mit nicht unerheblichen Kosten) verbunden war, sind heute in Sekunden auf dem Desktop, auf der Festplatte gespeichert und/oder ausgedruckt sind.  Doch das ist nur der erste Schritt – die Möglichkeiten, die sich durch die leichtere Verfügbarkeit und den unmittelbaren Zugriff eröffnen (u.a. Vergleich unterschiedlicher Ausgaben, Zoom-in bei Abbildungen und Kartenmaterial) sind noch wenig ausgereizt.

 

 

Quelle: http://mindthegaps.hypotheses.org/369

Weiterlesen

Using Twitter in a large auditorium

 


Part of a discussion around neo-colonialism

This is the fourth post that I publish on a Twitter experiment I did last year at the Université libre de Bruxelles (here, here and here). Yesterday I was invited to speak at a symposium entitled “e-Learning@UniGR – Insights/Capabilities/Prospects” on this experience. It was for me the occasion to continue to work on the results provided by the poll I took with the education service of the ULB.

One of my biggest fear was my inability to control the tweets students would post and that would immediately appear on the twitter livestream on the big screen behind me.

Half of the tweets were directly related to the content of the lecture:

  • students asked questions and got responses from other students

  • twice they did reveal faults in my slides and provided links to wikipedia to prove that I was wrong :)

  • they referred to websites interesting for the topic of the class

  • sometimes they started discussions on topics related to the course but not touched on in my teaching; in the lecture of colonisation, a discussion on the question if NGOs were neocolonial institutions was initiated by a student without me referring to this problematic

A quart of the tweets were about organisational problems and a quart was not related at all to the lecture. They were however not very disturbing and provoked some funny moments. The fear of a slippery comments proved to be unfounded, at least in this class.

In the survey we distributed during the last lecture of this course (more here), we also asked the students to evaluate the experience. At the end of this post, you will find the detailed results. The strongest argument in favour of Twitter, for the students, was a better conviviality inside this large auditorium. Of the 300 students that attended the class on a regular basis, only 13 did intervene actively on Twitter. But for all – at least a large majority (85% of the respondents) – (strongly) agreed with the following proposal: “Cela introduit une ambiance conviviale”. This good atmosphere made lecturing for me very pleasant, even in such a large “classroom”1.

Chart a – Better understanding

Strongly agree

Agree

Disagree

Strongly Disagree

14%

52%

27%

7%

Chart b – Amelioration of the concentration

Strongly agree

Agree

Disagree

Strongly Disagree

8%

28%

34%

30%

Chart c – Better conviviality

Strongly agree

Agree

Disagree

Strongly Disagree

44%

41%

12%

3%

Chart d – Distracting

Strongly agree

Agree

Disagree

Strongly Disagree

13%

22%

37%

29%

Chart e – Not useful

Strongly agree

Agree

Disagree

Strongly Disagree

14%

24%

29%

33%

 

  1. For those who want/need more arguments for using Twitter in classroom, read Junco, R., G. Heibergert, and E. Loken. ‘The Effect of Twitter on College Student Engagement and Grades’. Journal of Computer Assisted Learning (2010): 1–14.

Quelle: http://majerus.hypotheses.org/626

Weiterlesen

Vernetzte Orchideen

Vernetzung, Beziehungen und Kommunikation sind für die Vertreter der Orchideenfächer nicht erst seit Kurzem von Bedeutung. Schon immer bestimmten Sympathie und Zwistigkeiten, Interessen und Charaktere, Kontakte und Kommunikation den wissenschaftlichen Lebenslauf, zumindest zwischen den Zeilen. In Zeiten, in denen die … Weiterlesen

Quelle: http://kristinoswald.hypotheses.org/319

Weiterlesen

Der mittelalterliche Codex im virtuellen Raum – Zur Rekonstruktion der Bibliothek der Benediktinerabtei St. Matthias in Trier

Die Benediktinerabtei St. Matthias enthielt eine der bedeutenden Skriptorien und Bibliotheken des Mittelalters. Der Bestand ist nicht nur für die Theologie, Geschichte und Altphilologie von zentraler Bedeutung, sondern auch für die Kunstgeschichte, Musikgeschichte, Medizin und Germanistik. Für letzteren Bereich ist eine bedeutende volkssprachige Überlieferung zu verzeichnen, die uns in den Beginn der Geschichte der vernakularen Sprachen im mittelalterlichen Europa führt, und deren textliche Vielfalt unter anderem Zaubersprüche, Segen, Glossen und kleinere Texte umfasst. Zusammen mit der althochdeutschen und altenglischen Überlieferung des nahe gelegenen Klosters Echternach bilden die Bestände aus St. Matthias eine einmalige Überlieferung im Bereich der Handschriftenkulturen des Mittelalters, insbesondere auch für den moselfränkischen Raum.

http://dfg-viewer.de/tei-prototyp/?set[image]=7&set[zoom]=min&set[debug]=0&set[double]=0&set[mets]=http%3A%2F%2Fzimks68.uni-trier.de%2Fstmatthias%2FT2229%2FT2229-digitalisat.xml

StB Trier Hs 2229/1751 8°, Abschrift des Kataloges aus dem 16 Jh.

Ziel des Projekts “Virtuelles Skriptorium St. Matthias” ist es, die überlieferten Handschriften aus St. Matthias zu digitalisieren und damit den mittelalterlichen Bestand virtuell zu rekonstruieren. Insgesamt umfasst der erhaltene Bestand etwa 500 Kodizes, die weltweit auf ca. 25 Standorte verteilt sind. Der weitaus überwiegende Anteil (etwa 400 Handschriften) liegt in Trier, und zwar in der Stadtbibliothek und in der Bibliothek des Bischöflichen Priesterseminars.
Insgesamt ordnet sich das Projekt in einen größeren Zusammenhang ein, in dem seit der letzten Dekade europaweit mittelalterliche Bibliotheken und Archive virtuell erfasst, dokumentiert bzw. rekonstruiert werden (siehe auch die Übersicht der relevanten Vorhaben von Klaus Graf). Eine solche rekonstruierte, virtuelle Bibliothek wird es ermöglichen, das geistige Profil und den “Wissensraum” wichtiger mittelalterlicher Bildungszentren zu erforschen und auch durch die Rekonstruktion selber auch neue Einblicke in die Produktions- und Rezeptionsbedingungen der jeweiligen Bestände zu geben.

Aus der Arbeit des Projekts zu St. Matthias ist auch das BMBF geförderte Projekt „eCodicology. Algorithmen zum automatischen Tagging
mittelalterlicher Handschriften“ entstanden, in dem Methoden und Software entwickelt werden, die u. a. die automatische Messung, Speicherung und Analyse von makro- und mikrostrukturelle Elementen digitalisierter Handschriftenseiten ermöglicht und in den Metadaten ablegt. Unter anderem sollen metrische Daten wie etwa Blattgröße, Schriftraumgröße, Zeilenzahl, Bildfelder, Überschriften, Register, Paratexte, Marginalien, Randzeichnungen, Verhältnis von Bildraum und Textraum erhoben sowie statistisch und qualitativ ausgewertet werden. Das Projekt wird im Jahr 2013 starten (Projektpartner TU Darmstadt, Universität Trier/Trier Center for Digital Humanities, Stadtbibliotheik Trier und KIT Karlsruhe).


Psalterium StBTrier HS7/9 8° s. X

Am 18. und 19. Januar 2013 organisieren wir eine internationale Tagung in Trier, die sich dem Thema „Digitale Rekonstruktionen mittelalterlicher Bibliotheken“ widmet. Es werden verschiedene Vorhaben, die sich im Bereich der Digital Humanities der Rekonstruktion und Erschließung mittelalterlicher Bibliotheksbestände widmen, vorgestellt sowie konkrete Falleispiele erörtert, die aufzeigen, wie diese Bestände wissenschaftlich genutzt werden können. Darüber hinaus rücken unterschiedliche Anbindungsmöglichkeiten in größere Datenrepositorien, Handschriftenportale oder Verbundprojekte (wie etwa TextGrid, Dariah, eCodicology, Manuscripta mediaevalia) in den Fokus sowie auch rechtliche Aspekte wie etwa die Lizenzvergabe (im Rahmen der Erfahrungen mit Europeana). Schließlich sollen die Anforderungen diskutiert werden, die aktuelle Arbeiten aus der Kulturgeschichte, der Kunstgeschichte, den Philologien und der Musikwissenschaft an solche digitalen Rekonstruktionen stellen. Die Tagung wird vom Historisch-Kulturwissenschaftlichen Zentrum (HKFZ Trier) gefördert und findet in der Abtei St. Matthias sowie in der Stadtbibliothek Trier statt. Das Programm ist hier einsehbar.

Gleichzeitig zur Tagung erscheint ein Sammelband über berühmte Handschriften aus St. Matthias, der auf eine Vortragsreihe der St. Matthias Stiftung und der Stadtbibliothek Trier  zurückgeht. Der Band enthält ferner ein von Reiner Nolden erarbeitetes Verzeichnis der Urkundenausfertigungen der Abtei St. Eucharius/St. Matthias.
Michael Embach/ Claudine Moulin (Hg.): Die Bibliothek der Abtei St. Matthias in Trier – von der mittelalterlichen Schreibstube zum virtuellen Skriptorium: Mit einem Verzeichnis der Mattheiser Urkunden im Stadtarchiv Trier, Trier 2013

Literaturhinweise und Links:

Petrus Becker: Die Benediktinerabtei St. Eucharius – St. Matthias vor Trier (Germania Sacra, Neue Folge 34: Die Bistümer der Kirchenprovinz Trier. Das Erzbistum Trier 8), Berlin, New York 1996

Michael Embach, Claudine Moulin, Andrea Rapp: Die mittelalterliche Bibliothek als digitaler Wissensraum: Zur virtuellen Rekonstruktion der Bibliothek von Trier-St. Matthias, in: Mittelhochdeutsch. Beiträge zur Überlieferung, Sprache und Literatur. Festschrift für Kurt Gärtner zum 75. Geburtstag. Herausgegeben von Ralf Plate und Martin Schubert, Berlin 2011, S. 486-497

Falko Klaes, Trierer Glossenhandschriften, in: Die althochdeutsche und altsächsische Glossographie. Hrsg. von Rolf Bergmann und Stephanie Stricker. Berlin – New York 2009, S. 1279-1296

Sabine Scholzen – Philipp Vanscheidt,  “Das Virtuelle Skriptorium St. Matthias”, in: Libri Pretiosi 14 (2011), S. 67-72

Von Artikeln bis zu Zaubersprüchen. Die ältesten deutschsprachigen Texte der Stadtbibliothek Trier (Studentisches Projekt, Universität Trier, FBII/ Ältere Deutsche Philologie, Leitung: Falko Klaes)

Website DFG-Projekt  Virtuelles Skriptorium St. Matthias

Das Projekt wird an der Universität Trier und der Stadtbibliothek Trier durchgeführt und von der Deutschen Forschungsgemeinschaft (DFG) gefördert. Die Projektleitung liegt bei Prof. Dr. Claudine Moulin und Prof. Dr. Andrea Rapp (jetzt Technische Universität Darmstadt) sowie bei Prof. Dr. Michael Embach (Stadtbibliothek Trier). Wissenschaftliche Mitarbeiter sind Sabine Philippi (Stadtbibliothek Trier) und Philipp Vanscheidt (Universität Trier/ Technische Universität Darmstadt). Kooperationspartner sind die Bibliothek des Bischöflichen Priesterseminars Trier, das Trier Center for Digital Humanities, Manuscripta mediaevalia und TextGrid.

 

Quelle: http://annotatio.hypotheses.org/59

Weiterlesen

Kolloquium Digital Humanities

Das Kolloquium Digital Humanities der Literatur- und Medienwissenschaften der Universität Trier und des Kompetenzzentrums für elektronische Erschließungs- und Publikationsverfahren in den Geisteswissenschaften lädt auch zum Ende des WS12/13 mittwochvormittags zu transdisziplinären Vorträgen ein.
Alle Interessierten sind herzlich willkommen.
http://www.coli.uni-saarland.de/~csporled/trier/DHKolloq.html
http://kompetenzzentrum.uni-trier.de/de/extra/aktuell/

Quelle: http://dhd-blog.org/?p=1198

Weiterlesen