[Guest post] Wikipedia & Local History: a case study by Conny Reichling


On February 7, 2013 an UGR Symposium on eLearning took place at the University of Luxembourg at Campus Walferdange. Bob Reuter invited Agnès Prüm (about Moodle), Benoît Majerus (about Twitter) and me to talk about our eLearning experiences in the classroom.

During the summer semester 2011 Sonja Kmec and I animated a seminar using Wikipedia as a tool to work on local history. I presented our experiences at the eLearning colloquium as a case study on “Using Wikipedia as a tool in local history”.

One of the objectives of the seminar was to confront the toolbox (methods of historical analysis and ways of dissemination) of a historian with the possibilities given by the Web 2.0. Compared to the tools a historian would traditionally use, the Web 2.0 blurs the line between author and reader. Everyone can become an author on the Web 2.0 if he or she wishes. Knowledge is travelling faster and is somewhat democratized, providing there is no censorship and there is Internet access. Students were thus encouraged not simply to consume historical texts, but to participate themselves in the production of knowledge. Another purpose of using Wikipedia as a tool for feedback on existing literature and generation of new knowledge was to consolidate the presence of local history on the Internet.

We chose Wikipedia for its dynamic features (as opposed to a blog or a journal) and for its democratic quality control (see TED talk by Jimmy Wales). Students were asked to create or edit a Wikipedia encyclopedia entry about Luxembourgian local history and benefit from the comments added and alterations made to their article in order to complete or correct their final work, which consisted in a traditional scientific essay.

In the course of this experiment with new transmedial methods, Wikipedia became the link between grey literature of difficult access and the Web 2.0 providing information on as good as every subject. Although, the general malaise regarding the use of Wikipedia in an academic environment is still very present in comments made by our students in the anonymous evaluation of your course, such as “I wouldn’t want my work published somewhere else than wiki – meaning a serious webpage” or “Je trouve que le travail sur wikipédia [n’] est absolument pas nécessaire, surtout parce que les profs nous ont interdit d’utiliser ce site”.

Because historiography on Luxembourg – like most local history – is mostly done by laymen and therefore the output consists mainly of so-called grey literature, Sonja and I chose to involve local historians in this project from the start and invited them to attend the seminar by distributing flyers. We recruited 32 participants (13 auditeurs libres and 19 ‘regular’ history students). Although these numbers appeared to be nicely balanced, the students felt somehow threatened by the (mostly) elderly people attending and actively contributing to the seminar. This is very clear from the anonymous evaluation at the end of the term, as the following quotes show: “Zu viele auditeurs libres!!” and “Je pense que le mixe entre étudiants jeunes et séniors était difficile dans ce cours, en particulier à cause du travail sur les ordinateurs.” While some students were obviously more computer literate that most auditeurs libres, this was not the case for all students. While the attending local historians had no qualms about asking for IT advice during class, students did not ask questions during the seminar, but preferred to send emails as to the proper use of Wikipedia afterwards. This may be linked to peer pressure, as their need for help would discriminate them from their own age group or it may be related to their refusal to give up and wish to experiment some more after class.

The participants were to study a geographical site in Luxemburg of their choice and write a few small encyclopedic entries, a bibliography and a scientific paper as well as to discuss their research methods in an oral presentation during the seminar. In order to motivate the students a little bit more, we offered the possibility to publish the best papers – with the author’s name – on a homepage dedicated to this seminar. 5 out of 32 papers met the criteria for publishing, but only two accepted to be published online.

One side product of the seminar consists in the confrontation blurring between historical facts such as learned by the students and the memories (Erinnerung und Gedächtnis) recounted by the older people attending the class. This lead to a more critical understanding of Oral History and written sources, the authority of which were increasingly questioned. Thus we’ve added a session about Oral History and its methods and pitfalls.

Despite the fact that students evidently use Wikipedia very commonly as a source for their work at the university, they are very reluctant when it comes to actually working with Wikipedia. We also noticed that the administrators of Wikipedia are very active and very fast in moderation contributions. The students were free to work on Wikipedia in French, German, English and Luxemburgish, knowing that the Luxembourgian Wikipedians knew about this project and the moderators weren’t quite as severe as on the French Wikipedia for instance where articles not meeting the Wikipedia guidelines would be removed without any warning. On the Luxembourgish Wikipedia, the moderators monitored the entries made by the students and would intervene via comment when things had to be modified.

Most of their critics regarding the students’ Wikipedia contributions concerned the lack of respect of the encyclopedic writing style. Most of the students did indeed copy-paste their scientific papers into the Wikipedia entry without using the proper posting guidelines. This resulted sometimes in heavy editing by more seasoned Wikipedians.

None of the participants was a Wikipedia contributor before the seminar; most remain reluctant towards the active use of Wikipedia. Only a few auditeurs libres and students are still active Wikipedians one year after the seminar took place.

Another idea worth keeping in mind for the years to come is to work closer with the researchers from educational sciences (Bob Reuter) and pick up on their offer to see the seminar scientifically through combining the teaching process with the learning process more thoroughly.

Conny Reichling (on twitter @connyreichling)

 

Quelle: http://majerus.hypotheses.org/645

Weiterlesen

Schöne neue Welt?

Michael Kaiser meint in seinem Statement zur Tagung “Kathedralen des Wissens – Bibliotheken im Internetzeitalter”:

Auch das war Bibliothek: Sie war nicht mehr restriktiv und gängelnd, im Gegenteil. Sie war ubiquitär und barrierefrei – auf einmal ergaben sich ganz neue Arbeitsmöglichkeiten und neue Recherchemöglichkeiten. Wer ähnliche Erfahrungen gemacht hat, kann den Wechsel von der traditionellen Bibliothek zur neuen Bibliothek im Internetzeitalter kaum als Verlusterfahrung begreifen. Vielmehr erlebte man durchweg Verbesserungen und es ergaben sich neue Chancen.
[Die neue Bibliothek: Die Perspektive eines wissenschaftlichen Nutzers]

Die neuen Chancen sind unbestritten – vor allem die im Text angesprochene Möglichkeit, jederzeit auf Rara zuzugreifen, diese bei Bedarf einfach auszudrucken und dann damit/darauf/darin zu arbeiten, ohne K(r)ampf mit Schaumstoffkeilen, Bleischnüren, ohne das Gefühl, allein durch das Berühren des Bandes des Bestand zu gefährden, ohne Diskussionen über den (Un-)Sinn weißer Handschuhe.

Die neuen Chancen wären noch größer und verlockender, wäre die Bibliothek tatsächlich ubiquitär und barrierefrei. In der Praxis türmen fehlende und/oder unzulängliche Recherchemöglichkeiten, die mit den Anforderungen und Möglichkeiten des 21. Jahrhunderts nicht Schritt halten, neue Barrieren auf, sodass die Suche nach Digitalisaten den wissenschafltichen Nutzer vielfach in Vor-OPAC-Zeiten zurückwirft.

Aus der Sicht des Nutzers scheinen Katalogsysteme nicht für Bücher, die vor 1850 produziert wurden, gemacht zu sein – und auch nicht dafür anpassbar zu sein. Die diversen Richtlinien wie RAK-WB und Datenformate wie MAB2, MARC21, UNIMARC, MAB1/MAB2, Pica+/Pica3, ZDB-ZETA, etc. werden immer ausgefeilter. Die Möglichkeiten, Objekte in Bibliothekskatalogen zu beschreiben, immer ausgefeilter. Aber zwischen dem regelkonformen und systemkonformen Erfassen eines Buches für einen Katalog/eine Datenbank und dem Zugriff durch die wissenschaftliche Nutzerin liegen Welten:

  • Bibliographische Daten in Originalschrift werden nicht/nur teilweise angezeigt
  • Umschriften für nicht-lateinische Schriften werden willkürlich gewählt bzw. frei kombiniert – oder wie ist es zu verstehen, wenn bei der Transkription chinesischer Titel in Hanyu Pinyin 漢語拼音 Wörter nicht zusammengeschrieben werden, sondern allenfalls Silben mit Bindestrich verbunden werden? Die Daten sind de facto unbrauchbar.
  • OPAC und digitale Bibliothek sind nicht verknüpft (bzw. dauert der Abgleich häufig zumindest 4-6 Wochen) – sodass die Digitalisierungs-RSS-Feeds Objekte anzeigen, die dann entweder noch nicht verfügbar oder aber über normale Wege (= Katalog) nicht auffindbar sind
  • Kataloge, die nach 2 Minuten Inaktivätet ‘aus Sicherheitsgründen’ Sitzungen abbrechen – da sind die neuerdings 10 Minuten schon ein Riesenschritt:

    @monikalehner Ab heute längeres Time-Out im OPAC: Session-Unterbrechung erst nach 10 Min. 120s-Time-Out gilt für lange dauernde Suchanfragen

    — Staatsbibliothek (@bsb_muenchen) 5. Februar 2013

  • Metadaten sind kaum vorhanden / so rudimentär, dass Ausgaben nicht mehr erkannt und Adligate nicht (mehr) gefunden werden können.
  • Möglichkeiten, offensichtliche (Schreib/Lese)Fehler anzuzeigen gibt es (von wenigen Ausnahmen abgesehen) nicht -  der Katalog irrt nie, prinzipill ist die Nutzerin das Problem.

Die Klagen ließen sich lange fortsetzen … und vermutlich könnten BibliothekarInnen ebensolange Listen mit Klagen schreiben. Die Lösung kann nicht sein, durch immer neue Regelwerke und immer neue Umbauten der User-Interfaces Mauern zu halten und zu verstärken und ‘Stellungen zu verteidigen’.

Die ‘Kathedralen des Wissens’ – in meinem Fall so unterschiedliche Orte und Räume wie der Augustiner-Lesesaal der Österreichischen Nationalbibliothek, die UB Leiden mit dem offenen Magazin, die Staatsbibliothek Preußischer Kulturbesitz, die Bibliothek der School of Oriental and African Studies und viele andere – waren und sind Orte, die Texte verfügbar hielten und – manchmal mit Hindernissen – zugänglich machten. Die Art der Eröffnung des Zugangs (= Katalog i.w.S.) hat sich zwar äußerlich verändert, sich aber nur wenig den modernen Nutzeranforderungen angepasst. Für Einsteiger gaukelt die ‘einfache Suche’ einen leichten Zugang vor, für den fortgeschrittenen Benutzer, der mit einer Fülle unterschiedlicher Datenbanken, Bibliographien und Kataloge arbeitet, sind die ‘eigerlegenden Wollmilchsäue’ eher Frust denn Erleichterung.

Die geänderten technischen Möglichkeiten bringen es mit sich, dass viele Texte, deren Beschaffung vor wenigen Jahren noch eine große Herausforderung (und mit nicht unerheblichen Kosten) verbunden war, sind heute in Sekunden auf dem Desktop, auf der Festplatte gespeichert und/oder ausgedruckt sind.  Doch das ist nur der erste Schritt – die Möglichkeiten, die sich durch die leichtere Verfügbarkeit und den unmittelbaren Zugriff eröffnen (u.a. Vergleich unterschiedlicher Ausgaben, Zoom-in bei Abbildungen und Kartenmaterial) sind noch wenig ausgereizt.

 

 

Quelle: http://mindthegaps.hypotheses.org/369

Weiterlesen

Using Twitter in a large auditorium

 


Part of a discussion around neo-colonialism

This is the fourth post that I publish on a Twitter experiment I did last year at the Université libre de Bruxelles (here, here and here). Yesterday I was invited to speak at a symposium entitled “e-Learning@UniGR – Insights/Capabilities/Prospects” on this experience. It was for me the occasion to continue to work on the results provided by the poll I took with the education service of the ULB.

One of my biggest fear was my inability to control the tweets students would post and that would immediately appear on the twitter livestream on the big screen behind me.

Half of the tweets were directly related to the content of the lecture:

  • students asked questions and got responses from other students

  • twice they did reveal faults in my slides and provided links to wikipedia to prove that I was wrong :)

  • they referred to websites interesting for the topic of the class

  • sometimes they started discussions on topics related to the course but not touched on in my teaching; in the lecture of colonisation, a discussion on the question if NGOs were neocolonial institutions was initiated by a student without me referring to this problematic

A quart of the tweets were about organisational problems and a quart was not related at all to the lecture. They were however not very disturbing and provoked some funny moments. The fear of a slippery comments proved to be unfounded, at least in this class.

In the survey we distributed during the last lecture of this course (more here), we also asked the students to evaluate the experience. At the end of this post, you will find the detailed results. The strongest argument in favour of Twitter, for the students, was a better conviviality inside this large auditorium. Of the 300 students that attended the class on a regular basis, only 13 did intervene actively on Twitter. But for all – at least a large majority (85% of the respondents) – (strongly) agreed with the following proposal: “Cela introduit une ambiance conviviale”. This good atmosphere made lecturing for me very pleasant, even in such a large “classroom”1.

Chart a – Better understanding

Strongly agree

Agree

Disagree

Strongly Disagree

14%

52%

27%

7%

Chart b – Amelioration of the concentration

Strongly agree

Agree

Disagree

Strongly Disagree

8%

28%

34%

30%

Chart c – Better conviviality

Strongly agree

Agree

Disagree

Strongly Disagree

44%

41%

12%

3%

Chart d – Distracting

Strongly agree

Agree

Disagree

Strongly Disagree

13%

22%

37%

29%

Chart e – Not useful

Strongly agree

Agree

Disagree

Strongly Disagree

14%

24%

29%

33%

 

  1. For those who want/need more arguments for using Twitter in classroom, read Junco, R., G. Heibergert, and E. Loken. ‘The Effect of Twitter on College Student Engagement and Grades’. Journal of Computer Assisted Learning (2010): 1–14.

Quelle: http://majerus.hypotheses.org/626

Weiterlesen

Vernetzte Orchideen

Vernetzung, Beziehungen und Kommunikation sind für die Vertreter der Orchideenfächer nicht erst seit Kurzem von Bedeutung. Schon immer bestimmten Sympathie und Zwistigkeiten, Interessen und Charaktere, Kontakte und Kommunikation den wissenschaftlichen Lebenslauf, zumindest zwischen den Zeilen. In Zeiten, in denen die … Weiterlesen

Quelle: http://kristinoswald.hypotheses.org/319

Weiterlesen

Der mittelalterliche Codex im virtuellen Raum – Zur Rekonstruktion der Bibliothek der Benediktinerabtei St. Matthias in Trier

Die Benediktinerabtei St. Matthias enthielt eine der bedeutenden Skriptorien und Bibliotheken des Mittelalters. Der Bestand ist nicht nur für die Theologie, Geschichte und Altphilologie von zentraler Bedeutung, sondern auch für die Kunstgeschichte, Musikgeschichte, Medizin und Germanistik. Für letzteren Bereich ist eine bedeutende volkssprachige Überlieferung zu verzeichnen, die uns in den Beginn der Geschichte der vernakularen Sprachen im mittelalterlichen Europa führt, und deren textliche Vielfalt unter anderem Zaubersprüche, Segen, Glossen und kleinere Texte umfasst. Zusammen mit der althochdeutschen und altenglischen Überlieferung des nahe gelegenen Klosters Echternach bilden die Bestände aus St. Matthias eine einmalige Überlieferung im Bereich der Handschriftenkulturen des Mittelalters, insbesondere auch für den moselfränkischen Raum.

http://dfg-viewer.de/tei-prototyp/?set[image]=7&set[zoom]=min&set[debug]=0&set[double]=0&set[mets]=http%3A%2F%2Fzimks68.uni-trier.de%2Fstmatthias%2FT2229%2FT2229-digitalisat.xml

StB Trier Hs 2229/1751 8°, Abschrift des Kataloges aus dem 16 Jh.

Ziel des Projekts “Virtuelles Skriptorium St. Matthias” ist es, die überlieferten Handschriften aus St. Matthias zu digitalisieren und damit den mittelalterlichen Bestand virtuell zu rekonstruieren. Insgesamt umfasst der erhaltene Bestand etwa 500 Kodizes, die weltweit auf ca. 25 Standorte verteilt sind. Der weitaus überwiegende Anteil (etwa 400 Handschriften) liegt in Trier, und zwar in der Stadtbibliothek und in der Bibliothek des Bischöflichen Priesterseminars.
Insgesamt ordnet sich das Projekt in einen größeren Zusammenhang ein, in dem seit der letzten Dekade europaweit mittelalterliche Bibliotheken und Archive virtuell erfasst, dokumentiert bzw. rekonstruiert werden (siehe auch die Übersicht der relevanten Vorhaben von Klaus Graf). Eine solche rekonstruierte, virtuelle Bibliothek wird es ermöglichen, das geistige Profil und den “Wissensraum” wichtiger mittelalterlicher Bildungszentren zu erforschen und auch durch die Rekonstruktion selber auch neue Einblicke in die Produktions- und Rezeptionsbedingungen der jeweiligen Bestände zu geben.

Aus der Arbeit des Projekts zu St. Matthias ist auch das BMBF geförderte Projekt „eCodicology. Algorithmen zum automatischen Tagging
mittelalterlicher Handschriften“ entstanden, in dem Methoden und Software entwickelt werden, die u. a. die automatische Messung, Speicherung und Analyse von makro- und mikrostrukturelle Elementen digitalisierter Handschriftenseiten ermöglicht und in den Metadaten ablegt. Unter anderem sollen metrische Daten wie etwa Blattgröße, Schriftraumgröße, Zeilenzahl, Bildfelder, Überschriften, Register, Paratexte, Marginalien, Randzeichnungen, Verhältnis von Bildraum und Textraum erhoben sowie statistisch und qualitativ ausgewertet werden. Das Projekt wird im Jahr 2013 starten (Projektpartner TU Darmstadt, Universität Trier/Trier Center for Digital Humanities, Stadtbibliotheik Trier und KIT Karlsruhe).


Psalterium StBTrier HS7/9 8° s. X

Am 18. und 19. Januar 2013 organisieren wir eine internationale Tagung in Trier, die sich dem Thema „Digitale Rekonstruktionen mittelalterlicher Bibliotheken“ widmet. Es werden verschiedene Vorhaben, die sich im Bereich der Digital Humanities der Rekonstruktion und Erschließung mittelalterlicher Bibliotheksbestände widmen, vorgestellt sowie konkrete Falleispiele erörtert, die aufzeigen, wie diese Bestände wissenschaftlich genutzt werden können. Darüber hinaus rücken unterschiedliche Anbindungsmöglichkeiten in größere Datenrepositorien, Handschriftenportale oder Verbundprojekte (wie etwa TextGrid, Dariah, eCodicology, Manuscripta mediaevalia) in den Fokus sowie auch rechtliche Aspekte wie etwa die Lizenzvergabe (im Rahmen der Erfahrungen mit Europeana). Schließlich sollen die Anforderungen diskutiert werden, die aktuelle Arbeiten aus der Kulturgeschichte, der Kunstgeschichte, den Philologien und der Musikwissenschaft an solche digitalen Rekonstruktionen stellen. Die Tagung wird vom Historisch-Kulturwissenschaftlichen Zentrum (HKFZ Trier) gefördert und findet in der Abtei St. Matthias sowie in der Stadtbibliothek Trier statt. Das Programm ist hier einsehbar.

Gleichzeitig zur Tagung erscheint ein Sammelband über berühmte Handschriften aus St. Matthias, der auf eine Vortragsreihe der St. Matthias Stiftung und der Stadtbibliothek Trier  zurückgeht. Der Band enthält ferner ein von Reiner Nolden erarbeitetes Verzeichnis der Urkundenausfertigungen der Abtei St. Eucharius/St. Matthias.
Michael Embach/ Claudine Moulin (Hg.): Die Bibliothek der Abtei St. Matthias in Trier – von der mittelalterlichen Schreibstube zum virtuellen Skriptorium: Mit einem Verzeichnis der Mattheiser Urkunden im Stadtarchiv Trier, Trier 2013

Literaturhinweise und Links:

Petrus Becker: Die Benediktinerabtei St. Eucharius – St. Matthias vor Trier (Germania Sacra, Neue Folge 34: Die Bistümer der Kirchenprovinz Trier. Das Erzbistum Trier 8), Berlin, New York 1996

Michael Embach, Claudine Moulin, Andrea Rapp: Die mittelalterliche Bibliothek als digitaler Wissensraum: Zur virtuellen Rekonstruktion der Bibliothek von Trier-St. Matthias, in: Mittelhochdeutsch. Beiträge zur Überlieferung, Sprache und Literatur. Festschrift für Kurt Gärtner zum 75. Geburtstag. Herausgegeben von Ralf Plate und Martin Schubert, Berlin 2011, S. 486-497

Falko Klaes, Trierer Glossenhandschriften, in: Die althochdeutsche und altsächsische Glossographie. Hrsg. von Rolf Bergmann und Stephanie Stricker. Berlin – New York 2009, S. 1279-1296

Sabine Scholzen – Philipp Vanscheidt,  “Das Virtuelle Skriptorium St. Matthias”, in: Libri Pretiosi 14 (2011), S. 67-72

Von Artikeln bis zu Zaubersprüchen. Die ältesten deutschsprachigen Texte der Stadtbibliothek Trier (Studentisches Projekt, Universität Trier, FBII/ Ältere Deutsche Philologie, Leitung: Falko Klaes)

Website DFG-Projekt  Virtuelles Skriptorium St. Matthias

Das Projekt wird an der Universität Trier und der Stadtbibliothek Trier durchgeführt und von der Deutschen Forschungsgemeinschaft (DFG) gefördert. Die Projektleitung liegt bei Prof. Dr. Claudine Moulin und Prof. Dr. Andrea Rapp (jetzt Technische Universität Darmstadt) sowie bei Prof. Dr. Michael Embach (Stadtbibliothek Trier). Wissenschaftliche Mitarbeiter sind Sabine Philippi (Stadtbibliothek Trier) und Philipp Vanscheidt (Universität Trier/ Technische Universität Darmstadt). Kooperationspartner sind die Bibliothek des Bischöflichen Priesterseminars Trier, das Trier Center for Digital Humanities, Manuscripta mediaevalia und TextGrid.

 

Quelle: http://annotatio.hypotheses.org/59

Weiterlesen

Kolloquium Digital Humanities

Das Kolloquium Digital Humanities der Literatur- und Medienwissenschaften der Universität Trier und des Kompetenzzentrums für elektronische Erschließungs- und Publikationsverfahren in den Geisteswissenschaften lädt auch zum Ende des WS12/13 mittwochvormittags zu transdisziplinären Vorträgen ein.
Alle Interessierten sind herzlich willkommen.
http://www.coli.uni-saarland.de/~csporled/trier/DHKolloq.html
http://kompetenzzentrum.uni-trier.de/de/extra/aktuell/

Quelle: http://dhd-blog.org/?p=1198

Weiterlesen

Cartul@rium – Historische und linguistische Grenzpendler: Mittelalterliche Urkunden in der Großregion

Vor etwa drei Jahren sind auf Initiative der französischen Mittelalterhistorikerin Hélène Schneider (MSH, Universität Nancy) eine Handvoll Forscherinnen und Forscher zusammengekommen, um sich der unglaublich reichhaltigen mittelalterlichen Urkundenüberlieferung der Großregion zu widmen. Diese Region, die Luxemburg, Lothringen, Saarland, Rheinland-Pfalz und Wallonien umfasst, ist, insgesamt betrachtet, seit vielen Jahrhunderten zweisprachig und bietet manche historische und linguistische Forschungsnuss, die es zu knacken gilt.

Das Vorhaben war ursprünglich als Pilotprojekt im Rahmen der Universität der Großregion konzipiert und wird durch die Idee der Interdisziplinarität sowie die dezidierte Arbeit an der Überlieferung selber getragen. Wie würden Historiker und Linguisten an den gleichen Quellen, die zum Teil noch ungehoben sind, interagieren? Wie miteinander darüber sprechen, geschweige denn diese so edieren, dass alle Disziplinen zufrieden sind? Es stellte sich schnell heraus, dass man diese Quellen nur gemeinsam verstehen und erschließen kann, und auch zunächst eine gemeinsame Sprache finden muss – eigentlich zwei gemeinsame Sprachen, deutsch und französisch. Eine der ersten Herausforderungen war es, gemeinsame Transkriptionsregeln zu entwickeln, die sowohl Historiker als auch Linguisten zufriedenstellen. Die einen normalisieren nämlich gerne, die anderen möchten am liebsten alle Schreibungen so dokumentieren, wie sie da in den Originalen stehen. Aus den Diskussionen entstanden eine Sensibilisierung und ein gegenseitiges Verständnis der Disziplinen füreinander, und so wurden dank der digitalen Technologien unterschiedliche Transkriptionstiefen erreicht.

Inzwischen sind an dieser Partnerschaft dreizehn Forscher beteiligt, Historiker sowie Germanisten und Romanisten, Doktoranden, Post-Docs, Forscher und Universitätsprofessoren – und alle hat die selber Neugierde und Faszination gepackt. Sie stammen u. a. aus dem Laboratoire d’Histoire der Universität Luxemburg, dem Centre de Médiévistique Jean Schneider et dem Centre d’Etudes Germaniques der Université de Lorraine, der Germanistik/Älteren Deutschen Philologie der Universität Trier (mitsamt Anbindung an das Historisch-Kulturwissenschaftliche Forschungszentrum HKFZ Trier) sowie dem Institut für Mittelalterliche Geschichte der Université Catholique de Louvain-la-Neuve. Das internationale Team arbeitet an eine gemeinsame Methodologie, die auch die Digital Humanities mit einbezieht. Die Analysen der Archivalien sollen sowohl auf historischer als auch linguistischer Basis möglich sein; ferner wurde eine Datenbank (entwickelt durch das ATILF/CNRS Nancy) entworfen, die die Erschließung der unterschiedlichen Fragestellungen unterstützen soll.

Die Leitidee des Projekts ist die Untersuchung des politischen, kulturellen Raumes der Großregion am Ende des Mittelalters. Sie gibt dazu Anlass, zwischen den Sprachen zu denken (« penser entre les langues »), um eine Formulierung eines vor kurzem erschienenen Buches von Heinz Wismann zu aufzugreifen.

Das Quellenkorpus des Forschungsprojekts wird gebildet durch Archivalien aus den fürstlichen Kanzleien der Herzogtümer von Lothringen und Luxembourg sowie derjenigen des Erzbistums Trier als Vergleichsebene. Wir haben es mit einer spannenden Zeit zu tun: dem 13. bis 15. Jahrhundert. Die Einflussbereiche politischer Mächte und die germanisch-romanische Sprachgrenze greifen hier vielfältig ineinander und bilden einen politisch-linguistischen Raum, der so mehrschichtig ist, dass man ihn kaum kartographisch darstellen kann. Die Wirrnisse der Zeit, insbesondere der Hundertjährige Krieg und die Pest, haben zu einer Übergangsphase zwischen den bis dahin dominierenden Feudalstrukturen und der modernen Staatenbildung geführt: die Archivalien sind dabei deren erste unmittelbare Zeugen, die es zu erschließen gilt.

Neben der gezielten Sammlung der Archivalien, die über die Großregion und Europa verstreut sind, steht die Erschließung dieser Quellen aus historischer und juristischer Sicht sowie auf der sprachlichen Ebene im Vordergrund. Diese Analyse führt zu einer vergleichenden Reflektion über die Fürstentümer, die Lehnsherrschaften und deren Praktiken, und zwar auch im Hinblick auf den Sprachwechsel und den Wortschatz. So begegnet etwa in französischen Urkunden das deutsche Lehnwort Burgfried, während in deutschsprachigen Urkunden etwa der französische Terminus denumerment (‘Aufzählung’) steht.


http://www.cartularium.msh-lorraine.eu/

Auf dieser Hintergrundfolie wurde beschlossen, sowohl eine systematische Datenbank der fürstlichen Urkunden als auch thematische Dossiers zu erstellen. Ein erstes Projektergebnis ist die digitale, zweisprachige Forschungsplattform Cartul@rium. Das Portal ist als Brückenschlag in der Forschung der Grande Région zu verstehen, und zwar nicht nur zwischen den Geisteswissenschaften und den neuen Technologien, sondern auch zwischen den Forschern und der Öffentlichkeit.

Das Portal enthält unter anderem eine detaillierte Bibliographie, die die Geschichte der Fürstentümer in der Grande Région und die entsprechenden Arbeitsinstrumente erschließt. Es stellt ferner zwei didaktische Anleitungen zur mittelalterlichen Handschriftenkunde zur Verfügung (romanisch und germanisch), die Studierende und Laien bei der Entzifferung der Urkunden behilflich sein soll. Und drittens will es in Zukunft die Siegel dieser Urkunden stärker berücksichtigen. Diese stellen eine vielfältige, oft unterschätzte Quelle u.a. für die Kunstgeschichte, die Sozialgeschichte und die politische Geschichte der Großregion dar. Siegel haben einen intensiven emblematischen Wert, neben dem die heutigen Geschäftslogos geradezu verblassen. Dieses Kulturgut ist unersetzlich, aber in großer Gefahr. Die digitale Erfassung stellt somit auch einen bewussten Akt der Kulturpflege dar.

Das Projekt wurde am 18. Oktober 2012 mit dem zweiten Interregionalen Wissenschaftspreis 2012 ausgezeichnet.

Weiterführende Literatur:

Claudine Moulin, Zeichen und ihre Deutung. Zum handschriftennahen Edieren schriftlicher Quellen in interdisziplinärem Kontext, in: Claudine Moulin – Michel Pauly, Die Rechnungsbücher der Stadt Luxemburg. Unter Mitarbeit von Andreas Gniffke, Danièle Kass, Fausto Ravida und Nikolaus Ruge, VI, Luxembourg 2012, S. 9-17

Hélène Say – Hélène Schneider (Hg.), Le duc de Lorraine René II et la construction d’un état princier. Actes de la journée d’étude organisée à l’occasion du 500e anniversaire de la mort de René II, à Nancy (archives départementales de Meurthe-et-Moselle), le 12 décembre 2008, Lotharingia XVI, 2010

Heinz Wismann, Penser entre les langues, Paris 2012

Quelle: http://annotatio.hypotheses.org/39

Weiterlesen

Save the Date: First Swiss Digital Humanities Summer School

The first Digital Humanities Summer School in Switzerland will take place next year in Bern! Hosted by the University of Bern and organized by a network of Swiss university and research institutions, the first Digital Humanities Summer School Switzerland will feature well-known international scholars of Digital Humanities for four days of intensive training. More news [...]

Quelle: http://weblog.hist.net/archives/6482

Weiterlesen

Wer das lesen könnt … Zur (Un-)Brauchbarkeit heutiger E-Book-Reader für historische Literatur


E-Book-Reader mit Buchseite im Fraktursatz

Wer in einer historischen Wissenschaft forscht, kann sich heute einen großen Teil seiner Quellenliteratur in elektronischer Form an den eigenen Arbeitsplatz holen: dank Google Books (und einiger progressiver Bibliotheken) sind bereits mehrere Millionen gemeinfreier Bücher digitalisiert. Bei einer größeren Forschungsarbeit warten dann zehn-, vielleicht zwanzigtausend digitalisierte Buchseiten darauf, gesichtet, bewertet und in den relevanten Teilen gelesen zu werden. Doch welche Art von Lesegerät ist überhaupt geeignet, um historische Literatur in digitalisierter Form effizient studieren zu können? Gibt es solche Geräte überhaupt auf dem Markt?

Drei Grundanforderungen muss der Reader mindestens erfüllen: er muss erstens für ermüdungsarmes Lesen langer Texte geeignet sein, zweitens über ein ausreichend großes Display verfügen und drittens einen effizienten Umgang mit denjenigen Formaten bieten, in denen die Digitalisate historischer Bücher üblicherweise vorliegen. Der erste Punkt ist schnell geklärt: hintergrundbeleuchtete Bildschirme sind für stundenlanges Lesen ungeeignet. In Frage kommen daher nur E-Book-Reader mit reflektiven Displays (“elektronisches Papier”), die in Bezug auf Kontrast und Schärfe der Textdarstellung die Qualität bedruckten Papiers inzwischen nahezu erreichen (eInk Pearl).

Die zweite und dritte Anforderung ergibt sich aus dem Format, in dem historische Literatur üblicherweise als Digitalisat zur Verfügung gestellt wird: nämlich als Image-Daten, also Faksimiles, die man in der Regel im PDF-Format herunterladen kann. Im Gegensatz zu elektronischem Text, bei dem sich Zeilen- und Seitenumbruch im Lesegerät entsprechend der Displaygröße und der eingestellten Schriftart und Schriftgröße anpassen, zeigen diese Faksimile-Digitalisate den Text genau in der Form, in der er im Original gedruckt vorliegt. Notwendig sind daher E-Book-Reader mit großem Display, so dass der Text in Vollseitenansicht wenigstens bei mittelgroßen Büchern noch gut lesbar ist.

Bereits an dieser Stelle beginnt der Markt, extrem dünn zu werden: Bei meiner Recherche im Frühjahr dieses Jahres kam es mir vor, als würde zur bereits millionenfach vorhandenen „Software“ noch die geeignete Hardware fehlen. Lediglich drei Anbieter hatten überhaupt lieferbare Geräte mit der ausreichenden Größe von rund 10 Zoll im Portfolio: PocketBook mit den beiden Varianten Pro 902 und 903, Amazon (Kindle DX) und Onyx (Boox M90/M92). Zwei weitere Anbieter (iRex und EnTourage) sind nicht mehr am Markt; inzwischen ist der Hersteller Ectaco mit seinem JetBook Color hinzugekommen.

Um einmal ein Maß zu geben: Die 10-Zoll-Displays haben ein Format von rund 20 x 14 cm – dies ist etwas kleiner als DIN A5 und entspricht ungefähr dem klassischen Oktav-Buchformat, so dass die digitalisierten Seiten solcher Bücher in Originalgröße wiedergegeben werden können. Bei Groß-Oktav und größeren Buchformaten ist eine gute Lesbarkeit bestenfalls noch dann gegeben, wenn die Darstellung des Readers einen angepassten Zoom auf den Satzspiegel erlaubt.

Dies wäre dann der dritte Punkt: ein nutzerfreundlicher Umgang mit PDF-Dokumenten. Amazons Kindle DX unterstützt PDF nur rudimentär, bei PocketBook (das leider kein Pearl-Display hat) ist er mittelprächtig, bei Onyx ist zumindest die Zoom-Funktionalität wohl die beste: es ist ein automatischer Randbeschnitt einstellbar, so dass die maximale Zoomstufe stets automatisch ermittelt werden kann und auch das Blättern von rechten zu linken Seiten nicht zu Ausschnittsverschiebungen in den Satzspiegel hinein führt. Der Teufel steckt aber auch bei dieser Lösung im Detail: etwa wenn Verschmutzungen, die Lagenangaben für den Buchbinder oder Annotationen außerhalb des Satzspiegels liegen. Stichwort Annotationen: Ein guter PDF-Reader muss auch die analogen Lektüretechniken wie Lesezeichen, Anstreichungen und Anmerkungen digital adäquat ersetzen. Beim Onyx Boox M92 ist dies dank Touch-Screen mit elektronischem Stift ganz ordentlich möglich; die Umsetzung des Anmerkungsexports ist jedoch noch verbesserungswürdig.

Zusammenfassend lässt sich sagen: Sucht man einen 10-zolligen E-Book-Reader mit sehr gutem eInk-Display und ordentlicher PDF-Handhabbarkeit, kam zum Zeitpunkt meiner Recherche vor einigen Monaten genau ein Gerät in Frage – das zudem bei den allermeisten Händlern in Deutschland nicht erhältlich war. Ich ziehe daraus die Folgerung, dass es für Geräte dieser Art derzeit noch keinen ausreichend attraktiven Markt gibt.

Was heißt das nun für Bibliotheken? Immer mehr Einrichtungen forcieren die Digitalisierung ihrer Bestände, doch um die hardwaretechnischen Voraussetzungen der Benutzbarkeit dieser Digitalisate kümmert sich kaum ein Bibliothekar – in der Annahme, die Elektronikbranche werde für jeden Zweck schon geeignete Geräte anbieten. Eine derzeit eher naive Annahme, wie ich gezeigt habe. (Die möglicherweise auch daher rührt, dass Bibliothekare zwar viel Expertise im Erschließen, aber wenig Erfahrung im Lesen ihrer Bestände haben?) Doch sollen und können sich Bibliotheken hier engagieren? Oder wird es der Markt schon richten? Denkbar wären Public-Private Partnerships, in denen Uni-Bibliotheken mit Hardware-Unternehmen kooperieren. Mancherorts erhalten Studierende der naturwissenschaftlichen Fakultät zum 1. Semester einen iPad – sollte man nicht in Fächern wie Literaturwissenschaft „akademische E-Book-Reader“ zu etablieren versuchen?

Quelle: http://dss.hypotheses.org/682

Weiterlesen