Jetzt anmelden zum fünften TextGrid Nutzertreffen: Norm- und Metadaten

Am 25. und 26. November 2014 wird am Salomon Ludwig Steinheim-Institut für deutsch-jüdische Geschichte an der Universität Duisburg-Essen das fünfte TextGrid-Nutzertreffen stattfinden. Der Themenschwerpunkt „Norm- und Metadaten“ verbindet dabei Erfahrungsberichte aus Projekten, die TextGrid nutzen, mit Workshops zur fortgeschrittenen Nutzung von TextGrid Laboratory und Repository im Bereich kontrollierter Vokabulare. Eine einführende Schulung zu Beginn erleichtert Neulingen den Einstieg in die Arbeit mit der virtuellen Forschungsumgebung.

Vorläufiges Programm:

25. November

12:00: Mittagsimbiss und Registrierung
13:00: Oliver Schmid (TU Darmstadt)/Philipp Vanscheidt (TU Darmstadt/Uni Trier): Einführung in TextGrid (Workshop)
15:00: Kaffeepause und Registrierung
15:30: Eröffnung
15:45: Philipp Vanscheidt (TU Darmstadt/Uni Trier): Das Metadatenschema von TextGrid (Vortrag)
16:00: Thomas Kollatz (Steinheim-Institut Essen): Text, Bilder und Metadaten – complete_input ins TG-Rep (Vortrag)
16:30: Nils Alberti/Christian Dietrich (Europa-Universität Viadrina, Frankfurt/Oder): Von „Buchveröffentlichung“ bis „Zwangsarbeit“ – Die strukturierte Speicherung bio-bibliografischer Daten von jüdischen Autorinnen und Autoren in Berlin (1933-1945) (Vortrag)
17:00: Kaffepause
17:15: Christoph Plutte (Berlin)/Torsten Roeder (Würzburg): [Titel folgt] (Vortrag)
17:45: Bastian Lemitz (Uni Münster), Uwe Sikora, Hannes Riebl (SUB Göttingen): [Norm- und Metadaten in der "Bibliothek der Neologie"] (Vortrag)
20:00: Abendessen

26. November

09:00: Registrierung
10:00: Marcus Held (IEG Mainz): Kontrollierte Vokabulare für die historisch arbeitenden Wissenschaften – Theorie, Methode und Praxis (Workshop)
12:00: Mittagsimbiss
13:00: Martin de la Iglesia (SUB Göttingen): Entitäten in TEI (Workshop)

Weitere Informationen zu Vorträgen und Workshops sowie zur Anmeldung finden Sie auf der Website unter: http://www.textgrid.de/community/nutzertreffen-metadaten/

Die Anmeldefrist endet am 7. November.

Quelle: http://dhd-blog.org/?p=4061

Weiterlesen

Jetzt anmelden zum fünften TextGrid Nutzertreffen: Norm- und Metadaten

Am 25. und 26. November 2014 wird am Salomon Ludwig Steinheim-Institut für deutsch-jüdische Geschichte an der Universität Duisburg-Essen das fünfte TextGrid-Nutzertreffen stattfinden. Der Themenschwerpunkt „Norm- und Metadaten“ verbindet dabei Erfahrungsberichte aus Projekten, die TextGrid nutzen, mit Workshops zur fortgeschrittenen Nutzung von TextGrid Laboratory und Repository im Bereich kontrollierter Vokabulare. Eine einführende Schulung zu Beginn erleichtert Neulingen den Einstieg in die Arbeit mit der virtuellen Forschungsumgebung.

Vorläufiges Programm:

25. November

12:00: Mittagsimbiss und Registrierung
13:00: Oliver Schmid (TU Darmstadt)/Philipp Vanscheidt (TU Darmstadt/Uni Trier): Einführung in TextGrid (Workshop)
15:00: Kaffeepause und Registrierung
15:30: Eröffnung
15:45: Philipp Vanscheidt (TU Darmstadt/Uni Trier): Das Metadatenschema von TextGrid (Vortrag)
16:00: Thomas Kollatz (Steinheim-Institut Essen): Text, Bilder und Metadaten – complete_input ins TG-Rep (Vortrag)
16:30: Nils Alberti/Christian Dietrich (Europa-Universität Viadrina, Frankfurt/Oder): Von „Buchveröffentlichung“ bis „Zwangsarbeit“ – Die strukturierte Speicherung bio-bibliografischer Daten von jüdischen Autorinnen und Autoren in Berlin (1933-1945) (Vortrag)
17:00: Kaffepause
17:15: Christoph Plutte (Berlin)/Torsten Roeder (Würzburg): [Titel folgt] (Vortrag)
17:45: Bastian Lemitz (Uni Münster), Uwe Sikora, Hannes Riebl (SUB Göttingen): [Norm- und Metadaten in der "Bibliothek der Neologie"] (Vortrag)
20:00: Abendessen

26. November

09:00: Registrierung
10:00: Marcus Held (IEG Mainz): Kontrollierte Vokabulare für die historisch arbeitenden Wissenschaften – Theorie, Methode und Praxis (Workshop)
12:00: Mittagsimbiss
13:00: Martin de la Iglesia (SUB Göttingen): Entitäten in TEI (Workshop)

Weitere Informationen zu Vorträgen und Workshops sowie zur Anmeldung finden Sie auf der Website unter: http://www.textgrid.de/community/nutzertreffen-metadaten/

Die Anmeldefrist endet am 7. November.

Quelle: http://dhd-blog.org/?p=4061

Weiterlesen

Die unerträgliche Schwierigkeit des Katalogisierens … und das dadurch verunmöglichte (Wieder-)Finden

An 25.10.2013 beschäftigte sich eine Konferenz an der Österreichischen Nationalbibliothek mit der Frage “Was können und was wollen Digital Humanities?” – mit der Verortung des Faches, mit konkreten Beispielen, aber auch mit der Frage nach der Rolle der Bibliotheken. Max Kaiser von der Österreichischen Nationalbibliothek stellte in seiner Präsentation Digital Humanities und die Österreichische Nationalbibliothek aktuell laufende DH-Projekte an der ÖNB (zum Teil in Kooperation mit anderen Institutionen) vor und umriss die Rolle von Bibliotheken in einem sich wandelnden Umfeld in durchaus schillernden Farben.
Bei all den spannenden Möglichkeiten und Projekten ist ein (tatsächlich eher beiläufig) erwähnter Aspekt fast untergegangen (siehe Slides 49-52): Alles steht und fällt nicht erst mit dem Zugang zum brauchbaren Volltext (s. Slides 90-97), sondern mit dem Zugang zur Information über das Objekt – also mit brauchbaren, aussagekräftigen Metadaten.

Dazu ein kleines, aber feines Beispiel …

Bis heute stand in der Bibliotheca sinica 2.0 unter den Titeln ohne Verfasser auch dieser Titel:

: Gionata VII. Imperatore della China. Lettera a Papa Clemente XIV (Venezia: Aloisopoli 1538) Bibliotheca Sinica 2.0

Der Eintrag – aus den Katalogdaten der Österreichischen Nationalbibliothek (ÖNB) gezogen – hat nie wirklich Sinn gemacht und war im internen Bibliotheca Sinica 2.0/Wiener Chinabibliographie[1]-Datenblatt seit langem gelb markiert, also ‘zu überprüfen’, denn ein Brief an Papst Clemens XIV (Pontifikat: 1769-1774)[2], gedruckt in Venedig im Jahr 1538 – passt irgendwie nicht …
Die Markierung blieb lange unbearbeitet, doch nun werden die weißen Flecken der ‘Wiener Chinabibliographie 1477-1939‘ immer weniger – und so kam auch dieser Titel wieder auf die Liste. Die wohl einfachste Möglichkeit wäre, den Titel (ÖNB-Signatur: *43.H.224) einzusehen – doch vorher wird routinemäßig online recherchiert …

Voilà, die einfache Google-Suche bringt ein vielversprechendes Ergebnis:

Google Suche – bearbeiteter Screenshot [graue Rechtecke '1' und '2' eingefügt]

Der zweite Treffer (auf dem oben eingefügten Screenshot mit ’2′ markiert) bezieht sich auf den eingangs erähnten (inzwischen berichtigten Eintrag in der Bibliotheca Sinica 2.0.

Der erste Treffer (auf dem Screenshot mit ’1′ markiert) liefert einen Volltreffer: das Google-Books-Digitalisat des Exemplars der Österreichischen Nationalbibliothek.
Ein Klick führt zu:

Google Books - Screenshot

Google Books – Screenshot

Es wird interessant – denn hier finden sich zwei widersprüchliche Angaben: “Venezia, Aloisopoli 1538″ und “Aloisopoli, 1833″.
Am Fuß der Seite finden sich die Google Books-typischen Daten:

Bibliografische Informationen
Titel    Lettera a Papa Clemente XIV. – Venezia, Aloisopoli 1538
Autor    Gionata VII. Imperatore della China
Verlag    Aloisopoli, 1833
Original von    Österreichische Nationalbibliothek
Digitalisiert    16. Apr. 2013

Ein Blick ins Buch zeigt: Es ist das in der Wiener Chinabibliographie erfasste Exemplar – also zurück zum Katalog der ÖNB. Eine einfache Suche nach “Lettera a Papa Clemente XIV. liefert als

Katalög der ÖNB (Screenshot)

Katalög der ÖNB (Screenshot) | http://data.onb.ac.at/rec/AC09900015

Im Gegensatz zu den Daten bei Google Books steht hier “Erscheinungsjahr: 1538″ – also über “Digitales Objekt (ÖNB) weiter direkt zum ÖNB-Viewer:

Ansicht im ÖNB-Viewer

Lettera a Papa Clemente XIV | Ansicht im ÖNB Viewer
http://data.onb.ac.at/ABO/%2BZ167090302

Der Blick auf das Titelblatt bringt Klarheit:

VENEZIA
DALLA TIPOGRAFIA DI ALVISOPOLI
MDCCCXXXIII

Also alles klar – das beim Google Book angegebene Erscheinungsdatum stimmt. Irgendwann hat jemand anstelle von MDCCCXXXIII [1833] einfach MDXXXVIII [1538] gelesen. Bei der Vorbereitung für die Digitalisierung wurde zwar das korrekte Datum eingetragen, aber der ‘alte’ Fehler nicht korrigiert …

Kleinlich? Banal? Mag sein.

Aber: Wenn ein Titel nicht auffindbar ist, wird es schwierig, mit dem Text zu arbeiten – egal, ob analog oder digital.

  1. Die ‘Wiener Chinabibliographie 1477-1939′ war quasi der Vorläufer der Bibliotheca Sinica 2.0. Lange bevor Digitalisate im großen Stil frei verfügbar waren, begann die Erfassung von Büchern über China in den großen Wiener Bibliotheken. Derzeit umfasst die Liste knapp 3500 Einträge.
  2. Giovanni Vincenzo Antonio Ganganelli (1705-1774) war Papst 1769-1774. Zur Biographie s. Mario Rosa: Clemente XIV. In: Massimo Bray (ed..): Enciclopedia dei Papi, Istituto della Enciclopedia Italiana, Band 3 (Innocenzo VIII, Giovanni Paolo II), Rom 2000.) – Online: Treccani.it.

Quelle: http://mindthegaps.hypotheses.org/1103

Weiterlesen

Semantische Technologien

semantic-media-web

Die Fachtagung “Semantische Technologien - Verwertungsstrategien und Konvergenz von Metadaten” befasste sich vom 26. bis 27. September 2013 mit der Nutzbarkeit semantischer Technologien für die Kultur- und Medienbranche. Thematisiert wurden Institutionen wie Verlage, Museen und Bibliotheken sowie die Bereiche Projektdokumentationen, Werbung und Marketing.

Der rückblickende Tagungsbericht stellt die zentralen Fragestellungen, Probleme und Chancen des semantischen Internet dar.

 

Quelle: http://dhd-blog.org/?p=2447

Weiterlesen

Wissen suchen, finden und vernetzen – die Fachtagung “Semantische Technologien“ im Rückblick

Titelbild "Semantic Media Web"

Titelbild “Semantic Media Web”

Unter dem Titel „Verwertungsstrategien und Konvergenz von Metadaten” organisierten das deutsch-österreichische W3C-Büro und die Xinnovations e. V. in Zusammenarbeit mit dem Innovationsforum Semantic Media Web vom 26. bis 27. September 2013 in Berlin die Fachtagung “Semantische Technologien”, die sich mit der Nutzbarkeit semantischer Technologien für die Kultur- und Medienbranche befasste. Dabei waren Institutionen im Allgemeinen, wie Verlage, Museen und Bibliotheken, ebenso Thema wie die Bereiche Projektdokumentationen, Werbung und Marketing im Speziellen.

Der Umfang des im Internet verfügbaren Fachwissens ist in den letzten Jahren immens gewachsen, jedoch zu wenig sortiert und aufbereitet, um gut damit arbeiten zu können. Hier setzen die Technologien des semantischen Internet, genannt Web 3.0, an. Sie sollen Inhalte jeglicher Art durch Metadaten kategorisieren und in Hierarchien einordnen, um eine (möglichst einheitliche) Verknüpfung des verfügbaren Wissens und damit dessen bessere Zugänglichkeit und Anwendbarkeit zu ermöglichen.

Zentrale Fragestellung der Konferenz war es, die Möglichkeiten der Umsetzung und Nutzung solcher semantischer Daten, die Beziehungen, Kontexte und Bedeutungen von Daten erzeugen, für Kultur- und Medienbetriebe aufzuzeigen. Genutzt wird deren Aufbereitung z.B. bereits von der Deutschen Nationalbibliothek und dem Bundesarchiv, um ihre Wissensressourcen im Internet zur Verfügung zu stellen und Recherchen zu erleichtern. Die Querverlinkungen helfen hier, sich Überblick über komplexe Themenfelder und verwandte Beiträge, Bücher oder Dokumente zu verschaffen. Auch stehen die Digitalisierung von Museums- oder Archivsammlungen, wirtschaftliche Bereiche wie Bestandsaufnahmen und Vertrieb sowie bei Bibliotheken die Aufbereitung für Online-Kataloge im Mittelpunkt. Hier bringt die Nutzung semantischer Metadaten viele Vorteile und Vereinfachungen des Workflows mit sich, wie die Referenten der Fachkonferenz darlegten. Zu ihnen gehörten Alexander Haffner (Deutsche Nationalbibliothek) und Ina Blümel (TIB Hannover) als Bibliotheksvertreter, Dr. Jana Kittelmann (Stiftung Fürst-Pückler-Museum Park & Schloss Branitz) mit dem Schwerpunkt Archiv, Antoine Isaac als Stellvertreter von Europeana sowie Bettina de Keijzer (Verlag de Gruyter), Steffen Meier (Verlag Eugen Ulmer, Arbeitskreis elektronisches Publizieren des Börsenverein des Deutschen Buchhandels) und Ronald Schild (Marketing- und Verlagsservice des Buchhandels GmbH), die sich mit dem Thema Verlag & Buchhandel beschäftigen.

In den Beiträgen und Diskussionen wurde deutlich, dass die übergreifende Verknüpfung semantisch aufbereiteter Daten über einzelne Firmen und Institutionen hinaus noch kaum Anwendung findet. Dabei sollen neben basic data wie Autor oder Umfang eines Buches die Inhalte selbst systematisiert werden, um die Nutzung von weiterreichenden, sogenannten enhanced Data, zu ermöglichen und zum Ausgleich Wissen, Kundensympathie oder wirtschaftlichen Output zurückzubekommen. So machte Roland Schild deutlich, dass Verlage z.b. ihren Service im Social Web mit Semantik verbessern können, um ihren Kunden bei der Suche nach ähnlichen Produkten und auf diese Weise sich selbst bei der Umsatzsteigerung zu helfen. Hierfür wird das Semantic Web bisher aber kaum genutzt.

Zugleich gibt es zwischen Verlagen und Bibliotheken nur wenig Zusammenarbeit in Bezug auf die einheitliche Zuordnung von Büchern und deren Inhalten zu festen semantischen Begrifflichkeiten oder Kategoriesystemen. Gleiches gilt für Archive oder Museen, die ihre Sammlungen digitalisieren. Auch sie behandeln die weiteren Kontexte der Exponate meist nur marginal und verwenden keine über-institutionellen semantischen Begriffssysteme. Solche könnten helfen, beispielsweise passende Stücke für Sonderausstellungen oder fachliche Zusatzinformationen zu Vergleichsbeispielen oder historischen Kontexten zu finden. Interessant können Metadaten auch für die Dokumentation von Projektprozessen sein, um die Auswertung und das Vermeiden von Fehlern zu verbessern. Beispielhaft präsentierte Prof. Dr.-Ing. Ernesto De Luca hierfür das Projekt SemRes, das Semantic für die tägliche Arbeit von Restauratoren nutzbar macht, um diese zugunsten der späteren Nachvollziehbarkeit dauerhaft zugänglich und leichter austauschbar zu gestalten.

Für die Erstellung und Etablierung solcher Schlagwort-Hierarchien, die allgemeingültig sein und damit von Bibliotheken, Verlagen, Museen und Wissenschaftlern gleichermaßen verstanden und genutzt werden sollen, gibt es bereits Ansätze. U.a. von W3C (World Wide Web Consortium) wurden grundlegende semantische Systeme entwickelt, die jede Institution für die eigenen Projekte nutzen kann. Forschungen kommen bisher vor allem aus Philologie und Linguistik und setzen sich mit dem Stand von Mehrsprachigkeit, Begriffsbedeutungen und eindeutiger Verständlichkeit auseinander, stellen in Bezug auf computerlinguistische Semantik derzeit aber noch ein recht kleines Forschungsfeld dar. Ein Desiderat sind die Auseinandersetzung mit diesem Problem in den einzelnen Fachbereichen und die Entwicklung von entsprechenden Thesauri. Hier ist es den Fachwissenschaftlern besser möglich, ihr Wissen zu systematisieren, als Experten aus der Sprachforschung oder Informatik ohne umfangreiche Kenntnisse der jeweilgen Wissenschaft.

Nutzbar ist semantische Aufbereitung auch für Bilder und Videos im Kontext von Marketing und Medien, Marken- und Konkurrenzanalysen. Dies ist für jede Institution interessant, die Videos oder Fotos für Ausstellungen oder PR benutzt. Wenn sie inhaltlich Ausstellungen, Aufführungen oder Publikationen zugeordnet werden können, erhöht sich ihre Nutzbarkeit. Beispielhaft präsentierte Felix Daub von Klickfilm die semantische Verknüpfung von Inhalten eines Videos mit Produkten oder Websites, um interessierte Kunden direkt anzusprechen. Dies kann mit Büchern ebenso geschehen, wie mit Sehenswürdigkeiten, Kunst oder historischen Hintergrundinformationen. Interessant sind auch semantische Websites, wie sie Dr. Thomas Hoppe von der Ontonym GmbH in der Theorie und Armin Berger von der 3pc GmbH in der Praxis präsentierten. Hierbei werden die Inhalte über Schlagworte und Kontexte in Erzählsträngen dargestellt und dem Besucher die Möglichkeit gegeben, diese je nach den eigenen Interessen selbst zu erforschen. Dieses Storytelling eignet sich besonders für Kulturinstitutionen, die damit ihre eigene Geschichte ebenso wie die Hintergründe einzelner Ausstellungen, Stücke oder Werke umsetzen können. Zugleich können auch bei Apps mehrdimensionale Datenstrukturierungen anschaulich gemacht und Zusammenhänge über mehrere Punkte erklärt werden. Diese Möglichkeiten sind aber noch in der Entwicklung begriffen und vor allem in Bezug auf dynamische, regelmäßige befüllte Webseiten noch nicht ausgereift.

Insgesamt machte die Tagung die Nutzungsmöglichkeiten des Semantic Web für Kulturunternehmen zwar deutlich, zeigte aber auch die noch vielfach bestehenden Probleme auf. Dies liegen derzeit primär in der Entwicklung von einheitlichen Hierarchien und Begrifflichkeiten sowie der daran geknüpften automatisierten Aufbereitung semantischer Daten und Verknüpfung der Projekte einzelner Institutionen. Auch die Aufbereitung und Anwendbarkeit semantischer Daten in Forschungs- oder Kultureinrichtungen für spezifische Inhalte und nicht-textuelle Digitalisate stellen noch große Komplikationen dar und sind ohne zusätzliches Budget und informatische Fachkenntnisse bisher kaum umsetzbar. Deutlich wurde dies an den Teilnehmern und Diskussionen der Fachtagung, die sich vorrangig mit Computerlinguistik und Programmierung beschäftigten. So wurde bereits das Web 4.0 als Pragmatic Web thematisiert, während es gerade in den Kultur- und Geisteswissenschaften vielfach noch Probleme beim richtigen Umgang mit dem Web 2.0 und größere Schwierigkeiten beim Zugang zur Anwendbarkeit des Web 3.0 gibt.

Quelle: http://kristinoswald.hypotheses.org/1102

Weiterlesen

Archivwesen: Manfred Thaller (Hrsg.): Das Digitale Archiv NRW in der Praxis. Eine Softwarelösung zur digitalen Langzeitarchivierung, Hamburg 2013

http://www.verlagdrkovac.de/3-8300-7278-3.htm Das „Digitale Archiv NRW“ wurde als Projekt zur landesweiten digitalen Langzeitarchivierung durch das Land Nordrhein-Westfalen initiiert. Ziel dieser Initiative ist es, digitales kulturelles Erbe langfristig zu sichern und zugänglich zu machen. Hierfür wurde an der Professur für Historisch-Kulturwissenschaftliche Informationsverarbeitung in Köln prototypisch eine funktional vollständige Softwarelösung erarbeitet, die in diesem Band sowohl konzeptuell als […]

Quelle: http://www.einsichten-online.de/2013/09/4701/

Weiterlesen

Ausschreibung: Methodenworkshop Metadaten (DARIAH und IEG Mainz)

Veranstalter: DARIAH-DE (http://de.dariah.eu) & Leibniz-Institut für Europäische Geschichte | IEG (http://www.ieg-mainz.de/)
Ort: Leibniz-Institut für Europäische Geschichte, Alte Universitätsstraße 19, 55116 Mainz
Beginn: 24. September 2012, 13.00 Uhr
Ende: 25. September 2012, 16.00 Uhr

Der Umgang mit Quellen und (Sekundär)-Literatur ist von zentraler Bedeutung für den Forschungs- und Erkenntnisprozess von Historikern und aller historisch arbeitenden Geisteswissenschaftler. In der Erfassung und Erschließung des Quellenmaterials (z.B. Fotografien, Drucke, Manuskripte, Artefakte oder auch Oral-History-Interviews) liegen wesentliche Voraussetzungen, um dieses Material in Bezug auf eine bestimmte Fragestellung problembezogen analysieren zu können. Diese Erschließung mittels beschreibender “Meta”-Daten ist ein zentraler und komplexer Schritt im geisteswissenschaftlichen Forschungsprozess. Zwar liefern Bibliotheken für moderne Forschungsliteratur und für historische Drucke oftmals standardisierte und qualifizierte Beschreibungen. Möchte der Forscher oder die Forscherin aber ein breiteres Spektrum an – ggf. bisher unveröffentlichten – Quellen und Forschungsprimärdaten untersuchen, so können sie oftmals nicht auf bereits vorliegende Metadaten zurückgreifen. Zugleich eröffnen die digitale Erfassung, Speicherung und Nutzung von (neuen oder vorhandenen) Metadaten neue Herausforderungen und Möglichkeiten für die historisch arbeitenden Geisteswissenschaften.

Vor diesem Hintergrund und den daraus resultierenden vielfältigen Möglichkeiten der Digital Humanities laden das Verbundprojekt DARIAH-DE (Aufbau von Forschungsinfrastrukturen für die e-Humanities) gemeinsam mit dem Leibniz-Institut für Europäische Geschichte (IEG) Mainz zu einem “Methodenworkshop Metadaten” ein, der Grundlagen zum Umgang mit Metadaten und deren Verwendung in historisch arbeitenden Geisteswissenschaften vermitteln und bereits vorhandene Lösungsansätze und -szenarien mit den Teilnehmern diskutieren will. Der Methodenworkshop bildet den Auftakt einer Reihe von Veranstaltungen, die DARIAH-DE in Kooperation mit Partnerinstitutionen in den kommenden Jahren mit unterschiedlichen geisteswissenschaftlichen disziplinären Schwerpunkten durchführen wird.

Der Methodenworkshop Metadaten richtet sich an Historiker und andere historisch arbeitende Geistes- und Kulturwissenschaftler und möchte sowohl Nachwuchswissenschaftler (Doktoranden und Post-Doktoranden) als auch erfahrene Wissenschaftler ansprechen, die sich in ihrem Forschungsalltag mit der Erfassung und Analyse von Metadaten, und mit Konzepten der Interoperabilität und Nachnutzung von Forschungsdaten auseinandersetzen bzw. diese Fragen bei zukünftigen Forschungsprojekten stärker als bisher berücksichtigen möchten.

Am Nachmittag des ersten Workshop-Tages wird als einführender Teil in mehreren Vorträgen der Themenkomplex „Metadaten“ aus verschiedenen geisteswissenschaftlichen und technischen Blickwinkeln beleuchtet. So wird hierbei u.a. die Vergabe von Metadaten im Kontext von Forschungsprozessen thematisiert sowie problematisiert, ob disziplinäre bzw. interdisziplinäre Metadatenstandards für spezifische geschichtswissenschaftliche Forschungsfragen und Erkenntnisinteressen anwendbar sind bzw. welche Bedeutung eine standardisierte Erfassung für den Forschungsprozess hat. Darüber hinaus werden der Spannungsbogen geisteswissenschaftliche Forschung und IT sowie das Thema Metadaten unter der Perspektive einer interoperablen und interdisziplinären Nachnutzung diskutiert.

In einem öffentlichen Abendvortrag wird Prof. Dr. Wolfgang Schmale (Universität Wien) zum Thema „Geisteswissenschaften im ‚Digital Turn‘?“ sprechen. Am zweiten Tag werden eine Reihe von anwendungsorientierten Sitzungen die Grundlagen der Anwendung von Metadatenstandards, die Erfassung und Verwaltung von Metadaten, sowie die forschungsorientierte Nutzung von Metadaten vermitteln.

Um einen reibungslosen Ablauf zu gewährleisten, werden die Teilnehmer gebeten, ihre eigenen Notebooks mitzubringen, so dass kollaborativ anhand von Beispieldaten einige Tools und Anwendungsszenarien getestet werden können. Es besteht ferner die Möglichkeit, dass die Teilnehmer vor Beginn des Workshops Daten (Metadaten, Schemata oder Collection Descriptions) aus ihren eigenen Forschungsprojekten zur Verfügung stellen, um mithilfe dieser Daten exemplarische Erfassungsprobleme thematisieren und Anwendungsoptionen diskutieren zu können.

Der Methodenworkshop Metadaten findet unmittelbar vor Beginn des 49. Deutschen Historikertags in Mainz statt, so dass alle Teilnehmer die Möglichkeit haben, unmittelbar nach Tagungsende an den Veranstaltungen des Historikertages teilzunehmen.

Auf der Webseite des Workshops finden Sie das ausführliche Programm des Workshops sowie weiterführende Informationen und ggf. Aktualisierungen. Für die Teilnahme wird ein Unkostenbeitrag von 20 Euro erhoben, der bei Tagungsbeginn zu entrichten ist. Anmeldungen sind ab sofort bis zum 31. August 2012 möglich. Senden Sie hierzu eine E-Mail mit Ihren Kontaktinformationen an: schmunk@ieg-mainz.de

Bei inhaltlichen oder organisatorischen Rückfragen wenden Sie sich bitte an:
Dr. Christof Schöch – Uni Würzburg – christof.schoech@uni-wuerzburg.de und/oder
Dr. des. Stefan Schmunk – IEG Mainz – schmunk@ieg-mainz.de

Quelle: http://dhd-blog.org/?p=700

Weiterlesen