Workshop “Metadaten Analysieren” der DHd-AG Zeitungen & Zeitschriften

von Nanette Rißler-Pipka, Harald Lordick und Torsten Roeder

Während viele Millionen Zeitungs- und Zeitschriftenseiten in Portalen wie Europeana oder der Deutschen Digitalen Bibliothek am Bildschirm lesbar sind, steht maschinenlesbarer Text nur in kleinen Mengen der Forschung zur Verfügung. Schade, denkt man: Damit kann man ja nur begrenzt etwas anfangen. Doch all diese Digitalisate sind katalogisiert und manchmal sogar zu einem Anteil bis auf die Inhaltsverzeichnisse jeder Ausgabe, also bis auf Artikelebene erfasst. Für Zeitungen und Zeitschriften sind diese zusätzlichen Informationen schon durch die Struktur des Mediums besonders reichhaltig und wichtig.

Diese Informationen nennen wir “Metadaten”.[1] Und es ist gut, dass es sie gibt: Sie verraten uns zum einen in systematischer Form das, was aus den Digitalisaten explizit hervorgeht, wie etwa  den Namen der Zeitung/Zeitschrift, den Druckort, das Erscheinungsdatum. Zum anderen enthalten sie beispielsweise auch die Regelmäßigkeit des Erscheinens, die Anzahl der gescannten und der gedruckten Exemplare, die Autorinnen und Autoren sowie weitere Akteure, die Anzahl der Seiten und der Artikel oder die Sprache, in der die Artikel verfasst wurden. All dies kann viel Recherche erfordern.

[...]

Quelle: https://dhd-blog.org/?p=14457

Weiterlesen

DHd-AG Zeitungen & Zeitschriften bietet Workshop zu Metadaten-Analyse an

Die DHd-AG Zeitungen & Zeitschriften bietet am 3. und 4. September 2020 jeweils von 9-16 Uhr einen virtuellen Workshop an, um anhand komplexer Beispiele der Medien Zeitungen und Zeitschriften zu zeigen, wie man an die Metadaten heran kommt, wie man sie danach weiter vorbereitet, um dann spezifische Forschungsfragen damit zu beantworten. Das Angebot digitaler Ressourcen zu Zeitungen und Zeitschriften beginnt beim Eintrag der bibliografischen Metadaten in Kataloge und Verzeichnisse und führt über die Metadaten aus dem Digitalisierungsprozess (Bild-Digitalisierung) bis hin zu den Metadaten des Volltexts (sollte dieser vorhanden sein). Teilnehmerinnen und Teilnehmer werden daher eingeladen, eine konkrete Forschungsfrage mitzubringen. Beispieldatensätze (aus Europeana Newspaper oder anderen Portalen wie der Deutschen Digitalen Bibliothek) werden bereit gestellt.

In drei Schritten nähern wir uns dabei der Analyse der Metadaten und damit auch der Beantwortung individueller Forschungsfragen:

  • Wie komme ich an die Metadaten? Schnittstellen und Metadaten-Standards, Grundlagen und Praxis


  • [...]

Quelle: https://dhd-blog.org/?p=14076

Weiterlesen

Wiss. Mitarbeiter/in (m/w/d) im Bereich Projektkoordination und Datenmodellierung (Trier, E13, 100%)

Am Trier Center for Digital Humanities (Fachbereich II) der Universität Trier ist im Rahmen des von der Forschungsinitiative Rheinland-Pfalz geförderten Projektes „MiMoText – Mining and Modeling Text“ zum nächstmöglichen Zeitpunkt folgende Stelle zu besetzen:

Wissenschaftliche/r Mitarbeiter/in (m/w/d) im Bereich Projektkoordination und Datenmodellierung (Entgeltgruppe TV-L E 13, 100%, befristet bis zum 30.6.2022)

Das Trierer Kompetenzzentrum hat sich seit seiner Gründung im Jahr 1998 zu einem national und international etablierten Zentrum für Digital Humanities entwickelt. Sein Ziel ist es, durch die (Weiter-)Entwicklung und Anwendung innovativer informatischer Methoden und Verfahren geistes- und kulturwissenschaftliche Fragestellungen zu bearbeiten, neue Forschungsansätze in diesen Fachdisziplinen zu entwickeln und gleichzeitig zur Ausbildung neuer Forschungsfelder und Methodologien in den informatiknahen Fächern beizutragen. Das Zentrum forscht schwerpunktmäßig in den Bereichen Digitale Wörterbücher, Digitale
Edition, Forschungssoftware und quantitative Analyse.

Ziel des Projektes „MiMoText“ ist es, den Bereich der quantitativen Methoden zur Extraktion, Modellierung und Analyse geisteswissenschaftlich relevanter Informationen aus umfangreichen Textsammlungen konsequent weiterzuentwickeln und aus interdisziplinärer (geistes-, informatik- und rechtswissenschaftlicher) Perspektive zu erforschen. Kernanliegen ist es, die konzeptuellen, analytischen, rechtlichen und infrastrukturellen Herausforderungen
für die Entwicklung eines neuartigen Zugangs zu fachwissenschaftlichen Informationen in einem aus verschiedenen Quellen gespeisten Wissensnetzwerk zu adressieren und damit die Arbeitsweisen der
geisteswissenschaftlichen Forschung auf eine neue, datenbasierte Grundlage zu stellen.

[...]

Quelle: https://dhd-blog.org/?p=12204

Weiterlesen

Digitale Briefverzeichnisse einfacher erstellen

Die überwiegende Menge der Briefeditionen liegt auch im digitalen Zeitalter noch ausschließlich gedruckt vor. Um die edierten Briefe und die darin enthaltenen Informationen auch digital verfügbar zu machen, können Briefmetadaten im Correspondence Metadata Interchange Format (CMIF) bereitgestellt und mit dem Webservice correspSearch durchsucht werden. Waren bisher für die Erstellung von Briefverzeichnissen in CMIF XML-Kenntnisse notwendig, erleichtert nun der online verfügbare “CMIF Creator” die Erfassung erheblich.

Der CMIF Creator wird im Rahmen des DFG-geförderten Projekts „correspSearch – Briefeditionen vernetzen“ entwickelt und steht jetzt in einer ersten Beta-Version unter http://correspSearch.net/cmif-creator bereit. Mit seiner Hilfe können Bearbeiter*innen von gedruckten Briefeditionen die Metadaten zu edierten oder auch erschlossenen Briefen gemäß dem CMIF über ein Formular bequem erfassen. Die Arbeit kann zu jedem Zeitpunkt unterbrochen und die CMIF-Datei lokal auf dem eigenen Computer gespeichert werden. Möchte man die Arbeit fortsetzen, kann man die bisherige CMIF-Datei einfach wieder in den CMIF Creator laden.

[...]

Quelle: http://dhd-blog.org/?p=9303

Weiterlesen

[MTSR’16] Deadline Extension and Communication about Change of Location (Rome to Göttingen)

++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++

EXTENDED CALL FOR PAPERS

Paper Submission Deadline Extended to: 26th June 2016

10th International Conference on
Metadata and Semantics Research (MTSR’16)

November 22-25, 2016,
SUB Göttingen, Germany
http://www.mtsr-conf.org/

++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++

Due to new rules and regulations in FAO of the UN for hosting conferences MTSR, the 10th International Conference on Metadata and Semantics Research (MTSR’16) will be relocated from Rome to Göttingen, where this anniversary edition will now proudly be hosted by the State and University Library Göttingen, Germany (SUB).



[...]

Quelle: http://dhd-blog.org/?p=6874

Weiterlesen

DH-Videoclip Adventskalender 2015 – Tür 24

Zum Abschluss des DH-Videoclip-Adventskalenders wird es märchenhaft, die Library of Congress erzählt die bislang unbekannte aber sehr unterhaltsame Geschichte von Snow Byte & the Seven Formats: A Digital Preservation Fairy Tale.

Und wenn sie nicht gestorben sind, dann sicher sie ihre Daten noch heute :-)

Ich wünsche allen Leserinnen und Lesern des DHd-Blogs fröhliche Weihnachten und einen guten Start ins neue Jahr!

 

Quelle: http://dhd-blog.org/?p=6020

Weiterlesen

Jetzt anmelden zum fünften TextGrid Nutzertreffen: Norm- und Metadaten

Am 25. und 26. November 2014 wird am Salomon Ludwig Steinheim-Institut für deutsch-jüdische Geschichte an der Universität Duisburg-Essen das fünfte TextGrid-Nutzertreffen stattfinden. Der Themenschwerpunkt „Norm- und Metadaten“ verbindet dabei Erfahrungsberichte aus Projekten, die TextGrid nutzen, mit Workshops zur fortgeschrittenen Nutzung von TextGrid Laboratory und Repository im Bereich kontrollierter Vokabulare. Eine einführende Schulung zu Beginn erleichtert Neulingen den Einstieg in die Arbeit mit der virtuellen Forschungsumgebung.

Vorläufiges Programm:

25. November

12:00: Mittagsimbiss und Registrierung
13:00: Oliver Schmid (TU Darmstadt)/Philipp Vanscheidt (TU Darmstadt/Uni Trier): Einführung in TextGrid (Workshop)
15:00: Kaffeepause und Registrierung
15:30: Eröffnung
15:45: Philipp Vanscheidt (TU Darmstadt/Uni Trier): Das Metadatenschema von TextGrid (Vortrag)
16:00: Thomas Kollatz (Steinheim-Institut Essen): Text, Bilder und Metadaten – complete_input ins TG-Rep (Vortrag)
16:30: Nils Alberti/Christian Dietrich (Europa-Universität Viadrina, Frankfurt/Oder): Von „Buchveröffentlichung“ bis „Zwangsarbeit“ – Die strukturierte Speicherung bio-bibliografischer Daten von jüdischen Autorinnen und Autoren in Berlin (1933-1945) (Vortrag)
17:00: Kaffepause
17:15: Christoph Plutte (Berlin)/Torsten Roeder (Würzburg): [Titel folgt] (Vortrag)
17:45: Bastian Lemitz (Uni Münster), Uwe Sikora, Hannes Riebl (SUB Göttingen): [Norm- und Metadaten in der "Bibliothek der Neologie"] (Vortrag)
20:00: Abendessen

26. November

09:00: Registrierung
10:00: Marcus Held (IEG Mainz): Kontrollierte Vokabulare für die historisch arbeitenden Wissenschaften – Theorie, Methode und Praxis (Workshop)
12:00: Mittagsimbiss
13:00: Martin de la Iglesia (SUB Göttingen): Entitäten in TEI (Workshop)

Weitere Informationen zu Vorträgen und Workshops sowie zur Anmeldung finden Sie auf der Website unter: http://www.textgrid.de/community/nutzertreffen-metadaten/

Die Anmeldefrist endet am 7. November.

Quelle: http://dhd-blog.org/?p=4061

Weiterlesen

Jetzt anmelden zum fünften TextGrid Nutzertreffen: Norm- und Metadaten

Am 25. und 26. November 2014 wird am Salomon Ludwig Steinheim-Institut für deutsch-jüdische Geschichte an der Universität Duisburg-Essen das fünfte TextGrid-Nutzertreffen stattfinden. Der Themenschwerpunkt „Norm- und Metadaten“ verbindet dabei Erfahrungsberichte aus Projekten, die TextGrid nutzen, mit Workshops zur fortgeschrittenen Nutzung von TextGrid Laboratory und Repository im Bereich kontrollierter Vokabulare. Eine einführende Schulung zu Beginn erleichtert Neulingen den Einstieg in die Arbeit mit der virtuellen Forschungsumgebung.

Vorläufiges Programm:

25. November

12:00: Mittagsimbiss und Registrierung
13:00: Oliver Schmid (TU Darmstadt)/Philipp Vanscheidt (TU Darmstadt/Uni Trier): Einführung in TextGrid (Workshop)
15:00: Kaffeepause und Registrierung
15:30: Eröffnung
15:45: Philipp Vanscheidt (TU Darmstadt/Uni Trier): Das Metadatenschema von TextGrid (Vortrag)
16:00: Thomas Kollatz (Steinheim-Institut Essen): Text, Bilder und Metadaten – complete_input ins TG-Rep (Vortrag)
16:30: Nils Alberti/Christian Dietrich (Europa-Universität Viadrina, Frankfurt/Oder): Von „Buchveröffentlichung“ bis „Zwangsarbeit“ – Die strukturierte Speicherung bio-bibliografischer Daten von jüdischen Autorinnen und Autoren in Berlin (1933-1945) (Vortrag)
17:00: Kaffepause
17:15: Christoph Plutte (Berlin)/Torsten Roeder (Würzburg): [Titel folgt] (Vortrag)
17:45: Bastian Lemitz (Uni Münster), Uwe Sikora, Hannes Riebl (SUB Göttingen): [Norm- und Metadaten in der "Bibliothek der Neologie"] (Vortrag)
20:00: Abendessen

26. November

09:00: Registrierung
10:00: Marcus Held (IEG Mainz): Kontrollierte Vokabulare für die historisch arbeitenden Wissenschaften – Theorie, Methode und Praxis (Workshop)
12:00: Mittagsimbiss
13:00: Martin de la Iglesia (SUB Göttingen): Entitäten in TEI (Workshop)

Weitere Informationen zu Vorträgen und Workshops sowie zur Anmeldung finden Sie auf der Website unter: http://www.textgrid.de/community/nutzertreffen-metadaten/

Die Anmeldefrist endet am 7. November.

Quelle: http://dhd-blog.org/?p=4061

Weiterlesen

Die unerträgliche Schwierigkeit des Katalogisierens … und das dadurch verunmöglichte (Wieder-)Finden

An 25.10.2013 beschäftigte sich eine Konferenz an der Österreichischen Nationalbibliothek mit der Frage “Was können und was wollen Digital Humanities?” – mit der Verortung des Faches, mit konkreten Beispielen, aber auch mit der Frage nach der Rolle der Bibliotheken. Max Kaiser von der Österreichischen Nationalbibliothek stellte in seiner Präsentation Digital Humanities und die Österreichische Nationalbibliothek aktuell laufende DH-Projekte an der ÖNB (zum Teil in Kooperation mit anderen Institutionen) vor und umriss die Rolle von Bibliotheken in einem sich wandelnden Umfeld in durchaus schillernden Farben.
Bei all den spannenden Möglichkeiten und Projekten ist ein (tatsächlich eher beiläufig) erwähnter Aspekt fast untergegangen (siehe Slides 49-52): Alles steht und fällt nicht erst mit dem Zugang zum brauchbaren Volltext (s. Slides 90-97), sondern mit dem Zugang zur Information über das Objekt – also mit brauchbaren, aussagekräftigen Metadaten.

Dazu ein kleines, aber feines Beispiel …

Bis heute stand in der Bibliotheca sinica 2.0 unter den Titeln ohne Verfasser auch dieser Titel:

: Gionata VII. Imperatore della China. Lettera a Papa Clemente XIV (Venezia: Aloisopoli 1538) Bibliotheca Sinica 2.0

Der Eintrag – aus den Katalogdaten der Österreichischen Nationalbibliothek (ÖNB) gezogen – hat nie wirklich Sinn gemacht und war im internen Bibliotheca Sinica 2.0/Wiener Chinabibliographie[1]-Datenblatt seit langem gelb markiert, also ‘zu überprüfen’, denn ein Brief an Papst Clemens XIV (Pontifikat: 1769-1774)[2], gedruckt in Venedig im Jahr 1538 – passt irgendwie nicht …
Die Markierung blieb lange unbearbeitet, doch nun werden die weißen Flecken der ‘Wiener Chinabibliographie 1477-1939‘ immer weniger – und so kam auch dieser Titel wieder auf die Liste. Die wohl einfachste Möglichkeit wäre, den Titel (ÖNB-Signatur: *43.H.224) einzusehen – doch vorher wird routinemäßig online recherchiert …

Voilà, die einfache Google-Suche bringt ein vielversprechendes Ergebnis:

Google Suche – bearbeiteter Screenshot [graue Rechtecke '1' und '2' eingefügt]

Der zweite Treffer (auf dem oben eingefügten Screenshot mit ’2′ markiert) bezieht sich auf den eingangs erähnten (inzwischen berichtigten Eintrag in der Bibliotheca Sinica 2.0.

Der erste Treffer (auf dem Screenshot mit ’1′ markiert) liefert einen Volltreffer: das Google-Books-Digitalisat des Exemplars der Österreichischen Nationalbibliothek.
Ein Klick führt zu:

Google Books - Screenshot

Google Books – Screenshot

Es wird interessant – denn hier finden sich zwei widersprüchliche Angaben: “Venezia, Aloisopoli 1538″ und “Aloisopoli, 1833″.
Am Fuß der Seite finden sich die Google Books-typischen Daten:

Bibliografische Informationen
Titel    Lettera a Papa Clemente XIV. – Venezia, Aloisopoli 1538
Autor    Gionata VII. Imperatore della China
Verlag    Aloisopoli, 1833
Original von    Österreichische Nationalbibliothek
Digitalisiert    16. Apr. 2013

Ein Blick ins Buch zeigt: Es ist das in der Wiener Chinabibliographie erfasste Exemplar – also zurück zum Katalog der ÖNB. Eine einfache Suche nach “Lettera a Papa Clemente XIV. liefert als

Katalög der ÖNB (Screenshot)

Katalög der ÖNB (Screenshot) | http://data.onb.ac.at/rec/AC09900015

Im Gegensatz zu den Daten bei Google Books steht hier “Erscheinungsjahr: 1538″ – also über “Digitales Objekt (ÖNB) weiter direkt zum ÖNB-Viewer:

Ansicht im ÖNB-Viewer

Lettera a Papa Clemente XIV | Ansicht im ÖNB Viewer
http://data.onb.ac.at/ABO/%2BZ167090302

Der Blick auf das Titelblatt bringt Klarheit:

VENEZIA
DALLA TIPOGRAFIA DI ALVISOPOLI
MDCCCXXXIII

Also alles klar – das beim Google Book angegebene Erscheinungsdatum stimmt. Irgendwann hat jemand anstelle von MDCCCXXXIII [1833] einfach MDXXXVIII [1538] gelesen. Bei der Vorbereitung für die Digitalisierung wurde zwar das korrekte Datum eingetragen, aber der ‘alte’ Fehler nicht korrigiert …

Kleinlich? Banal? Mag sein.

Aber: Wenn ein Titel nicht auffindbar ist, wird es schwierig, mit dem Text zu arbeiten – egal, ob analog oder digital.

  1. Die ‘Wiener Chinabibliographie 1477-1939′ war quasi der Vorläufer der Bibliotheca Sinica 2.0. Lange bevor Digitalisate im großen Stil frei verfügbar waren, begann die Erfassung von Büchern über China in den großen Wiener Bibliotheken. Derzeit umfasst die Liste knapp 3500 Einträge.
  2. Giovanni Vincenzo Antonio Ganganelli (1705-1774) war Papst 1769-1774. Zur Biographie s. Mario Rosa: Clemente XIV. In: Massimo Bray (ed..): Enciclopedia dei Papi, Istituto della Enciclopedia Italiana, Band 3 (Innocenzo VIII, Giovanni Paolo II), Rom 2000.) – Online: Treccani.it.

Quelle: http://mindthegaps.hypotheses.org/1103

Weiterlesen

Semantische Technologien

semantic-media-web

Die Fachtagung “Semantische Technologien - Verwertungsstrategien und Konvergenz von Metadaten” befasste sich vom 26. bis 27. September 2013 mit der Nutzbarkeit semantischer Technologien für die Kultur- und Medienbranche. Thematisiert wurden Institutionen wie Verlage, Museen und Bibliotheken sowie die Bereiche Projektdokumentationen, Werbung und Marketing.

Der rückblickende Tagungsbericht stellt die zentralen Fragestellungen, Probleme und Chancen des semantischen Internet dar.

 

Quelle: http://dhd-blog.org/?p=2447

Weiterlesen