Umfrage zur Arbeit mit multimodalen Daten

im Namen des CLARIAH-DE Arbeitspaketes „Beitrag zur gemeinsamen Daten- und Dienstestruktur – Interoperabilität von Daten und Metadaten“ (AP 2.3.2)

Die Auffindbarkeit und die Nachnutzbarkeit digitaler Forschungsdaten sind zentrale Bedingungen für die Nachhaltigkeit der Daten im Sinne der FAIR-Prinzipien. CLARIAH-DE lädt zu einer Umfrage ein, die einen explorativen Zugang zur Arbeit mit multimodalen Daten darstellt.

Da es sich hier um ein noch relativ unübersichtliches Feld handelt, über das die Umfrage einen möglichst weiten Überblick bieten soll, liegt ihr eine weite Definition multimodaler Daten zugrunde: Diese schließt alle Forschungsdaten ein, die Text-, Audio- und/oder visuelles Material erfassen. Dies soll von Podcasts über untertitelte Vortragsaufzeichnungen bis hin zu ausgezeichneten linguistischen Korpora und Aufzeichnungen künstlerischer Darbietungen nichts ausschließen. Ebenso richtet sich die Umfrage explizit an Forschende aller Forschungsfelder und -richtungen, die mit multimodalen Daten arbeiten. Dabei interessieren uns Aspekte der Erstellung multimodaler Daten ebenso wie die Nachnutzung derselben.

[...]

Quelle: https://dhd-blog.org/?p=16284

Weiterlesen

Bewerbungsfrist verlängert! LIDO-Weiterentwicklung in KONDA und NFDI4Culture (E13 Vollzeit für zunächst 2 Jahre an der SUB Göttingen)

Die SUB Göttingen besetzt zum nächstmöglichen Zeitpunkt für zunächst zwei Jahre eine Stelle als wissenschaftliche*r Mitarbeiter*in (w/m/d) in Entgeltgruppe E13 TV-L, Vollzeit, für die Mitarbeit in KONDA und in NFDI4Culture, eine Verlängerung ist möglich. 

Im Kontext des Aufbaus der Nationalen Forschungsdateninfrastruktur arbeiten wir zurzeit im BMBF-geförderten Projekt KONDA sowie im DFG-geförderten Projekt NFDI4Culture in den Themenfeldern Standards, Datenqualität und Kurationskriterien für Forschungsdaten zu materiellen Kulturgütern insbesondere an der Weiterentwicklung des international etablierten Metadatenstandards LIDO – Lightweight Information Describing Objects. Die Entwicklungen sind eingebettet in die nationalen und internationalen Fachcommunitys.

Die vollständige Stellenausschreibung finden Sie hier:

https://www.sub.uni-goettingen.de/wir-ueber-uns/stellenangebote-ausbildung/stellenangebot/wissenschaftlicher-mitarbeiterin-wmd-entgeltgruppe-e-13-tv-l-vollzeit-befristet/



[...]

Quelle: https://dhd-blog.org/?p=16167

Weiterlesen

Workshop “Metadaten Analysieren” der DHd-AG Zeitungen & Zeitschriften

von Nanette Rißler-Pipka, Harald Lordick und Torsten Roeder

Während viele Millionen Zeitungs- und Zeitschriftenseiten in Portalen wie Europeana oder der Deutschen Digitalen Bibliothek am Bildschirm lesbar sind, steht maschinenlesbarer Text nur in kleinen Mengen der Forschung zur Verfügung. Schade, denkt man: Damit kann man ja nur begrenzt etwas anfangen. Doch all diese Digitalisate sind katalogisiert und manchmal sogar zu einem Anteil bis auf die Inhaltsverzeichnisse jeder Ausgabe, also bis auf Artikelebene erfasst. Für Zeitungen und Zeitschriften sind diese zusätzlichen Informationen schon durch die Struktur des Mediums besonders reichhaltig und wichtig.

Diese Informationen nennen wir “Metadaten”.[1] Und es ist gut, dass es sie gibt: Sie verraten uns zum einen in systematischer Form das, was aus den Digitalisaten explizit hervorgeht, wie etwa  den Namen der Zeitung/Zeitschrift, den Druckort, das Erscheinungsdatum. Zum anderen enthalten sie beispielsweise auch die Regelmäßigkeit des Erscheinens, die Anzahl der gescannten und der gedruckten Exemplare, die Autorinnen und Autoren sowie weitere Akteure, die Anzahl der Seiten und der Artikel oder die Sprache, in der die Artikel verfasst wurden. All dies kann viel Recherche erfordern.

[...]

Quelle: https://dhd-blog.org/?p=14457

Weiterlesen

DHd-AG Zeitungen & Zeitschriften bietet Workshop zu Metadaten-Analyse an

Die DHd-AG Zeitungen & Zeitschriften bietet am 3. und 4. September 2020 jeweils von 9-16 Uhr einen virtuellen Workshop an, um anhand komplexer Beispiele der Medien Zeitungen und Zeitschriften zu zeigen, wie man an die Metadaten heran kommt, wie man sie danach weiter vorbereitet, um dann spezifische Forschungsfragen damit zu beantworten. Das Angebot digitaler Ressourcen zu Zeitungen und Zeitschriften beginnt beim Eintrag der bibliografischen Metadaten in Kataloge und Verzeichnisse und führt über die Metadaten aus dem Digitalisierungsprozess (Bild-Digitalisierung) bis hin zu den Metadaten des Volltexts (sollte dieser vorhanden sein). Teilnehmerinnen und Teilnehmer werden daher eingeladen, eine konkrete Forschungsfrage mitzubringen. Beispieldatensätze (aus Europeana Newspaper oder anderen Portalen wie der Deutschen Digitalen Bibliothek) werden bereit gestellt.

In drei Schritten nähern wir uns dabei der Analyse der Metadaten und damit auch der Beantwortung individueller Forschungsfragen:

  • Wie komme ich an die Metadaten? Schnittstellen und Metadaten-Standards, Grundlagen und Praxis


  • [...]

Quelle: https://dhd-blog.org/?p=14076

Weiterlesen

Wiss. Mitarbeiter/in (m/w/d) im Bereich Projektkoordination und Datenmodellierung (Trier, E13, 100%)

Am Trier Center for Digital Humanities (Fachbereich II) der Universität Trier ist im Rahmen des von der Forschungsinitiative Rheinland-Pfalz geförderten Projektes „MiMoText – Mining and Modeling Text“ zum nächstmöglichen Zeitpunkt folgende Stelle zu besetzen:

Wissenschaftliche/r Mitarbeiter/in (m/w/d) im Bereich Projektkoordination und Datenmodellierung (Entgeltgruppe TV-L E 13, 100%, befristet bis zum 30.6.2022)

Das Trierer Kompetenzzentrum hat sich seit seiner Gründung im Jahr 1998 zu einem national und international etablierten Zentrum für Digital Humanities entwickelt. Sein Ziel ist es, durch die (Weiter-)Entwicklung und Anwendung innovativer informatischer Methoden und Verfahren geistes- und kulturwissenschaftliche Fragestellungen zu bearbeiten, neue Forschungsansätze in diesen Fachdisziplinen zu entwickeln und gleichzeitig zur Ausbildung neuer Forschungsfelder und Methodologien in den informatiknahen Fächern beizutragen. Das Zentrum forscht schwerpunktmäßig in den Bereichen Digitale Wörterbücher, Digitale
Edition, Forschungssoftware und quantitative Analyse.

Ziel des Projektes „MiMoText“ ist es, den Bereich der quantitativen Methoden zur Extraktion, Modellierung und Analyse geisteswissenschaftlich relevanter Informationen aus umfangreichen Textsammlungen konsequent weiterzuentwickeln und aus interdisziplinärer (geistes-, informatik- und rechtswissenschaftlicher) Perspektive zu erforschen. Kernanliegen ist es, die konzeptuellen, analytischen, rechtlichen und infrastrukturellen Herausforderungen
für die Entwicklung eines neuartigen Zugangs zu fachwissenschaftlichen Informationen in einem aus verschiedenen Quellen gespeisten Wissensnetzwerk zu adressieren und damit die Arbeitsweisen der
geisteswissenschaftlichen Forschung auf eine neue, datenbasierte Grundlage zu stellen.

[...]

Quelle: https://dhd-blog.org/?p=12204

Weiterlesen

Digitale Briefverzeichnisse einfacher erstellen

Die überwiegende Menge der Briefeditionen liegt auch im digitalen Zeitalter noch ausschließlich gedruckt vor. Um die edierten Briefe und die darin enthaltenen Informationen auch digital verfügbar zu machen, können Briefmetadaten im Correspondence Metadata Interchange Format (CMIF) bereitgestellt und mit dem Webservice correspSearch durchsucht werden. Waren bisher für die Erstellung von Briefverzeichnissen in CMIF XML-Kenntnisse notwendig, erleichtert nun der online verfügbare “CMIF Creator” die Erfassung erheblich.

Der CMIF Creator wird im Rahmen des DFG-geförderten Projekts „correspSearch – Briefeditionen vernetzen“ entwickelt und steht jetzt in einer ersten Beta-Version unter http://correspSearch.net/cmif-creator bereit. Mit seiner Hilfe können Bearbeiter*innen von gedruckten Briefeditionen die Metadaten zu edierten oder auch erschlossenen Briefen gemäß dem CMIF über ein Formular bequem erfassen. Die Arbeit kann zu jedem Zeitpunkt unterbrochen und die CMIF-Datei lokal auf dem eigenen Computer gespeichert werden. Möchte man die Arbeit fortsetzen, kann man die bisherige CMIF-Datei einfach wieder in den CMIF Creator laden.

[...]

Quelle: http://dhd-blog.org/?p=9303

Weiterlesen

[MTSR’16] Deadline Extension and Communication about Change of Location (Rome to Göttingen)

++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++

EXTENDED CALL FOR PAPERS

Paper Submission Deadline Extended to: 26th June 2016

10th International Conference on
Metadata and Semantics Research (MTSR’16)

November 22-25, 2016,
SUB Göttingen, Germany
http://www.mtsr-conf.org/

++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++

Due to new rules and regulations in FAO of the UN for hosting conferences MTSR, the 10th International Conference on Metadata and Semantics Research (MTSR’16) will be relocated from Rome to Göttingen, where this anniversary edition will now proudly be hosted by the State and University Library Göttingen, Germany (SUB).



[...]

Quelle: http://dhd-blog.org/?p=6874

Weiterlesen

DH-Videoclip Adventskalender 2015 – Tür 24

Zum Abschluss des DH-Videoclip-Adventskalenders wird es märchenhaft, die Library of Congress erzählt die bislang unbekannte aber sehr unterhaltsame Geschichte von Snow Byte & the Seven Formats: A Digital Preservation Fairy Tale.

Und wenn sie nicht gestorben sind, dann sicher sie ihre Daten noch heute :-)

Ich wünsche allen Leserinnen und Lesern des DHd-Blogs fröhliche Weihnachten und einen guten Start ins neue Jahr!

 

Quelle: http://dhd-blog.org/?p=6020

Weiterlesen

Jetzt anmelden zum fünften TextGrid Nutzertreffen: Norm- und Metadaten

Am 25. und 26. November 2014 wird am Salomon Ludwig Steinheim-Institut für deutsch-jüdische Geschichte an der Universität Duisburg-Essen das fünfte TextGrid-Nutzertreffen stattfinden. Der Themenschwerpunkt „Norm- und Metadaten“ verbindet dabei Erfahrungsberichte aus Projekten, die TextGrid nutzen, mit Workshops zur fortgeschrittenen Nutzung von TextGrid Laboratory und Repository im Bereich kontrollierter Vokabulare. Eine einführende Schulung zu Beginn erleichtert Neulingen den Einstieg in die Arbeit mit der virtuellen Forschungsumgebung.

Vorläufiges Programm:

25. November

12:00: Mittagsimbiss und Registrierung
13:00: Oliver Schmid (TU Darmstadt)/Philipp Vanscheidt (TU Darmstadt/Uni Trier): Einführung in TextGrid (Workshop)
15:00: Kaffeepause und Registrierung
15:30: Eröffnung
15:45: Philipp Vanscheidt (TU Darmstadt/Uni Trier): Das Metadatenschema von TextGrid (Vortrag)
16:00: Thomas Kollatz (Steinheim-Institut Essen): Text, Bilder und Metadaten – complete_input ins TG-Rep (Vortrag)
16:30: Nils Alberti/Christian Dietrich (Europa-Universität Viadrina, Frankfurt/Oder): Von „Buchveröffentlichung“ bis „Zwangsarbeit“ – Die strukturierte Speicherung bio-bibliografischer Daten von jüdischen Autorinnen und Autoren in Berlin (1933-1945) (Vortrag)
17:00: Kaffepause
17:15: Christoph Plutte (Berlin)/Torsten Roeder (Würzburg): [Titel folgt] (Vortrag)
17:45: Bastian Lemitz (Uni Münster), Uwe Sikora, Hannes Riebl (SUB Göttingen): [Norm- und Metadaten in der "Bibliothek der Neologie"] (Vortrag)
20:00: Abendessen

26. November

09:00: Registrierung
10:00: Marcus Held (IEG Mainz): Kontrollierte Vokabulare für die historisch arbeitenden Wissenschaften – Theorie, Methode und Praxis (Workshop)
12:00: Mittagsimbiss
13:00: Martin de la Iglesia (SUB Göttingen): Entitäten in TEI (Workshop)

Weitere Informationen zu Vorträgen und Workshops sowie zur Anmeldung finden Sie auf der Website unter: http://www.textgrid.de/community/nutzertreffen-metadaten/

Die Anmeldefrist endet am 7. November.

Quelle: http://dhd-blog.org/?p=4061

Weiterlesen

Jetzt anmelden zum fünften TextGrid Nutzertreffen: Norm- und Metadaten

Am 25. und 26. November 2014 wird am Salomon Ludwig Steinheim-Institut für deutsch-jüdische Geschichte an der Universität Duisburg-Essen das fünfte TextGrid-Nutzertreffen stattfinden. Der Themenschwerpunkt „Norm- und Metadaten“ verbindet dabei Erfahrungsberichte aus Projekten, die TextGrid nutzen, mit Workshops zur fortgeschrittenen Nutzung von TextGrid Laboratory und Repository im Bereich kontrollierter Vokabulare. Eine einführende Schulung zu Beginn erleichtert Neulingen den Einstieg in die Arbeit mit der virtuellen Forschungsumgebung.

Vorläufiges Programm:

25. November

12:00: Mittagsimbiss und Registrierung
13:00: Oliver Schmid (TU Darmstadt)/Philipp Vanscheidt (TU Darmstadt/Uni Trier): Einführung in TextGrid (Workshop)
15:00: Kaffeepause und Registrierung
15:30: Eröffnung
15:45: Philipp Vanscheidt (TU Darmstadt/Uni Trier): Das Metadatenschema von TextGrid (Vortrag)
16:00: Thomas Kollatz (Steinheim-Institut Essen): Text, Bilder und Metadaten – complete_input ins TG-Rep (Vortrag)
16:30: Nils Alberti/Christian Dietrich (Europa-Universität Viadrina, Frankfurt/Oder): Von „Buchveröffentlichung“ bis „Zwangsarbeit“ – Die strukturierte Speicherung bio-bibliografischer Daten von jüdischen Autorinnen und Autoren in Berlin (1933-1945) (Vortrag)
17:00: Kaffepause
17:15: Christoph Plutte (Berlin)/Torsten Roeder (Würzburg): [Titel folgt] (Vortrag)
17:45: Bastian Lemitz (Uni Münster), Uwe Sikora, Hannes Riebl (SUB Göttingen): [Norm- und Metadaten in der "Bibliothek der Neologie"] (Vortrag)
20:00: Abendessen

26. November

09:00: Registrierung
10:00: Marcus Held (IEG Mainz): Kontrollierte Vokabulare für die historisch arbeitenden Wissenschaften – Theorie, Methode und Praxis (Workshop)
12:00: Mittagsimbiss
13:00: Martin de la Iglesia (SUB Göttingen): Entitäten in TEI (Workshop)

Weitere Informationen zu Vorträgen und Workshops sowie zur Anmeldung finden Sie auf der Website unter: http://www.textgrid.de/community/nutzertreffen-metadaten/

Die Anmeldefrist endet am 7. November.

Quelle: http://dhd-blog.org/?p=4061

Weiterlesen