SCDH Münster: Unbefristete Stelle (E13) Knowledge Engineering

(English version below.)

Die Universitäts- und Landesbibliothek (ULB) Münster ist die Zentralbibliothek der Universität Münster und gleichzeitig Landesbibliothek für den Landesteil Westfalen. Sie ist eine der größten wissenschaftlichen Bibliotheken Deutschlands. Die ULB Münster bietet ein umfangreiches Portfolio von wissenschaftsnahen Dienstleistungen für Forschende, Lehrende und Studierende an, dessen Weiterentwicklung im Rahmen der aktuellen digitalen Transformationsprozesse in der Wissenschaft von einer großen Entwicklungsdynamik geprägt ist.

Das an der ULB Münster angesiedelte Service Center for Digital Humanities (SCDH) unterstützt die Forschenden der Universität Münster im Bereich Digital Humanities (DH) mit zahlreichen Services. Im SCDH ist vorbehaltlich der Mittelzuweisung zum nächstmöglichen Zeitpunkt die unbefristete Stelle als

Wissenschaftliche*r Mitarbeiter*in
im Kontext DH mit dem Schwerpunkt Knowledge Engineering
(E 13 TV-L)



[...]

Quelle: https://dhd-blog.org/?p=20248

Weiterlesen

Stellenausschreibung für Stud. Hilfskraft (80 oder 2×40 MoStd.), Research Area 5 des Exzellenzclusters „Temporal Communities“, FU Berlin

Die Research Area 5 „Building Digital Communities“ des Exzellenzclusters 2020 „Temporal Communities – Doing Literature in a Global Perspective“ der Freien Universität Berlin sucht studentische Unterstützung (80 bzw. 2×40 MoStd., befristet auf 2 Jahre). Zu den zentralen Tätigkeiten, die mit dieser Stelle verbunden sind, zählen die Unterstützung bei der Aufbereitung, Modellierung und Analyse digital vorliegender Daten, zugeschnitten auf literaturwissenschaftliche Fragestellungen.

Über Bewerbungen aus der Informatik, der Computerlinguistik, der Bibliotheks- oder Informationswissenschaften (oder ähnliches) würden wir uns sehr freuen. Inhaltlich geht es vor allem um Wissens-/Datenmodellierung für die digitalen Geisteswissenschaften.

Technisch ist Expertise in diesen Bereichen gefragt (muss nicht alles zutreffen): Wikibase, APIs (OAI-PMH, REST), RDF, SPARQL, XML-Technologien (XSLT, XQuery, XPath), CIDOC-CRM, FRBR, SKOS, nachgewiesene praktische Kenntnis mindestens einer Programmiersprache (bevorzugt Python oder R).



[...]

Quelle: https://dhd-blog.org/?p=18031

Weiterlesen

Digitales Praxislabor 2022 (Digital History)

Eine Veranstaltungsreihe der AG Digitale Geschichtswissenschaft

Aufgrund der hohen Nachfrage bietet dies AG Digitale Geschichtswissenschaft (VHD) auch in diesem Jahr eine Veranstaltungsreihe zu digitalen Methoden und Tools rund um die historische Forschung an. Sie sind herzlich eingeladen, eine oder mehrere dieser Veranstaltungen wahrzunehmen. Das Programm bietet ein reiches Spektrum von Angeboten im Umgang mit qualitativen und quantitativen Methoden sowie zur Strukturierung, Bereinigung, Anreicherung und Publikation von Daten. Auf den Websites der AG Digitale Geschichtswissenschaft finden Sie allgemeine Hinweise und Beschreibungen zum Workshop-Programm. Diese führen Sie zu den jeweiligen individuellen Informationsangeboten der Workshop-Anbieter. Bitte beachten Sie, dass Aktualisierungen und Anmeldungsmöglichkeiten nur auf diesen letztgenannten Websites gegeben werden.

Mit herzlichen Grüßen, im Namen des Komitees der AG Digitale Geschichtswissenschaft
Katrin Moeller

Workshopbild



[...]

Quelle: https://dhd-blog.org/?p=17699

Weiterlesen

FAIRe Forschungsdaten: Aufbereitung von Daten mit Hilfe von RDF-Datenmodellen

Ingo Frank, Sandra König, Anna-Lena Körfer, Arnost Stanzel, Peter Valena, Forschungsdatendienst OstData: Leibniz-Institut für Ost- und Südosteuropaforschung (IOS), Leibniz-Institut für Geschichte und Kultur des östlichen Europa (GWZO), Herder-Institut für historische Ostmitteleuropaforschung – Institut der Leibniz-Gemeinschaft (HI), Bayerische Staatsbibliothek (BSB), Collegium Carolinum – Forschungsinstitut für die Geschichte Tschechiens und der Slowakei (CC)

Termin: Dienstag, 24.05.2022, 9:30-12h

Beschreibung:

Um Forschungsdaten FAIR zu machen, bietet sich an, diese als Linked Data mit Resource Description Framework (RDF)-Datenmodellen zu modellieren. Im Workshop wollen wir anhand von Daten aus Projekten und Altdatenbeständen der OstData-Partnerinstitute zeigen, wie Forschende mit Hilfe von RDF, semantischer Technologien und Normdaten die Aufbereitung von Forschungsdaten durchführen können. Anhand von historischen Zensusdaten und Geodaten zu historischen Konferenzakten, werden wir zeigen, wie die Aufbereitung statistischer Daten exemplarisch mit dem RDF-Data Cube Vocabulary durchgeführt werden kann, sowie wie Daten mit Normdaten angereichert werden können, um so Orte mit Einträgen aus der GND oder Wikidata zu beschreiben und damit eindeutig zu identifizieren. Ergänzend hierzu werden wir aufzeigen, wie mit Simple Knowledge Organisation System (SKOS) Kodierlisten, Klassifikationssysteme oder Thesauri erstellt und für die zusätzliche Anreicherung von Daten genutzt werden können. Ziel des Workshops ist es, den Teilnehmer*innen die Relevanz der semantischen Modellierung zur Verbesserung der Analyse- und Nachnutzungspotentiale derartig modellierter Daten zu vermitteln.

[...]

Quelle: https://digigw.hypotheses.org/3990

Weiterlesen

Der veſte Buchſtab. Digitale Editionen, ihre Erstellung und Darbietung

  Am 29. und 30.  November 2012 fand in der Geschäftsstelle der Max Weber Stiftung das Arbeitstreffen „digital humanities. Wissenschaftliche Datenbanken und Editionsprojekte“ statt. Zwar gibt es gibt noch keinen Königsweg, der in diesem weiten Bereich zu allen Zielen führt. Umso wichtiger sind Übergangsmöglichkeiten von einem Weg zum anderen. Die Überlieferung von Worten ist das wertvollste Kulturgut überhaupt. Bauten und Bilder, Geschmeide, Melodien und Maschinen können uns nützen, uns freuen, uns staunen und schaudern lassen ‒ aber sie reden nie so zu uns wie Worte, von Mensch zu Mensch. Kein Wunder, dass wir gerade auch dieser Überlieferung digitale Dauer zu geben bestrebt sind, kein Wunder aber auch, dass bei der Ausführung des Vorhabens Schwierigkeiten begegnen. Lösungen solcher Schwierigkeiten war das Arbeitstreffen gewidmet, freilich mit Schwerpunktsetzung: Es ging um schriftliche Überlieferung und das Eingeben, Abspeichern, Aufbereiten und Anzeigen von zugehörigen Metadaten (im weiteren Sinn verstanden, worunter auch schon das Transkript zu einer Abbildung fällt). Und es war wirklich fesselnd zu sehen, wie vielfältige und ausgefeilte Lösungsansätze vorgestellt, gelegentlich auch ‒ freundlich und erfreulich lebhaft ‒ gegenübergestellt wurden und wie sie einander ergänzen oder befruchten konnten.   Aus einer Hölderlinhandschrift mit der im Titel angeführten Stelle. Die Transkription (d oder D oder …?) ist ein primär philologisches, nur sekundär technisches Problem. Dazu unten etwas. (Quelle: Württembergische Landesbibliothek Stuttgart: Hs. Homburg.G,2-7: Blatt 6v: Zeile 6. http://digital.wlb-stuttgart.de/purl/bsz346526833. Lizenz CC BY-NC-ND.) FuD, vertreten von Marina Lemaire und Gisela Minn vom Trierer Kompetenzzentrum, zeigte sich als System mit einem erprobten Kern und einer Vielzahl von entwickelten oder in Entwicklung befindlichen Schnittstellen, um so gut wie alle Editionsschritte zu unterstützen ‒ von der kollaborativen Erfassung in einer MySQL-Datenbank der Uni Trier bis zur Veröffentlichung im Netz oder Druck ‒, aber auch den Wechsel hin zu anderen Systemen anbieten zu können. So gab Sebastian Felten vom DHI London einen interessanten Einblick ins Projekt „Pauper Letters and Petitions for Poor Relief in Germany and Great Britain, 1770 – 1914“ und wie dort sowohl FuD als auch das ‒ noch zu erwähnende ‒ DENQ zusammen genutzt werden, das eine zur Eingabe, das andere zur Anzeige im Netz. BASYS-Invenio, vorgestellt von Thekla Kleinschmidt und Branimir Kolev vom Bundesarchiv, wurde und wird auf der Grundlage von Islandora entwickelt, um Archivalien in einem riesigen Gesamtbestand von einigen hundert Terabytes rasch finden und anzeigen zu können. Eingebaut ist eine sehr lesefreundliche Anzeige in Gestalt des Internet-Archive-Viewers, zudem mit einer maschinellen Texterkennung über Tesseract, was eine Suche im Text der jeweils angezeigten Abbildung ermöglicht. Bei den meisten Bundesarchivalien, gedruckt im 20. bis 21. Jahrhundert, zeitigt eine maschinelle Texterkennung gute Ergebnisse. Peter Stadler stellte die Carl-Maria-von-Weber-Gesamtausgabe vor, die in bewunderungswürdig konsequenter und harmonischer Verbindung von philologischen Kardinaltugenden und modernen XML-Techniken erarbeitet wird: Mit Gründlichkeit und Genauigkeit und der echt philologischen Liebe zum Wort wird aus der sichtbaren Überlieferung, dem Bild, ein lesbarer, und zwar maschinenlesbarer Text, der bis zur Anzahl der Striche bei Unterstreichungen alles von der Überlieferung aufhebt, was irgendwie sinnunterscheidend sein könnte. Ruth und Borries von dem Bussche vom Düsseldorfer Unternehmen Fafalter skizzierten dagegen eine Lösung auf der Grundlage von HTML5, das mit RDF-Annotation angereichert wird ‒ eine Verbindung von Sinn- und Gestaltebene, die früher gemieden wurde, jetzt aber im Verlagswesen und überhaupt im geschäftlichen Umfeld mehr und mehr Anklang findet. Auch, um Netzseiten mit mehr maschinenlesbarem Inhalt im Sinne des „semantic web“ zu erstellen, ist HTML5 mit RDF-Anzeichnung die fortgeschrittenste Lösung. Charlotte Schubert von der Universität Leipzig führte eAQUA vor und machte anhand von Beispielen aus ihrer eigenen Forschung deutlich, welchen außerordentlichen Nutzen ein Korpus von diesem Umfang und Lemmatisierungsgrad, zudem versehen mit den Anzeigemöglichkeiten der Kookkurrenzanalyse und der raumzeitlichen Belegverteilung haben kann. Torsten Schrade von der Digitalen Akademie Mainz stellte einen editorischen Arbeitsablauf vor, der von Ausgangsdokumenten in verschiedenen (und nicht immer günstigen) Formaten hin zum Content-Management-System Typo3 führt. Eine besondere Herausforderung ist im Fall des Beispielprojektes „Medieval Ashkenaz“ die Mischung hebräischer und deutscher Teile, also links- und rechtsläufiger Schriftrichtung, was in besonders schweren Fällen mit einem Zusammenspiel aus weicher Auszeichnung (mit <span dir=”rtl”> … </span>) und harten Steuerzeichen (U+202B für ‘ab hier linksläufig’ und U+202A für ‘ab hier rechtsläufig’) gelöst wird. Die Steuerzeichen werden elegant über das CSS, nämlich über eine an die Anzeichnung dir gebundene content-Eigenschaft eingefügt. DENQ, vorgestellt von Jörg Hörnschemeyer (dem Entwickler) und Jan-Peter Grünewälder vom DHI Rom, ist ebenda entwickelt worden, also gleichsam innerhalb der Max Weber Stiftung. Ein Kernbestandteil ist die XML-Datenbank eXist. Gezeigt wurden eine Suche über mehrere Korpora, auch als Ähnlichkeitssuche auf der Grundlage des Lewenstein-Algorithmus, ferner die Anzeige von Belegen in räumlicher Verteilung, unterlegt mit einer geographischen Karte, sowie die Möglichkeit, die Abbildung eines Textes in Ausschnitte zu zerlegen, die im SVG-Format gespeichert und den je entsprechenden Textausschnitten zugeordnet werden können, was noch in Entwicklung ist. Es konnte aber bereits eine gerade für diese Aufgabe äußerst nützliche maschinelle Vorsegmentierung gezeigt werden, die schon erstaunlich gut war. Zur Dateneingabe sonst: In DENQ wurde oder wird für jedes gewünschte Format eine Überführung in eXist entwickelt. Unter anderem möglich ist die Nutzung eines vertrauten Editors wie Word, in dem dann über Formatvorlagen recht bequem eine semantische Auszeichnung bis auf die Ebene des Zeichens hinab vorgenommen werden kann. Es ist bewundernswert, wie viel Funktionalität und Flexibilität auf schmaler Personalbasis entwickelt und ermöglicht worden ist. TextGrid, vorgestellt von Oliver Schmid von der Technischen Universität Darmstadt, ist vielleicht das komplexeste der vertretenen Systeme und bietet einen zumal gemessen am Projektalter großen Umfang an Funktionen sowie Teilprogrammen, die modular entwickelt und vom Nutzer modular eingebunden werden können. Die Eingabeumgebung, TextGridLab, funktioniert als reines Java-Programm ohne Installation (wenn das Java-Runtime-Environment auf dem Rechner installiert ist, was ja meist zutrifft) und auch offline. Das TextGridRep wiederum dient sowohl der gemeinsamen Arbeit an derselben Datenbank, als auch der Langzeitarchivierung und der Veröffentlichung im Netz mit Suchmöglichkeiten. Zwei vielleicht miteinander zusammenhängende Eindrücke vom Arbeitstreffen: Erstens. Es gibt noch keinen Königsweg, der zu allen Zielen führt; umso wichtiger sind Übergangsmöglichkeiten von einem Weg zum anderen. Zweitens. Gerade als Austauschformat ist XML noch immer und bis auf weiteres „die reine Lehre“, wie Gregor Horstkemper von der Bayerischen Staatsbibliothek in seiner Moderation scherzte. Andererseits wurden hin und wieder die Unzulänglichkeiten von XML in den Randbereichen seiner Verwendung deutlich: Wann immer man Geltungsbereiche auszeichnen will, die unterbrochen sind oder einander überlappen, also nicht in die hierarchische Verschachtelung von XML-Dokumenten passen, muss man zu Behelfen greifen, von denen keiner der Standard ist ‒ die TEI-Richtlinien stellen mehrere gleichberechtigt nebeneinander. Und schlimmer: Um die Behelfslösung einzulesen, etwa bei Abfragen, muss man einen eigenen Parser schreiben (adé Standardkonformität) oder auf Reguläre Ausdrücke zurückgreifen (was sonst als blankes Versagen bei der XML-Verarbeitung gilt) oder XPointer verwenden, was noch kaum umgesetzt und überdies mit einem Patent belastet ist, das bei Sun lag, jetzt also bei Oracle liegen müsste (vgl. http://www.w3.org/TR/xptr-framework/, http://www.w3.org/2002/06/xptr_IPR_summary.html). Oracle hat bekanntlich schon wegen eines anderen von Sun geerbten Patentes einen Rechtsstreit begonnen. Dennoch: Stadler, Leiter der TEI-Interessengruppe „Correspondence“, hat XML mit pädagogischem Impetus hochgehalten: Geisteswissenschaftler sollen mit XML umgehen können, weil der Umgang mit Texten, Textstruktur und Textsemantik zum Kernbereich der Geisteswissenschaft gehört, weil die dabei anfallenden Entscheidungen auch nur der Fachwissenschaftler, kein hilfreich herbeieilender Techniker treffen kann und weil der Umgang mit XML auch gar nicht so schwierig ist wie die wirklich harten Probleme ‒ die sind bei einer Edition stets philologischer Natur. Wenn man von der XML-Frage verallgemeinernd absieht, wird der Impetus ein aufklärerischer: Es geht dann um den Ausgang des Geisteswissenschaftlers aus einer selbstverschuldeten Unmündigkeit, was Datenverarbeitung angeht. Besteht diese Unmündigkeit? Und ist sie selbstverschuldet ‒ aus denselben Ursachen, die Kants berühmter Aufsatz nennt? Hier liegt ein Problem, das unangenehmer ist als etwa das vergleichsweise harmlose Ansinnen, die Geisteswissenschaften im Social Web zu verankern. Dr. Stefan Müller ist Referent für Datenbanken in der Geschäftsstelle der Max Weber Stiftung in Bonn, Redaktion Perspectivia.  

Quelle: http://mws.hypotheses.org/1571

Weiterlesen

Catalogus Professorum Lipsiensis

von Ulf Morgenstern Während für eine Vielzahl deutscher Universitäten bereits – vorwiegend gedruckte – Professorenkataloge vorliegen, musste dies bisher für Leipzig als eine der drei großen deutschen Universitäten des 19. und frühen 20. Jahrhunderts als ausgesprochenes Desiderat gelten. Daher erstellt die Arbeitsgruppe Universitätsgeschichte am Lehrstuhl für Neuere und Neueste Geschichte der Universität Leipzig den catalogus professorum [...]

Quelle: http://digiversity.net/2010/catalogus-professorum-lipsiensis/

Weiterlesen