Stellenangebot: WMA für die Online-Plattform Digital Benin gesucht

Die Stiftung Museum am Rothenbaum sucht baldmöglichst für 12 Monate eine:n Wissenschaftliche:n Mitarbeiter:in für die Schaffung der Online-Plattform Digital Benin in Vollzeit.

Bewerbungsfrist: 02.08.2021

Die vollständige Stellenausschreibung finden Sie hier: 
https://digital-benin.org/Jobs

Für weitere Informationen steht Ihnen Dr. Anne Luther (anneluther.info) gerne zur Verfügung.

[...]

Quelle: https://dhd-blog.org/?p=16180

Weiterlesen

CfP: Virtual Summer School: Deep Learning for Language Analysis (30.8.-3.9.2021)

Das Institut für Digital Humanities (IDH), das Cologne Center for eHumanities (CCeH) und das Data Center for the Humanities (DCH) richten mit Unterstützung der Competence Area III (CA3) und des Center for Data and Simulation Science (CDS) zum vierten Mal eine Sommerschule zum Thema „Deep Learning for Language Analysis“ an der Universität zu Köln aus.

Die diesjährige Ausgabe wird virtuell vom 30.8.-3.9.2021 stattfinden.

Deadline für den Call for Participation: 19.07.

[...]

Quelle: https://dhd-blog.org/?p=16175

Weiterlesen

CfP: Virtual Summer School: Deep Learning for Language Analysis (30.8.-3.9.2021)

Das Institut für Digital Humanities (IDH), das Cologne Center for eHumanities (CCeH) und das Data Center for the Humanities (DCH) richten mit Unterstützung der Competence Area III (CA3) und des Center for Data and Simulation Science (CDS) zum vierten Mal eine Sommerschule zum Thema „Deep Learning for Language Analysis“ an der Universität zu Köln aus.

Die diesjährige Ausgabe wird virtuell vom 30.8.-3.9.2021 stattfinden.

Deadline für den Call for Participation: 19.07.

[...]

Quelle: https://dhd-blog.org/?p=16175

Weiterlesen

CfP: Diskussionsforum auf dem Historikertag 2021: FAIR-flixte Daten. Partizipativ über Datentransparenz diskutieren.

Eine Veranstaltung im Rahmen des Praxislabors der AG Digitale Geschichtswissenschaft, 7. Oktober 2021, 9-10:30 Uhr
  • Marina Lemaire (Universität Trier)
  • Katrin Moeller (Universität Halle)

Datentransparenz und Nachvollziehbarkeit von Forschungsdaten sind ein wichtiges Kriterium beim Umgang mit Forschungsdaten nach den „FAIR-Prinzipien“. Sie orientieren sich stark an Bedürfnissen naturwissenschaftlicher Fächer mit ihren häufig exakt zu definierenden Kategorien und Messwerten. Auch in den historischen Disziplinen besitzen Quellennachweise und Quellenkritik eine lange Tradition. Bei der Vielzahl hermeneutischer Methoden oder kontextbezogenen Interpretationen gebrochener Quellen fällt es allerdings sehr viel schwerer, die genaue Nachvollziehbarkeit von Kategorien oder gar Intercoder-Reliabilität herzustellen. Gleichzeitig macht dies Prozesse der Datenerhebung und -bearbeitung aufwändiger und Forschung in einem Maß transparent, wie sie heute zum Teil noch ungewohnt ist und etwa den CARE-Prinzipien auch entgegenstehen kann. Zudem werden Massendaten auch in der Geschichtswissenschaft zunehmend maschinell oder über bürgerwissenschaftliche Beteiligung erhoben und erfordern somit neue Ansätze für den Umgang mit Fehlertoleranz, Unvollständigkeit und Qualitätssicherung. Brauchen wir, um den Anforderungen der guten wissenschaftlichen Praxis unter digitalen Forschungsbedingungen gerecht zu werden, neue Formen der Dokumentation unserer Arbeitsschritte und des methodischen Vorgehens?

[...]

Quelle: https://dhd-blog.org/?p=16172

Weiterlesen

CfP: Diskussionsforum auf dem Historikertag 2021: FAIR-flixte Daten. Partizipativ über Datentransparenz diskutieren.

Eine Veranstaltung im Rahmen des Praxislabors der AG Digitale Geschichtswissenschaft
  • Marina Lemaire (Universität Trier)
  • Katrin Moeller (Universität Halle)


Datentransparenz und Nachvollziehbarkeit von Forschungsdaten sind ein wichtiges Kriterium beim Umgang mit Forschungsdaten nach den „FAIR-Prinzipien“. Sie orientieren sich stark an Bedürfnissen naturwissenschaftlicher Fächer mit ihren häufig exakt zu definierenden Kategorien und Messwerten. Auch in den historischen Disziplinen besitzen Quellennachweise und Quellenkritik eine lange Tradition. Bei der Vielzahl hermeneutischer Methoden oder kontextbezogenen Interpretationen gebrochener Quellen fällt es allerdings sehr viel schwerer, die genaue Nachvollziehbarkeit von Kategorien oder gar Intercoder-Reliabilität herzustellen. Gleichzeitig macht dies Prozesse der Datenerhebung und -bearbeitung aufwändiger und Forschung in einem Maß transparent, wie sie heute zum Teil noch ungewohnt ist und etwa den CARE-Prinzipien auch entgegenstehen kann. Zudem werden Massendaten auch in der Geschichtswissenschaft zunehmend maschinell oder über bürgerwissenschaftliche Beteiligung erhoben und erfordern somit neue Ansätze für den Umgang mit Fehlertoleranz, Unvollständigkeit und Qualitätssicherung. Brauchen wir, um den Anforderungen der guten wissenschaftlichen Praxis unter digitalen Forschungsbedingungen gerecht zu werden, neue Formen der Dokumentation unserer Arbeitsschritte und des methodischen Vorgehens? Oder sind diese Fragen nicht schon in früheren Auseinandersetzungen über Methoden längst diskutiert und entschieden worden?

[...]

Quelle: https://digigw.hypotheses.org/3818

Weiterlesen