Call for Experiments: Generative KI, LLMs und GPT bei digitalen Editionen (DHd2024)

Im Zuge unseres bevorstehenden Workshops “Generative KI, LLMs und GPT bei digitalen Editionen” auf der Dhd24, lädt das Institut für Dokumentologie und Editorik (IDE) zur Einreichung experimenteller Beiträge ein, die sich mit den Anwendungsmöglichkeiten und Herausforderungen KI-basierter Tools wie GPT und Large Language Models (LLMs) in digitalen Editionen auseinandersetzen. In diesem Workshop sollen konkrete Anwendungsfälle präsentiert und diskutiert werden, in denen GPT-4 oder alternative LL-Modelle auf Basis unterschiedlichen Quellenmaterials für die vorgegebenen Szenarien experimentell erprobt und hinsichtlich ihrer Potenziale, Grenzen, Probleme sowie ethischen und theoretischen Implikationen diskutiert werden, um darauf aufbauend anhand der gewonnenen Erkenntnisse zu erörtern, welchen Einfluss diese Technologien auf die digitalen Editionen der Zukunft haben könnten.

Wir starten daher einen Call for AI-Experiments zu jeglichen Themenbereichen die im Zusammenhang mit digitalen Editionen stehen, einschließlich (aber nicht beschränkt auf):

  • Überführung von unstrukturiertem Text (Transkription) in strukturierten Text (Markup)
  • Überführung von strukturiertem Text in explizite Datenstrukturen
  • Named Entity Recognition, Normalisierung und Anreicherung
  • Kontextspezifische Annotationen
  • Fehlermanagement und Datenkontrolle
  • Integration in Arbeitsabläufe


  • [...]

Quelle: https://dhd-blog.org/?p=20404

Weiterlesen

„Hallo ChatGPT, ist das Komma in folgendem Satz richtig?“ – Können leistungsstarke Chatbots traditionelle Sprachberatung ersetzen?

Motivation

Viele Forschende kennen die Situation: Die Deadline ist in wenigen Minuten und man liest noch einmal das Paper Korrektur. Man stößt auf einen Satz, bei dem man sich nicht sicher ist, ob das Komma bei diesem richtig gesetzt ist. Einen Sprachberatungsservice anzufragen würde zu lange dauern, eine Google-Suchanfrage zu formulieren mit dem man die passenden Treffer bekommt wäre zu aufwendig – warum also nicht einfach ChatGPT fragen?

Forschungsstand

Für viele Fragestellungen unterschiedlicher Themenbereiche wurde die Qualität der Antworten von ChatGPT evaluiert. Einen Überblick über verschiedene Untersuchungen geben Shahriar and Hayawi, 2023: Beispielsweise lassen Kung et al., 2023 ChatGPT Fragen aus der amerikanischen Zulassungsprüfung für Medizin beantworten, die aus 3 Prüfungen besteht. Der Chatbot schneidet bei diesen an oder nahe an der Bestehensgrenze ab. Jalil et al.

[...]

Quelle: https://dhd-blog.org/?p=19645

Weiterlesen