Zeitgemäß publizieren?

von Fabian Steiner und Max Trecker

EDIT: Der Videomitschnitt wird ab Mittwoch (19.02.14) auf dem L.I.S.A. Portal der Gerda Henkel Stiftung abrufbar sein.

Die vom ZEP der BSB, dem Institut für Kunstgeschichte der LMU und dem GraduateCenterLMU am 11. Februar 2014 veranstaltete Podiumsdiskussion “Nachwuchswissenschaftler, Verlage, Bibliotheken & Open Access. Zeitgemäßes Publizieren in den Geisteswissenschaften” war prominent besetzt und stieß verdientermaßen auf reges Interesse. Als kurzer Bericht und um die Diskussion auch online weiterführen zu können sind hier einige vorgebrachte Punkte kurz zusammengefasst.

Kosten und Nutzen von OA

Thierry Chervel eröffnete die Veranstaltung mit der Feststellung, niemand habe mit dem Internet gerechnet und stellte die Frage in den Raum, was der Nachwuchs nun an dieser Epochenschwelle tun solle. Nicht um eine Antwort verlegen gelang Dr. Lilian Landes mit ihren Ausführungen zu Green und Gold Open Access (OA) und der Bedeutung des digitalen Wandels für den widersprüchlich beratenen wissenschaftlichen Nachwuchs eine Einleitung, die klar Stellung bezog und vielfältige Anknüpfungspunkte bot. Wichtig für die weitere Diskussion war ihre These einer breiten Digitalisierungsskepsis und ihre Frage nach der zukünftigen Rolle der Verlage. Dass Doktorarbeiten gegenwärtig nach Erscheinen im Schnitt keine drei Leser finden, steht in scharfem Gegensatz zu der “einzigen Währung” für den wissenschaftlichen Nachwuchs: Sichtbarkeit.

Der Präsident der Ludwig-Maximilians-Universität München Prof. Dr. Bernd Huber wies auf das EU-Förderprogramm Horizont 2020 hin, in dem eine klare Position zum Thema OA bezogen würde. Er bekräftigte die Wichtigkeit des Themas und gab zugleich zu, selbst über nur unzureichende Expertise auf dem Feld zu verfügen. Als Präsident einer überwiegend aus Steuermitteln finanzierten Universität und Ökonom stellte er mit Bezug auf Wissenschaft als öffentliches Gut die Frage: wer zahlt? Die von ihm angesprochenen neuen Lizenzmodelle gingen in der weiteren Diskussion etwas unter, die Finanzierung von OA blieb jedoch ein zentrales Thema.

Darauf ging auch Dr. Klaus Ceynowa als stellvertretender Generaldirektor der Bayerischen Staatsbibliothek ein. Er führte aus, dass der häufig vorgeschlagene Weg hybrider Publikationen (sowohl gedruckt als auch OA) mit großem zusätzlichem Aufwand verbunden sei und damit letztlich die teuerste Option darstelle. Direkt vom digitalen Wandel betroffen, würden Bibliotheken schon heute ihre Arbeitsweise anpassen, Expertise aufbauen und neue Formen der Kooperation finden. Es könne nicht sein, dass hunderte Repositorien nebeneinander existieren, ohne miteinander vernetzt zu sein. Abhilfe und weitaus grössere Sichtbarkeit können über Metadaten verlinkte Repositorien schaffen. Als Beispiele für die künftige mögliche Entwicklung verwies er auf Europeana und die DDB.

Dass Druckkostenzuschüsse ein Ärgernis darstellen, erkannte auch Dr. Stefan von der Lahr an, Lektor im Verlag C. H. Beck. Ihm war es wichtig klarzustellen, dass OA nicht als eine Auseinandersetzung zwischen Autoren und Verlagen zu sehen sei. Die Wurzeln von OA sieht er in den Vereinigten Staaten, als Antwort auf die Zeitschriftenkrise und die massenhafte Kündigung von Abonnements durch Bibliotheken infolge starker Budgetkürzungen Anfang der neunziger Jahre. Auch er warnte zugleich davor, digitales Publizieren als per se kostengünstiger anzusehen als das klassische Buch und bezog sich dabei auf den Artikel Pixel Dust von Johanna Drucker. Unabhängig davon müsse sich die Verlagslandschaft grundlegend den neuen technischen Möglichkeiten anpassen, was gerade kleinen Verlagen schwer fallen könnte. Durch ihre Rolle des Qualitätsmanagements sieht er ihre Daseinsberechtigung jedoch nicht in Frage gestellt. Ohne professionelle Begleitung durch einen Verlag könne ein Nachwuchswissenschaftler, zugespitzt formuliert, seine Dissertations- oder Habilitationsschrift auch an der Bushaltestelle verteilen.

Gedruckte Qualität?

Prof. Dr. Martin Schulze Wessel bekannte sich als Vorsitzender des Verbands der Historiker und Historikerinnen Deutschlands zu gedruckten Büchern als komfortabelstem Umgang mit wissenschaftlichen Publikationen. Er wies darauf hin, dass nicht die materielle Beschaffung von Büchern, sondern die inhaltliche Aneignung weitaus am meisten Zeit beanspruche und äußerte sich prägnant: “Die große Erzählung bedarf weiterhin des gedruckten Buches”. In welcher Sprache die Publikation dann erscheint hängt seinem Votum nach entscheidend von dem Fachgebiet und dem Publikum ab, eine mehrsprachige Publikation könne daher durchaus Sinn machen, sei aber kein Muss.

Nicht nur physisch am anderen Ende des Tisches sondern auch in seiner inhaltlichen Position am weitesten entfernt antwortete der Dekan der Fakultät für Geschichts- und Kunstwissenschaften der LMU Prof. Dr. Hubertus Kohle mit einem Plädoyer für Maschinenlesbares. Er wies mit einer Anekdote auf die um ein vielfaches höhere Zitierung von OA publizierten Artikeln hin. Er sieht großes Potential für IT gestützte Verfahren in den Geisteswissenschaften, deren Durchbruch nur noch eine Frage der Zeit sei. Im Bezug auf das Format “Buch” als Endziel von Promotion und Habilitation bezweifelte er, ob die zwei Bücher denn wirklich gelesen würden.

Diesen Vorwurf wies in erster Linie Prof. Schulze Wessel zurück. Er betonte, dass Dissertationen und Habilitationen sehr genau gelesen würden und deutete an, dass auch die digitale Revolution nichts an der Voreingenommenheit der Wissenschaftsgemeinde gegenüber der Reputation des Autors und dem Ort einer Publikation ändern würde. Prof. Kohle kritisierte schließlich, dass Verlage alles publizieren würden solange Zuschüsse bezahlt werden. Sollten Verlage nicht offener auf OA eingehen, drohe eine Abwanderung von Wissenschaftlern.

Die vom Publikum im Anschluss an die Podiumsdiskussion gestellten Fragen zeigten sowohl die Relevanz des Themas für Nachwuchswissenschaftler als auch dessen bisherige Vernachlässigung im deutschsprachigen Raum. In den Fragen äußerten sich mit der Digitalisierung verbundene Ängste wie die Furcht, im Internet wesentlich einfacher plagiiert werden zu können, aber auch viel Unwissenheit und Ratlosigkeit. Deutlich wurde auch die Unzufriedenheit des wissenschaftlichen Nachwuchses mit der etablierten Praxis vieler Verlage. Nicht Sichtbarkeit alleine helfe Nachwuchswissenschaftlern, sondern wenn digitale Publikationen ernst genommen würden. Die Freiheit der neuen Medien müsse als Chance begriffen werden.

Reaktionen auf Twitter

Bereits vor dem Anfang der Podiumsdiskussion fand sich auf Twitter ein erstes Echo: Einen Hashtag hätten sich Tanja Praske und Christian Gries gewünscht, @swimtt in Anbetracht der Teilnehmerzahl auch die Anwesenheit von Pressevertretern. Während der Veranstaltung wurde die Diskussion ausführlich wiedergegeben, praktisch in Echtzeit durch stichpunktartige Zusammenfassungen und prägnante Zitate. Neben den hier bereits ausgeführten groben Linien der Diskussion wurde auf eine Vielzahl weiterer Aspekte eingegangen, so beispielsweise auf die von Prof. Kohle angeführten Druckkosten einer kunstgeschichtlichen Publikation (zwischen 3.000 und 30.000 Euro) und die jährlich sieben Millionen Euro Abokosten der BSB für 62.500 Zeitschriften.

Bei einer flüchtigen Durchsicht der Beiträge sprechen sich alle Kommentare dediziert für OA aus – auch für die eigene Dissertation. Indirekt antwortete auch der O’Reilly Verlag und wehrte sich mit lächelndem Smilie gegen den Vorwurf, Verlage würden alles publizieren so lange Druckkostenzuschüsse gezahlt werden. Erstaunliche Entspanntheit wurde der Diskussion bescheinigt und in die Runde gefragt, ob der “weiche warme Hippie-Kitsch” von 2013 verdampft sei. Trotz der entspannten Diskussion zeigte sich Andrea Hacker erstaunt über die “blatant disconnect between junior researchers & decision makers“, die scheinbar von fehlender Informiertheit letzterer herrühre. Dass bei der Diskussion durchaus Emotionen dabei waren, zeigen nicht zuletzt die Reaktionen von Prof. Kohle einen Tag nach der Diskussion, die hier in ihrem Kontext unkommentiert dargestellt werden:

 

Wenn ich mich doch nicht immer so aufregen würde … http://t.co/6MDzF18il1

— Hubertus Kohle (@hkohle) February 12, 2014

@hkohle Worüber denn konkret?

— Marko Demantowsky (@mdemanto) February 12, 2014

@mdemanto Falschmedungen in Sachen OA, die im Mantel der Abendlands-Verteidigung daherkommen

— Hubertus Kohle (@hkohle) February 12, 2014

@hkohle Der Inhalt der Mitteilungen ist weitgehend irrelevant, auch ihr Wahrheitsgehalt. Auf die Haltung kommt es an. #abendland @mdemanto

— Erbloggtes (@Erbloggtes) February 12, 2014

@Erbloggtes @hkohle Ja, es ist ein dummer Topos. Und die geistlose Redundanz macht es besonders ärgerlich.

— Marko Demantowsky (@mdemanto) February 12, 2014

Open access überflüssig. Wir gehen alle zu Beck und machen es wie Jürgen Osterhammel: http://t.co/6MDzF18il1

— Hubertus Kohle (@hkohle) February 12, 2014

@hkohle … oder wer zieht die Bushaltestelle für den Vertrieb seines Buches vor? #oa #verlage

— Claudie Paye (@naponaps) February 12, 2014

@naponaps @hkohle Und erst das hochseriöse Peer Reviewing! Nur von Verlagen durchführbar [auf Kosten des Steuerzahlers selbstredend]. #oa

— swimtt (@swimtt) February 12, 2014

@swimtt @naponaps @hkohle Der Präsident gab zu, keine Ahnung von OA zu haben. Wäre das ein MOOC gewesen; ich hätte den Browser geschlossen.

— Sabine Scherz (@SabineScherz) February 12, 2014

@SabineScherz @naponaps @hkohle Einspruch. Eindeutiger Erfolg des Abends: Jetzt HAT er sich damit beschäftigt u.d. Interesse gesehen (=Ziel)

— swimtt (@swimtt) February 12, 2014

Quelle: http://rkb.hypotheses.org/668

Weiterlesen

CfP: TextMining in der Politikwissenschaft

LogoEpol3

Unter dem Titel “Anwendung von Text Mining-Tools auf demokratiebezogene Fragestellungen im Kontext der BR Deutschland (1949-2012)” laden die Verbundpartner von ePol dazu ein, mit einem Textdatenkorpus und Analysetools eigene Fragestellungen zu bearbeiten und Erfahrungen im Umgang mit Text Mining zu sammeln.

Das Projekt “ePol – Postdemokratie und Neoliberalismus”  untersucht ein Korpus von 3,5 Millionen Zeitungsartikeln mit Hilfe von Text Mining-Verfahren, um die Entwicklungen der politischen Argumentationsmuster im medialen Diskurs aufzuspüren. Der Call richtet sich an Forschende, die zu demokratiebezogenen Fragestellungen arbeiten und deren Vorhaben sich mithilfe des Textdatenkorpus realisieren lässt, das aus Artikeln der taz, FAZ, SZ und Die Zeit besteht und sich über 6 Jahrzehnte erstreckt. Interessierte können an einem Workshop teilnehmen, in dem die Arbeitstechniken mit der Analyseoberfläche erklärt und die Fragestellungen diskutiert werden. Die Ergebnisse der Arbeiten sollen dann in einem Sammelband veröffentlicht werden.

Weiter Informationen zum Call erhalten Sie hier.

 

Quelle: http://dhd-blog.org/?p=3037

Weiterlesen

Tagung zu Möglichkeiten der automatischen Manuskriptanalyse

Bei der Tagung „Möglichkeiten der automatischen Manuskriptanalyse“ werden verschiedene Projekte vorgestellt, deren Ziel es ist, handschriftliche Bestände insbesondere mit computergestützten Methoden zu erschließen. Es werden Verfahren zur Unterstützung bei der Transkription handschriftlicher Texte und Untersuchung ihrer Gestalt vorgestellt. Wissenschaftliche Fragestellungen an größere Sammlungen werden ebenso ein Schwerpunkt sein wie die automatische Analyse von Bildern und ihre Verwendung in den historisch orientierten Kulturwissenschaften.

Die Tagung findet am 24. und 25. Februar an der Universität Trier im Raum N2 statt. Sie ist die erste in einer Reihe zum thematischen Feld „Maschinen und Manuskripte“, die im Rahmen des Projektes „eCodicology“ veranstaltet wird. Dieses Projekt wird vom Bundesministerium für Bildung und Forschung gefördert und von der Technischen Universität Darmstadt, dem Karlsruher Institut für Technologie sowie dem Trier Center for Digital Humanities realisiert.

Programm am 24. Februar 2014

Begrüßung

14:00 – 14:15: Grußwort von Dr. Ulrike Graßnick
14:15 – 14:30: Begrüßung und Eröffnung durch Prof. Dr. Claudine Moulin

Sektion I: Forschungsfragen an Manuskripte

14:30 – 15:00: Das Layout päpstlicher Urkunden im 12. Jahrhundert und Probleme seiner Analyse
(Dr. Otfried Krafft, Philipps-Universität Marburg)

15:00 – 15:30: Transcribo: Ein Werkzeug – viele Möglichkeiten
(Dr. Thomas Burch; Frank Queens, Universität Trier)

Sektion II: Forschungsfragen an Sammlungen

16:00 – 16:30: The Library as a Digital Research Infrastructure: Digital Initiatives and Digital Manuscripts at the National Library of Wales
(Prof. Dr. Lorna Hughes, University of Wales)

16:30 – 17:00: DigiPal to ScandiPal: Applying the DigiPal Framework to 11th-century Medieval Manuscript Fragments from Scandinavia
(Matilda Watson, King’s College London)

17:00 – 17:30: Using Images of Medieval Manuscripts: Historical Perspectives and Future Possibilities
(Prof. Dr. Andrew Prescott, King’s College London)

Programm am 25. Februar 2014

Sektion III: Automatische Verfahren in der Bilderverarbeitung

09:00 – 09:30: Computer Vision & Computational Humanities
(Prof. Dr. Björn Ommer, Universität Heidelberg)

09:30 – 10:00: Analyse historischer arabischer Handschriften – das HADARA-Projekt
(Dr. Volker Märgner, Technische Universität Braunschweig)

10:00 – 10:30: Algorithmische Geometrie zur Extraktion von Schrift in 3D
(Dr. Hubert Mara, Universität Heidelberg)

Sektion IV: Automatische Verfahren in der Paläographie und Kodikologie

11:00 – 11:30: Encoding Writer Variability for Automatic Writer Identification
(Vincent Christlein, Friedrich-Alexander-Universität Erlangen-Nürnberg)

11:30 – 12:00: eCodicology – Algorithmen zur automatischen Auszeichnung mittelalterlicher Handschriften
(Hannah Busch, Universität Trier; Swati Chandna, Karlsruher Institut für Technologie; Celia Krause, Technische Universität Darmstadt; Philipp Vanscheidt, Universität Trier/Technische Universität Darmstadt)

12:00 – 12:30: Abschlussdiskussion

Weitere Informationen

http://www.ecodicology.org/index.php?id=26

Anmeldungen sind nicht erforderlich, aber erwünscht. Schreiben Sie hierzu bitte möglichst bis zum 19. Februar an pvanscheidt@uni-trier.de.

Quelle: http://dhd-blog.org/?p=3034

Weiterlesen

Ein Lob auf den Elfenbeinturm! Warum ich (manchmal) froh bin, “Experte” zu sein

In den Sonntagsreden von Wissenschaftsfunktionären, bei der Einrichung neuer Forschungszentren und Cluster heißt es oft, man müsse die Forschung aus dem Elfenbeinturm befreien. Die Forscher sollten bei der Gelegenheit gleich mit befreit werden, da sie sich sonst hoch über der Erde, abgeschottet von den alltäglichen Bezügen und Belangen, ihr Refugium bauten. Diese ihre eigene Welt, die nur sie oder eine kleine Gruppe von “Eingeweihten” verstehe, gilt als unschicklich und unzeitgemäß. Weg mit diesem Priestertum aller Wissenschaftler, die sich im Presbyterium hinter den Chorschranken verschanzen und den Laien (!) den Zutritt lieber verweigern! Recht haben sie, die Sonntagsredner und Wohlmeinenden. Auch ich gehöre zu ihnen. Die Wissenschaft muss mit der Öffentlichkeit kommunzieren, transparent werden, sich vorzeigen und darstellen. Die 99 Prozent der nicht an Hochschulen und Forschungseinrichtungen tätigen Steuerzahler finanzieren uns und haben ein Anrecht darauf zu sehen, was mit ihrem Geld passiert. Deshalb sind Blogs nötig. Deshalb sehe ich die totale Anglifizierung der Universitäten kritisch. Deshalb müssen sich gerade Geistes- und Sozialwissenschaftler in die gesellschaftlichen und politischen Angelegenheit und Debatten einbringen. Auf diese Weise geben sie Gesellschaft und Staat etwas zurück. Ein guter Forscher kann seine Tätigkeit auch der sprichwörtlichen “Oma mit der Tüte” erklären. Er kann vor allem auch […]

Quelle: http://catholiccultures.hypotheses.org/1966

Weiterlesen

eCodicology Website online

Logo eCodicologyDas Projekt eCodicology nutzt die digitale Sammlung der mittelalterlichen Handschriften aus dem Virtuellen Skriptorium St. Matthias, um mit Verfahren der Bilddatenverarbeitung neue Forschungsdaten aus den Image Scans zu gewinnen. eCodicology liefert eine Antwort auf die Frage, wie mit der stetig anwachsenden Menge digitalisierter Manuskriptseiten weiter geforscht werden kann. Die Projektwebsite ist ab sofort frei zugänglich. Sie dokumentiert den Stand der Arbeiten und bietet Erläuterungen zur Methode.

Quelle: http://dhd-blog.org/?p=2885

Weiterlesen

DFG bietet neues Portal für Forschungsinfrastrukturen an

ri_logoDas Portal RIsources (RI = Research Infrastructure) der DFG enthält Informationen rund um wissenschaftliche Forschungsinfrastrukturen, die Forschenden bei der Planung und Durchführung ihres Forschungsvorhabens unterstützen. Der Katalog befindet sich derzeit noch im Aufbau.

Durch das Portal soll der Zugang der WissenschaftlerInnen auf die vorhandenen Ressourcen verbessert werden. Des Weiteren kann so die Popularität der anbietenden akademischen Einrichtungen erhöht werden.

Forschungseinrichtungen, die sich bei der DFG registrieren lassen möchten, müssen folgende Kriterien erfüllen:

  • Das Angebot muss wissenschaftlich und technologisch anerkannt und etabliert sein.
  • Der Zugang zum Angebot muss frei sein oder über einen transparenten Auswahlprozess auf der Basis von wissenschaftlicher Qualität und Machbarkeit des Projekts geregelt sein.
  • Das Management muss nachhaltig und das Angebot langfristig angelegt sein.

Nähere Informationen sind in der Mitteilung der DFG zu lesen.

Quelle: http://dhd-blog.org/?p=2837

Weiterlesen

OA-Publikation: Digital Curation of Research Data

Die Bedeutung von Forschungsdaten für die Wissenschaft und die Entwicklung von digitalen Forschungsprozessen ist sowohl in Deutschland als auch international mittlerweile unbestritten. Es ist unerlässlich, die Langzeitarchivierung von Forschungsdaten sicherzustellen und dafür Sorge zu tragen, dass sie zugänglich und nutzbar bleiben.
cover_digital-curationIm Rahmen einer grundlegenden Untersuchung über elf Fachdisziplinen haben Wissenschaftlerinnen und Wissenschaftler systematisch den Stand und die aktuelle Praxis im Umgang mit der Langzeitarchivierung von Forschungsdaten dargestellt. Die Ergebnisse wurden in einer deutschsprachigen, zusammenfassenden Analyse veröffentlicht. Um diese Ergebnisse auch einem internationalem Fachpublikum zugänglich zu machen legen die Herausgeber Heike Neuroth, Stefan Strathmann, Achim Oßwald und Jens Ludwig nun eine zusammenfassende Übersetzung vor: Digital Curation of Research Data – Experiences of a Baseline Study in Germany.

Die Herausgeber hoffen, dass diese Publikation zur vertiefter Diskussion und gesteigertem Bewusstsein hinsichtlich der Langzeitarchivierung von Forschungsdaten beitragen möge.

Das Buch ist beim vwh-Verlag in Kooperation mit dem Universitätsverlag Göttingen erschienen. Sie können die englisch-sprachige, digitale Fassung für nicht-kommerzielle Zwecke herunterladen (http://nbn-resolving.de/urn:nbn:de:0008-2013112701). Eine gedruckte Fassung des Buches kann beim vwh-Verlag für 12,80€ bestellt werden (http://goo.gl/2rrjZU). Dort finden Sie auch die umfangreichere deutsche Version der Publikation. Die digitale Fassung der deutschen Publikation finden Sie hier: http://nbn-resolving.de/urn:nbn:de:0008-2012031401.

ISBN: 978-3-86488-054-4
Kontakt: editors@langzeitarchivierung.de

Quelle: http://dhd-blog.org/?p=2789

Weiterlesen

Konferenz zum Einsatz naturwissenschaftlicher und technischer Methoden in der Handschriftenforschung

Vom 4. bis zum 6. Dezember veranstaltet der Sonderforschungsbereich “Manuskriptkulturen in Asien, Afrika und Europa” (Centre for the Study of Manuscript Cultures) an der Universität Hamburg eine Tagung, bei der die Unterstützung handschriftenbezogener Forschung mit Methoden aus den Naturwissenschaften und der Technik thematisiert werden soll. Auf dem Programm stehen unter anderem Arbeiten zur Bild- und Materialanalyse. Eine weitere Sektion konzentriert sich auf interdiziplinär arbeitende Projekte. Eine Registrierung für die Teilnahme ist erforderlich.

Quelle: http://dhd-blog.org/?p=2634

Weiterlesen

Kurzbericht zum DARIAH-DE-Expertenworkshop »Controlled Vocabularies for Historical Place Types«

Am 10. und 11. November fand in der historischen Domus universitatis in Mainz, dem Sitz des Leibniz-Instituts für Europäische Geschichte (IEG) ein DARIAH-DE-Expertenworkshop zum Thema »kontrollierte Vokabulare für Typen historischer Orte« statt. Diese Thematik ist ein Schwerpunkt der  Arbeiten des IEG in DARIAH-DE, wobei der räumliche und zeitliche Fokus dabei zunächst auf dem mittelalterlichem und frühneuzeitlichen Europa liegt. Das Ziel des Workshops war es, Experten aus verschiedenen Disziplinen an einen Tisch zu holen und Prinzipien für die Entwicklung eines kontrollierten Vokabulars für historische Ortstypen und eine ersten Version eines Grundvokabulars zu entwickeln.

expert_workshop

Der Expertenworkshop in Mainz war durch intensive Diskussionen, aber auch durch große Übereinstimmung zwischen den Teilnehmern gekennzeichnet.

Am Workshop nahmen 19 Experten aus Deutschland, Österreich, der Schweiz, Frankreich, Polen, Großbritannien und Norwegen und natürlich die Organisatoren vom IEG (Michael Piotrowski, Giovanni Colavizza und Anna Aurast) teil. Am ersten Tag eröffnete Giovanni Colavizza den Workshop mit einer Einführung in das Thema unter dem Titel »Kontrollierte Vokabulare und Geisteswissenschaften: Probleme einer Beziehung« und stellte den Ansatz des Projekts, nämlich die funktionale Kategorisierung von historischen Ortstypen, vor und beschrieb die damit verbundenen Herausforderungen. Anschließend fand eine erste Diskussion, verbunden mit einer Vorstellungsrunde statt.

Im Anschluss stellten mehrere der eingeladenen Experten ihre Projekte vor:

  • Francesco Beretta und Charlotte Butez (CNRS/Université de Lyon): »The SyMoGIH project (Système modulaire de gestion de l’information historique) and the issue of the historical place types«
  • Marco Jorio (Historisches Lexikon der Schweiz): »Geographical categories in the Historical Lexicon of Switzerland«
  • Luc Schneider (Universität des Saarlandes): »On Sites and Functions: the BFO approach (Basic Formal Ontology)«
  • Franziska Ruchti (Diplomatische Dokumente der Schweiz): »The DODIS Database – geriatric challenges of a fountain of youth«).
  • Kai-Christian Bruhn (Fachhochschule Mainz): »On the use of controlled vocabularies at the Institute for Spatial Information and Surveying Technology«
  • Bogumił Szady (Instytut Historii Polskiej Akademii Nauk): »Sacral objects and church administration units as a subject of historical spatio-temporal databases«
  • Pascale Sutter (Rechtsquellenstiftung des Schweizerischen Juristenvereins): »Places in the Collection of Swiss Law Sources«
  • Marek Słoń (Instytut Historii Polskiej Akademii Nauk): »Types of settlements in Poland in the 16th century.

Abschließend wurden die Erkenntnisse aus den Präsentationen und das Projekt des IEG miteinander verglichen und diskutiert. Das gemeinsame Abendessen fand – passend zum Thema des Workshops – im »Heiliggeist« statt, das sich in einem 1236 ursprünglich als Spital erbauten Gebäude befindet, dessen wechselvolle Geschichte sehr gut die Problematik der Klassifikation historischer Orte illustriert.

Am zweiten Tag des Workshops fand zunächst intensive Arbeit in zwei Gruppen statt, fokussiert auf das Vorhaben des IEG-Projektes zur funktionalen Kategorisierung von historischen Ortstypen.  Eine Gruppe beschäftigte sich anhand von konkreten Beispielen historischer Orte mit den Funktionen, die verschiedenen Typen von Orten inhärent sind; in der anderen Gruppe anderen wurde über konzeptuelle Ansätze und Beschreibungsformalismen diskutiert. Anschließend wurden im Plenum die Ergebnisse aus den beiden  Gruppen analysiert. Zum Abschluss wurden die Ergebnisse des Workshops und die zukünftige Arbeit besprochen.

Durch den Workshop gelang es uns, eine Diskussion über kontrollierte Vokabulare für Ortstypen anzustoßen, die aus verschiedenen Fach- und Forschungsperspektiven geführt wurde. Durch die Veranstaltung ist eine kleine Community von interessierten Wissenschaftlern aus verschiedenen Fachrichtungen entstanden, die noch weiter wachsen soll. Der von IEG vorgeschlagene Ansatz wurde ausführlich diskutiert, verbessert und wird zurzeit weiter entwickelt und implementiert.

In der Zukunft wollen wir weitere wissenschaftliche Communities einbinden, um sinnvolle Erweiterungen des Vokabulars zu diskutieren. Parallel sollen grundlegenden Prinzipien für kontrollierte Vokabulare in den Geisteswissenschaften erforscht werden, um die Entwicklung von weiteren Vokabularen für andere Anwendungen in der nächsten Projektphase vorzubereiten.

Quelle: http://dhd-blog.org/?p=2589

Weiterlesen

Computerlinguistik und Digital Humanities

In einem Kommentar zu meinem Kurzbericht von der GSCL 2013 hat Patrick Sahle folgendes geschrieben:

Das finde ich spannend: Computerlinguistik/Sprachtechnologie ist
nach diesem Beitrag KEIN “Teil” von DH, sondern macht (auch) Sachen,
die für DH relevant sind.

Michael, könntest Du ein paar Hinweise dazu geben,
a) wieso CL/ST nicht als Teil der DH aufzufassen sind und
b) wie Du DH definierst, so dass man daraus ableiten kann, welche
CL/ST-Themen für die DH einschlägig/relevant/interessant sind
?
Das würde bei mir vermutlich vieles erhellen.

Ich möchte hier zunächst Frage (a) beantworten, also die Frage, ob Computerlinguistik (CL) und Sprachtechnologie (NLP) ein »Teil« der Digital Humanities sind. Diese Frage führt natürlich direkt zur Frage, was die Digital Humanities sind. In meinem Buch definiere ich sie wie folgt:

The emerging field of digital humanities aims to exploit the possibilities offered by digital data for humanities research. The digital humanities combine traditional qualitative methods with quantitative, computer-based methods and tools, such as information retrieval, text analytics, data mining, visualization, and geographic information systems (GIS).

Nach meiner Definition ist DH also die Ergänzung traditioneller geisteswissenschaftlicher Methoden durch rechnergestützte quantitative Methoden und Werkzeuge zur Beantwortung geisteswissenschaftlicher Forschungsfragen.

Was ist unter CL und NLP zu verstehen? CL und NLP hängen eng zusammen, im üblichen Sprachgebrauch wird CL meist für stärker linguistisch und theoretisch orientierte Forschung verwendet, während NLP nicht umsonst oft auch als »language engineering« bezeichnet wird: Hier geht es nicht um linguistische Forschungsfragen, sondern primär darum, effektive und effiziente Algorithmen, Datenstrukturen usw. für die Verarbeitung natürlicher Sprachen zu erforschen und für praktische Anwendungen nutzbar zu machen. Ein gutes Beispiel dafür ist die aktuelle Forschung im Bereich der maschinellen Übersetzung (MÜ).
Diese Definition nimmt bereits einen Teil der Antwort vorweg: NLP ist meines Erachtens kein Teil der DH, da sich NLP nicht mit geisteswissenschaftlichen Forschungsfragen beschäftigt. Die Situation ist vergleichbar mit der Rolle von NLP in der Pharmaforschung: Biomedizinisches Textmining spielt ein wichtige Rolle, dennoch ist Sprachtechnologie kein Teil der Pharmazie.

Auch wenn NLP kein Teil der DH ist, ist NLP aber eine wichtige Grundlage, oder, wie ich es in meinem Buch (S. 10) ausgedrückt habe: »NLP—and NLP for historical texts in particular—should be considered a foundation for the emerging discipline of digital humanities.«
Wenn Computerlinguistik und Sprachtechnologie nicht das selbe sind, wie sieht es dann mit der Computerlinguistik aus? Die Linguistik wird ja üblicherweise zu den Geisteswissenschaften gerechnet.

Zunächst ist hier zu beachten, dass die Linguistik eine der »naturwissenschaftlichsten« geisteswissenschaftlichen Disziplinen ist; ihre Methoden unterscheiden sich deutlich von – zum Beispiel – der Geschichtswissenschaft oder der Literaturwissenschaft.
Dazu kommt, dass sich die Computerlinguistik in den letzten 50 Jahren weitgehend von der Linguistik emanzipiert hat. Natürlich gibt es noch Forscher in der Computerlinguistik, die linguistische Fragestellungen bearbeiten, der Mainstream hat sich aber stark in Richtung NLP entwickelt. Wissensfreie statistische Verfahren haben sich etabliert, und angesichts der schnellen Erfolge, die man mit ihnen insbesondere in der MÜ erreicht hat, muss man sich heutzutage für regelbasierte, linguistisch motivierte Ansätze oft rechtfertigen. Die geringe Rolle der Linguistik in der Computerlinguistik wird andererseits aber auch seit einiger Zeit innerhalb der CL diskutiert (siehe etwa die Proceedings des EACL 2009 Workshop on the Interaction between Linguistics and Computational Linguistics oder die Artikel Computational Linguistics: What About the Linguistics? von Karen Spärck Jones und What Science Underlies Natural Language Engineering? von Shuly Wintner).

Ich würde daher auch die heutige CL nicht – jedenfalls nicht als Ganzes – als Teil der DH betrachten. Da die CL aber eine der Grundlagen für NLP sind, sind sie auch eine Grundlage für DH.

CL-Forschung mit einer stärkeren linguistischen Ausrichtung – also quasi die »klassische« CL, bei der es um die rechnergestützte Modellierung sprachlicher Phänomene geht, um ein besseres Verständnis von natürlicher Sprache zu erreichen – könnte man durchaus als Teil der DH betrachten, diese Forschung ist aber heute eher in der Korpuslinguistik angesiedelt.
Die Antwort auf die Frage (a) ist jetzt schon recht lang geraten, daher werde ich mich mit (b) in einem weiteren Beitrag beschäftigen.

Quelle: http://dhd-blog.org/?p=2532

Weiterlesen