Neue BMBF-Förderlinie “E-Humanities”
Es ist soweit: Am gestrigen Montag hat das BMBF nun die neue E-Humanities-Förderlinie bekanntgegeben. Ziel ist der Ausbau institutioneller und personeller Kapazitäten im Bereich der E-Humanities an Hochschulen und außeruniversitären Forschungseinrichtungen in Deutschland.
Gefördert werden zum einen Nachwuchsgruppen an Hochschulen und außeruniversitären Forschungseinrichtungen gefördert, zum anderen aber auch Zentren an deutschen Hochschulen und außeruniversitären Forschungseinrichtungen, die “entweder in einem bestimmten Fachgebiet oder fachgebietsübergreifend in besonderer Weise die E-Humanities in inhaltlicher und methodischer Hinsicht weiterentwickeln. Beide Förderlinien können in einem Vorhaben verknüpft werden, eine Verknüpfung ist aber nicht zwingend.”
Wie bereits im Rahmen des e-Hum-Calls von 2011 sollen bereits bestehende Infrastrukturen z.B. von TextGrid, D-Spin oder DOBES und insbesondere die der ESFRI-Projekte DARIAH und CLARIN genutzt werden bzw. deren Ergebnisse in diese Infrastrukturprojekte eingebracht werden.
Weitere Infos:
http://www.bmbf.de/foerderungen/21126.php
oder im Amtlichen Teil des Bundesanzeigers: https://www.bundesanzeiger.de/old/banz/banzinha/aktuell.htm.
Quelle: http://dhd-blog.org/?p=1236
Mal wieder und immer noch: Digitized vs. Digital
NeDiMAH, das „Network for Digital Methods in the Arts and Humanities“ enthält unter anderen eine Arbeitsgruppe zu „Scholarly Digital Editions“. Die erste Veranstaltung (ein „Expert Meeting and Workshop“) zu diesem Themenkomplex hatte laut Call einen Schwerpunkt in der definitorischen Grundfrage: Was ist eigentlich eine „digitale Edition“?
Nachdem ich mich mit dieser Frage nun auch schon seit 15 Jahren beschäftige, sie in meiner Dissertation einigermaßen länglich ausgewalzt habe und meine eigene Definition Grundlage meines Katalogs digitaler Editionen ist, war ich froh, sie nun auch einmal im Expertenkreis zur Diskussion stellen zu können.
Die Präsentation zum Vortrag findet man als und bei prezi, ich fasse sie hier nicht noch einmal zusammen. Nur ein Punkt, der eigentlich ein Nebenaspekt ist, soll hier aufgegriffen werden, weil ich mich frage, ob diese Diskussion nicht auch in anderen Bereichen der Digital Humanities produktiv geführt wird oder werden kann – und insofern keine Digitale-Editionen-Spezialdiskussion ist:
Offensichtlich wird die Digitale Edition sinnvollerweise im Aufgreifen der traditionellen Editorik definiert. Und dann in Abgrenzung zu ihr. Hier entsteht aber ein Problem: wenn eine gedruckte Edition einfach digitalisiert wird, müsste man dann nicht von einer digitalen Edition sprechen? Der normale Gebrauch der deutschen Sprache legt dies zunächst nahe. Es ist geradezu schwierig, dem folgenden Satz wiedersprechen zu wollen: „Eine digitalisierte Edition ist eine digitale Edition“. Trotzdem muss es getan werden und müssen wir akademischen Klugscheißer der allgemeinen Sprachlogik wohl ein wenig Gewalt antun Widerstand leisten. Denn wie ich andernorts schon ausgeführt habe, liegt der Kern der Wandlungen in der Editorik (und den Geisteswissenschaften insgesamt?) nicht in einem Wandel der Werkzeuge und Medien – sondern in einer Bewegung hin zur Transmedialisierung. Dies führt dazu, dass die mediale Präsentation – ob im Buchdruck oder digital – nicht „wesentlich“ ist. Das wiederum bedeutet, dass eine „digitale Edition“ nicht einfach dadurch definiert ist, dass sie digital vorliegt. Das Digitale ist eine notwendige, aber keine hinreichende Bedingung. Es entsteht das quasi-definitorische Statement:
„Eine digitalisierte Edition ist (noch lange) keine digitale Edition.“
Dies ist das Gegenstück zu dem positiven Definitionsbaustein aus der gegensätzlichen Richtung:
„Eine digitale Edition kann nicht ohne substanzielle Verluste an Inhalten oder Funktionalitäten gedruckt werden.“
Diese Definition ist zunächst gut, weil sie die Spezifika der digitalen Edition in den Vordergrund stellt. Leider ist sie nicht besonders scharf, weil man sich lange darüber wird streiten können, was „substanziell“ ist. Der Ansatz wurde in der Diskussion dann auch an genau diesem Punkt hinterfragt: Bieten nicht schon digitalisierte Editionen einen funktionalen Mehrwert, wenn man sie z.B. per Knopfdruck durchsuchen kann? Hm, ja, offensichtlich muss es eine Schwelle geben, die überschritten werden muss, um davon reden zu können, dass es sich bei digitalen Editionen um „andere“ Editionen handelt, als die gedruckten Editionen wie wir sie kennen. Diese Schwelle brauchen wir auch deshalb, weil digitale Editionen aus digitalisierten Editionen sehr wohl „herauswachsen“ können. Viele digitale Editionen beginnen mit der Digitalisierung bereits gedruckt vorliegender Editionen. Ab einer bestimmten Ausbau- und Umbaustufe wird man sie dann aber doch als „digitale Editionen“ bezeichnen wollen. Diese Schwelle ist zunächst – wie oben angedeutet – durch Inhalte und Funktionen bestimmt. Hinter dem begrifflichen Wechsel und hinter der Beschreibung von Eigenschaften muss aber letztlich ein konzeptioneller Unterschied stehen. Die digitale Edition ist durch ein eigenes Theoriegebäude und durch eine eigene Methodik bestimmt. Sie folgt einem „digitalen Paradigma“, zu dem eben Konzepte wie Transmedialisierung, abstrakte Modellierung, Daten-Orientierung, Multitext, Prozesshaftigkeit, Transparenz, besere Zugänglichkeit oder vielleicht auch Soziabilität gehören. Wenn ich die Stimmung in der Diskussion richtig gedeutet habe, scheint das auch weitgehend unterstützt zu werden. Zum einen wurde (von, ich glaube, Roberto Rosselli del Turco) einmal mehr darauf hingewiesen, dass ja heute alle Editionen mit digitalen Werkzeugen erstellt würden, man deshalb auch von „digital born printed editions“ sprechen könne, dies aber eben auch noch lange keine digitalen Editionen ausmachen würde. Zum anderen betonte die gewohnt klarsichtige Elena Pierazzo, dass wir digitale Editionen deshalb machen, weil wir andere Gegenstände erschließen und andere Zielstellungen (z.B. in der Repräsentation der Textgenetik) verfolgen wollen. Deshalb könne es nicht darum gehen, bessere Editionen in der Tradition des Buchdrucks zu machen – selbst dann nicht, wenn man dazu die besten digitalen Mittel einsetzen würde. Man sei schließlich an Dingen interessiert, die im Druck nicht nur nicht möglich sind, sondern in der Druckkultur noch nicht einmal denkbar waren.
Das ist eine klare, aber radikale Position, die wohl nicht von allen geteilt werden würde. Schließlich gibt es daneben auch viele, die betonen würden, dass es sehr wohl auch um die (bessere) Edition von Materalien geht, die man immer schon edieren wollte und um die dabei jetzt anzuwendenden besseren Methoden und Werkzeuge. Aus dieser Perspektive bleibt es schwierig, ein klares Kriterium zu finden, an dem sich die digitalisierte oder bloß irgendwie in digitaler Form vorliegende Edition von der „wirklich“ digitalen Edition unterscheidet.
Die terminologische Trennung scheint übrigens auch auf der internationalen Ebene zu funktionieren: Digitized is not digital. Es gibt zwar auch noch das Wort „digitalized“, aber das scheint (wenn es nicht nur ein furchtbarer Germanismus oder ein einfaches Synonym zu „digitized“ ist) etwas (und zwar verschiedenes) Anderes zu bedeuten. Nämlich u.a. eine allgemeinere Durchdringung von Wissenschaft und Welt durch die Prinzipien des Digitalen und nicht so sehr das Digital-Werden von bestimmten „Dingen“ oder Informationen. Zuletzt ist „digitalized“ auch in den Digital Humanities auf einem Buchtitel aufgetaucht, nicht aber in dem betreffenden Buch selbst – so dass auch hier weiterhin unklar bleibt, was es denn genau für unseren Fragenkreis bedeuten und beitragen könnte.
Was das Phänomen „eine digitalisierte Edition ist keine digitale Edition“ in seiner sprachlogischen Problematik betrifft, so hätte ich gerne Analogien aus bisherigen Wortentwicklungen. Es müsste so etwas sein wie „ein befreiter Mensch ist kein freier Mensch“ (nur mit mehr Sinn!). Hat jemand ein besseres Beispiel?
Quelle: http://dhd-blog.org/?p=1122
Rezensieren als Prozess – Vom Ende des Einautorprinzips. Oder: Lobo und recensio.net
Quelle: http://rkb.hypotheses.org/349
CfP: Kodikologie und Paläographie im digitalen Zeitalter
Als Fortsetzung der beiden bereits erschienenen Bände der Serie „Kodikologie und Paläographie im digitalen Zeitalter” (KPDZ I, 2009; KPDZ II, 2011) möchte das Institut für Dokumentologie und Editorik weiterhin verschiedene Ansätze im Bereich der Kodikologie und Paläographie dokumentieren und vergleichen. Aus diesem Grund plant das IDE einen dritten Band der Reihe „Kodikologie und Paläographie im digitalen Zeitalter“ zu publizieren. Wir bitten um Beiträge zu folgenden Themen:
- Moderne Verfahren der Bilderfassung (Multispektrafotografie, Thermografie)
- Bildverarbeitung (Segmentation, Mustererkennung, Layoutanalyse)
- Analyse von Schreibmaterialien (Tinten, Beschreibstoffe etc.)
- Beschreibung und Klassifikation von Handschriften, Schreiberhänden oder Drucktypen
- Semantische Beschreibung von Handschriften (Normdaten, RDF, Ontologien etc.)
- Archivierung, Sammlung, Verknüpfung von Informationen und Katalogdaten (z.B. Metakataloge und Portale)
- Kollaborative Erschließung, Beschreibung, Transkription oder Edition
- Quantitative Kodikologie und Bibliographie
- Neue Verfahren der Präsentation von Forschungsdaten (Visualisierung, Apps, Text-Bild-Synopsen, Annotationsmögichkeiten etc.)
Die Publikation soll den interdisziplinären Austausch zwischen ForscherInnen unterschiedlicher Fachdisziplinen anregen. Beiträge zu orientalischen bzw. asiatischen Handschriften oder nicht handschriftlich verfassten Materialien (Inschriften, frühe Drucke etc.) sind ausdrücklich willkommen.
Beiträge, die diese oder ähnliche Themen (vgl. vorherigen Call) behandeln, können in Englisch, Französisch, Deutsch, Italienisch oder Spanisch eingereicht werden. Wir planen, auch diese Publikation als open access zu veröffentlichen. Wir bitten um Abstracts von nicht mehr als 500 Worten bis zum 22.12.2012 an die E-Mailadresse kpdz-iii@i-d-e.de.
Die Herausgeber
- Oliver Duntze (Staatsbibliothek zu Berlin – Preußischer Kulturbesitz)
- Oliver Hahn (Bundesanstalt für Materialforschung)
- Torsten Schaßan (Herzog August Bibliothek Wolfenbüttel)
Call for Papers auf den Seiten des IDE (englisch und deutsch)
Quelle: http://dhd-blog.org/?p=1100
Trancribe Bentham in a Panopticon: verspätete Berichterstattung zum Vortrag von Philipp Schofield im Rahmen der Darmstädter Ringvorlesung am 8.11.
Text von Jörg Lehning, TU Darmstadt
Im Rahmen der Ringvorlesung “Digital Humanities” war Philip Schofield, Leiter des Bentham-Projektes und General Editor der Gesammelten Werke Jeremy Benthams zu Gast und erfreute die interessierten Hörerinnen und Hörer mit seinem Vortrag “Transcribe Bentham – An experiment in scholarly crowdsourching”.
Das (im Übrigen preisgekrönte) interdisziplinäre Bentham-Projekt ist ein großartiges Beispiel für ein wissenschaftliches Projekt, das mit den neuen Technologien zusammenwächst. Das “scholarly crowdsourcing”, was man vielleicht mit “wissenschaftliche Bearbeitung durch unwissenschaftliche Mengen” etwas wenig elegant umschreiben könnte, ist hierbei ein elementarer Baustein des Projekts.
Wie Schofield ausführte, sei es auch in diesem Projekt zunächst wichtig, Ziele zu definieren. In diesem Fall sei das die Erstellung einer neuen gedruckten Edition gewesen, ein weiteres, dass diese kostengünstig sein sollte.
Bentham, so Schofield, hätte den technologischen Fortschritt mit offenen Armen begrüßt, und das nicht nur, weil er zeitlebens Technik zur Vereinfachung von Arbeitsabläufen erfunden hatte, sondern auch, weil er mit ihr seine Ideen wesentlich besser hätte umsetzen können.
Das Computerzeitalter wäre mitunter auch hilfreich, veraltete oder nicht hilfreiche Strukturen zu überwinden, meinte Schofield mit Blick auf diverse alte Regularien (Oxford Standard of storage rules), etwas was auch in den Debatten um die Definition der Digital Humanities eine Rolle spielt.
Die Bentham Dokument Datenbank, die von 2003-2006 bearbeitete Dokumente bereitstellt, ist eine zentrale Quelle für Metadaten, die von Editoren und Forschern genutzt werden kann.
Die Technik hat jedoch nicht nur Vorteile: im Rahmen des Arbeitsablaufs wird durch einen wissenschaftlichen Mitarbeiter die Qualität der fertig bearbeiteten Dokumente geprüft, bevor sie hochgeladen werden können. Die Erfahrung zeigt hier, dass händisches XML/TEI-Tagging zu steigender Fehlerzahl und somit auch zu steigendem Zeitverbrauch führen kann. Aber: Die Probleme mit der Technik können mitunter auch durch die Technik behoben werden, so z.B. durch das Interface, das die Text-XML-TEI-Erstellung erleichtert und somit die menschlichen Fehlerquellen in diesem Fall umgeht.
Mitarbeiter werden bei Wunsch genannt und bekommen auch Rückmeldung zu ihrer Arbeit. Von den Transkripten werden 95% von sogenannten “super-transcribers” bearbeitet. Bemerkenswert ist, dass viele der “User”, die an dem Projekt arbeiten, gar nicht unbedingt an Bentham interessiert waren und sind, sondern vor allem die Art der Arbeit im Rahmen des Projekts interessant fanden. Auch die digitale Komponente schien zu reizen.
Projekte wie dieses haben als limitierende Faktoren oft Zeit und Komplexität. Wirtschaftliche Argumente für diese Projekte sind wichtig, wenn es darum geht, sie überhaupt in die Tat umzusetzen. Die ökonomische Rechtfertigung kann hier darin bestehen, dass die Methode des “scholarly crowdsourcing” kosteneffizient ist, z.B. im Vergleich zu bezahlten Forschern.
Abschließend stellte sich Schofield Fragen nach der Berechtigung und dem Erfolg des Projekts und kam zu dem Schluss, dass es ein Erfolg sei, weil Bedarf daran besteht und es wissenschaftlich fundiert sei. Die digitalen Geisteswissenschaften indes würden das Projekt dazu zwingen, die Funde auch mit neuen Methoden aufzubereiten und zu präsentieren.
Fragen hinsichtlich der Existenzberechtigung des Projektes beinhalten die Überprüfung der Zielsetzung Druck im Hinblick auf Ideen und Modelle der “freien Information”. So taucht zum Beispiel die Frage auf, ob nicht nur noch eine editierte Fassung online stehen soll, die die gedruckte Ausgabe ersetzt. Hier stehen sich die Punkte Kosteneffektivität und beständige, gesicherte Referenz durch physikalische Permanenz gegenüber.
Follow us on Twitter: @DHDarmstadt @RappAndrea #DHDarmstadtLecture
Am 22.11.2012 ist Martin Wynne (Oxford University) zu Gast: “Corpus and Text Analysis for Research in the Humanities”; 18.00 Uhr s.t., Schloss, Raum 36. Gäste sind herzlich willkommen.
Quelle: http://dhd-blog.org/?p=1077
Die Vision Humboldts in der Digitalen Welt: Start der Ringvorlesung Digital Humanities an der TU Darmstadt mit einem Vortrag von Gregory Crane über ‘Humanities in a Digital Age’
Gregory Crane von der Tufts University in Medford/Boston (Massachusetts), der in den nächsten Jahren eine Humboldt-Professur an der Universität Leipzig wahrnehmen wird, stellte sich der Aufgabe, für den Auftakt der Darmstädter Ringvorlesung einen Überblick zu geben, große Fragen zu stellen und große Linien zu ziehen und beeindruckte die ZuhörerInnen durch seine Offenheit, seine Energie, seine Leidenschaft für das Thema und den Respekt, mit dem er allen InteressentInnen begegnete.
Eines der großen Themen, das er ansprach, war beispielsweise die Frage danach, was der gesellschaftliche Auftrag und was die Ziele der Geisteswissenschaften seien. Für Greg Crane besteht ihre Rolle darin, das intellektuelle Leben der Menschen zu verbessern. Dazu hat man seiner Ansicht nach zwei Möglichkeiten: Bücher zu schreiben, die keiner mehr liest, oder den Menschen zu helfen, mehr über fremde Sprachen und Kulturen zu wissen und ihnen den Zugang dazu ohne Voraussetzungen, ohne Sprachenkenntnisse zu ermöglichen. Wer die Entwicklung und die Erfolgsgeschichte des Perseus-Projekts verfolgt hat, weiß, dass diese Vision eingelöst werden kann: Die antiken Texte sind so umfangreich erschlossen durch Wörterbücher und weitere Materialien, dass man einen Zugang findet – und dieser Zugang war und ist bei Perseus stets transparent und open access. Die intensive Erschließung der Materialien wird auch durch Crowd Sourcing-Aktivitäten erreicht: Studierende werden bei der Lemmatisierung, Kommentierung und Vernetzung eingebunden, jede entsprechende Leistung ist durch Identifier den BearbeiterInnen zugeordnet, so dass jeder Kommentar zu einer micropublication wird. Greg ist immer für unerwartete Vergleiche und Überraschungen gut: Wenn ein World-of-Warcraft-Spieler 500 Stunden Übung benötigt, um einen Charakter zu beherrschen, dann ist es genauso gut möglich, dass er in 500 Stunden Einsatz mit den digitalen Materialien eine antike Sprache besser beherrscht als nach einigen Semestern Studium an der Universität! Die Aufgabe der Lehrenden ist es, den Studierenden zu ermöglichen, digital citizens in der digitalen Welt zu werden. Auf diese Weise sieht er uns erstmals in die Lage versetzt, das alte Humboldtsche Ideal, dass Lehrende und Lernende dazu da sind, der Wissenschaft zu dienen, zu verwirklichen (“Wenn ich etwas neu und cool finde, stelle ich fest, dieser alte Preuße hat es schon geschrieben.”).
Einen Gedanken möchte ich noch herausgreifen, denn er betrifft einen Punkt, der von vielen diskutiert wird. Greg leitete seine Vorlesung folgendermaßen ein: “Ich bin jetzt ein Professor für Digital Humanities, obwohl ich nicht an das Fach glaube.” Er betrachtet sich nach wie vor als Altphilologe, sein Haupt-Forschungsinteresse war und ist die antike Sprache und Kultur, deren Erforschung und Erschließung von ihm u.a. mit computergestützten Ansätzen und Methoden betrieben wird. Dieser Sichtweise würde ich mich anschließen, sie markiert auch mein Selbstverständnis und die Ausrichtung und Weiterentwicklung der Darmstädter Digital Humanities in einer spezifischen Ausprägung als Digital Philology. Unsere Forschungsgegenstände sind Sprache, Literatur und Kultur, wir integrieren hermeneutische und algorithmische Ansätze zu ihrer Erforschung. Wir dürfen also gespannt sein auf die weiteren Positionen und Beiträge zur Ringvorlesung und werden uns bemühen, an dieser Stelle weiter darüber zu berichten. Aufnahmen davon werden Dank einer Kooperation mit dem eLearning-Center der TU Darmstadt auch online zur Verfügung gestellt werden.
Follow us on Twitter: @DHDarmstadt @RappAndrea #DHDarmstadtLecture
Am 8.11.2012 ist Philip Schofield (University College London) zu Gast: “TRANSCRIBE BENTHAM – An experiment in scholarly crowdsourcing”.
Quelle: http://dhd-blog.org/?p=1009
Forschungen zur Wissenschaftskommunikation aus linguistischer, historischer, soziologischer und philosophischer Perspektive
Nach drei anregenden thematisch fokussierten Tagungen hat sich am 5. und 6. September 2012 eine Arbeitsgruppe getroffen, um Projektideen und Forschungen zum Thema Wissenschaftskommunikation zu konkretisieren. Die Darmstädter Linguistin Nina Janich hat diesen Forschungsschwerpunkt initiiert und die Tagungen und Treffen gemeinsam mit ihrem Team organisiert und durchgeführt.
Unter dem Namen Scientific Communication Research (SciCoRe) sollen Forschungen zusammengeführt werden, die sich beispielsweise mit Wissensformen, mit Kommunikation innerhalb wissenschaftlicher Communities , aber auch mit nach außen gerichteten Vermittlungskulturen, Medien- und Textformaten beschäftigen (traditionelle und auch neue Formen wie bloggen und twittern). Fragen nach Auswirkungen von Datenaufbereitung wie Datenpräsentation, Virtualisierungen und Visualisierungen, die Tendenz zu Simulationen im Kontrast zu Evidenzbasierung werden ebenso diskutiert wie mediale Aspekte, sprachlich-diskursive Popularisierungsstrategien und politisch-historische Legitimationsprozesse. Dabei werden Unterschiede und Gemeinsamkeiten bei den geistes- und gesellschaftswissenschaftliche Disziplinen und den Experimental- und Technowissenschaften betrachtet und hinterfragt.
Die Gruppe setzt sich zusammen aus Soziologen, Philosophen, Historikern, Sprachwissenschaftlern und Digital Humanists. Obwohl es zunächst so schien, als seien unsere Forschungsinteressen stark divergierend und unsere Ausgangspunkte sehr unterschiedlich, stellen sich in den Gesprächen und Arbeitsgruppen rasch zahlreiche Überschneidungen, Vernetzungen und gemeinsame Fragestellungen heraus.
- Selbstdarstellung im öffentlichen Diskurs
- Veränderungen von Publikations- und Kommunikationskulturen in den Fachdisziplinen
- Forschung zwischen Nichtwissen und Beratungsauftrag
- Virtualisierung von Forschungsprozessen, Simulationen, Evidenzbasierung
- Status u d Zuschreibungen von “Experten”, “Dilettanten” und “Laien”, deren jeweilige Performanz in unterschiedlichen medialen Kommunikationszusammenhängen
- Fehler- und Irrtumskultur, Umgang mit vorläufigen Forschungsergebnissen, Zwischenergebnissen
Was mich besonders interessiert – aus sprachwissenschaftlicher wie Digital Humanities-Perspektive – sind gewiss die Fragen nach Virtualisierungen von Forschungsprozessen, da dieses Thema im Rahmen von TextGrid und Dariah zentral ist. Viele Dinge, die wir in diesem Kontext gewissermaßen aus der Praxis heraus täglich bearbeiten und diskutieren, sind bislang nicht systematisch beschrieben und erforscht. Wie die Entwicklungen der Humanities im Hinblick auf Digital Humanities nach innen in die eigene Community, in die “traditionellen” Fachcommunities und in die Öffentlichkeit kommuniziert werden, wie jeweils “Experten-”Status- und Zugehörigkeitszuschreibungen vorgenommen werden, wie mit Unsicherheiten umgegangen wird, wie “Zwischenergebnisse” (z.B. nicht tief annotierte Rohdaten) zur Nachnutzung weitergegeben werden und wie dafür wissenschaftliche Benefits – auch für den wissenschaftlichen Nachwuchs – generiert werden können, das alles gehört wohl auch auf die Forschungsagenda der Digital Humanities, um die wissenschaftliche Selbstreflexion voranzutreiben und definitorische Beiträge zu den Digital Humanities zu leisten.
Quelle: http://dhd-blog.org/?p=859
Wieviel Verklausulierung braucht Wissenschaftssprache?
Es scheint, als veröffentlichten Nachrichtenmagazine immer öfter Beiträge mit Titeln wie Verschwurbeltes Hochschuldeutsch: Warum Wissenschaftler ihre Leser quälen (Spiegel Online), Wider die wolkige Wissenschaftssprache (Deutschlandradio) oder auch Wissenschaftssprache: Notwendiger Expertenjargon oder Fachchinesisch? (Bayern 2).
Alle beschreiben anhand konkreter Beispiele aus der Welt der Wissenschaft einen Umstand, der – mancher wird rufen „endlich“! – immer öfter kritisch beleuchtet wird: In vielen wissenschaftlichen Publikationen werden Aussagen über weite Strecken durch eine spürbar aufgeblasene Sprache verschleiert. Auch solche, die inhaltlich gar nicht mal so kompliziert sind. Der Leser, insbesondere wenn es sich um jüngere Studierende oder gar interessierte Laien handelt, hat in der Konsequenz veritable Verständnisprobleme. Verkommt die Wissenschaftssprache tatsächlich immer mehr zu undurchsichtigem Kauderwelsch? Ist das hauptsächlich ein Problem im deutschsprachigen Bereich? Dieser Eindruck drängt sich beim Blick in den angelsächsischen Sprachraum geradezu auf, wo gerade geschichtswissenschaftliche Werke eine breite Laienleserschaft finden. Das dürfte nicht zuletzt deshalb so sein, weil man sich nicht scheut, auch im akademischen Kontext lebendig und anschaulich zu formulieren.
Der Begriff der Wissenschaftssprache wird inzwischen quasi automatisch mit absurden Satzkonstruktionen oder dem übertriebenen Einsatz von Fachtermini und Fremdwörtern assoziiert. Noch deutlicher benennt man dieses Phänomen mit dem Begriff der Antragsprosa. In dem von Susanne Weiss und Michael Sonnabend verfassten Buch Schreiben, Bloggen, Präsentieren wird deutlich, welche Ausmaße eine solche Jargonkultur in der Wissenschaft annehmen kann:
„Jeder weiß, dass Gespenster nur dort Angst und Schrecken verbreiten können, wo es dunkel ist. Je heller es ist, umso grässlicher müssen Fratzen und Gebärden sein, damit der Mensch Angst hat, wahlweise Ehrfurcht vor ‚Attributionsfehlern in perzeptuell ambigen Situationen‘, Angst vor ‚Emergenzen von zu Illustrationszwecken appendizierten Karten‘; vor ‚Stabilitätssuggestionen‘ und ‚Mikrosatelliteninstabilität‘ oder gar vor den ‚Kontingenzproblemen im Interventionsgeschehen‘…“ (Weiss/Sonnabend 2011, S. 40)
Dass innerhalb einzelner Disziplinen etablierte Fachtermini für die Normierung und den Austausch wissenschaftlicher Erkenntnisse unentbehrlich sind, wird niemand bestreiten wollen. Und ja, ein Wissenschaftler schreibt natürlich in erster Linie für andere Wissenschaftler. Von denen kann man in der Tat gewisse Verständniskompetenzen erwarten, die ihnen das Erschließen elaborierterer Texte ermöglichen. Wie weit aber darf der Verklausulierungstrend gehen, von dem man – seien wir ehrlich – insgeheim vermutet, dass er vom Autor aus Gründen vermeintlicher Statusschaffung gehegt und gepflegt wird? Ist es nicht ein Schuss ins eigene Knie, wenn eine aufgeblähte und nur augenscheinlich präzise Sprache ihren eigentlichen Zweck verfehlt – nämlich die Vermittlung von Informationen? Vermittelt kann nur werden, was verstanden wird.
Wie aber kann man dieses Problem angehen – wie sieht denn „gute“ Wissenschaftssprache aus? Im digitalen Zeitalter erweitert sich die Schar der Leser, die an wissenschaftlicher Kommunikation – wenn auch nur passiv – teilhaben möchte, über die akademische Welt hinaus. Deshalb lässt sich die Frage nach den Grenzen von Wissenschaftssprache auch mit einem „nach unten“ gerichteten Blick stellen: Wie „alltagssprachlich“ dürfte es in der Wissenschaft zugehen, würde man versuchen, dem angesprochenen Wandel innerhalb der Leserschaft Rechnung zu tragen? Ab welchem Punkt wird eine bewusst transparent gestaltete Fachsprache ihrerseits zum Problem, ab wann geht es mit der Genauigkeit wissenschaftlicher Aussagen bergab? Und könnte auch der bewusste Verzicht auf Verklausulierungen in genuinen Netzformaten (Blogs, Tweets) ein Grund für die Skepsis etablierter Wissenschaftler sein, diese zu bedienen, steht dieses Argument doch in direktem Bezug zur Hierarchiefrage?
Diese, sowie mögliche Lösungsstrategien, können wir in Panel 3 der RKB-Tagung diskutieren.
Quelle: http://rkb.hypotheses.org/209
Das altägyptische Totenbuch – Ein digitales Textzeugenarchiv
Seit 20 Jahren arbeiten Forscher aus Bonn an der Erschließung eines der wahrscheinlich bedeutendsten und am weitesten verbreiteten Jenseitstexte: Das Totenbuch des Alten Ägyptens.
Dieses umfasst etwa 200 Sprüche und ergänzt diese zusätzlich durch Abbildungen – die so genannten Vignetten, welche die inhaltlichen Aussagen der Texte zusätzlich illustrieren.
Seit März 2012 ist das Totenbuch-Archiv nun im Internet zugänglich (http://totenbuch.awk.nrw.de). In der Datenbank sind Schlüsselinformationen und Bildmaterialien über alle weltweit noch erhaltenen und der Forschung bekannten Quellen des Totenbuchs gesammelt, welche nicht nur einem ägyptologischen Fachpublikum, sondern auch den interessierten Laien und der breiteren Öffentlichkeit Zugang zu diesem Forschungsbereich ermöglichen soll.
Zugang zum Material erhält der Nutzer auf zweierlei Weisen: zum einen durch eine “facettierte Suche”, mit der Objekte durch die Angabe von Filterkriterien (auf dem Objekt enthaltene Sprüche, Objektart, Datierung, Herkunft, heutiger Standort, usw.) gefunden werden können, zum anderen durch ein geleitetes Browsing über Menüstrukturen, welche den schnellen Zugriff auf Objekte über Visualisierungen und Register erlaubt, die auf die Kernmerkmale und die auf den Objekten enthaltenen Sprüche ausgerichtet sind.
Die Präsentationsoberfläche fungiert zugleich als Backend für angemeldete Benutzer und Projektmitarbeiter. Nach dem Einloggen kann je nach Rechtevergabe zusätzliches Bildmaterial eingesehen werden und es können Angaben bearbeitet und neue Datensätze hinzugefügt werden.
Zu den besonders bemerkenswerten Aspekten des Projekts gehört die Aufbereitung der Informationen zu einzelnen Objekten und Sprüchen wie auch als Gesamtdatenbank mittels verschiedener Visualisierungsstrategien. Neben zahlreichen Standardvisualisierungen zum Gesamtkorpus, die z.B. die Struktur der Überlieferung darstellen, gibt es auch spezielle Visualisierungen zu einzelnen Forschungsfragen, wie beispielsweise der “Kanonizität der Spruchabfolge” auf den Textzeugen.
Eine Einbindung in die weitere Infrastruktur der ägyptologischen Forschung erfolgt durch
Verwendung von IDs, die mit dem zentralen Nachweisportal der Ägyptologie (Trismegistos) abgeglichen und verlinkt sind.
Im Hinblick auf das weitere technische Setup entspricht das Totenbuch-Projekt dem
state of the art. PURLs, die auf den Trismegistos-IDs basieren und vom technischen System entkoppelt sind, sorgen für sprechende Adressen und gewährleisten die direkte und dauerhafte Adressierbarkeit der Objektbeschreibungen.
Der Server für diese Publikation ist zunächst an der Universität zu Köln angesiedelt, da er vom Cologne Center for eHumanities (CCeH) im Auftrag der Akademie der Wissenschaften und Künste NRW, welche das Projekt seit 2004 fördert, aufgebaut wurde.
Das digitale Textzeugenarchiv zeigt eindrücklich, dass klare Informationsstrukturierung und professionelles Design intuitive Wege zu wissenschaftlichen Ressourcen bahnen können, welche nicht nur einen großen Funktionsumfang haben, sondern auch auf der Seite der Präsentation gefällig und gut benutzbar sind.
Quelle: http://dhd-blog.org/?p=747