Anmeldefrist verlängert: Zweitägiger Workshop – Forschungsdaten für Andere. Lizenzen und Werkzeuge für Historiker

Das Leibniz-Institut für Europäische Geschichte in Mainz richtet im Rahmen von DARIAH-DE (Digital Research Infrastructure for the Arts and Humanities) einen zweitägigen Workshop zur Lizenzierung von Forschungsdaten aus und lädt dazu Historikerinnen und Historiker ein, die selbst über Forschungsdaten verfügen, planen diese zu veröffentlichen und nun nach einer geeigneten Lizenz für ihre Daten suchen. Hier der Link zum Programm!

Anmeldungen sind ab sofort bis zum 09.06.2014 über das Registrierungsformular möglich. Der Workshop ist auf max. 18 Personen beschränkt, die Vergabe der Plätze und eine Zusage über eine Teilnahme erfolgt in der Reihenfolge der Anmeldungen. Die TeilnehmerInnen werden gebeten, Ihren eigenen Computer/Laptop mitzubringen, um an den Hands-On-Sessions aktiv teilnehmen zu können.

Quelle: http://dhd-blog.org/?p=3607

Weiterlesen

Neues Verbundprojekt „Humanities Data Centre – Forschungsdatenzentrum für die Geisteswissenschaften“ gestartet

Vom Niedersächsischen Ministerium für Wissenschaft und Kunst (MWK) ist durch die Bewilligung  einer entsprechenden Designstudie der Startschuss zum Aufbau eines Forschungsdatenzentrums für die Geisteswissenschaften gegeben worden. Sechs Projektpartner werden sich in dem mit 600.000 Euro geförderten Verbundprojekt „Humanities Data Centre (HDC) – Forschungsdatenzentrum für die Geisteswissenschaften (Designphase)“ mit dem Aufbau eines solchen Zentrums befassen, um die langfristige Speicherung und Nachnutzung von geisteswissenschaftlichen Forschungsdaten sicherzustellen. Diese Initiative stellt ebenso einen wichtigen Baustein im Rahmen des Göttinger eResearch Verbundes dar.

Forschungsdaten sind unverzichtbare Produkte und Grundlage der Wissenschaft, die durch disziplinspezifische Datenzentren bewahrt werden müssen. Auch in den Geisteswissenschaften fallen immer mehr Daten an, für die entsprechende Speichermöglichkeiten und -konzepte entwickelt werden müssen und alle Beteiligten vor große Herausforderungen stellt. Ziel des HDC-Verbundprojektes ist es, in einer Designstudie erste Schritte für den Aufbau eines Forschungsdatenzentrums zu gehen, das im späteren Betrieb die für geisteswissenschaftliche Forschungsdaten notwendigen Aufgaben übernimmt. Ein Großteil der Geisteswissenschaften hat bisher noch keine Forschungsdateninfrastruktur und auch nicht die Ressourcen, eine eigene aufzubauen, oder aber kein Interesse, sie selbst zu betreiben. Die zentrale Aufgabe eines Humanities Data Centre ist es, die Forschungsdaten dieser Disziplinen (z. B. kritische Editionen, Multimedia-Objekte oder 3D-Modelle) langfristig zu sichern und, sofern rechtlich möglich, zur Nachnutzung anzubieten. Wichtige Projekte im Bereich Geisteswissenschaften, wie DARIAH und Textgrid, an denen die GWDG ebenfalls beteiligt ist, verwenden in ihren Forschungsumgebungen bereits erhebliche Datenbestände, für die ein gemeinsamer Forschungsdaten-Service benötigt wird. Das Humanities Data Centre wird somit eine zentrale Datenschnittstelle für virtuelle Forschungsumgebungen in den Geisteswissenschaften darstellen.

Das Niedersächsische Ministerium für Wissenschaft und Kultur hat die Gesellschaft für wissenschaftliche Datenverarbeitung mbH Göttingen (GWDG) mit der Leitung dieses Projektes einer Designstudie zum Aufbau eines Forschungsdatenzentrums für die Geisteswissenschaften mit einer Laufzeit von zwei Jahren beauftragt. Zu diesem Zweck wurden fast 600.000 Euro an Personalmitteln für die sechs beteiligten Projektpartner aus dem Fördertopf des sogenannten Niedersachsen Vorab bereitgestellt, mit dem Forschungsvorhaben an Hochschulen und wissenschaftlichen Einrichtungen in Niedersachsen unterstützt werden. Das Projekt startete im Mai 2014.

Neben der GWDG, die die Konsortialleitung innehat, sind im Projekt für die Georg-August-Universität Göttingen die Niedersächsische Staats- und Universitätsbibliothek Göttingen (SUB) vertreten. Ebenfalls dabei sind die Akademie der Wissenschaften zu Göttingen (AdW) und das Max-Planck-Institut zur Erforschung multireligiöser und multiethnischer Gesellschaften in Göttingen (MPI-MMG). Erfreulicherweise wurde auch die Förderung von zwei Berliner Einrichtungen, die Berlin-Brandenburgische Akademie der Wissenschaften (BBAW) und das Konrad-Zuse-Zentrum für Informationstechnik Berlin (ZIB), in einem geringen Umfang ermöglicht, was die Aufstellung und Wirkung des Projektes wesentlich vergrößert. Als assoziierter Partner konnte zudem das Max-Planck-Institut für Wissenschaftsgeschichte in Berlin (MPIWG) gewonnen werden.

Quelle: http://dhd-blog.org/?p=3500

Weiterlesen

Nachlese DHd 2014: Wissenschaftliche Sammlungen

Session 3 der DARIAH-DE Pre-Conference in Passau fand am Mittwoch dem 26. März statt und behandelte das Thema Wissenschaftliche Sammlungen. Dr. Thomas Stäcker, Stellvertretender Direktor der Herzog August Bibliothek Wolfenbüttel, erläuterte definitorische sowie technische Voraussetzungen wissenschaftlicher Sammlungen und berichtete von aktuellen Perspektiven und Herausforderungen im Umgang mit Forschungsdaten.

Einleitend wurden als grundlegende Aufgabenbereiche der Aufbau von wissenschaftlichen Sammlungen, wie auch die Nutzung und Integration bereits existierender Sammlungen genannt (als dritter Aufgabenbereich ist hier auch die Lizenzierung von Inhalten anzuführen, die jedoch eine dementsprechend eigene Materie darstellt). Demnach gehört es zum Aufbau wissenschaftlicher Sammlungen, technische Interoperabilität und Schnittstellen zu gewährleisten, Daten- und Metadatenstandards umzusetzen, sowie kontrollierte Vokabulare und Normdaten bereitzustellen. Darüber hinaus bietet es sich an, die im Rahmen von DARIAH-DE entwickelte Collection Registry mit Informationen über derart aufbereitete wissenschaftliche Sammlungen zu füllen und damit einer föderierten Suche zugänglich zu machen.

Für alle diese Vorgänge werden jedoch auch Kriterien benötigt, anhand derer wissenschaftliche Sammlungen begutachtet werden können. Eine Frage nach solchen Kriterien mündet schließlich auch in die Frage nach einer grundsätzlichen Definition des Sammlungsbegriffs. Als Diskussionsgrundlage präsentiert Stäcker eine Definition der Deutschen Forschungsgemeinschaft, die eine wissenschaftliche Sammlung als “Gesamtheit von Objekten, die einen kulturellen und/oder wissenschaftlichen Wert aufweist und nach bestimmten thematischen Schwerpunkten zusammengestellt ist”, beschreibt [1]. Hier wird bereits klar, dass Ordnungsprinzipien als konstitutive Merkmale wissenschaftlicher Sammlungen zu sehen sind, kurz gesagt, dass eine Ansammlung noch keine Sammlung darstellt. Es wird aber auch darauf hingewiesen, dass dabei eine phänomenologische und epistemologische Ebene zum Tragen kommt, die dafür verantwortlich ist, wann eine Sammlung denn als solche zu erkennen ist – ein umfassender Zugang, der hier jedoch als Arbeitshypothese im Raum stehen bleiben muss.

Eine weitere definitorische Herausforderung bietet der Begriff der Forschungsdaten, der eine grundlegende Voraussetzung für groß angelegte digitale Forschungsumgebungen darstellt. Für den Begriff der Forschungsdaten kann von zwei Polen, nämlich einem daten- und dokumentzentrierten Zugang ausgegangen werden, wobei ersterer die Daten in einer quantitativen, diskreten Form (z.B. Datenbanken, Listen) und zweiterer eine qualitative, kontinuierliche Form (z.B. Annotationen, Notizen) beschreibt. Stäcker ortet hier ein fehlendes Selbstverständnis bei Geisteswissenschaftlern, die eigene Arbeitsergebnisse nicht als “Daten” einschätzen und schließt mit der allgemeinen Frage an, ob und wann denn Quellen und Dokumente als Daten zu betrachten sind.

Ausgehend von dieser Fragestellung wurde im Anschluss an den Vortrag festgestellt, dass eine Form von Prozessierbarkeit für den Status als Datum ausschlaggebend ist. Wie genau diese Prozessierbarkeit jedoch gestaltet sein soll, darüber müsste weiter diskutiert werden – so stand beispielsweise die Frage im Raum, wie große Bestände von Bilddigitalisaten im Hinblick auf ihre zukünftig zu erwartende maschinelle Verarbeitung einzuschätzen sind. In einem breiteren Kontext stellt sich dabei nicht nur die Frage nach der Verarbeitung mit Hilfe technischer Werkzeuge, sondern auch nach den Zugangsmöglichkeiten zu solchen Beständen und Workflows, die immer noch weitgehend im Rahmen restriktiver Verwertungsrechte aushandelt werden. Hier lautet der Befund: Bestände, deren enduser nicht ohne Weiteres zum endmaker werden können, sind nicht als datenfähig anzusehen.

Schließlich wurden Ergebnisse des SUDAMIH Reports (Supporting Data Management Infrastructure for the Humanities) [2] vorgestellt und damit wesentliche Punkte im Umgang mit geisteswissenschaftlichen Forschungsdaten identifiziert – wie zum Beispiel die Feststellung, dass solche Datenbestände im Gegensatz zu ihren naturwissenschaftlichen Pendants eine längere Halbwertszeit aufweisen, ja oft sogar einen body of research darstellen, der das ganze Leben eines Forschers umfasst und auf den langfristig Bezug genommen werden soll. Neben solchen (teilweise stark) unterschiedlichen Organisationsprinzipien, ist auch zum Ausdruck gekommen, dass es in den Geisteswissenschaften eine gewisse Zurückhaltung gibt, Zwischenergebnisse oder Daten, die durch ihre beiliegende Interpretation erst vollständig erscheinen, der Öffentlichkeit zu präsentieren. Hier sind gegebenenfalls Möglichkeiten der anonymen Veröffentlichung anzudenken – ein weiterer Punkt, der noch zu diskutieren wäre.

Abschließend und aufbauend auf den vorangegangenen Fragestellungen gelangt Stäcker schließlich zu den folgenden Perspektiven im Aufbau wissenschaftlicher Sammlungen: Es gilt, nicht nur neue Forschungsdaten und Arbeitsumgebungen zu erstellen, sondern auch eine niederschwellige Verzeichnung von Daten und Sammlungen und eine sichere Aufbewahrung in Langzeit-Repositories sicherzustellen. Darüber hinaus sollte ein direkter Zugriff auf Sammlungseinheiten anhand ihrer Metadaten möglich sein – eine Eigenschaft, für deren Bereitstellung insbesondere auf Techniken des Semantic Web gesetzt wird. Mein persönliches Fazit der Session: Die Frage nach dem Begriff der wissenschaftlichen Sammlung ist eng verbunden mit ihren vor- und nachgelagerten Arbeitsprozessen – sowohl aus der Perspektive individueller Workflows einzelner Forscher, als auch im Hinblick auf eine darüber liegende (wissenschafts-)politische Ebene. Es handelt sich um einen stark vernetzten Themenbereich, der auch Fragen aufwirft, die aktuell nicht eindeutig zu beantworten sind.

[1] https://de.wikipedia.org/wiki/Forschungssammlung

[2] http://sudamih.oucs.ox.ac.uk/docs/Sudamih_FinalReport_v1.0.pdf

Quelle: http://dhd-blog.org/?p=3297

Weiterlesen

Silke Baumann: Langzeitarchivierung innerhalb Virtueller Forschungsumgebungen im Bereich Digital Humanities (=Berliner Handreichungen zur Bibliotheks- und Informationswissenschaft Heft 353), Berlin 2014

http://edoc.hu-berlin.de/series/berliner-handreichungen/2014-353 In der vorliegenden Arbeit wird an einem konkreten Beispiel betrachtet werden, wie wissenschaftliche digitale Kooperation und die langfristige Speicherung der digitalen Daten im Bereich Digital Humanities aktuell umgesetzt werden bzw. welche Wünsche und Ansichten die ForscherInnen diesbezüglich haben. Zu diesem Zweck wurden WissenschaftlerInnen der Johannes Gutenberg-Universität Mainz zur Beantwortung eines Online- Fragebogens eingeladen. Einführend […]

Quelle: http://www.einsichten-online.de/2014/03/4990/

Weiterlesen

Evolution der Informationsinfrastruktur – Kooperation zwischen Bibliothek und Wissenschaft

Festschrift FEZum zehnjährigen Bestehen der Abteilung Forschung und Entwicklung (F&E) der Niedersächsischen Staats- und Universitätsbibliothek Göttingen ist ein Sammelband mit dem Titel “Evolution der Informationsinfrastruktur – Kooperation zwischen Bibliothek und Wissenschaft” erschienen. Das Werk resümiert entlang ausgewählter Meilensteine die Arbeit im vergangenen Jahrzehnt. Dabei begibt es sich auf die Spuren des Wandels im Leitbild wissenschaftlicher Bibliotheken. Der Sammelband wird herausgegeben von Dr. Heike Neuroth, Prof. Dr. Norbert Lossau und Prof. Dr. Andrea Rapp.

Gemeinsam mit Partnern aus der Wissenschaft wurden zahlreiche, wegweisende Projekte auf dem Gebiet der digitalen Forschung vorangebracht. Dieser Pionierarbeit in der deutschen Bibliothekslandschaft wird in 19 Aufsätzen von über 30 Autorinnen und Autoren nachgegangen.

Das Buch ist beim vwh-Verlag in Kooperation mit dem Universitätsverlag Göttingen erschienen. Sie können die digitale Open Access-Fassung für nicht-kommerzielle Zwecke hier herunterladen: http://dx.doi.org/10.3249/webdoc-39006.

Eine gedruckte Fassung des Buches kann beim vwh-Verlag für 24,90€ bestellt werden.

Eine Dokumentationsseite zur Tagung anlässlich des zehnjährigen Bestehens der Abteilung F&E ist unter diesem Link verfügbar.

ISBN:  978-3-86488-043-8                            DOI-URL: http://dx.doi.org/10.3249/webdoc-39006

Quelle: http://dhd-blog.org/?p=3012

Weiterlesen

Neu erschienen: Masterarbeit zur Langzeitarchivierung von Daten in VFUs für die Digital Humanities

Auf dem e-doc-Server der Humboldt-Universität zu Berlin wurde am Montag in der Reihe Berliner Handreichungen zur Bibliotheks- und Informationswissenschaft die Masterarbeit von Silke Baumann zur Frage der Langzeitarchivierung [von Forschungsdaten] innerhalb Virtueller Forschungsumgebungen im Bereich Digital Humanities publiziert. Der Volltext ist über urn:nbn:de:kobv:11-100214018 abrufbar.

Die Autorin befragte dafür GeisteswissenschafterInnen an der Mainzer Universität zu ihrem Datennutzungsverhalten und zu Einstellungen hinsichtlich der Langzeitarchivierung und Langzeitverfügbarhaltung von Forschungsdaten. (Einige der Ergebnisse finden sich auch im LIBREAS-Tumblr zusammengefasst.)

Silke Baumann ermittelt einen großen Bedarf an entsprechenden Lösungen, stellt aber zugleich fest,

“dass es noch nicht viele erfolgreiche Beispiele für Langzeitarchivierung innerhalb von Virtuellen Forschungsumgebungen im Bereich Digital Humanities gibt.” (S. 31)

Die Architektur des TextGrid Repositories wird jedoch immerhin bereits als sinnvolle und zweckmäßige Annäherung bewertet.

Für den Einsatz von Virtuellen Forschungsumgebungen in den Geisteswissenschaften zieht die Autorin den Schluss:

“[Es wäre] zweckmäßig, den WissenschaftlerInnen einen Rahmen anzubieten, innerhalb dessen sie, durch Werkzeuge und Infrastruktur einer Virtuellen Forschungsumgebung unterstützt, ihre Forschungsfragen kollaborativ, orts- und zeitungebunden, bearbeiten können. Durch eine solche Maßnahme könnten die WissenschaftlerInnen nachdrücklich in ihrem Arbeitsalltag entlastet werden. Dabei wäre es empfehlenswert, eine modulare Architektur zu wählen, die die Anpassung an verschiedenste Forschungsprojekte erlaubt. Die Forschungswerkzeuge müssen in enger Zusammenarbeit mit den WissenschafterInnen entwickelt werden, sodass deren Usability und Akzeptanz durch die Nutzenden sicher gestellt werden können.” (S. 58)

Abstract der Autorin:

In der vorliegenden Arbeit wird an einem konkreten Beispiel betrachtet werden, wie wissenschaftliche digitale Kooperation und die langfristige Speicherung der digitalen Daten im Bereich Digital Humanities aktuell umgesetzt werden bzw. welche Wünsche und Ansichten die ForscherInnen diesbezüglich haben. Zu diesem Zweck wurden WissenschaftlerInnen der Johannes Gutenberg-Universität Mainz zur Beantwortung eines Online-Fragebogens eingeladen. Einführend werden die schwer zu greifenden Begriffe Digital Humanities, Virtuelle Forschungsumgebung, Forschungsdaten und Langzeitarchivierung für den Kontext dieser Arbeit definiert. Es wird betrachtet, was prinzipiell die Anforderungen an Virtuelle Forschungsumgebungen, Forschungsdaten und Langzeitarchivierung im Bereich Geisteswissenschaften sind, wie der derzeitige Entwicklungsstand hier ist und welches Angebot eventuell schon existiert. Im Anschluss folgt ein Blick auf einige Vergleichsstudien, der den bisherigen Kenntnisstand zu Data Sharing und Langzeitarchivierung wiedergibt. Zusammen mit den wissenschaftlichen Hintergrundinformationen ist dieser auch Basis für die Hypothesen, die an den Ergebnissen der Befragung verifiziert werden. Nach Erläuterung der Methode und Methodologie der Datenerhebung folgen eine Beschreibung der erhobenen Daten und daraus resultierende Schlussfolgerungen.

Quelle: http://dhd-blog.org/?p=2864

Weiterlesen

OA-Publikation: Digital Curation of Research Data

Die Bedeutung von Forschungsdaten für die Wissenschaft und die Entwicklung von digitalen Forschungsprozessen ist sowohl in Deutschland als auch international mittlerweile unbestritten. Es ist unerlässlich, die Langzeitarchivierung von Forschungsdaten sicherzustellen und dafür Sorge zu tragen, dass sie zugänglich und nutzbar bleiben.
cover_digital-curationIm Rahmen einer grundlegenden Untersuchung über elf Fachdisziplinen haben Wissenschaftlerinnen und Wissenschaftler systematisch den Stand und die aktuelle Praxis im Umgang mit der Langzeitarchivierung von Forschungsdaten dargestellt. Die Ergebnisse wurden in einer deutschsprachigen, zusammenfassenden Analyse veröffentlicht. Um diese Ergebnisse auch einem internationalem Fachpublikum zugänglich zu machen legen die Herausgeber Heike Neuroth, Stefan Strathmann, Achim Oßwald und Jens Ludwig nun eine zusammenfassende Übersetzung vor: Digital Curation of Research Data – Experiences of a Baseline Study in Germany.

Die Herausgeber hoffen, dass diese Publikation zur vertiefter Diskussion und gesteigertem Bewusstsein hinsichtlich der Langzeitarchivierung von Forschungsdaten beitragen möge.

Das Buch ist beim vwh-Verlag in Kooperation mit dem Universitätsverlag Göttingen erschienen. Sie können die englisch-sprachige, digitale Fassung für nicht-kommerzielle Zwecke herunterladen (http://nbn-resolving.de/urn:nbn:de:0008-2013112701). Eine gedruckte Fassung des Buches kann beim vwh-Verlag für 12,80€ bestellt werden (http://goo.gl/2rrjZU). Dort finden Sie auch die umfangreichere deutsche Version der Publikation. Die digitale Fassung der deutschen Publikation finden Sie hier: http://nbn-resolving.de/urn:nbn:de:0008-2012031401.

ISBN: 978-3-86488-054-4
Kontakt: editors@langzeitarchivierung.de

Quelle: http://dhd-blog.org/?p=2789

Weiterlesen

Datenpublikation und die Rolle der Informationswissenschaft

In seinem Editorial für die aktuelle Ausgabe des Journal of the American Society for Information Science and Technology reflektiert Blaise Cronin, Chefredakteur dieser für die Informationswissenschaft zentralen Zeitschrift, die Rolle von Daten im Publikationsprozess und stellt fest:

„Data are not simply addenda or second-order artifacts; rather, they are the heart of much of the narrative literature, the protean stuff, that allows for inference, interpretation, theory building, innovation, and invention.” (Cronin, 2013)

Für die Digitalen Geisteswissenschaften, die zu großen Teilen darauf basieren, geisteswissenschaftliche Gegenstände und Bezugsmaterialien möglichst feingliedrig in maschinenlesbare Daten umzuwandeln, um sie mit digital grundierten Methoden durchforschbar zu machen, steckt darin wenig Neues. Das Stichwort Datenpublikation, die die Publikation der Erkenntnisse und Schlussfolgerungen begleitet, und die damit verbundenen Standards markieren daher fraglos ein wichtiges Thema auch für die Digitalen Geisteswissenschaften. Diese müssen ebenfalls grundsätzlich das klären, was die Wissenschaftskommunikation aller Disziplinen, bzw. die Akteure, die diese Kommunikationen professionell organisieren, derzeit mehr oder weniger intensiv umtreibt:

(1)    [H]ow data are to be handled and incorporated into the scholarly workflow […]

(2)    [H]ow and under what conditions authors should make their data available for others to validate, replicate, or reuse as they see fit

Cronin befindet sich damit (erwartungsgemäß und per Zitation bestätigt) in Einklang mit den von Christine L. Borgman ebenfalls in JASIST vor knapp einem Jahr formulierten Grundprinzipien für die Verbreitung von Forschungsdaten (Borgman, 2012):

-            To reproduce or to verify research
-            To make the results of publicly funded research available to the public
-            To enable others to ask new questions of extant data
-            To advance the state of research and innovation

Es ist offensichtlich, dass passende wissenschaftliche Standards zum ersten Prinzip vorrangig innerhalb der Community ausgehandelt werden müssen, dass das zweite Prinzip sehr stark mit der generellen Frage von Open Access verwoben ist, dass das dritte Prinzip vor allem wissenschaftsethisch eine weiterführende Forschung auf gemeinsamen Datengrundlagen betont und schließlich der vierte Aspekt etwas allgemeiner die Förderung von Wissenschaft und Innovation an sich als Ziel verfolgt. All das deutet auf einen notwendigen Metadiskurs darüber hin, welchen Sinn die Publikation von Daten haben kann und soll.

Cronin schreibt zutreffend:

„Humanists and social scientists of all stripes are faced with similar challenges relating to image collections, demographic statistics, economic time series data, literary corpora, social media metroics, etc.: To every field its data trove.” (Cronin, 2013)

Gerade weil der Data Turn jede Disziplin ergreift und man sich neue und vielleicht sogar die interessanteren Ergebnisse zukünftig vor allem aus der Wechselbeziehung von Daten aus unterschiedlichen Feldern vorstellen kann, scheint ein interdisziplinärer Dialog zu den Standards der Datenpublikation und –nachnutzbarkeit geboten.

Die Informationswissenschaft (bzw. Bibliotheks- und Informationswissenschaft) versucht sich naheliegend als Vermittlungsdisziplin zu etablieren. Cronin ist beizupflichten, wenn er meint: „we should avoid advocating procrustean policies“, wenn dies disziplinäre Dateninseln oder die Einschränkung der Data Diversity auf sehr restriktive Vorgaben zur Folge hat. Andererseits wird unter anderem hinsichtlich kommender Forschungskonzepte die Frage, wie heterogene Datenbestände direkt aufeinander bezogen werden, metadisziplinär relevant. Dabei geht es tatsächlich nicht um „an airtight set of requirements or a single, mulitpurpose data availability policy.” Wohl aber um eine Verständigung auch zu fachübergreifenden (Nach)Nutzungsmöglichkeiten von Datenbeständen.

Cronin will als Redakteur von JASIST natürlich erst einmal klären, wie Datenpublikation in seiner eigenen Zeitschrift überhaupt aussehen kann. Nichtsdestotrotz sollte man meines Erachtens darüber hinaus und besonders auch aus der Perspektive der Digital Humanities nicht nur dazu reflektieren, wie Datenpublikationsprozesse in den Digitalen Geisteswissenschaften möglichst nach den Prämissen Transparenz und Nachvollziehbarkeit der Forschung, Open Access sowie Nachnutzbarkeit für weitere Forschungen innerhalb eines jeweils konkreten disziplinären Rahmen gestaltet sein sollen. Sondern – angeregt vom vierten Grundprinzip bei Christine L. Borgman – ebenso überlegen, wie sich interdisziplinär auch über die Digital Humanities hinaus möglichst verbindliche Normen zur (auch verschränkten) Nutzung von Datenbeständen entwickeln lassen.

Da das Problem alle gleichermaßen betrifft, wenn auch unterschiedlich ausdifferenziert, könnte man in der jetzigen Frühphase Lösungen, Standards und Empfehlungen kooperativ nicht zuletzt mit der Maßgabe entwickeln, das zukünftige interdisziplinäre Wechselwirkungen direkt unterstützt werden. Die Debatte darum, ob die Digitalen Geisteswissenschaften eine neue Wissenschaftsdisziplin oder eine neuer Methodenbereich sind (vgl. exemplarisch diesen Kommentar von Charlotte Schubert) zeigt meiner Ansicht nach, dass wir die hier entstehenden Forschungsperspektiven ohnehin disziplinär übergreifend denken müssen. An dieser Stelle eröffnet sich nicht zuletzt die Möglichkeit, sich sehr zukunftsgerichtet zu profilieren.

Ich vermute stark, dass das, was wir derzeit unter den verschiedenen Digital- und eHumanities-Synonyma diskutieren, erst den Einstieg in viel grundlegendere Transformationen der Wissenschaft an sich darstellt. Daraus ergibt nach meinem Verständnis eine Gestaltungspflicht. Als Bibliotheks- und Informationswissenschaftler sehe ich für die Frage nach der Integration der formalisierten Datenpublikation in die Prozesse der Wissenschaftskommunikation einerseits meine eigene Disziplin als Vermittlungswissenschaft in der Verantwortung, sind doch die Prozesse der Sammlung, Erschließung und Vermittlung von Informationen traditionell ihr Kerngebiet. Zudem erscheint es mir andererseits als sehr sinnvoll, wenn die Fachcommunities einen entsprechenden Dialog aktiv suchen. Denn der interdisziplinäre Erkenntnistransfer kann erfahrungsgemäß nur gelingen, wenn er auf gegenseitigem Verstehen beruht.

Quellen

Borgman, Christine L. (2012): The conundrum of sharing research data. In: Journal of the American Society for Information Science and Technology. 63 (6), S. 1059-1078. DOI: 10.1002/asi.22634

Cronin, Blaise (2013): Thinking About Data. Editorial. In:  In: Journal of the American Society for Information Science and Technology. 64 (3), S. 435-436. DOI: 10.1002/asi.22928

Quelle: http://dhd-blog.org/?p=1419

Weiterlesen

LIBREAS #23. Call for Papers zum Thema Forschungsdaten (auch in den Geisteswissenschaften)

Die Zeitschrift LIBREAS.Library Ideas veröffentlichte in der vergangenen Woche einen Call for Papers für ihre Ausgabe 23. Der Schwerpunkt liegt diesmal auf dem Thema Forschungsdaten.

Thema: Forschungs- und andere Daten sowie ihre Organisation und Rolle in Bibliothek und Wissenschaft
Einreichungsfrist: bis 31.05.2013
gewünscht sind: Beiträge, die Wechselwirkungen zwischen Wissenschaft, Daten und Bibliotheken reflektieren, annotieren, dekonstruieren und/oder analysieren
disziplinäre Einschränkungen: keine
Rückfragen: redaktion@libreas.eu

Für die Digitalen Geisteswissenschaften / Digital Humanities ist der im Call beschriebene Ansatz nicht zuletzt deshalb von Interesse, weil bei jeder Auseinandersetzung mit der Wechselbeziehung von Forschungsdaten und Forschungsdatenmanagement durch Infrastrukturanbieter die Frage mitschwingt, wie sich Forschungsdaten überhaupt disziplinär angemessen differenziert darstellen lassen.

Konkreter könnte man fragen, wie sich die unvermeidliche wechselseitige Anpassung

a) von Daten und Datenstrukturen an die Wissenschaft und ihre Forschungsfragen sowie
b) der Wissenschaft und Forschungsfragen an die vorgegebenen technischen Rahmenbedingungen der Datenverarbeitung und -abbildung

ausbalancieren lässt?

Eine automatische Prozessierung und Speicherung von Daten in digitalen Infrastrukturen benötigt bestimmte neue bzw. angepasste und angemessene technische und kommunikative Standards, die sich zwangsläufig über die Zeit verändern. Die Herausforderung liegt für alle Beteiligten darin, Methoden, Verfahren und Systeme zu entwickeln, die der technischen Machbarkeit und den Ansprüchen der Wissenschaftspraxis gleichermaßen gerecht werden.

LIBREAS besitzt zwar eine dezidiert bibliotheks- und informationswissenschaftliche Ausrichtung. Doch gerade die Anforderungen, Wünsche und Probleme, die FachwissenschaftlerInnen außerhalb des Bibliothekswesens bei der Organisation (Sammlung, Erschließung, Zugänglichmachung) geisteswissenschaftlicher Forschungsdaten in Bibliotheken und auch anderen Einrichtungen der Wissenschaftsinfrastruktur feststellen, sind für die Bibliothekswissenschaft und die Bibliothekspraxis von außerordentlichem Interesse. Im Zentrum der Ausgabe 23 steht eine grundsätzliche Frage, die Bibliotheken und Bibliothekswissenschaft nur im Dialog mit den FachwissenschaftlerInnen beantworten können:

Werden Daten ein neues/das neue Arbeitsfeld für Bibliotheken?

In der Konkretisierung fragt LIBREAS u.a. auch:

Wie nehmen die Forschenden die Bibliotheken wahr, wenn diese von Forschungsdatenmanagement sprechen?

LIBREAS würde sich aus diesem Grund sehr freuen, neben Beiträgen von Akteuren, die konkret mit der Entwicklung und dem Betrieb Infrastrukturen für Forschungsdaten befasst sind, auch Beiträge von AutorInnen aus den geisteswissenschaftlichen Disziplinen, die diese Infrastrukturen nutzen (sollen/wollen) zu erhalten.

Den ausführlichen Call for Papers gibt es im LIBREAS-Weblog: Call for Papers: Forschungsdaten, Metadaten, noch mehr Daten. Forschungsdatenmanagement.

Weitere Fragen beantwortet die LIBREAS-Redaktion sehr gern via redaktion@libreas.eu.

LIBREAS.Library Ideas ist eine seit dem März 2005 bestehende e-only Open-Access-Zeitschrift.

Sämtliche in LIBREAS veröffentlichten Beiträge werden auf dem E-Doc-Server der Humboldt-Universität zu Berlin archiviert und über das Directory of Open Access Journals nachgewiesen.

(Anmerkung: Ben Kaden ist Mitherausgeber der Zeitschrift LIBREAS.Library Ideas.)

Quelle: http://dhd-blog.org/?p=1182

Weiterlesen

Das altägyptische Totenbuch – Ein digitales Textzeugenarchiv

Seit 20 Jahren arbeiten Forscher aus Bonn an der Erschließung eines der wahrscheinlich bedeutendsten und am weitesten verbreiteten Jenseitstexte: Das Totenbuch des Alten Ägyptens.

Dieses umfasst etwa 200 Sprüche und ergänzt diese zusätzlich durch Abbildungen – die so genannten Vignetten, welche die inhaltlichen Aussagen der Texte zusätzlich  illustrieren.
Seit März 2012 ist das Totenbuch-Archiv nun im Internet zugänglich (http://totenbuch.awk.nrw.de). In der Datenbank sind Schlüsselinformationen und Bildmaterialien über alle weltweit noch erhaltenen und der Forschung bekannten Quellen des Totenbuchs gesammelt, welche nicht nur einem ägyptologischen Fachpublikum, sondern auch den interessierten Laien und der breiteren Öffentlichkeit Zugang zu diesem Forschungsbereich ermöglichen soll.

Zugang zum Material erhält der Nutzer auf zweierlei Weisen: zum einen durch eine “facettierte Suche”, mit der Objekte durch die Angabe von Filterkriterien (auf dem Objekt enthaltene Sprüche, Objektart, Datierung, Herkunft, heutiger Standort, usw.) gefunden werden können, zum anderen durch ein geleitetes Browsing über Menüstrukturen, welche den schnellen Zugriff auf Objekte über Visualisierungen und Register erlaubt, die auf die Kernmerkmale und die auf den Objekten enthaltenen Sprüche ausgerichtet sind.

Die Präsentationsoberfläche fungiert zugleich als Backend für angemeldete Benutzer und Projektmitarbeiter. Nach dem Einloggen kann je nach Rechtevergabe zusätzliches Bildmaterial eingesehen werden und es können Angaben bearbeitet und neue Datensätze hinzugefügt werden.
Zu den besonders bemerkenswerten Aspekten des Projekts gehört die Aufbereitung der Informationen zu einzelnen Objekten und Sprüchen wie auch als Gesamtdatenbank mittels verschiedener Visualisierungsstrategien. Neben zahlreichen Standardvisualisierungen zum Gesamtkorpus, die z.B. die Struktur der Überlieferung darstellen, gibt es auch spezielle Visualisierungen zu einzelnen Forschungsfragen, wie beispielsweise der “Kanonizität der Spruchabfolge” auf den Textzeugen.

Eine Einbindung in die weitere Infrastruktur der ägyptologischen Forschung erfolgt durch
Verwendung von IDs, die mit dem zentralen Nachweisportal der Ägyptologie (Trismegistos) abgeglichen und verlinkt sind.

Im Hinblick auf das weitere technische Setup entspricht das Totenbuch-Projekt dem
state of the art. PURLs, die auf den Trismegistos-IDs basieren und vom technischen System entkoppelt sind, sorgen für sprechende Adressen und gewährleisten die direkte und dauerhafte Adressierbarkeit der Objektbeschreibungen.

Der Server für diese Publikation ist zunächst an der Universität zu Köln angesiedelt, da er vom Cologne Center for eHumanities (CCeH) im Auftrag der Akademie der Wissenschaften und Künste NRW, welche das Projekt seit 2004 fördert, aufgebaut wurde.
Das digitale Textzeugenarchiv zeigt eindrücklich, dass klare Informationsstrukturierung und professionelles Design intuitive Wege zu wissenschaftlichen Ressourcen bahnen können, welche nicht nur einen großen Funktionsumfang haben, sondern auch auf der Seite der Präsentation gefällig und gut benutzbar sind.

Quelle: http://dhd-blog.org/?p=747

Weiterlesen