DARIAH-DE – Workshop “Forschungsdaten für Andere”

Lizenzen, so könnte man es positiv formulieren – sollen es ermöglichen Daten(sätze)und Datafakten innerhalb der Grenzen der geltenden Gesetze so öffentlich verfügbar zu machen wie möglich. Demgegenüber stehen die Unsicherheiten und die Unkenntnis darüber, was überhaupt lizensiert werden kann und darf, was die diversen Lizenzen auf dem Markt zu leisten vermögen, wie sich die jeweiligen Lizenzen in welchem Punkt unterscheiden. Auch herrscht meist Unklarheit darüber, wie Schutzkraft von Lizenzen einzuschätzen ist. Was schließen die jeweiligen Lizenz ein und was schließen sie aus? Wo liegen die jeweiligen Stärken und Schwächen, Chancen und Grenzen der Lizenz und wie komme ich überhaupt an diese? Angesichts möglichst freier, überregionaler und langfristiger Zugriffe auf Daten zu gewährleisten, sind gerade Lizenzen ein unumgänglicher Teil im Prozess der globalen Austausches. Allerdings erscheinen Lizenzprozesse und -entscheidungen für viele Wissenschaftler ein kaum zu bewältigendes und überschaubares Minenfeld zu sein. Dies führt teilweise zu falschen Entscheidungen in Bezug auf die Lizenzierung, so dass eine freier, überregionaler und langfristiger Zugang schwierig ist, oder es wird keine Lizenz vergeben, ohne zu bedenken, dass ohne eine explizierte Lizenz die Weiterverwendung stark beschränkt ist.

Durch das enorm gewachsene Interesse am offenen Zugang zu Forschungsdaten bzw. deren Bereitstellung in den historisch arbeitenden Wissenschaften, wird es immer dringlicher eine Regelung für die offene Frage der Urheber- und Verwertungsrechte an Forschungsdaten zu finden, da Forschungsdaten Grundpfeiler wissenschaftlicher Erkenntnis darstellen und Grundlage weiterer Forschung sind.[1] Zudem ergeben sich aus Projekten (wie z.B. WissGrid) und durch die gesteigerten Anforderungen durch Geldgeber immer mehr Notwendigkeiten sich mit dem “Datenmanagement” zu beschäftigen, welches auch die Beschäftigung mit Datenlizenzierung und Entscheidungsprozessen für eine Lizenz mit impliziert.

Diese und andere Problemkonstellationen waren Anlass am Leibniz-Institut für Europäische Geschichte in Mainz zusammen mit dem Deutschen Archäologischen Institut in Berlin als Partner in DARIAH-DE am 12./13.06. 2014 ausrichtete. Der Workshop war explizit zur Lizensierung von Forschungsdaten und Datafakten für die historisch arbeitenden Wissenschaften gedacht. In theoretischer und praktischer Perspektive wurden die Lizensierungsmöglichkeiten, die Lizensierungsprozesse und -entscheidung in den Blick genommen und diskutiert.

Am ersten Tag (12.6) wurde mit Experten in Input-Talks auf die Grundlagen der Forschungsdatenlizensierung eingegangen und die Themenkomplexe Urheberrecht, Nutzungsrechte und Datenschutz behandelt. Einzelne Projekte und Einrichtungen stellten ihre Modelle und Lösungen mit Lizenzierungsentscheidungen und -prozessen für den nationalen und internationalen Datenaustausch vor.

Zunächst stellte WIBKE KOLBMANN (Berlin) das Infrastrukturprojekt DARIAH-DE vor und verdeutlichte die Notwendigkeit an und von europäischen Infrastrukturprojekten zur Schaffung von Interoperabilität von Datenbeständen bzw. Datafakten sich stärker als bisher mit Fragen rund um die Lizensierung von Forschungsdaten zu beschäftigen.

JOHANNES PAULMANN (Mainz) als Direktor des Leibniz-Instituts für Europäische Geschichte unterstrich in seinem Grußwort die Dringlichkeit der Fragen nach den sozialen und wissenschaftlichen Regeln für Bereitstellung und Nutzung von Daten. Er verwies dabei auf die Notwendigkeit des freien Zugangs zu Forschungsdaten und Publikationen in Form von Open Access und Open Data. Er verwies dabei auf die eigenen Erfahrungen mit dem Projekt Europäische Geschichte Online und den in diesem Projekt bereitgestellten Metadaten zu Beiträgen und Multimediaelementen. So wies er darauf hin, dass die Beiträge zumeist unter einer Creative-Commons-Lizenz veröffentlicht würden und dadurch potentiellen Nutzern die Bedingungen für die (Weiter-)Nutzung deutlich gemacht würden und müssten.

Der Jurist und Kulturmanager PAUL KLIMPEL (Berlin) gab einen Überblick über die rechtlichen Rahmenbedingungen für wissenschaftliche Daten. Er machte nochmals deutlich, dass zunächst wissenschaftliche Daten nicht grundsätzlich einem urheberrechtlichen Schutzbereich angehören und damit diese nicht per se geschützt sind. Vielmehr tritt hier die Notwendigkeit von Lizenzen und Lizensierungsprozessen zutage, denn in juristischer Hinsicht sind Lizenzen rechtsverbindliche Verträge, die den Gebrauch und Nutzung von Daten(-beständen) eindeutig regeln. So machte Klimpel auch darauf aufmerksam, dass der Lizenzhinweis ein wichtiges Element darstelle, insbesondere dann, wenn dieser maschinenlesbar ist (z.B. als RDF), da dieser dann als rechtlich Metadatum gelten könne.

Die Leiterin des Arbeitspaketes “Standards und Richtlinien” im Projekt APEx (ArchivPortal Europa Exzellenznetzwerk) am Bundesarchiv SUSANNE WAIDMANN (Berlin) vertiefte den Aspekt zur Angabe des Lizenzhinweises anhand von archivischen Daten im Kontext des Archivportals Europa und dem Europeana-Projekt. Sie erläuterte anhand der Aufarbeitung der archivischen Daten in XML-Dateien das Format EAD (Encoded Archival Description) und die anschließende Konvertierung in das Europeana Daten Modell (EDM), wobei in diesem Schritt die Rechteinformationen mit in die Dateien eingebaut würden. Auch in Bezug auf die Metadaten kann METS (Metadata Encoding and Transmission Standard) als Containersystem für digitale Objekte und deren Präsentation in Kombination mit METSRights eine Einbindung von Rechteinformationen über digitale Objekte erreicht werden. Allerdings gäbe es keine Einigkeit über die Nutzung von Lizenzen (so z.B. bei Europeana CC) bei Erschließungsangaben bzw. Informationen, was allerdings teils auch an den nationalen Gesetzgebungen, so dass auf CC-By-Lizenzen zurückzugreifen wäre, wie es auch das Bundesarchiv mit CC BY-NC-SA mache. Es könne aber keinen generellen Aussagen darüber gemacht werden, wann und wie Lizenzen genutzt werden, sondern hänge immer noch stark vom jeweiligen Einzelfall ab, was ein zeit- und kostenintensives Unternehmen ist. Es müsse von daher ein valider Workflow entwickelt werden, der Arbeitsaufwand und Nutzen in ein rechtes Verhältnis setze.

ALINE DEICKE und ANNA NEOVESKY (Mainz) von der Digitalen Akademie verdeutlichten in ihrem Vortrag zu OpenAccess im Akademienprogramm zunächst die Rahmenbedingungen von OpenAccess und Lizensierungen unter der spezifischen Perspektive der Akademieprogramme. Sie berichteten aus den aktuellen Projekten im Umgang mit dem Einsatz von Lizenzen und stellten sowohl grundlegende Gedanken an und brachten diese in Zusammenhang mit gewonnenen Erfahrungen aus dem Arbeitsalltag. Sie machten darauf aufmerksam, dass es keinen Automatismus zwischen der Online-Verfügbarkeit und OpenAccess gäbe, insbesondere wenn die zur Verfügung gestellten Daten unter keine Lizenz gestellt wurden, da die Unklarheit der rechtlichen Lage zur Nicht-Nutzung führen würden. In den Projekten in den Akademieprogrammen würden sich Tendenzen zu CC-Lizenzen in der Form von CC-BY-SA abzeichnen, aber die Entscheidung über Lizenzen würde immer wieder an die Erfordernisse  des Projektes abgestimmt. Einige Projekte haben für eine Entscheidung die General Public License genutzt, um zu einem Ergebnis zu kommen. Für Deicke/Neovesky sei es allerdings offen, wie es mit Lizenzen, Entscheidungen und Prozessen angesichts von kollaborativen Projekten umgegangen werden müsse und wie die Lizensierung sich auch auf die Möglichkeiten der Langzeitarchivierungsstrategien auswirken würden.

MICHAEL KAISER (Bonn) von der Max-Weber-Stiftung in seinem Beitrag “Wissen, Bewusstsein, Praktikabilität” auf die rechtlichen Implikationen des digitalen Publizierens hin. Er zeigte dies an dem von ihm betreuten Projekt perspectivia.net und betonte, dass im Durchlaufen der Phasen von der Konzeptionierung bis zum Alltagsbetrieb die lizenzrechtliche Klärung immer ein wichtiges Element darstelle. Auch die Rollenverteilung zwischen den beteiligten Akteuren auf jeder Ebenen in allen Phasen der Konzeption und Durchführung von “digitalen” bzw. hybriden Projekten spiele eine wichtige Rolle. Er konstatierte, dass die Akzeptanz von und das Bewusstsein für Lizenzen auf allen Ebenen und Dimensionen der Projektphasen noch steigerungsbedürftig seien, wobei oft der Aspekt des Designs der Lizenzierung allzu oft in den Hintergrund gerät und das Spektrum der angebotenen Lizenzen bei weitem nicht genutzt wird. Er machte am Schluss seiner Ausführung darauf aufmerksam, dass auch die Internationalisierung von Lizenzen bisher noch unzureichend bedacht und umgesetzt ist, so dass sich Probleme bei dem Umgang mit der Mehrsprachigkeit und den Konflikt mit ausländischen Rechtsnormen noch zu wenig Aufmerksamkeit geschenkt würde, wenngleich dies nicht zu einem Alarmismus führen sollte.

Am zweiten Tag (13.6) wurden verschiedene Tools zur Lizenzentscheidung und -erstellung vorgestellt.

THOMAS KOLLATZ (Essen) stellte die Creative Commons Lizenzen mit Chancen und Grenzen vor und deren Lizensierungsportal Choose a license vor. Er zeigte auf, wie die CC-Lizenzen in verschiedenen Datenformaten Verwendung finden können (z.B. TEI, (x)html, EDM XML).

NIKO BEER (Paderborn) stellte das Licensing decision tool als Teil des OER IPR Support Project vor. In diesem Projekt werden umfangreiche Informations- und Hilfsmaterialien, sowie Werkzeuge zur Verfügung gestellt und verschiedenste Wege der Offenheit der Daten und ihrer Lizensierung mit bedacht werden kann.

WIBKE KOLBMANN (Berlin) stellte wiederum den Public Domain Calculator des Projektes Europeana Connect vor. Dieser entstand im Zuge der Suche nach einem Europeana Licensing Framework und soll die Klärung der Rechtslage und Empfehlung für Datenanbieter im Hinblick auf die Lizenzierung ihrer Daten für Europeana fördern. Er ist ein Instrument zur Bestimmung, ob Schutzfristen für ein Werk ausgelaufen sind, ob andersweitige Fakten vorliegen oder ob es sich um ein neu entstandenes Werk handelt, welches freiwillig als gemeinfrei veröffentlich werden kann. Allerdings wies Kolbmann in ihren Ausführungen nochmals darauf hin, dass der Anwendungsbereich des Tools durch die Auswahl der Medienformate eingeschränkt und zudem nicht für die Evaluierung von Metadaten geeignet sei.

Abschließend testeten die Teilnehmer an eigenen Rechnern die vorgestellten Tools, die sie bei der Lizenzentscheidung und -erstellung unterstützen können anhand ihrer eigenen Daten. Jeweilige Anwendungsfragen konnten direkt mit den jeweiligen BeraterInnen von DARIAH-DE diskutiert und gelöst werden.

In der Abschlussdiskussion wurde nochmals deutlich, dass es einen enormen Bedarf an Aufklärungs- und Beratungsarbeit in Bezug auf die Entscheidungsprozesse für oder wider eine Lizenzart gibt. Es war allgemeiner Konsens, dass es eine zentrale Stelle geben sollte, um sich bei Fragen der Lizensierung von Daten und Datafakten in den historisch arbeitenden Wissenschaften beraten zu lassen. Grundsätzlich wurde aber die Notwendigkeit für die Verwendung und den Nutzen der Lizenzierung von Forschungsdaten nicht mehr in Frage gestellt, was wiederum auch ein wichtiges Ergebnis des Workshops darstellt.

Workshopübersicht

Begrüßung Johannes Paulmann (Mainz)

Einführung Wibke Kolbmann (Berlin), Lizenzen als Thema von Infrastrukturprojekten – DARIAH-DE

Theorie und Praxis – Perspektiven und Herausforderungen der Datenlizenzierung

Paul Klimpel (Berlin), Rechtliche Rahmenbedingungen für wissenschaftliche Daten – Ein Überblick

Susanne Waidmann (Berlin), Rechteangaben rund um archivische Daten im Archivportal Europa und Europeana

Aline Deicke / Anna Neovesky (Mainz), OpenAccess im Akademienprogramm – Anwendung und Herausforderungen

Michael Kaiser (Bonn), Wissen, Bewusstsein, Praktikabilität – rechtliche Implikationen des digitalen Publizierens

Methoden und Tools ? Praktische Perspektiven der Datenlizenzierung

Thomas Kollatz (Essen), creative commons 4.0

Niko Beer (Paderborn), OER Licensing Decision Tool

Wibke Kolbmann (Berlin), Public Domain Calculator

Fragen und Perspektiven

Hands-on-Session mit den vorgestellten Tools anhand von eigenen Daten und Datafakten und anschließender Diskussion mit Teilnehmern und Veranstaltern.

[1] So die Wissenschaftsallianz in ihren Grundsätzen zum Umgang mit Forschungsdaten. Die DFG sieht hierin auch die Sicherung guter wissenschaftlicher Praxis.

Quelle: http://dhd-blog.org/?p=3773

Weiterlesen

Anmeldefrist verlängert: Zweitägiger Workshop – Forschungsdaten für Andere. Lizenzen und Werkzeuge für Historiker

Das Leibniz-Institut für Europäische Geschichte in Mainz richtet im Rahmen von DARIAH-DE (Digital Research Infrastructure for the Arts and Humanities) einen zweitägigen Workshop zur Lizenzierung von Forschungsdaten aus und lädt dazu Historikerinnen und Historiker ein, die selbst über Forschungsdaten verfügen, planen diese zu veröffentlichen und nun nach einer geeigneten Lizenz für ihre Daten suchen. Hier der Link zum Programm!

Anmeldungen sind ab sofort bis zum 09.06.2014 über das Registrierungsformular möglich. Der Workshop ist auf max. 18 Personen beschränkt, die Vergabe der Plätze und eine Zusage über eine Teilnahme erfolgt in der Reihenfolge der Anmeldungen. Die TeilnehmerInnen werden gebeten, Ihren eigenen Computer/Laptop mitzubringen, um an den Hands-On-Sessions aktiv teilnehmen zu können.

Quelle: http://dhd-blog.org/?p=3607

Weiterlesen

Neues Verbundprojekt „Humanities Data Centre – Forschungsdatenzentrum für die Geisteswissenschaften“ gestartet

Vom Niedersächsischen Ministerium für Wissenschaft und Kunst (MWK) ist durch die Bewilligung  einer entsprechenden Designstudie der Startschuss zum Aufbau eines Forschungsdatenzentrums für die Geisteswissenschaften gegeben worden. Sechs Projektpartner werden sich in dem mit 600.000 Euro geförderten Verbundprojekt „Humanities Data Centre (HDC) – Forschungsdatenzentrum für die Geisteswissenschaften (Designphase)“ mit dem Aufbau eines solchen Zentrums befassen, um die langfristige Speicherung und Nachnutzung von geisteswissenschaftlichen Forschungsdaten sicherzustellen. Diese Initiative stellt ebenso einen wichtigen Baustein im Rahmen des Göttinger eResearch Verbundes dar.

Forschungsdaten sind unverzichtbare Produkte und Grundlage der Wissenschaft, die durch disziplinspezifische Datenzentren bewahrt werden müssen. Auch in den Geisteswissenschaften fallen immer mehr Daten an, für die entsprechende Speichermöglichkeiten und -konzepte entwickelt werden müssen und alle Beteiligten vor große Herausforderungen stellt. Ziel des HDC-Verbundprojektes ist es, in einer Designstudie erste Schritte für den Aufbau eines Forschungsdatenzentrums zu gehen, das im späteren Betrieb die für geisteswissenschaftliche Forschungsdaten notwendigen Aufgaben übernimmt. Ein Großteil der Geisteswissenschaften hat bisher noch keine Forschungsdateninfrastruktur und auch nicht die Ressourcen, eine eigene aufzubauen, oder aber kein Interesse, sie selbst zu betreiben. Die zentrale Aufgabe eines Humanities Data Centre ist es, die Forschungsdaten dieser Disziplinen (z. B. kritische Editionen, Multimedia-Objekte oder 3D-Modelle) langfristig zu sichern und, sofern rechtlich möglich, zur Nachnutzung anzubieten. Wichtige Projekte im Bereich Geisteswissenschaften, wie DARIAH und Textgrid, an denen die GWDG ebenfalls beteiligt ist, verwenden in ihren Forschungsumgebungen bereits erhebliche Datenbestände, für die ein gemeinsamer Forschungsdaten-Service benötigt wird. Das Humanities Data Centre wird somit eine zentrale Datenschnittstelle für virtuelle Forschungsumgebungen in den Geisteswissenschaften darstellen.

Das Niedersächsische Ministerium für Wissenschaft und Kultur hat die Gesellschaft für wissenschaftliche Datenverarbeitung mbH Göttingen (GWDG) mit der Leitung dieses Projektes einer Designstudie zum Aufbau eines Forschungsdatenzentrums für die Geisteswissenschaften mit einer Laufzeit von zwei Jahren beauftragt. Zu diesem Zweck wurden fast 600.000 Euro an Personalmitteln für die sechs beteiligten Projektpartner aus dem Fördertopf des sogenannten Niedersachsen Vorab bereitgestellt, mit dem Forschungsvorhaben an Hochschulen und wissenschaftlichen Einrichtungen in Niedersachsen unterstützt werden. Das Projekt startete im Mai 2014.

Neben der GWDG, die die Konsortialleitung innehat, sind im Projekt für die Georg-August-Universität Göttingen die Niedersächsische Staats- und Universitätsbibliothek Göttingen (SUB) vertreten. Ebenfalls dabei sind die Akademie der Wissenschaften zu Göttingen (AdW) und das Max-Planck-Institut zur Erforschung multireligiöser und multiethnischer Gesellschaften in Göttingen (MPI-MMG). Erfreulicherweise wurde auch die Förderung von zwei Berliner Einrichtungen, die Berlin-Brandenburgische Akademie der Wissenschaften (BBAW) und das Konrad-Zuse-Zentrum für Informationstechnik Berlin (ZIB), in einem geringen Umfang ermöglicht, was die Aufstellung und Wirkung des Projektes wesentlich vergrößert. Als assoziierter Partner konnte zudem das Max-Planck-Institut für Wissenschaftsgeschichte in Berlin (MPIWG) gewonnen werden.

Quelle: http://dhd-blog.org/?p=3500

Weiterlesen

Nachlese DHd 2014: Wissenschaftliche Sammlungen

Session 3 der DARIAH-DE Pre-Conference in Passau fand am Mittwoch dem 26. März statt und behandelte das Thema Wissenschaftliche Sammlungen. Dr. Thomas Stäcker, Stellvertretender Direktor der Herzog August Bibliothek Wolfenbüttel, erläuterte definitorische sowie technische Voraussetzungen wissenschaftlicher Sammlungen und berichtete von aktuellen Perspektiven und Herausforderungen im Umgang mit Forschungsdaten.

Einleitend wurden als grundlegende Aufgabenbereiche der Aufbau von wissenschaftlichen Sammlungen, wie auch die Nutzung und Integration bereits existierender Sammlungen genannt (als dritter Aufgabenbereich ist hier auch die Lizenzierung von Inhalten anzuführen, die jedoch eine dementsprechend eigene Materie darstellt). Demnach gehört es zum Aufbau wissenschaftlicher Sammlungen, technische Interoperabilität und Schnittstellen zu gewährleisten, Daten- und Metadatenstandards umzusetzen, sowie kontrollierte Vokabulare und Normdaten bereitzustellen. Darüber hinaus bietet es sich an, die im Rahmen von DARIAH-DE entwickelte Collection Registry mit Informationen über derart aufbereitete wissenschaftliche Sammlungen zu füllen und damit einer föderierten Suche zugänglich zu machen.

Für alle diese Vorgänge werden jedoch auch Kriterien benötigt, anhand derer wissenschaftliche Sammlungen begutachtet werden können. Eine Frage nach solchen Kriterien mündet schließlich auch in die Frage nach einer grundsätzlichen Definition des Sammlungsbegriffs. Als Diskussionsgrundlage präsentiert Stäcker eine Definition der Deutschen Forschungsgemeinschaft, die eine wissenschaftliche Sammlung als “Gesamtheit von Objekten, die einen kulturellen und/oder wissenschaftlichen Wert aufweist und nach bestimmten thematischen Schwerpunkten zusammengestellt ist”, beschreibt [1]. Hier wird bereits klar, dass Ordnungsprinzipien als konstitutive Merkmale wissenschaftlicher Sammlungen zu sehen sind, kurz gesagt, dass eine Ansammlung noch keine Sammlung darstellt. Es wird aber auch darauf hingewiesen, dass dabei eine phänomenologische und epistemologische Ebene zum Tragen kommt, die dafür verantwortlich ist, wann eine Sammlung denn als solche zu erkennen ist – ein umfassender Zugang, der hier jedoch als Arbeitshypothese im Raum stehen bleiben muss.

Eine weitere definitorische Herausforderung bietet der Begriff der Forschungsdaten, der eine grundlegende Voraussetzung für groß angelegte digitale Forschungsumgebungen darstellt. Für den Begriff der Forschungsdaten kann von zwei Polen, nämlich einem daten- und dokumentzentrierten Zugang ausgegangen werden, wobei ersterer die Daten in einer quantitativen, diskreten Form (z.B. Datenbanken, Listen) und zweiterer eine qualitative, kontinuierliche Form (z.B. Annotationen, Notizen) beschreibt. Stäcker ortet hier ein fehlendes Selbstverständnis bei Geisteswissenschaftlern, die eigene Arbeitsergebnisse nicht als “Daten” einschätzen und schließt mit der allgemeinen Frage an, ob und wann denn Quellen und Dokumente als Daten zu betrachten sind.

Ausgehend von dieser Fragestellung wurde im Anschluss an den Vortrag festgestellt, dass eine Form von Prozessierbarkeit für den Status als Datum ausschlaggebend ist. Wie genau diese Prozessierbarkeit jedoch gestaltet sein soll, darüber müsste weiter diskutiert werden – so stand beispielsweise die Frage im Raum, wie große Bestände von Bilddigitalisaten im Hinblick auf ihre zukünftig zu erwartende maschinelle Verarbeitung einzuschätzen sind. In einem breiteren Kontext stellt sich dabei nicht nur die Frage nach der Verarbeitung mit Hilfe technischer Werkzeuge, sondern auch nach den Zugangsmöglichkeiten zu solchen Beständen und Workflows, die immer noch weitgehend im Rahmen restriktiver Verwertungsrechte aushandelt werden. Hier lautet der Befund: Bestände, deren enduser nicht ohne Weiteres zum endmaker werden können, sind nicht als datenfähig anzusehen.

Schließlich wurden Ergebnisse des SUDAMIH Reports (Supporting Data Management Infrastructure for the Humanities) [2] vorgestellt und damit wesentliche Punkte im Umgang mit geisteswissenschaftlichen Forschungsdaten identifiziert – wie zum Beispiel die Feststellung, dass solche Datenbestände im Gegensatz zu ihren naturwissenschaftlichen Pendants eine längere Halbwertszeit aufweisen, ja oft sogar einen body of research darstellen, der das ganze Leben eines Forschers umfasst und auf den langfristig Bezug genommen werden soll. Neben solchen (teilweise stark) unterschiedlichen Organisationsprinzipien, ist auch zum Ausdruck gekommen, dass es in den Geisteswissenschaften eine gewisse Zurückhaltung gibt, Zwischenergebnisse oder Daten, die durch ihre beiliegende Interpretation erst vollständig erscheinen, der Öffentlichkeit zu präsentieren. Hier sind gegebenenfalls Möglichkeiten der anonymen Veröffentlichung anzudenken – ein weiterer Punkt, der noch zu diskutieren wäre.

Abschließend und aufbauend auf den vorangegangenen Fragestellungen gelangt Stäcker schließlich zu den folgenden Perspektiven im Aufbau wissenschaftlicher Sammlungen: Es gilt, nicht nur neue Forschungsdaten und Arbeitsumgebungen zu erstellen, sondern auch eine niederschwellige Verzeichnung von Daten und Sammlungen und eine sichere Aufbewahrung in Langzeit-Repositories sicherzustellen. Darüber hinaus sollte ein direkter Zugriff auf Sammlungseinheiten anhand ihrer Metadaten möglich sein – eine Eigenschaft, für deren Bereitstellung insbesondere auf Techniken des Semantic Web gesetzt wird. Mein persönliches Fazit der Session: Die Frage nach dem Begriff der wissenschaftlichen Sammlung ist eng verbunden mit ihren vor- und nachgelagerten Arbeitsprozessen – sowohl aus der Perspektive individueller Workflows einzelner Forscher, als auch im Hinblick auf eine darüber liegende (wissenschafts-)politische Ebene. Es handelt sich um einen stark vernetzten Themenbereich, der auch Fragen aufwirft, die aktuell nicht eindeutig zu beantworten sind.

[1] https://de.wikipedia.org/wiki/Forschungssammlung

[2] http://sudamih.oucs.ox.ac.uk/docs/Sudamih_FinalReport_v1.0.pdf

Quelle: http://dhd-blog.org/?p=3297

Weiterlesen

Silke Baumann: Langzeitarchivierung innerhalb Virtueller Forschungsumgebungen im Bereich Digital Humanities (=Berliner Handreichungen zur Bibliotheks- und Informationswissenschaft Heft 353), Berlin 2014

http://edoc.hu-berlin.de/series/berliner-handreichungen/2014-353 In der vorliegenden Arbeit wird an einem konkreten Beispiel betrachtet werden, wie wissenschaftliche digitale Kooperation und die langfristige Speicherung der digitalen Daten im Bereich Digital Humanities aktuell umgesetzt werden bzw. welche Wünsche und Ansichten die ForscherInnen diesbezüglich haben. Zu diesem Zweck wurden WissenschaftlerInnen der Johannes Gutenberg-Universität Mainz zur Beantwortung eines Online- Fragebogens eingeladen. Einführend […]

Quelle: http://www.einsichten-online.de/2014/03/4990/

Weiterlesen

Evolution der Informationsinfrastruktur – Kooperation zwischen Bibliothek und Wissenschaft

Festschrift FEZum zehnjährigen Bestehen der Abteilung Forschung und Entwicklung (F&E) der Niedersächsischen Staats- und Universitätsbibliothek Göttingen ist ein Sammelband mit dem Titel “Evolution der Informationsinfrastruktur – Kooperation zwischen Bibliothek und Wissenschaft” erschienen. Das Werk resümiert entlang ausgewählter Meilensteine die Arbeit im vergangenen Jahrzehnt. Dabei begibt es sich auf die Spuren des Wandels im Leitbild wissenschaftlicher Bibliotheken. Der Sammelband wird herausgegeben von Dr. Heike Neuroth, Prof. Dr. Norbert Lossau und Prof. Dr. Andrea Rapp.

Gemeinsam mit Partnern aus der Wissenschaft wurden zahlreiche, wegweisende Projekte auf dem Gebiet der digitalen Forschung vorangebracht. Dieser Pionierarbeit in der deutschen Bibliothekslandschaft wird in 19 Aufsätzen von über 30 Autorinnen und Autoren nachgegangen.

Das Buch ist beim vwh-Verlag in Kooperation mit dem Universitätsverlag Göttingen erschienen. Sie können die digitale Open Access-Fassung für nicht-kommerzielle Zwecke hier herunterladen: http://dx.doi.org/10.3249/webdoc-39006.

Eine gedruckte Fassung des Buches kann beim vwh-Verlag für 24,90€ bestellt werden.

Eine Dokumentationsseite zur Tagung anlässlich des zehnjährigen Bestehens der Abteilung F&E ist unter diesem Link verfügbar.

ISBN:  978-3-86488-043-8                            DOI-URL: http://dx.doi.org/10.3249/webdoc-39006

Quelle: http://dhd-blog.org/?p=3012

Weiterlesen

Neu erschienen: Masterarbeit zur Langzeitarchivierung von Daten in VFUs für die Digital Humanities

Auf dem e-doc-Server der Humboldt-Universität zu Berlin wurde am Montag in der Reihe Berliner Handreichungen zur Bibliotheks- und Informationswissenschaft die Masterarbeit von Silke Baumann zur Frage der Langzeitarchivierung [von Forschungsdaten] innerhalb Virtueller Forschungsumgebungen im Bereich Digital Humanities publiziert. Der Volltext ist über urn:nbn:de:kobv:11-100214018 abrufbar.

Die Autorin befragte dafür GeisteswissenschafterInnen an der Mainzer Universität zu ihrem Datennutzungsverhalten und zu Einstellungen hinsichtlich der Langzeitarchivierung und Langzeitverfügbarhaltung von Forschungsdaten. (Einige der Ergebnisse finden sich auch im LIBREAS-Tumblr zusammengefasst.)

Silke Baumann ermittelt einen großen Bedarf an entsprechenden Lösungen, stellt aber zugleich fest,

“dass es noch nicht viele erfolgreiche Beispiele für Langzeitarchivierung innerhalb von Virtuellen Forschungsumgebungen im Bereich Digital Humanities gibt.” (S. 31)

Die Architektur des TextGrid Repositories wird jedoch immerhin bereits als sinnvolle und zweckmäßige Annäherung bewertet.

Für den Einsatz von Virtuellen Forschungsumgebungen in den Geisteswissenschaften zieht die Autorin den Schluss:

“[Es wäre] zweckmäßig, den WissenschaftlerInnen einen Rahmen anzubieten, innerhalb dessen sie, durch Werkzeuge und Infrastruktur einer Virtuellen Forschungsumgebung unterstützt, ihre Forschungsfragen kollaborativ, orts- und zeitungebunden, bearbeiten können. Durch eine solche Maßnahme könnten die WissenschaftlerInnen nachdrücklich in ihrem Arbeitsalltag entlastet werden. Dabei wäre es empfehlenswert, eine modulare Architektur zu wählen, die die Anpassung an verschiedenste Forschungsprojekte erlaubt. Die Forschungswerkzeuge müssen in enger Zusammenarbeit mit den WissenschafterInnen entwickelt werden, sodass deren Usability und Akzeptanz durch die Nutzenden sicher gestellt werden können.” (S. 58)

Abstract der Autorin:

In der vorliegenden Arbeit wird an einem konkreten Beispiel betrachtet werden, wie wissenschaftliche digitale Kooperation und die langfristige Speicherung der digitalen Daten im Bereich Digital Humanities aktuell umgesetzt werden bzw. welche Wünsche und Ansichten die ForscherInnen diesbezüglich haben. Zu diesem Zweck wurden WissenschaftlerInnen der Johannes Gutenberg-Universität Mainz zur Beantwortung eines Online-Fragebogens eingeladen. Einführend werden die schwer zu greifenden Begriffe Digital Humanities, Virtuelle Forschungsumgebung, Forschungsdaten und Langzeitarchivierung für den Kontext dieser Arbeit definiert. Es wird betrachtet, was prinzipiell die Anforderungen an Virtuelle Forschungsumgebungen, Forschungsdaten und Langzeitarchivierung im Bereich Geisteswissenschaften sind, wie der derzeitige Entwicklungsstand hier ist und welches Angebot eventuell schon existiert. Im Anschluss folgt ein Blick auf einige Vergleichsstudien, der den bisherigen Kenntnisstand zu Data Sharing und Langzeitarchivierung wiedergibt. Zusammen mit den wissenschaftlichen Hintergrundinformationen ist dieser auch Basis für die Hypothesen, die an den Ergebnissen der Befragung verifiziert werden. Nach Erläuterung der Methode und Methodologie der Datenerhebung folgen eine Beschreibung der erhobenen Daten und daraus resultierende Schlussfolgerungen.

Quelle: http://dhd-blog.org/?p=2864

Weiterlesen

OA-Publikation: Digital Curation of Research Data

Die Bedeutung von Forschungsdaten für die Wissenschaft und die Entwicklung von digitalen Forschungsprozessen ist sowohl in Deutschland als auch international mittlerweile unbestritten. Es ist unerlässlich, die Langzeitarchivierung von Forschungsdaten sicherzustellen und dafür Sorge zu tragen, dass sie zugänglich und nutzbar bleiben.
cover_digital-curationIm Rahmen einer grundlegenden Untersuchung über elf Fachdisziplinen haben Wissenschaftlerinnen und Wissenschaftler systematisch den Stand und die aktuelle Praxis im Umgang mit der Langzeitarchivierung von Forschungsdaten dargestellt. Die Ergebnisse wurden in einer deutschsprachigen, zusammenfassenden Analyse veröffentlicht. Um diese Ergebnisse auch einem internationalem Fachpublikum zugänglich zu machen legen die Herausgeber Heike Neuroth, Stefan Strathmann, Achim Oßwald und Jens Ludwig nun eine zusammenfassende Übersetzung vor: Digital Curation of Research Data – Experiences of a Baseline Study in Germany.

Die Herausgeber hoffen, dass diese Publikation zur vertiefter Diskussion und gesteigertem Bewusstsein hinsichtlich der Langzeitarchivierung von Forschungsdaten beitragen möge.

Das Buch ist beim vwh-Verlag in Kooperation mit dem Universitätsverlag Göttingen erschienen. Sie können die englisch-sprachige, digitale Fassung für nicht-kommerzielle Zwecke herunterladen (http://nbn-resolving.de/urn:nbn:de:0008-2013112701). Eine gedruckte Fassung des Buches kann beim vwh-Verlag für 12,80€ bestellt werden (http://goo.gl/2rrjZU). Dort finden Sie auch die umfangreichere deutsche Version der Publikation. Die digitale Fassung der deutschen Publikation finden Sie hier: http://nbn-resolving.de/urn:nbn:de:0008-2012031401.

ISBN: 978-3-86488-054-4
Kontakt: editors@langzeitarchivierung.de

Quelle: http://dhd-blog.org/?p=2789

Weiterlesen

Datenpublikation und die Rolle der Informationswissenschaft

In seinem Editorial für die aktuelle Ausgabe des Journal of the American Society for Information Science and Technology reflektiert Blaise Cronin, Chefredakteur dieser für die Informationswissenschaft zentralen Zeitschrift, die Rolle von Daten im Publikationsprozess und stellt fest:

„Data are not simply addenda or second-order artifacts; rather, they are the heart of much of the narrative literature, the protean stuff, that allows for inference, interpretation, theory building, innovation, and invention.” (Cronin, 2013)

Für die Digitalen Geisteswissenschaften, die zu großen Teilen darauf basieren, geisteswissenschaftliche Gegenstände und Bezugsmaterialien möglichst feingliedrig in maschinenlesbare Daten umzuwandeln, um sie mit digital grundierten Methoden durchforschbar zu machen, steckt darin wenig Neues. Das Stichwort Datenpublikation, die die Publikation der Erkenntnisse und Schlussfolgerungen begleitet, und die damit verbundenen Standards markieren daher fraglos ein wichtiges Thema auch für die Digitalen Geisteswissenschaften. Diese müssen ebenfalls grundsätzlich das klären, was die Wissenschaftskommunikation aller Disziplinen, bzw. die Akteure, die diese Kommunikationen professionell organisieren, derzeit mehr oder weniger intensiv umtreibt:

(1)    [H]ow data are to be handled and incorporated into the scholarly workflow […]

(2)    [H]ow and under what conditions authors should make their data available for others to validate, replicate, or reuse as they see fit

Cronin befindet sich damit (erwartungsgemäß und per Zitation bestätigt) in Einklang mit den von Christine L. Borgman ebenfalls in JASIST vor knapp einem Jahr formulierten Grundprinzipien für die Verbreitung von Forschungsdaten (Borgman, 2012):

-            To reproduce or to verify research
-            To make the results of publicly funded research available to the public
-            To enable others to ask new questions of extant data
-            To advance the state of research and innovation

Es ist offensichtlich, dass passende wissenschaftliche Standards zum ersten Prinzip vorrangig innerhalb der Community ausgehandelt werden müssen, dass das zweite Prinzip sehr stark mit der generellen Frage von Open Access verwoben ist, dass das dritte Prinzip vor allem wissenschaftsethisch eine weiterführende Forschung auf gemeinsamen Datengrundlagen betont und schließlich der vierte Aspekt etwas allgemeiner die Förderung von Wissenschaft und Innovation an sich als Ziel verfolgt. All das deutet auf einen notwendigen Metadiskurs darüber hin, welchen Sinn die Publikation von Daten haben kann und soll.

Cronin schreibt zutreffend:

„Humanists and social scientists of all stripes are faced with similar challenges relating to image collections, demographic statistics, economic time series data, literary corpora, social media metroics, etc.: To every field its data trove.” (Cronin, 2013)

Gerade weil der Data Turn jede Disziplin ergreift und man sich neue und vielleicht sogar die interessanteren Ergebnisse zukünftig vor allem aus der Wechselbeziehung von Daten aus unterschiedlichen Feldern vorstellen kann, scheint ein interdisziplinärer Dialog zu den Standards der Datenpublikation und –nachnutzbarkeit geboten.

Die Informationswissenschaft (bzw. Bibliotheks- und Informationswissenschaft) versucht sich naheliegend als Vermittlungsdisziplin zu etablieren. Cronin ist beizupflichten, wenn er meint: „we should avoid advocating procrustean policies“, wenn dies disziplinäre Dateninseln oder die Einschränkung der Data Diversity auf sehr restriktive Vorgaben zur Folge hat. Andererseits wird unter anderem hinsichtlich kommender Forschungskonzepte die Frage, wie heterogene Datenbestände direkt aufeinander bezogen werden, metadisziplinär relevant. Dabei geht es tatsächlich nicht um „an airtight set of requirements or a single, mulitpurpose data availability policy.” Wohl aber um eine Verständigung auch zu fachübergreifenden (Nach)Nutzungsmöglichkeiten von Datenbeständen.

Cronin will als Redakteur von JASIST natürlich erst einmal klären, wie Datenpublikation in seiner eigenen Zeitschrift überhaupt aussehen kann. Nichtsdestotrotz sollte man meines Erachtens darüber hinaus und besonders auch aus der Perspektive der Digital Humanities nicht nur dazu reflektieren, wie Datenpublikationsprozesse in den Digitalen Geisteswissenschaften möglichst nach den Prämissen Transparenz und Nachvollziehbarkeit der Forschung, Open Access sowie Nachnutzbarkeit für weitere Forschungen innerhalb eines jeweils konkreten disziplinären Rahmen gestaltet sein sollen. Sondern – angeregt vom vierten Grundprinzip bei Christine L. Borgman – ebenso überlegen, wie sich interdisziplinär auch über die Digital Humanities hinaus möglichst verbindliche Normen zur (auch verschränkten) Nutzung von Datenbeständen entwickeln lassen.

Da das Problem alle gleichermaßen betrifft, wenn auch unterschiedlich ausdifferenziert, könnte man in der jetzigen Frühphase Lösungen, Standards und Empfehlungen kooperativ nicht zuletzt mit der Maßgabe entwickeln, das zukünftige interdisziplinäre Wechselwirkungen direkt unterstützt werden. Die Debatte darum, ob die Digitalen Geisteswissenschaften eine neue Wissenschaftsdisziplin oder eine neuer Methodenbereich sind (vgl. exemplarisch diesen Kommentar von Charlotte Schubert) zeigt meiner Ansicht nach, dass wir die hier entstehenden Forschungsperspektiven ohnehin disziplinär übergreifend denken müssen. An dieser Stelle eröffnet sich nicht zuletzt die Möglichkeit, sich sehr zukunftsgerichtet zu profilieren.

Ich vermute stark, dass das, was wir derzeit unter den verschiedenen Digital- und eHumanities-Synonyma diskutieren, erst den Einstieg in viel grundlegendere Transformationen der Wissenschaft an sich darstellt. Daraus ergibt nach meinem Verständnis eine Gestaltungspflicht. Als Bibliotheks- und Informationswissenschaftler sehe ich für die Frage nach der Integration der formalisierten Datenpublikation in die Prozesse der Wissenschaftskommunikation einerseits meine eigene Disziplin als Vermittlungswissenschaft in der Verantwortung, sind doch die Prozesse der Sammlung, Erschließung und Vermittlung von Informationen traditionell ihr Kerngebiet. Zudem erscheint es mir andererseits als sehr sinnvoll, wenn die Fachcommunities einen entsprechenden Dialog aktiv suchen. Denn der interdisziplinäre Erkenntnistransfer kann erfahrungsgemäß nur gelingen, wenn er auf gegenseitigem Verstehen beruht.

Quellen

Borgman, Christine L. (2012): The conundrum of sharing research data. In: Journal of the American Society for Information Science and Technology. 63 (6), S. 1059-1078. DOI: 10.1002/asi.22634

Cronin, Blaise (2013): Thinking About Data. Editorial. In:  In: Journal of the American Society for Information Science and Technology. 64 (3), S. 435-436. DOI: 10.1002/asi.22928

Quelle: http://dhd-blog.org/?p=1419

Weiterlesen

LIBREAS #23. Call for Papers zum Thema Forschungsdaten (auch in den Geisteswissenschaften)

Die Zeitschrift LIBREAS.Library Ideas veröffentlichte in der vergangenen Woche einen Call for Papers für ihre Ausgabe 23. Der Schwerpunkt liegt diesmal auf dem Thema Forschungsdaten.

Thema: Forschungs- und andere Daten sowie ihre Organisation und Rolle in Bibliothek und Wissenschaft
Einreichungsfrist: bis 31.05.2013
gewünscht sind: Beiträge, die Wechselwirkungen zwischen Wissenschaft, Daten und Bibliotheken reflektieren, annotieren, dekonstruieren und/oder analysieren
disziplinäre Einschränkungen: keine
Rückfragen: redaktion@libreas.eu

Für die Digitalen Geisteswissenschaften / Digital Humanities ist der im Call beschriebene Ansatz nicht zuletzt deshalb von Interesse, weil bei jeder Auseinandersetzung mit der Wechselbeziehung von Forschungsdaten und Forschungsdatenmanagement durch Infrastrukturanbieter die Frage mitschwingt, wie sich Forschungsdaten überhaupt disziplinär angemessen differenziert darstellen lassen.

Konkreter könnte man fragen, wie sich die unvermeidliche wechselseitige Anpassung

a) von Daten und Datenstrukturen an die Wissenschaft und ihre Forschungsfragen sowie
b) der Wissenschaft und Forschungsfragen an die vorgegebenen technischen Rahmenbedingungen der Datenverarbeitung und -abbildung

ausbalancieren lässt?

Eine automatische Prozessierung und Speicherung von Daten in digitalen Infrastrukturen benötigt bestimmte neue bzw. angepasste und angemessene technische und kommunikative Standards, die sich zwangsläufig über die Zeit verändern. Die Herausforderung liegt für alle Beteiligten darin, Methoden, Verfahren und Systeme zu entwickeln, die der technischen Machbarkeit und den Ansprüchen der Wissenschaftspraxis gleichermaßen gerecht werden.

LIBREAS besitzt zwar eine dezidiert bibliotheks- und informationswissenschaftliche Ausrichtung. Doch gerade die Anforderungen, Wünsche und Probleme, die FachwissenschaftlerInnen außerhalb des Bibliothekswesens bei der Organisation (Sammlung, Erschließung, Zugänglichmachung) geisteswissenschaftlicher Forschungsdaten in Bibliotheken und auch anderen Einrichtungen der Wissenschaftsinfrastruktur feststellen, sind für die Bibliothekswissenschaft und die Bibliothekspraxis von außerordentlichem Interesse. Im Zentrum der Ausgabe 23 steht eine grundsätzliche Frage, die Bibliotheken und Bibliothekswissenschaft nur im Dialog mit den FachwissenschaftlerInnen beantworten können:

Werden Daten ein neues/das neue Arbeitsfeld für Bibliotheken?

In der Konkretisierung fragt LIBREAS u.a. auch:

Wie nehmen die Forschenden die Bibliotheken wahr, wenn diese von Forschungsdatenmanagement sprechen?

LIBREAS würde sich aus diesem Grund sehr freuen, neben Beiträgen von Akteuren, die konkret mit der Entwicklung und dem Betrieb Infrastrukturen für Forschungsdaten befasst sind, auch Beiträge von AutorInnen aus den geisteswissenschaftlichen Disziplinen, die diese Infrastrukturen nutzen (sollen/wollen) zu erhalten.

Den ausführlichen Call for Papers gibt es im LIBREAS-Weblog: Call for Papers: Forschungsdaten, Metadaten, noch mehr Daten. Forschungsdatenmanagement.

Weitere Fragen beantwortet die LIBREAS-Redaktion sehr gern via redaktion@libreas.eu.

LIBREAS.Library Ideas ist eine seit dem März 2005 bestehende e-only Open-Access-Zeitschrift.

Sämtliche in LIBREAS veröffentlichten Beiträge werden auf dem E-Doc-Server der Humboldt-Universität zu Berlin archiviert und über das Directory of Open Access Journals nachgewiesen.

(Anmerkung: Ben Kaden ist Mitherausgeber der Zeitschrift LIBREAS.Library Ideas.)

Quelle: http://dhd-blog.org/?p=1182

Weiterlesen