Digital Humanities Award von DARIAH-DE

Ab sofort und bis zum Einsendeschluss am 1.Dezember 2014 schreibt DARIAH-DE einen Digital Humanities Award aus.

Im Rahmen des Awards sollen innovative Beiträge und Forschungsvorhaben von mit digitalen Ressourcen und/oder digitalen Methoden arbeitenden Studierenden und NachwuchswissenschaftlerInnen der Geistes- und Kulturwissenschaften, der Informatik und den Informationswissenschaften ausgezeichnet werden.

Weitere Informationen unter https://de.dariah.eu/dh-award-programm

DH-Award-Slidev.8.6.buntpng

Verliehen werden die Preise im März 2015 im Rahmen des DH Summits (Nähere Infos zum Event folgen in Kürze). Insgesamt werden Preise im Gesamtwert von 1.800 Euro vergeben.

Bewerbungsberechtigt sind B.A.- und M.A.-Studierende, die aktuell an ihrer Abschussarbeit schreiben (bzw. an Projekten wie folgt aufgelistet) oder NachwuchswissenschaftlerInnen, die diese in den letzten 12 Monaten abgegeben haben/aktuell an wissenschaftlichen Einzel- oder Gruppen (Abschluss-)projekten, Softwareprojekten, Tools, Studien oder (Infrastruktur-)Konzepten arbeiten.

Bewerben können sich auch Studierende mit eigenen DH-Projekten. Die Bewerbung von (studentischen) Gruppen ist
erwünscht. Zugelassen sind alle wissenschaftlichen Arbeiten, die an Universitäten im deutschsprachigen Raum erstellt werden bzw. wurden.

Bei Fragen wenden Sie sich gerne an: dh-award@de.dariah.eu

Quelle: http://dhd-blog.org/?p=4026

Weiterlesen

Cirilo Client als open-source Werkzeug verfügbar

Cirilo ist ein Client für content preservation und data curation in FEDORA-basierten Repositorien. Er bietet Funktionalitäten wie Objekterstellung und –verwaltung, Versionierung, Normalisierung und unterstützt die Verwendung von standardisierten Datenformaten. Cirilo erleichtert das Ausführen von Massenoperationen wie Ingest- oder Ersetzungsprozessen, die mit dem Client sehr einfach auf eine große Anzahl von Datenobjekten angewendet werden können. Cirilo bietet ein Set von vordefinierten Inhaltsmodellen, die ohne weitere Anpassungen für Standardprojekte verwendet werden können. Das Werkzeug erfüllt dabei auch Aufgaben wie die Auflösung von Ortsnamen oder Ontologiekonzepten, die die semantische Anreicherung der Ressourcen im digitalen Archiv erleichtern. Verschiedene Disseminationsoptionen können über den Client zugewiesen werden.

Cirilo ist ein Beitrag Österreichs zum DARIAH-EU Task „Reference Software Packages“.
Der Quellcode des Clients ist unter https://github.com/acdh/cirilo verfügbar. Die Dokumentation kann unter http://gams.uni-graz.at/doku abgerufen werden.
Ein „archive-in-a-box“-Installationspackage (Client inklusive einer FEDORA 3.5 Instanz) für Debian-basierte Linux-Distributionen befindet sich unter http://gams.uni-graz.at/download/cirilo-installer-2.4.tar.gz.

 

 

Quelle: http://dhd-blog.org/?p=4018

Weiterlesen

correspSearch – Verzeichnisse von Briefeditionen durchsuchen

Mit dem neuen Webservice “correspSearch” können Verzeichnisse verschiedener digitaler und gedruckter Briefeditionen nach Absender, Empfänger, Schreibort und -datum durchsucht werden. Dafür stehen eine Website und eine Schnittstelle zur Verfügung.Der Webservice aggregiert und wertet TEI-XML-Dateien aus, die auf dem (im Entwurf befindlichen) TEI-Modul “correspDesc” basieren. Mit correspDesc können die Metadaten von Briefen in TEI-XML-Dateien einheitlich erfasst werden. Zur Identifizierung von Personen und Orten werden dabei Normdaten-IDs (GND, VIAF etc.) benutzt. Das Modul „correspDesc“ wurde von der TEI SIG Correspondence entworfen und wird derzeit vom TEI-Council geprüft.

Die digitalen Briefverzeichnisse werden von den jeweiligen Anbietern der Editionen bereitgestellt und von „correspSearch“ abgerufen und durchsuchbar gemacht. Derzeit wertet der Webservice erst wenige Briefverzeichnisse aus. Der Datenbestand soll aber laufend erweitert werden. Jede gedruckte oder digitale Briefedition kann ihr Briefverzeichnis im correspDesc-Format beim Webdienst correspSearch registrieren lassen – wie das geht, erfahren Sie hier.

Der Webservice wurde von TELOTA an der Berlin-Brandenburgischen Akademie der Wissenschaften in Zusammenarbeit mit der TEI SIG Correspondence und weiteren Wissenschaftlern entwickelt und bereitgestellt.

Beachten Sie bitte, dass sich der Webservice derzeit noch in einer Testphase befindet.

Quelle: http://dhd-blog.org/?p=3994

Weiterlesen

Anforderungserhebung an eine DARIAH-DE Service Unit

Von Heiko Hüttner, DAASI International GmbH

Im Zuge der Konzeption einer DARIAH-DE eInfrastructure Service Unit bittet DARIAH-DE Cluster 3 um die Teilnahme an folgender Umfrage. Ziel ist es, Anforderungen von WissenschaftlerInnen an die technischen Dienste von DARIAH-DE besser kennen zu lernen.

Umfrage: https://survey.gwdg.de/index.php/884181/lang-de

Quelle: http://dhd-blog.org/?p=3941

Weiterlesen

DARIAH-EU – jetzt EU-Rechtsform

Seit letztem Freitag, 15. August 2014, ist es amtlich: DARIAH-EU hat jetzt eine eigene Rechtsform, das DARIAH-ERIC (European Research Infrastructure Consortium). Die Europäische Kommission hat der Gründung der Digitalen Forschungsinfrastruktur für Kultur- und Geisteswissenschaften als Konsortium für eine Europäische Forschungsinfrastruktur (DARIAH-ERIC) zugestimmt. Die Rechtsform wurde eigens für ESFRI-Projekte entwickelt, um Forschungsinfrastrukturen auf europäischer Ebene gemeinsam entwickeln und v.a. betreiben zu können.

Wie groß das europäische Interesse daran ist, zeigt die beeindruckende Zahl von 15 Gründungsmitgliedern, die sich verpflichtet haben, DARIAH nachhaltig zu betreiben: Belgien, Dänemark, Deutschland, Frankreich, Griechenland, Irland, Italien, Kroatien, Luxemburg, Malta, die Niederlande, Österreich, Serbien, Slowenien und Zypern.

Sitz beziehungsweise so genanntes Host Country des DARIAH-ERIC ist Frankreich.

DARIAH-EU-Logo-RGB

Für DARIAH bedeutet die Gründung des ERICs einen lang ersehnten Schritt in Richtung Nachhaltigkeit. DARIAH unterstützt die Arbeit mit digitalen Ressourcen und Methoden in den Geistes- und Kulturwissenschaften in Forschung und Lehre. Dazu bietet DARIAH in Zusammenarbeit mit den Forschungscommunities ein Portfolio an Diensten, Tools und Aktivitäten an um nationale Initiativen und internationale Forschung im Bereich Digital Humanities zu befördern. Mit dem ERIC ist nun ein wichtiger Baustein gelegt um die bereits bestehenden Services und Netzwerke weiterhin der Europäischen DH-Community dauerhaft anbieten zu können.

Bislang gibt es neben dem DARIAH-ERIC sieben weitere ERICs sowie fünf Bewerbungen um die Rechtsform.

Die offizielle Verkündung des DARIAH-ERICs ist online in deutscher Sprache verfügbar, sowie in allen offiziellen Sprachen der EU.

Quelle: http://dhd-blog.org/?p=3899

Weiterlesen

DARIAH-DE Online-Umfrage zu Erfolgskriterien

Im Zuge der Erstellung einer umfassenderen Erhebung von Erfolgskriterien von digitalen Diensten und Forschungsinfrastrukturen in den Geisteswissenschaften bittet DARIAH-DE Cluster 1 (“Wissenschaftliche Begleitforschung”) um die Teilnahme an einer ca. 10-minütigen Online-Umfrage:
Englisch:     https://survey.gwdg.de/index.php/592156/lang-en
Deutsch:     https://survey.gwdg.de/index.php/592156/lang-de

Vielen Dank!

Quelle: http://dhd-blog.org/?p=3863

Weiterlesen

DARIAH-DE – Workshop “Forschungsdaten für Andere”

Lizenzen, so könnte man es positiv formulieren – sollen es ermöglichen Daten(sätze)und Datafakten innerhalb der Grenzen der geltenden Gesetze so öffentlich verfügbar zu machen wie möglich. Demgegenüber stehen die Unsicherheiten und die Unkenntnis darüber, was überhaupt lizensiert werden kann und darf, was die diversen Lizenzen auf dem Markt zu leisten vermögen, wie sich die jeweiligen Lizenzen in welchem Punkt unterscheiden. Auch herrscht meist Unklarheit darüber, wie Schutzkraft von Lizenzen einzuschätzen ist. Was schließen die jeweiligen Lizenz ein und was schließen sie aus? Wo liegen die jeweiligen Stärken und Schwächen, Chancen und Grenzen der Lizenz und wie komme ich überhaupt an diese? Angesichts möglichst freier, überregionaler und langfristiger Zugriffe auf Daten zu gewährleisten, sind gerade Lizenzen ein unumgänglicher Teil im Prozess der globalen Austausches. Allerdings erscheinen Lizenzprozesse und -entscheidungen für viele Wissenschaftler ein kaum zu bewältigendes und überschaubares Minenfeld zu sein. Dies führt teilweise zu falschen Entscheidungen in Bezug auf die Lizenzierung, so dass eine freier, überregionaler und langfristiger Zugang schwierig ist, oder es wird keine Lizenz vergeben, ohne zu bedenken, dass ohne eine explizierte Lizenz die Weiterverwendung stark beschränkt ist.

Durch das enorm gewachsene Interesse am offenen Zugang zu Forschungsdaten bzw. deren Bereitstellung in den historisch arbeitenden Wissenschaften, wird es immer dringlicher eine Regelung für die offene Frage der Urheber- und Verwertungsrechte an Forschungsdaten zu finden, da Forschungsdaten Grundpfeiler wissenschaftlicher Erkenntnis darstellen und Grundlage weiterer Forschung sind.[1] Zudem ergeben sich aus Projekten (wie z.B. WissGrid) und durch die gesteigerten Anforderungen durch Geldgeber immer mehr Notwendigkeiten sich mit dem “Datenmanagement” zu beschäftigen, welches auch die Beschäftigung mit Datenlizenzierung und Entscheidungsprozessen für eine Lizenz mit impliziert.

Diese und andere Problemkonstellationen waren Anlass am Leibniz-Institut für Europäische Geschichte in Mainz zusammen mit dem Deutschen Archäologischen Institut in Berlin als Partner in DARIAH-DE am 12./13.06. 2014 ausrichtete. Der Workshop war explizit zur Lizensierung von Forschungsdaten und Datafakten für die historisch arbeitenden Wissenschaften gedacht. In theoretischer und praktischer Perspektive wurden die Lizensierungsmöglichkeiten, die Lizensierungsprozesse und -entscheidung in den Blick genommen und diskutiert.

Am ersten Tag (12.6) wurde mit Experten in Input-Talks auf die Grundlagen der Forschungsdatenlizensierung eingegangen und die Themenkomplexe Urheberrecht, Nutzungsrechte und Datenschutz behandelt. Einzelne Projekte und Einrichtungen stellten ihre Modelle und Lösungen mit Lizenzierungsentscheidungen und -prozessen für den nationalen und internationalen Datenaustausch vor.

Zunächst stellte WIBKE KOLBMANN (Berlin) das Infrastrukturprojekt DARIAH-DE vor und verdeutlichte die Notwendigkeit an und von europäischen Infrastrukturprojekten zur Schaffung von Interoperabilität von Datenbeständen bzw. Datafakten sich stärker als bisher mit Fragen rund um die Lizensierung von Forschungsdaten zu beschäftigen.

JOHANNES PAULMANN (Mainz) als Direktor des Leibniz-Instituts für Europäische Geschichte unterstrich in seinem Grußwort die Dringlichkeit der Fragen nach den sozialen und wissenschaftlichen Regeln für Bereitstellung und Nutzung von Daten. Er verwies dabei auf die Notwendigkeit des freien Zugangs zu Forschungsdaten und Publikationen in Form von Open Access und Open Data. Er verwies dabei auf die eigenen Erfahrungen mit dem Projekt Europäische Geschichte Online und den in diesem Projekt bereitgestellten Metadaten zu Beiträgen und Multimediaelementen. So wies er darauf hin, dass die Beiträge zumeist unter einer Creative-Commons-Lizenz veröffentlicht würden und dadurch potentiellen Nutzern die Bedingungen für die (Weiter-)Nutzung deutlich gemacht würden und müssten.

Der Jurist und Kulturmanager PAUL KLIMPEL (Berlin) gab einen Überblick über die rechtlichen Rahmenbedingungen für wissenschaftliche Daten. Er machte nochmals deutlich, dass zunächst wissenschaftliche Daten nicht grundsätzlich einem urheberrechtlichen Schutzbereich angehören und damit diese nicht per se geschützt sind. Vielmehr tritt hier die Notwendigkeit von Lizenzen und Lizensierungsprozessen zutage, denn in juristischer Hinsicht sind Lizenzen rechtsverbindliche Verträge, die den Gebrauch und Nutzung von Daten(-beständen) eindeutig regeln. So machte Klimpel auch darauf aufmerksam, dass der Lizenzhinweis ein wichtiges Element darstelle, insbesondere dann, wenn dieser maschinenlesbar ist (z.B. als RDF), da dieser dann als rechtlich Metadatum gelten könne.

Die Leiterin des Arbeitspaketes “Standards und Richtlinien” im Projekt APEx (ArchivPortal Europa Exzellenznetzwerk) am Bundesarchiv SUSANNE WAIDMANN (Berlin) vertiefte den Aspekt zur Angabe des Lizenzhinweises anhand von archivischen Daten im Kontext des Archivportals Europa und dem Europeana-Projekt. Sie erläuterte anhand der Aufarbeitung der archivischen Daten in XML-Dateien das Format EAD (Encoded Archival Description) und die anschließende Konvertierung in das Europeana Daten Modell (EDM), wobei in diesem Schritt die Rechteinformationen mit in die Dateien eingebaut würden. Auch in Bezug auf die Metadaten kann METS (Metadata Encoding and Transmission Standard) als Containersystem für digitale Objekte und deren Präsentation in Kombination mit METSRights eine Einbindung von Rechteinformationen über digitale Objekte erreicht werden. Allerdings gäbe es keine Einigkeit über die Nutzung von Lizenzen (so z.B. bei Europeana CC) bei Erschließungsangaben bzw. Informationen, was allerdings teils auch an den nationalen Gesetzgebungen, so dass auf CC-By-Lizenzen zurückzugreifen wäre, wie es auch das Bundesarchiv mit CC BY-NC-SA mache. Es könne aber keinen generellen Aussagen darüber gemacht werden, wann und wie Lizenzen genutzt werden, sondern hänge immer noch stark vom jeweiligen Einzelfall ab, was ein zeit- und kostenintensives Unternehmen ist. Es müsse von daher ein valider Workflow entwickelt werden, der Arbeitsaufwand und Nutzen in ein rechtes Verhältnis setze.

ALINE DEICKE und ANNA NEOVESKY (Mainz) von der Digitalen Akademie verdeutlichten in ihrem Vortrag zu OpenAccess im Akademienprogramm zunächst die Rahmenbedingungen von OpenAccess und Lizensierungen unter der spezifischen Perspektive der Akademieprogramme. Sie berichteten aus den aktuellen Projekten im Umgang mit dem Einsatz von Lizenzen und stellten sowohl grundlegende Gedanken an und brachten diese in Zusammenhang mit gewonnenen Erfahrungen aus dem Arbeitsalltag. Sie machten darauf aufmerksam, dass es keinen Automatismus zwischen der Online-Verfügbarkeit und OpenAccess gäbe, insbesondere wenn die zur Verfügung gestellten Daten unter keine Lizenz gestellt wurden, da die Unklarheit der rechtlichen Lage zur Nicht-Nutzung führen würden. In den Projekten in den Akademieprogrammen würden sich Tendenzen zu CC-Lizenzen in der Form von CC-BY-SA abzeichnen, aber die Entscheidung über Lizenzen würde immer wieder an die Erfordernisse  des Projektes abgestimmt. Einige Projekte haben für eine Entscheidung die General Public License genutzt, um zu einem Ergebnis zu kommen. Für Deicke/Neovesky sei es allerdings offen, wie es mit Lizenzen, Entscheidungen und Prozessen angesichts von kollaborativen Projekten umgegangen werden müsse und wie die Lizensierung sich auch auf die Möglichkeiten der Langzeitarchivierungsstrategien auswirken würden.

MICHAEL KAISER (Bonn) von der Max-Weber-Stiftung in seinem Beitrag “Wissen, Bewusstsein, Praktikabilität” auf die rechtlichen Implikationen des digitalen Publizierens hin. Er zeigte dies an dem von ihm betreuten Projekt perspectivia.net und betonte, dass im Durchlaufen der Phasen von der Konzeptionierung bis zum Alltagsbetrieb die lizenzrechtliche Klärung immer ein wichtiges Element darstelle. Auch die Rollenverteilung zwischen den beteiligten Akteuren auf jeder Ebenen in allen Phasen der Konzeption und Durchführung von “digitalen” bzw. hybriden Projekten spiele eine wichtige Rolle. Er konstatierte, dass die Akzeptanz von und das Bewusstsein für Lizenzen auf allen Ebenen und Dimensionen der Projektphasen noch steigerungsbedürftig seien, wobei oft der Aspekt des Designs der Lizenzierung allzu oft in den Hintergrund gerät und das Spektrum der angebotenen Lizenzen bei weitem nicht genutzt wird. Er machte am Schluss seiner Ausführung darauf aufmerksam, dass auch die Internationalisierung von Lizenzen bisher noch unzureichend bedacht und umgesetzt ist, so dass sich Probleme bei dem Umgang mit der Mehrsprachigkeit und den Konflikt mit ausländischen Rechtsnormen noch zu wenig Aufmerksamkeit geschenkt würde, wenngleich dies nicht zu einem Alarmismus führen sollte.

Am zweiten Tag (13.6) wurden verschiedene Tools zur Lizenzentscheidung und -erstellung vorgestellt.

THOMAS KOLLATZ (Essen) stellte die Creative Commons Lizenzen mit Chancen und Grenzen vor und deren Lizensierungsportal Choose a license vor. Er zeigte auf, wie die CC-Lizenzen in verschiedenen Datenformaten Verwendung finden können (z.B. TEI, (x)html, EDM XML).

NIKO BEER (Paderborn) stellte das Licensing decision tool als Teil des OER IPR Support Project vor. In diesem Projekt werden umfangreiche Informations- und Hilfsmaterialien, sowie Werkzeuge zur Verfügung gestellt und verschiedenste Wege der Offenheit der Daten und ihrer Lizensierung mit bedacht werden kann.

WIBKE KOLBMANN (Berlin) stellte wiederum den Public Domain Calculator des Projektes Europeana Connect vor. Dieser entstand im Zuge der Suche nach einem Europeana Licensing Framework und soll die Klärung der Rechtslage und Empfehlung für Datenanbieter im Hinblick auf die Lizenzierung ihrer Daten für Europeana fördern. Er ist ein Instrument zur Bestimmung, ob Schutzfristen für ein Werk ausgelaufen sind, ob andersweitige Fakten vorliegen oder ob es sich um ein neu entstandenes Werk handelt, welches freiwillig als gemeinfrei veröffentlich werden kann. Allerdings wies Kolbmann in ihren Ausführungen nochmals darauf hin, dass der Anwendungsbereich des Tools durch die Auswahl der Medienformate eingeschränkt und zudem nicht für die Evaluierung von Metadaten geeignet sei.

Abschließend testeten die Teilnehmer an eigenen Rechnern die vorgestellten Tools, die sie bei der Lizenzentscheidung und -erstellung unterstützen können anhand ihrer eigenen Daten. Jeweilige Anwendungsfragen konnten direkt mit den jeweiligen BeraterInnen von DARIAH-DE diskutiert und gelöst werden.

In der Abschlussdiskussion wurde nochmals deutlich, dass es einen enormen Bedarf an Aufklärungs- und Beratungsarbeit in Bezug auf die Entscheidungsprozesse für oder wider eine Lizenzart gibt. Es war allgemeiner Konsens, dass es eine zentrale Stelle geben sollte, um sich bei Fragen der Lizensierung von Daten und Datafakten in den historisch arbeitenden Wissenschaften beraten zu lassen. Grundsätzlich wurde aber die Notwendigkeit für die Verwendung und den Nutzen der Lizenzierung von Forschungsdaten nicht mehr in Frage gestellt, was wiederum auch ein wichtiges Ergebnis des Workshops darstellt.

Workshopübersicht

Begrüßung Johannes Paulmann (Mainz)

Einführung Wibke Kolbmann (Berlin), Lizenzen als Thema von Infrastrukturprojekten – DARIAH-DE

Theorie und Praxis – Perspektiven und Herausforderungen der Datenlizenzierung

Paul Klimpel (Berlin), Rechtliche Rahmenbedingungen für wissenschaftliche Daten – Ein Überblick

Susanne Waidmann (Berlin), Rechteangaben rund um archivische Daten im Archivportal Europa und Europeana

Aline Deicke / Anna Neovesky (Mainz), OpenAccess im Akademienprogramm – Anwendung und Herausforderungen

Michael Kaiser (Bonn), Wissen, Bewusstsein, Praktikabilität – rechtliche Implikationen des digitalen Publizierens

Methoden und Tools ? Praktische Perspektiven der Datenlizenzierung

Thomas Kollatz (Essen), creative commons 4.0

Niko Beer (Paderborn), OER Licensing Decision Tool

Wibke Kolbmann (Berlin), Public Domain Calculator

Fragen und Perspektiven

Hands-on-Session mit den vorgestellten Tools anhand von eigenen Daten und Datafakten und anschließender Diskussion mit Teilnehmern und Veranstaltern.

[1] So die Wissenschaftsallianz in ihren Grundsätzen zum Umgang mit Forschungsdaten. Die DFG sieht hierin auch die Sicherung guter wissenschaftlicher Praxis.

Quelle: http://dhd-blog.org/?p=3773

Weiterlesen

DAI- und IANUS-Sektion „Wohin mit meinen Daten?“ am 08.10.2014 in Berlin

Das endgültige Programm für die vom Deutschen Archäologischen Institut und IANUS gemeinsam durchgeführte Sektion „Wohin mit meinen Daten? Zum langfristigen Umgang mit Forschungsdaten in den Altertumswissenschaften“ auf dem 8. Deutschen Archäologiekongress in Berlin steht nun fest. Programm und weitere Informationen finden Sie veröffentlicht unter: http://www.ianus-fdz.de/wohin-mit-meinen-daten

Die Sektion wird am Mittwoch, den 8. Oktober 2014 ab 9 Uhr im Henry-Ford-Bau Hörsaal C stattfinden.

Im ersten Teil werden geladene Sprecher vom Data Archiving and Networked Services (DANS), Archaeology Data Service (ADS), Journal of Open Archaeology Data, OpenContext und PANGAEA – Data Publisher for Earth & Environmental Science Lösungen und Erfolgsbeispiele zu Archivierung, Bereitstellung und Nachnutzung von Forschungsdaten vorstellen. In zweiten Teil am Nachmittag werden Ansätze, Anforderungen und Angebote im deutschsprachigen Raum vorgestellt und diskutiert.

Die Anmeldung zum Kongress erfolgt über die Homepage des Mittel- und Ostdeutschen Verbands für Altertumsforschung e.V. (MOVA), der bis zum 31.07.2014 einen Frühbucherpreis anbietet.

ianus-fdz

Quelle: http://dhd-blog.org/?p=3767

Weiterlesen

Neues Verbundprojekt „Humanities Data Centre – Forschungsdatenzentrum für die Geisteswissenschaften“ gestartet

Vom Niedersächsischen Ministerium für Wissenschaft und Kunst (MWK) ist durch die Bewilligung  einer entsprechenden Designstudie der Startschuss zum Aufbau eines Forschungsdatenzentrums für die Geisteswissenschaften gegeben worden. Sechs Projektpartner werden sich in dem mit 600.000 Euro geförderten Verbundprojekt „Humanities Data Centre (HDC) – Forschungsdatenzentrum für die Geisteswissenschaften (Designphase)“ mit dem Aufbau eines solchen Zentrums befassen, um die langfristige Speicherung und Nachnutzung von geisteswissenschaftlichen Forschungsdaten sicherzustellen. Diese Initiative stellt ebenso einen wichtigen Baustein im Rahmen des Göttinger eResearch Verbundes dar.

Forschungsdaten sind unverzichtbare Produkte und Grundlage der Wissenschaft, die durch disziplinspezifische Datenzentren bewahrt werden müssen. Auch in den Geisteswissenschaften fallen immer mehr Daten an, für die entsprechende Speichermöglichkeiten und -konzepte entwickelt werden müssen und alle Beteiligten vor große Herausforderungen stellt. Ziel des HDC-Verbundprojektes ist es, in einer Designstudie erste Schritte für den Aufbau eines Forschungsdatenzentrums zu gehen, das im späteren Betrieb die für geisteswissenschaftliche Forschungsdaten notwendigen Aufgaben übernimmt. Ein Großteil der Geisteswissenschaften hat bisher noch keine Forschungsdateninfrastruktur und auch nicht die Ressourcen, eine eigene aufzubauen, oder aber kein Interesse, sie selbst zu betreiben. Die zentrale Aufgabe eines Humanities Data Centre ist es, die Forschungsdaten dieser Disziplinen (z. B. kritische Editionen, Multimedia-Objekte oder 3D-Modelle) langfristig zu sichern und, sofern rechtlich möglich, zur Nachnutzung anzubieten. Wichtige Projekte im Bereich Geisteswissenschaften, wie DARIAH und Textgrid, an denen die GWDG ebenfalls beteiligt ist, verwenden in ihren Forschungsumgebungen bereits erhebliche Datenbestände, für die ein gemeinsamer Forschungsdaten-Service benötigt wird. Das Humanities Data Centre wird somit eine zentrale Datenschnittstelle für virtuelle Forschungsumgebungen in den Geisteswissenschaften darstellen.

Das Niedersächsische Ministerium für Wissenschaft und Kultur hat die Gesellschaft für wissenschaftliche Datenverarbeitung mbH Göttingen (GWDG) mit der Leitung dieses Projektes einer Designstudie zum Aufbau eines Forschungsdatenzentrums für die Geisteswissenschaften mit einer Laufzeit von zwei Jahren beauftragt. Zu diesem Zweck wurden fast 600.000 Euro an Personalmitteln für die sechs beteiligten Projektpartner aus dem Fördertopf des sogenannten Niedersachsen Vorab bereitgestellt, mit dem Forschungsvorhaben an Hochschulen und wissenschaftlichen Einrichtungen in Niedersachsen unterstützt werden. Das Projekt startete im Mai 2014.

Neben der GWDG, die die Konsortialleitung innehat, sind im Projekt für die Georg-August-Universität Göttingen die Niedersächsische Staats- und Universitätsbibliothek Göttingen (SUB) vertreten. Ebenfalls dabei sind die Akademie der Wissenschaften zu Göttingen (AdW) und das Max-Planck-Institut zur Erforschung multireligiöser und multiethnischer Gesellschaften in Göttingen (MPI-MMG). Erfreulicherweise wurde auch die Förderung von zwei Berliner Einrichtungen, die Berlin-Brandenburgische Akademie der Wissenschaften (BBAW) und das Konrad-Zuse-Zentrum für Informationstechnik Berlin (ZIB), in einem geringen Umfang ermöglicht, was die Aufstellung und Wirkung des Projektes wesentlich vergrößert. Als assoziierter Partner konnte zudem das Max-Planck-Institut für Wissenschaftsgeschichte in Berlin (MPIWG) gewonnen werden.

Quelle: http://dhd-blog.org/?p=3500

Weiterlesen

Portal für spanischsprachige Kulturzeitschriften der Moderne

von Nanette Rißler-Pipka, Universität Augsburg

Das Augsburger Institut für Spanien-, Portugal- und Lateinamerikastudien (ISLA) hat eine virtuelle Forschungsumgebung für spanischsprachige Kulturzeitschriften der Moderne geschaffen. Im Portal www.revistas-culturales.de können die Bestände der digitalen Sammlung des Ibero-Amerikanischen Instituts Berlin, preußischer Kulturbesitz (IAI), die fortlaufend erweitert werden, betrachtet, durchsucht und mit Metadaten angereichert werden. Letzteres ist nur möglich, wenn sich die Nutzer persönlich anmelden. Mit der Anmeldung besteht auch die Möglichkeit, dem Forschungsnetzwerk beizutreten, Blogs zu verfassen und eigene Studien zu präsentieren.
Außerdem ist der Sammelband “Almacenes de un tiempo en fuga: Revistas culturales en la modernidad hispánica” (hrsg.v. Hanno Ehrlicher und Nanette Rißler-Pipka) hier als Online-Publikation veröffentlicht. Die Print-Fassung ist im Shaker Verlag (Aachen) erhältlich.
Eine weiterführende Linkliste präsentiert und kommentiert die Erreichbarkeit und Qualität weiterer Digitalisate spanischsprachiger Kulturzeitschriften sowie verwandte Projekte auch aus anderen Sprachräumen.

Quelle: http://dhd-blog.org/?p=3574

Weiterlesen