Erstes Treffen des DARIAH-DE Stakeholdergremiums “Wissenschaftliche Sammlungen” in Göttingen

Am 23.07.2014 fand an der Niedersächsischen Staats- und Universitätsbibliothek Göttingen das erste Treffen des Stakeholdergremiums „Wissenschaftliche Sammlungen“ statt. Das Expertengremium wird als regelmäßiges Plenum des Austausches zwischen Geistes- und KulturwissenschaftlerInnen, BibliothekarInnen, ArchivarInnen und InformationswissenschaftlerInnen dienen, um fachwissenschaftliche Anforderungen an digitale wissenschaftliche Sammlungen zu artikulieren. Ziel des Gremiums ist es, Erfahrungen im Umgang sowie potentielle Nutzungsszenarien von wissenschaftlichen Sammlungen zur Sprache zu bringen, die von DARIAH-DE entwickelten Konzepte und Nutzungsszenarien in Bezug auf wissenschaftliche Sammlungen kritisch zu evaluieren, entsprechende Empfehlungen und Konzepte zu erarbeiten und für ihre Dissemination Sorge zu tragen sowie weitere relevante Fragen im Bereich zu identifizieren und zu diskutieren.

Mehr Informationen hier.

Quelle: http://dhd-blog.org/?p=3867

Weiterlesen

Round Table „Annotation von digitalen Medien”

von Luise Borek und Ruth Reiche, Technische Universität Darmstadt

Wer kennt ihn nicht, den Drang beim Lesen eines Textes ein paar Zeilen zu unterstreichen, eine Notiz an den Rand zu schreiben oder wichtige Stellen mit einem Post-It zu versehen, um sie bei Bedarf schnell wieder zu finden? Annotieren ist ein urmenschliches Bedürfnis, im Analogen wie auch im Digitalen. Doch ist bei einer Transformation vom Analogen ins Digitale ein Mehrwert zu erwarten, der Annotationspraktiken als Arbeitsinstrument für die Geistes- und Kulturwissenschaften neue Qualitäten verleiht, insofern digitale Annotationen medienübergreifend wirken, leicht mit anderen geteilt und von anderen ergänzt werden können und so die Entstehung von Wissen über einen längeren Zeitraum nachvollzogen werden kann.

RoundTable_Polaroid

Prinzipiell können alle Arten von digitalen Objekten annotiert werden, nicht nur Texte, sondern z.B. auch Bilder oder Videos. In diesem thematischen Kontext hat sich der Round Table „Annotation von digitalen Medien” positioniert, organisiert von der HRA Heidelberg und mit TeilnehmerInnen verschiedener Fachdisziplinen aus Berlin, Darmstadt, Essen, Heidelberg und Rom. Er fand am 5. und 6. Juni 2014 im Heidelberger Karl Jaspers Centre statt. Anhand konkreter Beispiele aus den jeweiligen Forschungsprojekten ist die Runde gemeinsam fünf Kernfragen digitalen Annotierens nachgegangen:

  1. Was sind Annotationen?
  2. Wer nutzt Annotationen?
  3. Zu welchem Zweck?
  4. Wie werden sie eingesetzt?
  5. Warum überhaupt Annotationen?

Die Frage danach, was Annotationen sind, entspringt dem Bedürfnis einer definitorischen Abgrenzung des Gegenstandsbereichs. Auch wenn alles, was auf ein ‚Datum’ referenziert, ein ‚Metadatum’ ist, so gehen Annotationen doch über rein deskriptive Metadaten hinaus. Vielmehr können manuelle Annotationen als Mikro-Publikationen eines Autors oder einer Autorin verstanden werden, denen maschinell generierte Annotationen gegenüberstehen. Bei einer solchen Gegenüberstellung darf allerdings nicht vergessen werden, dass letzteren die Leistung zum Design des automatisierten Verfahrens vorausgeht. Weiter können wissenschaftliche, private sowie projektinterne Annotationen unterschieden werden, die sich in ihrem Zugang unterscheiden (öffentlich vs. privat) sowie in ihrer Dauerhaftigkeit (persistent vs. flüchtig). Mit diesen drei Typen und ihren Anforderungen sind auch schon unterschiedliche Nutzergruppen impliziert.

Doch aus welchem Grund annotieren welche Nutzer? Hier sind verschiedene Szenarien denkbar, die stark vom jeweiligen Workflow abhängen, in dem die Annotationen auftreten und der somit ihre Anforderungen bedingt. In einem kollaborativen Arbeitsprozess besitzen Annotationen z.B. oftmals vorläufigen Charakter. Erst nach erfolgter Prüfung werden diese im späteren Verlauf durch feststehende Annotationen abgelöst. Letztere bedürfen selbstverständlich eines anderen Status als ihre kurzlebigen (und nicht mehr benötigten?) Vorgänger, denn die Grundlage der Wissenschaftlichkeit besteht in der Nachprüfbarkeit von Belegen. Deshalb sind persistente Annotationen für wissenschaftliche Nachnutzbarkeit dringend notwendig. Konsequent umgesetzt entsteht ein verlässliches Netzwerk des Wissens, das die Idee des Konzepts ‚Linked Data’ mittels eines standardisierten Referenzsystems für wissenschaftliche Kontexte weiterdenkt.

Neben den bereits skizzierten Themenfeldern rund um das Annotieren eröffnet sich mit Fragen nach Raum- und Zeitkomponenten von zu annotierenden Objekten ein weiterer Bereich, der in diesem Kontext noch wenig diskutiert wurde: Objekte verändern sich über die Zeit. Folglich wird nicht ein Objekt annotiert, sondern dessen Zustand bzw. eine Version des Objekts, die das vorliegende Digitalisat repräsentiert.

Der Round Table hat sich als ein geeignetes Format für praxisorientierten Austausch über Annotationen erwiesen und allen TeilnehmerInnen Anregungen für ihre Forschungsprojekte gegeben. Im Rahmen von DARIAH-DE kann das Annotationscluster als Plattform für weitere Gespräche über dieses verbindende Thema fungieren. Zu diesem Zweck ist bereits eine Mailingliste eingerichtet. Wir laden alle Interessierten zum Erfahrungsaustausch ein und freuen uns auf rege Diskussionen. Let’s post-it!

Quelle: http://dhd-blog.org/?p=3831

Weiterlesen

Veranstaltungshinweis “Mit Netz und offenen Daten – Kulturgut digital” am 12. September 2014 am Zuse-Institut Berlin

*Mit Netz und offenen Daten – Kulturgut digital, 12. September 2014, Zuse-Institut Berlin*

logo-thicklinesAus der Ankündigung:

Wir möchten am 12. September 2014 einen Tag lang die Möglichkeiten und Herausforderungen der nachhaltigen Digitalisierung und Langzeitverfügbarkeit von digitalem Kulturgut erkunden. Wir laden Sie ein zu einem Streifzug durch die Berliner Digitalisierungsprojekte 2013 und 2014 und möchten mit Ihnen darüber sprechen, wie man Kulturdaten nicht nur zugänglich, sondern sie nachhaltig verfügbar machen und öffnen kann. Dazu wollen wir mit Ihnen, den digiS-Projektpartnern und Gästen von der Stiftung Preußischer Kulturbesitz, der Open Knowledge Foundation, der Deutschen Digitalen Bibliothek, Wikimedia Deutschland, der Europeana und der Stiftung Deutsche Kinemathek in den “Paardialog” treten. Überdies können wir Tim Renner, Staatssekretär für Kulturelle Angelegenheiten Berlin, als Gast auf unserer Veranstaltung begrüßen.

Das ausführliche Programm und die Anmeldung finden Sie auf unserer Webseite. Anmeldeschluss ist der 05. September 2014. Die Teilnahme an der Veranstaltung ist kostenlos.

Mit freundlichen Grüßen

Anja Müller

 

digiS – Servicestelle Digitalisierung
Anja Müller
Projektkoordination
 
Zuse-Institut Berlin
Takustraße 7
D-14195 Berlin
 
t +49-30-84185-363
f +49-30-84185-269
manja.mueller@zib.de
mdigis@zib.de
www.servicestelle-digitalisierung.de

Quelle: http://dhd-blog.org/?p=3819

Weiterlesen

Neuerscheinung: Facing the Future – European Research Infrastructure for the Humanities and Social Sciences

Die Konferenz “Facing the Future”, die im November 2013 gemeinsam vom European Strategy Forum on Research Infrastructures (ESFRI), dem Europäischen Akademienverband All European Academies (ALLEA), der Union der deutschen Akademien der Wissenschaften und dem Rat für Sozial- und Wirtschaftsdaten (Rat SWD) im Rahmen des BMBF-geförderten Projekts “Bestandsaufnahme und Analyse geistes- und sozialwissenschaftlicher Grundlagenforschung an den europäischen Wissenschaftsakademien” organisiert wurde, hat ihre Ergebnisse in einem Buch zusammengefasst: “Facing the Future – European Research Infrastructure for the Humanities and Social Sciences” von Adrian Dusa Dietrich Nelle, Günter Stock und Gert G. Wagner (Herausgeber).

Ein pdf des Buches befindet sich hier.

ISBN 978-3-944417-03-5

Quelle: http://dhd-blog.org/?p=3816

Weiterlesen

CfP: Computer-based analysis of drama and its uses for literary criticism and historiography, 12-13 March 2015

Over the last years, some developments paved the way for the computer-based analysis of dramatic texts. On the one hand, more and more texts are available electronically as, for example, in the collection Théâtre classique  (http://www.theatre-classique.fr) for French drama, the complete works of Shakespeare (e.g. http://www.folgerdigitaltexts.org) and a collection of German dramas and libretti (http://www.textgrid.de/). On the other hand, we can now see the emergence of new methods and tools that allow us to gain and compute information like, for example, word frequency, speech length, configuration structures or topics automatically, also from large amounts of texts.

Only rarely, results of computer-based text analysis find their way into literary history (except for some studies on authorship attribution as, for example, in the Molière/Corneille and the Shakespeare/Marlowe debate). The books of, for instance, Franco Moretti, Matthew Jockers and Matt Erlin/Lynne Tatlock may serve as evidence that this is now changing but they are restricted to prose and non-fictional texts. As questions of literary criticism and history are at the heart of literary studies and dramatic texts have genuine textual structures, our workshop aims at evaluating the possibilities of computer-based drama analysis for theses domains. What can be the use of the mostly quantitative data for questions such as quality, style, popularity, canonicity, genre, periods of literary history, and individual authorial periods of production? What kind of new questions, which new micro- or macronarratives are arising from these approaches? Where are the differences to prior non-computational approaches to quantitative aspects of drama (see e.g. the works of F.v.Cube/W. Reichert, Solomon Marcus, Manfred Pfister)?
We invite contributions which mostly focus on historical and critical research on dramatic texts and libretti. We encourage interested researchers to provide also some information on the creation of their corpora, annotation of the texts, preprocessing, data mining and (semi-)automatic extraction of data from the text with the help of tools, scripts and algorithms.

Please send proposals of 600-900 words in English or German together with the most relevant research titles (your own as well as others) and brief biographical details by 30 September 2014 to katrin.dennerlein@uni-wuerzburg.de

The workshop will take place at the Bavarian Academy of Sciences and Humanities. Travel expenses and hotel costs will be refunded.

Dr. Katrin Dennerlein
Julius-Maximilians-Universität Würzburg
Lehrstuhl für Computerphilologie und Neuere deutsche Literaturgeschichte

http://www.germanistik.uni-wuerzburg.de/lehrstuehle/computerphilologie/mitarbeiter/dennerlein/

Quelle: http://dhd-blog.org/?p=3808

Weiterlesen

“Big Data” als Herausforderung an die “Digitale Pädagogik” – Ein Plädoyer für die Verwendung der “Grounded Theory”

Big Data als Herausforderungen an eine Digitale Pädagogik 

“Big Data” sind in der breiten Massenkultur angekommen. Sehen einige darin den Untergang der Privatheit durch die umfangreiche Überwachung und Analyse von Nutzerverhalten, so werden die Möglichkeiten der durch die Vernetzung und Interoperabilität von großen Daten-Mengen erzeugten neuen Daten stellenweise schon frenetisch gefeiert. Der Gewinn sich im Zuge von “Big Data” nun endlich mit den methodisch-reflexiven und praktischen Herausforderungen einer DH-affinen bzw. digitalen Pädagogik zu stellen, soll hier in Angriff genommen worden. Zu lange sind wir im Tal der Ahnungslosen verblieben bzw. haben uns darauf verlassen, dass es zu generellen Impulsen kommen wird, die aber seit langer Zeit ausgeblieben sind. Es sollen hier erste Anstösse gegeben werden, dass wir durch den Umgang mit “Big Data” und durch die Nutzung von “Big Data” die Chance ergreifen können die Potentiale, die die “Big Data” für die (Weiter-)Entwicklung der Digitalen Pädagogik birgt, zu nutzen. Dabei spielt die Einsicht von Arthur Conan Doyle “It is a capital mistake to theorize before one has data” (Doyle 1891) eine wichtige Rolle, da wir noch viel zu wenig das Augenmerk auf bereits vorhandene und zu gewinnende Daten bei digitalen Lehr- und Lernprozessen und -kulturen gelegt haben und die Auswertung dieser Daten bisher noch aussteht bzw. diese nur peripher genutzt werden. Es soll hier eine Lanze dafür gebrochen werden, dass wir im Umgang mit “Big Data” und “Big Data Technologien” vor neue Herausforderungen – auch und insbesondere in der Vermittlung – gestellt sind – dies würde auch wohl keiner mehr mit Ernst bezweifeln wollen.

Big Data und die “Grounded Theory” – Ein neuer Ansatzpunkt für die “Digitale Pädagogik”?

Bisher sind viele Potentiale von Big Data und Big-Technologien nicht genutzt worden, wenngleich immer wieder angeführt wird, dass wir durch die technische Umsetzung noch sehr begrenzt sind. Ich halte dies für ein Schein-Argument, da wir schon über viele Daten verfügen, die aber in konzeptionell-methodischer Hinsicht noch nicht aufgearbeitet sind. Erst durch die “datengestützte Theoriebildung” scheint es mir möglich überhaupt technische Anforderungen und weitergehende wechselseitig Bestimmung von Technik und pädagogischer Praxis zu formulieren, die dann wieder in die jeweilige weitere Ausformulierung des Zusammenspiels münden können. Ich gehe davon aus, dass die Big Data und ihre Technologien als Praktik, um die in den Daten schlummernde pädagogische Theorie zu entdecken. Ein theoretischer Ansatz könnte dabei in der “Grounded Theory” gesehen werden, die durch systematisches Erheben und Analysieren von Daten, die sich auf das entdeckte Phänomen beziehen, entdeckt, ausgearbeitet und vorläufig bestätigt. Folglich stehen Datensammlung, Analyse und die Theorie in einer wechselseitigen Beziehung zueinander, die wiederum dazu genützt werden können die technischen Anforderungen an eine neue Form von “digitaler Pädagogik” auszuarbeiten. Mit den vorhandenen Big Data und den vorhandenen Big Data-Technologien könnte die „Methode des permanenten Vergleichs“ angewendet werden. Bei dieser Methode finden die Datensammlung sowie das Kodieren und Analysieren der Daten parallel statt. Für die Kodierung werden substantielle und theoretische Codes verwendet: Die substantiellen Codes werden in offene und selektive Codes unterteilt. Zu Beginn der Analyse werden offene Codes verwendet (offene Kodierung). Offene Codes sind z. B. bestimmte Worte, die in den Daten wiederkehrend vorkommen. Es werden anhand der offenen Codes Unterschiede, Gemeinsamkeiten, Handlungsmuster usw. mit dem Ziel, Kategorien bilden zu können, gesucht. Die Klassifizierungen können gebildet werden, sobald diejenigen Verhaltensmuster identifiziert wurden, die Bedeutung oder Nicht-Bedeutung zugeschrieben bekommen. Diese Verhaltensmuster werden auch Kernvariablen genannt. Im zweiten Teil der Analyse wird nur noch selektiv (selektive Kodierung) kodiert, d. h. anhand der entwickelten Kategorien. Diese Analyseschritte könnten sowohl von forschenden Personen als auch durch Maschinen-lesbare Serialisierung der Daten vorangetrieben werden. So könnten  „Themengruppen“ und „Strategien“, anhand derer die einzelne Datensegmente gruppiert werden können, erhoben werden und systematisch für die Generierung von neuen Materialien im Lern- und Lehrprozess genutzt werden bzw. auf methodisch-reflektierter Ebene zur Fundierung von pädagogischen Mitteln und Methoden genutzt werden.. Das Ziel ist, dadurch Beziehungen und Zusammenhänge herausarbeiten zu können (Polit, Tatano Beck & Hungler, 2004), die dann wiederum in Theorie und Praxis einer “Digitalen Pädagogik” genutzt werden könnten. Es steht damit in Frage, ob bisher die “Digitale Pädagogik” noch zu sehr an dem positivistisch-funktionalistischen Paradigma des Hiatus von Theorie, Praktik und Technik aufsass und damit auch “Big Data” in eine Ecke gezwungen wurde, die das negative Bild prägte. Es wird hier vorgeschlagen Big Data im Zuge einer interaktionistisch-pragamtistischen Perspektive zu sehen. In dieser Sicht sind in den Big Data Interaktionen  zu beobachten, die helfen die Bedeutung von sozialen Objekten, Situationen und Beziehungen, die im symbolisch vermittelten Prozess der Interaktion/Kommunikation hervorgebracht werden, zu analysieren und zu nutzen.

Ein Neu-Ansatz der “Digitalen Pädagogik” im Angesicht der Möglichkeiten von Big Data und Big Data-Technologien müsste auf theoretischer Ebene bei einer interaktionistisch-pragmatistischen Wissenssoziologie anfangen, um in diesen die eingelagerten Interaktionszusammenhängen in der Wissensgenese und die vermittelnde Rolle von Daten und Datafakten im Zusammenklang von theoretisch-konzeptuellen und methodischer Impulse nutzen zu können. Durch diese Sicht können wir ein Miteinander von quantitativer und qualitativer Sozialforschung für die Entwicklung neuer Formen der “Digitalen Pädagogik” Neu-Ansatz der “Digitalen Pädagogik” im Angesicht der Möglichkeiten von Big Data und Big Data-Technologien müsste auf theoretischer Ebene bei einer interaktionistisch-pragmatistischen Wissenssoziologie anfangen, um in diesen die eingelagerten Interaktionszusammenhängen in der Wissensgenese und die vermittelnde Rolle von Daten und Datafakten im Zusammenklang von theoretisch-konzeptuellen und methodischer Impulse nutzen zu können.

Die Verwendung von Big Data in diesem unteraktionistisch-pragmatistischen Horizont weist dabei auf die Unterscheidung von Medium und Form auf, die das Re-entry der Form der Daten und ihrer Modellierung in die Form der Daten erlaubt.

Big Data: die Revolution, die die digitale Pädagogik verändert?

Das von Hirsch (2012) in Anschlag gebrachte Ungleichgewicht zugunsten der Fragen um die Forschungsmethoden, den Theorien und Ergebnissen gegen die kritischen und den aktuellen Praktiken des Unterrichtens, kann m.E. durch Nutzung von “Big Data” als Medium und Form eines pädagogischen Grundprinzips abgemildert werden. Gerade das Miteinander von Methoden der Datenerfassung, der Verteilung und Speicherung, sowie die im Zusammenhang mit Lehr- und Lernmaterialien entstandenen Daten zu durchsuchen, zu analysieren und zu visualisieren, um daraus wiederum Rückschlüsse, Ansätze für die Neugestaltung und Individualisierung von Lehr- und Lernmaterialien können den allzu oft künstlich hergestellten bzw. heraufbeschworenen Hiatus zwischen Digitaler Pädagogik und Big Data überwinden. Durch die Datenerfassung, das Tracing von Datenströmen, des IR als Bestandteil von Feedback-Schleifen durch Analyse und Visualisierung können sowohl für die Produktion und Entwicklung als auch als Maßnahme der Qualitätssicherung von Schulungsmaterialien Grundlagen aus den Big Data gewonnen werden. Durch die Nutzung und Analyse von Nutzerverhalten bei vorhandenen Schulungsmaterialien können wichtige Rückschlüsse daraus gezogen werden, wie diese benutzt werden, und für individuell nutzbare, aber trotzdem im Sinne eines “mass-customizing” sowie bei der Anpassung, der Aufarbeitung und Neugestaltung genutzt werden können. Insbesondere das Data-Mining mit dem Ziel, neue Muster zu erkennen, könnten genutzt werden, um die Lehr- und Lernmaterialien optimaler zu positionieren und durch die Big Data-Technologien von einem “mass-customizing” einer Lernplattform zu individualisierten Lerninseln vorstossen zu können. Die Big Data aus den Schulungsmaterialien mit den Schulungsmaterialien selbst sind dabei der Anfang des Knowledge Discovery in Databases-Prozesses (KDD) (Ester/Sander 2000) zu verstehen.

Die KDD als pädagogisches Mittel und Methode der Digitalität
Die bereits vorhandenen Erfahrungen der Nutzung und die vorhandenen Daten zum Schulungsmaterial könnten die vorbereitenden Untersuchungen und die Transformation der auszuwertenden Datensätze mit bedingen, die wiederum eine Dimension des Knowledge Discovery in Databases sind. Die Schulungsmaterialien selbst sind dabei auch als KDD anzusehen. Ziel wäre es damit zunächst die Erkennung bislang unbekannter Zusammenhänge aus vorhandenen Datenbestände aus und in Form und Medien von Schulungsmaterialien zu erschließen. Durch die Nutzung von Big Data-Technologien, wie z.B. die Clusteranalyse, die Outlier-Erkennung und die Analyse und Generierung von Indexstrukturen, könnten neue Data-Mining-Algorithmen entwickelt werden, um Schritte der Wissensentdeckung (Datenauswahl, Datenbereinigung, Datenreduktion, Modellbildung, Visualisierung usw.) gezielter für die (Weiter-)Entwicklung und neuer Schulungsmaterialien zu nutzen, indem Regelmäßigkeit, Gesetzmäßigkeiten und verborgene Zusammenhänge extrahiert werden und auf das vorhandene Schulungsmaterial zurückgeführt werden, welches in “real-time” dem Lehr- und Lernprozess des KDD angepasst wird. Big Data-Technologien können sowohl die Daten dabei als Medium als auch Form der Clusteranalyse, der Klassifikation, der Assoziations- und Regressionsanalyse der bestehenden Daten dienen. Hierdurch wird es möglich Daten für die Erstellung von neuen Schulungsmaterialien zu gewinnen, die wiederum Anstoss für weitere notwendige Theoretisierungen im Bereich der Digitalen Pädagogik . Durch die Verwendung von Big Data-Technologien, die durch das Daten-Mining von Schulungsmaterialien gewonnen werden können, könnte es möglich werden von Daten hin zur Theoretisierung und ausgehend von dort wiederum zur konkreten Umsetzung in neue Formen und zu Medien der Lehr- und Lernmaterialien zu gelangen. Die Verwendung von Big Data weist dabei eine Unterscheidung von Medium und Form auf, die das Re-entry der Form der Daten und ihrer Modellierung in die Form der Daten erlaubt. Durch diese Sicht können wir ein Miteinander von quantitativer und qualitativer Sozialforschung für die Entwicklung neuer Formen der “Digitalen Pädagogik” nutzen.

Ein Neu-Ansatz der “Digitalen Pädagogik” im Angesicht der Möglichkeiten von Big Data als KDD und Big Data-Technologien müsste auf theoretischer Ebene bei einer interaktionistisch-pragmatistischen Wissenssoziologie anfangen, um in diesen die eingelagerten Interaktionszusammenhängen in der Wissensgenese und die vermittelnde Rolle von Daten und Datafakten im Zusammenklang von theoretisch-konzeptuellen und methodischer Impulse nutzen zu können.

Es stellt sich damit aber umso dringender die Frage nach dem Anspruch eines solchen Ansatzes. Ist eine “Digitale Pädagogik” immer eine Pädagogik der DH oder ist die “Pädagogik der DH” nicht vielleicht doch das Nahziel.

Big Data: Medium und Form – Ansätze für eine “Digitale Pädagogik” oder Pädagogik der DH?
Der Soziologe Niklas Luhmann unterschied zwischen Medium und Form, wobei der von einer Kritik der üblichen Definition des Medienbegriffs ausging, die durch die zwei Aspekte “Vorstellung einer Vielzahl von Elementen und die Funktion des Vermittelns”charakterisiert sei, ohne daß ihr Zusammenhang klar werde. Nach Luhmann setzt gerade ein Medium Elemente voraus, die temporär gekoppelt werden und solchermaßen im Medium als unterscheidbare Formen erscheinen können.Ein Medium wird durch eine Differenz von loser und fester Kopplung seiner Element gekennzeichnet: “Wir müssen dann die Einheit dieser Unterscheidung als Medium bezeichnen, nennen diese lose gekoppelten Elemente mediales Substrat und die festen Kopplungen (deren Außenseite jeweils das mediale Substrat ist) Formen. Ein Medium (…) ist eine Unterscheidung (also selbst eine Form!) auf deren Innenseite Elemente fest und auf deren Außenseite Elemente lose gekoppelt sind” (Luhmann 2000, 30).

Das Medium ist selbst nicht beobachtbar, sondern nur Fortbildungen innerhalb des Mediums. Es soll hier die These vertreten werden, dass vieles dafür spricht, dass Big Data und die damit verbundenen Technologien als ein KDD-Prozess aufgefasst werden können, die sich für die Nutzung auf die Medium-Form-Unterscheidung stützen könnten. So betont Luhmann, dass allein die Formseite anschlussfähig ist, was aufgrund des temporären Charakters der Form zu ständiger (Re-)Aktualisierung von Formbildung zwingt, wie wir es auch bei Data-Mining-Prozessen bei den Big Data-Technologien erleben. Das Medium ist hingegen zeitlich weitaus stabiler, es verbraucht sich nicht durch Fortbildungen. Durch das Data-Mining findet eine Sinnoperation statt, die als re-entry der Form in die Form zu werden ist: “Als operative Einheit aus Unterscheidung und Bezeichnung ist Sinn eine Form, die sich selbst enthält, nämlich die Unterscheidung von Unterscheidung und Bezeichnung. Eine Form ist letztlich eine Unterscheidung, die in sich selbst als Unterschiedenes wieder vorkommt” (Luhmann 1998, 57).

Big Data und ihre Technologien als Medium sorgen somit für die kommunikative Autopoiesis der Daten, indem hier nicht mehr davon ausgegangen wird, dass Informationen einfach übertragen werden, sondern her- und zugestellt werden können, die wiederum in eine Form (hier die Schulungsmaterialien) einfließen können. Durch Big Data als Form der digitalen Pädagogik wird die Markierung einer Unterscheidung möglich (Luhmann 1997,198). Big Data als lose gekoppelte Elemente können in eine feste Kopplung überführt werden, indem sie mit den üblichen Verfahren des Data-Mining gebunden werden und bei jeder neuen Verwendung reproduziert werden, wobei sie immer beliebig oft verwendbar sind. Durch das Data-Mining werden die Big Data zum autopoetischen System, wenn sie als KDD betrachtet werden, das sie das eigene Medium zur eigenen Form binden (Luhmann 1997,197). Die Form ist also eine sich selbst entfaltende Selbstreferenz. Durch die Nutzung von Big Data-Technologien kann es gelingen das Schulungsmaterial der Lern- und Subjektkultur im Wechselspiel des Lernenden und Lehrenden anzupassen. Der individuell hinterlassene Datenstrom kann genutzt werden, um das Lehr- und Lernmaterial anzupassen. Auch dies umfasst die Änderung von einem positivistisch-funktionalistisch zu einem interaktionistisch-pragmatistischen Paradigma der Big Data als KDD.

Big learning data – Ansatzpunkte für eine Revolution der “Digitalen Pädagogik”
Big Data erlauben es also eine für ein breit ausgelegtes Publikum erstelltes Schulungsmaterial auf die jeweilige Lehr- und Lernkultur im Prozess der KDD anzupassen, um so ein “mass-customized” Schulungsmaterial zu einem individuell nutzbaren zu machen und dies in Echtzeit. Dabei können sowohl die Aspekte Volume, Velocity und Variety Berücksichtigung finden als auch notwendiges Feedback geben, die Motivation steigern, individuelle Lernprozesse abbilden und gestalten, die Kollaboration in Datenherstellung, -nutzung und -austausch steigern, die Lehr- und Lernkultur und -prozesse besser steuerbar machen, die Begleitung besser gestalten und das Verstehen von Lehr- und Lernprozessen als Medium und Form zu befördern. Durch die Gewinnung der Daten durch die Verwendung von Big Data als Medium und Form von pädagogischen Prozessen, deren Abbildung und Realisierung der Clusteranalyse, der Klassifikation, der Assoziations- und Regressionsanalyse, kann es gelingen, dass wir in eine höchst produktive und kreative Phase der DH eintreten können und jedem unmittelbar der Nutzen von Digital Humanities verdeutlichen können. Wir können dann wirklich von Daten ausgehen, auf deren Grundlage wir die Theoretisierung und notwendige und in der Dringlichkeit nicht abzustreitende Theoriearbeit der Digitalen Pädagogik weitertreiben zu können und zu müssen. Die Nutzung von Big Data und der damit in Zusammenhang stehenden Technologien könnte somit auch eine Revolution der Digitalen Pädagogik im interaktionistisch-pragmatischen Sinn herbeiführen, die sich von einer blossen Medienpädagogik endlich ablöst und die Big Data aus der Schmuddelecke des Feuilleton befreit.

 

Quelle: http://dhd-blog.org/?p=3794

Weiterlesen

DARIAH-DE – Workshop “Forschungsdaten für Andere”

Lizenzen, so könnte man es positiv formulieren – sollen es ermöglichen Daten(sätze)und Datafakten innerhalb der Grenzen der geltenden Gesetze so öffentlich verfügbar zu machen wie möglich. Demgegenüber stehen die Unsicherheiten und die Unkenntnis darüber, was überhaupt lizensiert werden kann und darf, was die diversen Lizenzen auf dem Markt zu leisten vermögen, wie sich die jeweiligen Lizenzen in welchem Punkt unterscheiden. Auch herrscht meist Unklarheit darüber, wie Schutzkraft von Lizenzen einzuschätzen ist. Was schließen die jeweiligen Lizenz ein und was schließen sie aus? Wo liegen die jeweiligen Stärken und Schwächen, Chancen und Grenzen der Lizenz und wie komme ich überhaupt an diese? Angesichts möglichst freier, überregionaler und langfristiger Zugriffe auf Daten zu gewährleisten, sind gerade Lizenzen ein unumgänglicher Teil im Prozess der globalen Austausches. Allerdings erscheinen Lizenzprozesse und -entscheidungen für viele Wissenschaftler ein kaum zu bewältigendes und überschaubares Minenfeld zu sein. Dies führt teilweise zu falschen Entscheidungen in Bezug auf die Lizenzierung, so dass eine freier, überregionaler und langfristiger Zugang schwierig ist, oder es wird keine Lizenz vergeben, ohne zu bedenken, dass ohne eine explizierte Lizenz die Weiterverwendung stark beschränkt ist.

Durch das enorm gewachsene Interesse am offenen Zugang zu Forschungsdaten bzw. deren Bereitstellung in den historisch arbeitenden Wissenschaften, wird es immer dringlicher eine Regelung für die offene Frage der Urheber- und Verwertungsrechte an Forschungsdaten zu finden, da Forschungsdaten Grundpfeiler wissenschaftlicher Erkenntnis darstellen und Grundlage weiterer Forschung sind.[1] Zudem ergeben sich aus Projekten (wie z.B. WissGrid) und durch die gesteigerten Anforderungen durch Geldgeber immer mehr Notwendigkeiten sich mit dem “Datenmanagement” zu beschäftigen, welches auch die Beschäftigung mit Datenlizenzierung und Entscheidungsprozessen für eine Lizenz mit impliziert.

Diese und andere Problemkonstellationen waren Anlass am Leibniz-Institut für Europäische Geschichte in Mainz zusammen mit dem Deutschen Archäologischen Institut in Berlin als Partner in DARIAH-DE am 12./13.06. 2014 ausrichtete. Der Workshop war explizit zur Lizensierung von Forschungsdaten und Datafakten für die historisch arbeitenden Wissenschaften gedacht. In theoretischer und praktischer Perspektive wurden die Lizensierungsmöglichkeiten, die Lizensierungsprozesse und -entscheidung in den Blick genommen und diskutiert.

Am ersten Tag (12.6) wurde mit Experten in Input-Talks auf die Grundlagen der Forschungsdatenlizensierung eingegangen und die Themenkomplexe Urheberrecht, Nutzungsrechte und Datenschutz behandelt. Einzelne Projekte und Einrichtungen stellten ihre Modelle und Lösungen mit Lizenzierungsentscheidungen und -prozessen für den nationalen und internationalen Datenaustausch vor.

Zunächst stellte WIBKE KOLBMANN (Berlin) das Infrastrukturprojekt DARIAH-DE vor und verdeutlichte die Notwendigkeit an und von europäischen Infrastrukturprojekten zur Schaffung von Interoperabilität von Datenbeständen bzw. Datafakten sich stärker als bisher mit Fragen rund um die Lizensierung von Forschungsdaten zu beschäftigen.

JOHANNES PAULMANN (Mainz) als Direktor des Leibniz-Instituts für Europäische Geschichte unterstrich in seinem Grußwort die Dringlichkeit der Fragen nach den sozialen und wissenschaftlichen Regeln für Bereitstellung und Nutzung von Daten. Er verwies dabei auf die Notwendigkeit des freien Zugangs zu Forschungsdaten und Publikationen in Form von Open Access und Open Data. Er verwies dabei auf die eigenen Erfahrungen mit dem Projekt Europäische Geschichte Online und den in diesem Projekt bereitgestellten Metadaten zu Beiträgen und Multimediaelementen. So wies er darauf hin, dass die Beiträge zumeist unter einer Creative-Commons-Lizenz veröffentlicht würden und dadurch potentiellen Nutzern die Bedingungen für die (Weiter-)Nutzung deutlich gemacht würden und müssten.

Der Jurist und Kulturmanager PAUL KLIMPEL (Berlin) gab einen Überblick über die rechtlichen Rahmenbedingungen für wissenschaftliche Daten. Er machte nochmals deutlich, dass zunächst wissenschaftliche Daten nicht grundsätzlich einem urheberrechtlichen Schutzbereich angehören und damit diese nicht per se geschützt sind. Vielmehr tritt hier die Notwendigkeit von Lizenzen und Lizensierungsprozessen zutage, denn in juristischer Hinsicht sind Lizenzen rechtsverbindliche Verträge, die den Gebrauch und Nutzung von Daten(-beständen) eindeutig regeln. So machte Klimpel auch darauf aufmerksam, dass der Lizenzhinweis ein wichtiges Element darstelle, insbesondere dann, wenn dieser maschinenlesbar ist (z.B. als RDF), da dieser dann als rechtlich Metadatum gelten könne.

Die Leiterin des Arbeitspaketes “Standards und Richtlinien” im Projekt APEx (ArchivPortal Europa Exzellenznetzwerk) am Bundesarchiv SUSANNE WAIDMANN (Berlin) vertiefte den Aspekt zur Angabe des Lizenzhinweises anhand von archivischen Daten im Kontext des Archivportals Europa und dem Europeana-Projekt. Sie erläuterte anhand der Aufarbeitung der archivischen Daten in XML-Dateien das Format EAD (Encoded Archival Description) und die anschließende Konvertierung in das Europeana Daten Modell (EDM), wobei in diesem Schritt die Rechteinformationen mit in die Dateien eingebaut würden. Auch in Bezug auf die Metadaten kann METS (Metadata Encoding and Transmission Standard) als Containersystem für digitale Objekte und deren Präsentation in Kombination mit METSRights eine Einbindung von Rechteinformationen über digitale Objekte erreicht werden. Allerdings gäbe es keine Einigkeit über die Nutzung von Lizenzen (so z.B. bei Europeana CC) bei Erschließungsangaben bzw. Informationen, was allerdings teils auch an den nationalen Gesetzgebungen, so dass auf CC-By-Lizenzen zurückzugreifen wäre, wie es auch das Bundesarchiv mit CC BY-NC-SA mache. Es könne aber keinen generellen Aussagen darüber gemacht werden, wann und wie Lizenzen genutzt werden, sondern hänge immer noch stark vom jeweiligen Einzelfall ab, was ein zeit- und kostenintensives Unternehmen ist. Es müsse von daher ein valider Workflow entwickelt werden, der Arbeitsaufwand und Nutzen in ein rechtes Verhältnis setze.

ALINE DEICKE und ANNA NEOVESKY (Mainz) von der Digitalen Akademie verdeutlichten in ihrem Vortrag zu OpenAccess im Akademienprogramm zunächst die Rahmenbedingungen von OpenAccess und Lizensierungen unter der spezifischen Perspektive der Akademieprogramme. Sie berichteten aus den aktuellen Projekten im Umgang mit dem Einsatz von Lizenzen und stellten sowohl grundlegende Gedanken an und brachten diese in Zusammenhang mit gewonnenen Erfahrungen aus dem Arbeitsalltag. Sie machten darauf aufmerksam, dass es keinen Automatismus zwischen der Online-Verfügbarkeit und OpenAccess gäbe, insbesondere wenn die zur Verfügung gestellten Daten unter keine Lizenz gestellt wurden, da die Unklarheit der rechtlichen Lage zur Nicht-Nutzung führen würden. In den Projekten in den Akademieprogrammen würden sich Tendenzen zu CC-Lizenzen in der Form von CC-BY-SA abzeichnen, aber die Entscheidung über Lizenzen würde immer wieder an die Erfordernisse  des Projektes abgestimmt. Einige Projekte haben für eine Entscheidung die General Public License genutzt, um zu einem Ergebnis zu kommen. Für Deicke/Neovesky sei es allerdings offen, wie es mit Lizenzen, Entscheidungen und Prozessen angesichts von kollaborativen Projekten umgegangen werden müsse und wie die Lizensierung sich auch auf die Möglichkeiten der Langzeitarchivierungsstrategien auswirken würden.

MICHAEL KAISER (Bonn) von der Max-Weber-Stiftung in seinem Beitrag “Wissen, Bewusstsein, Praktikabilität” auf die rechtlichen Implikationen des digitalen Publizierens hin. Er zeigte dies an dem von ihm betreuten Projekt perspectivia.net und betonte, dass im Durchlaufen der Phasen von der Konzeptionierung bis zum Alltagsbetrieb die lizenzrechtliche Klärung immer ein wichtiges Element darstelle. Auch die Rollenverteilung zwischen den beteiligten Akteuren auf jeder Ebenen in allen Phasen der Konzeption und Durchführung von “digitalen” bzw. hybriden Projekten spiele eine wichtige Rolle. Er konstatierte, dass die Akzeptanz von und das Bewusstsein für Lizenzen auf allen Ebenen und Dimensionen der Projektphasen noch steigerungsbedürftig seien, wobei oft der Aspekt des Designs der Lizenzierung allzu oft in den Hintergrund gerät und das Spektrum der angebotenen Lizenzen bei weitem nicht genutzt wird. Er machte am Schluss seiner Ausführung darauf aufmerksam, dass auch die Internationalisierung von Lizenzen bisher noch unzureichend bedacht und umgesetzt ist, so dass sich Probleme bei dem Umgang mit der Mehrsprachigkeit und den Konflikt mit ausländischen Rechtsnormen noch zu wenig Aufmerksamkeit geschenkt würde, wenngleich dies nicht zu einem Alarmismus führen sollte.

Am zweiten Tag (13.6) wurden verschiedene Tools zur Lizenzentscheidung und -erstellung vorgestellt.

THOMAS KOLLATZ (Essen) stellte die Creative Commons Lizenzen mit Chancen und Grenzen vor und deren Lizensierungsportal Choose a license vor. Er zeigte auf, wie die CC-Lizenzen in verschiedenen Datenformaten Verwendung finden können (z.B. TEI, (x)html, EDM XML).

NIKO BEER (Paderborn) stellte das Licensing decision tool als Teil des OER IPR Support Project vor. In diesem Projekt werden umfangreiche Informations- und Hilfsmaterialien, sowie Werkzeuge zur Verfügung gestellt und verschiedenste Wege der Offenheit der Daten und ihrer Lizensierung mit bedacht werden kann.

WIBKE KOLBMANN (Berlin) stellte wiederum den Public Domain Calculator des Projektes Europeana Connect vor. Dieser entstand im Zuge der Suche nach einem Europeana Licensing Framework und soll die Klärung der Rechtslage und Empfehlung für Datenanbieter im Hinblick auf die Lizenzierung ihrer Daten für Europeana fördern. Er ist ein Instrument zur Bestimmung, ob Schutzfristen für ein Werk ausgelaufen sind, ob andersweitige Fakten vorliegen oder ob es sich um ein neu entstandenes Werk handelt, welches freiwillig als gemeinfrei veröffentlich werden kann. Allerdings wies Kolbmann in ihren Ausführungen nochmals darauf hin, dass der Anwendungsbereich des Tools durch die Auswahl der Medienformate eingeschränkt und zudem nicht für die Evaluierung von Metadaten geeignet sei.

Abschließend testeten die Teilnehmer an eigenen Rechnern die vorgestellten Tools, die sie bei der Lizenzentscheidung und -erstellung unterstützen können anhand ihrer eigenen Daten. Jeweilige Anwendungsfragen konnten direkt mit den jeweiligen BeraterInnen von DARIAH-DE diskutiert und gelöst werden.

In der Abschlussdiskussion wurde nochmals deutlich, dass es einen enormen Bedarf an Aufklärungs- und Beratungsarbeit in Bezug auf die Entscheidungsprozesse für oder wider eine Lizenzart gibt. Es war allgemeiner Konsens, dass es eine zentrale Stelle geben sollte, um sich bei Fragen der Lizensierung von Daten und Datafakten in den historisch arbeitenden Wissenschaften beraten zu lassen. Grundsätzlich wurde aber die Notwendigkeit für die Verwendung und den Nutzen der Lizenzierung von Forschungsdaten nicht mehr in Frage gestellt, was wiederum auch ein wichtiges Ergebnis des Workshops darstellt.

Workshopübersicht

Begrüßung Johannes Paulmann (Mainz)

Einführung Wibke Kolbmann (Berlin), Lizenzen als Thema von Infrastrukturprojekten – DARIAH-DE

Theorie und Praxis – Perspektiven und Herausforderungen der Datenlizenzierung

Paul Klimpel (Berlin), Rechtliche Rahmenbedingungen für wissenschaftliche Daten – Ein Überblick

Susanne Waidmann (Berlin), Rechteangaben rund um archivische Daten im Archivportal Europa und Europeana

Aline Deicke / Anna Neovesky (Mainz), OpenAccess im Akademienprogramm – Anwendung und Herausforderungen

Michael Kaiser (Bonn), Wissen, Bewusstsein, Praktikabilität – rechtliche Implikationen des digitalen Publizierens

Methoden und Tools ? Praktische Perspektiven der Datenlizenzierung

Thomas Kollatz (Essen), creative commons 4.0

Niko Beer (Paderborn), OER Licensing Decision Tool

Wibke Kolbmann (Berlin), Public Domain Calculator

Fragen und Perspektiven

Hands-on-Session mit den vorgestellten Tools anhand von eigenen Daten und Datafakten und anschließender Diskussion mit Teilnehmern und Veranstaltern.

[1] So die Wissenschaftsallianz in ihren Grundsätzen zum Umgang mit Forschungsdaten. Die DFG sieht hierin auch die Sicherung guter wissenschaftlicher Praxis.

Quelle: http://dhd-blog.org/?p=3773

Weiterlesen

Call for Papers: 5. Digitale Bibliothek, Graz (A), 23 – 24 Februar 2015

Unser digitales Gedächtnis – Langzeitarchivierung von kulturellem und wissenschaftlichem Erbe

Die Themen der Konferenz „Unser digitales Gedächtnis sind:digbib-logo-2015-textv03-15

Forschungsdaten

  • Typen von Forschungsdaten
  • Erfordernisse bei der Archivierung von Forschungsdaten
  • Visualisierung von Forschungsdaten

Best-Practice Projekte

  • Beispielhafte Projekte und Kooperationen
  • Public Private Partnership-Modelle
  • Rechtliche Aspekte

Datenzentren und Infrastruktur

  • Digitalisierungs- und Langzeitarchivierungsservices
  • Netzwerk- und Speichersysteme
  • Big Data und Cultural Analytics

 

Wir freuen uns über Beiträge, die sich mit den theoretischen Grundlagen oder praktischen Lösungen für diese Themenbereiche aus der Perspektive von Kultur- und Wissenschaftseinrichtungen auseinandersetzen.

Alle fristgerecht eingereichten Beiträge werden vom Programmkomitee begutachtet. Beiträge und ihre Inhalte werden vertraulich behandelt; angenommene Beiträge bis zur Bekanntgabe der Annahme gegenüber dem Autor/der Autorin.

Einsendeschluss für Beiträge (nur Kurzfassungen, max. 800 Wörter):

30. September 2014

Bitte geben Sie bei Ihrer Einsendung bekannt, ob Sie Ihren Beitrag als Vortrag (20 min) oder Poster (5 min Vorstellung im Plenum + Ausstellung) gestalten wollen.

Benachrichtigung der Autor/inn/en über Annahme/Ablehnung eingereichter Beiträge:

31. Oktober 2014

Tagungssprache ist Deutsch. Beiträge sind aber auch in englischer Sprache möglich.

Senden Sie Ihre Kurzfassungen bitte an Frau Mag. Gerda Koch.

Veranstalter:

Universität Graz, Zentrum für Informationsmodellierung, Austrian Centre for Digital Humanities
EuropeanaLocal Austria, AIT Forschungsgesellschaft mbH

link

Quelle: http://dhd-blog.org/?p=3744

Weiterlesen

Osloer Munch-Museum lanciert Crowdsourcing für Coding der Briefe an Edvard Munch

Foto: Munch-Museum, Oslo / Norway

Foto: Munch-Museum, Oslo / Norway

Die Briefe und Texte von Norwegens bedeutendstem bildenden Künstler Edvard Munch (1863-1944), der viele Jahre auch in Deutschland lebte und arbeitete, sind bereits online, ediert und kommentiert. Nun legt das Osloer Munch-Museum nach: Per Crowdsourcing geht es nun auch an die Briefe an Munch, die digital in Text und Bild veröffentlicht und per XML/TEI erschlossen werden sollen. Nach dem Vorbild des erfolgreichen Crowdprojekts Transcribe Bentham werden via Wiki die automatisiert erfassten Briefabschriften mit den Scans der Originalbriefe abgeglichen; anschließend erfolgt die Erschließung mit XML/TEI Level 4. Vorbildlich hat man hier erklärt, dokumentiert und unterstützt, um auch in Sachen “Spitze Klammern” gänzlich unerfahrenen Freiwilligen die Möglichkeit zur Mitwirkung zu geben – ein perfekter Einstieg ins Textcoding. So stehen u.a. deutschsprachige Videotutorials und ein komfortables Editionsfenster mit umfangreicher Werkzeugleiste bzw. -schaltflächen für die bequeme (und fehlerminimierte) Codierung zur Verfügung. Nach Freigabe durch die Redaktion werden die fertig bearbeiteten Briefe auf http://www.emunch.no der Öffentlichkeit zugänglich gemacht.  Ein gelungenes Modell, das auch in Deutschland vermehrt Schule machen könnte.

Laut Hilde Bøe, Projektleiterin und Redakteurin von http://emunch.no/, stellt das Projekt im skandinavischen Raum den ersten Versuch einer solchen Teamarbeit zwischen Museum und Publikum dar. Im Munch-Museum ist man gespannt, wie diese Art digitaler Gemeinschaftsarbeit  – in den digitalen Geisteswissenschaften im Ausland zunehmend populär – angenommen wird. «Wir benötigen Freiwillige, die Handschriften in norwegischer, dänischer, schwedischer, französischer und nicht zuletzt in deutscher Sprache lesen können, denn etwa die Hälfte der Briefe an Munch ist deutschsprachig,» so Bøe. Freiwillige sollten außerdem die Bereitschaft zum digitalen Arbeiten in einem Wiki mitbringen, benötigen ansonsten jedoch keine Vorkenntnisse.

Unbenannt

Gut verständliche Erläuterungen und Richtlinien, Online-Support und Videotutorials erleichtern den Einstieg ins Wiki.

 

Das Arbeitsfenster mit Werkzeugleiste, Transkription und Faksimile.

 

«Das Museum besitzt rund 5.800 an Edvard Munch adressierte Briefe, und es ist fantastisch, dass diese jetzt zusammen mit den Briefen Munchs im Internet zugänglich gemacht werden», meint die leitende Konservatorin des Museums, Ute Kuhlemann Falck. «Es handelt sich um historisches Quellenmaterial, das nicht nur für die Munch-Forschung von Interesse ist, sondern auch für andere Forschungsfelder, die wir noch gar nicht absehen können.»

Die andere Seite der Korrespondenz zugänglich zu machen, trägt dazu bei, Munchs eigene Texte zu erläutern, auszuloten und zu nuancieren – ein sehr wichtiger Schritt, so Forschungsbibliothekar Lasse Jacobsen. Man hofft, durch die Arbeit auch weitere Briefautoren zu identifizieren – enthält die Korrespondenz doch einen Teil bislang nicht namentlich zugeordneter Verfasser. Unter den zahlreichen bekannten Namen finden sich u.a. Julius Meyer-Graefe, Gustav und Luise Schiefler, Harry Graf Kessler, August Macke, Elisabeth Förster-Nietzsche, Christian Krohg, August Strindberg und Stèphane Mallarmé.

Wiki: http://www.emunch.no/wiki/index.php/Briefe_an_Edvard_Munch
Einführung und Erläuterungen, Videotutorials: http://www.emunch.no/wiki/index.php/Erste_Schritte
Richtlinien für Transkription und Erschließung: http://www.emunch.no/wiki/index.php/Richtlinien
Direkt zum Archiv: http://www.emunch.no/wiki/index.php/Handschriften
eMunch – Edvard Munchs Texte (digitales Archiv): http://www.emunch.no/

Quelle: http://dhd-blog.org/?p=3668

Weiterlesen

IANUS-Ressourcen werden nun persistent refenziert

IANUS, das Forschungsdatenzentrum für die Archäologien und Altertumswissenschaften, hat eine technische Hürde beim Aufbau des Online-Archives erfolgreich gemeistert. Dank einer Kooperation mit da|ra erhalten ab sofort die wichtigsten Ergebnisse des Projektes, die über die Homepage von IANUS veröffentlicht werden, einen Digital Object Identifier (DOI). Damit können die elektronischen Ressourcen vergleichbar mit ISBN-Nummern dauerhaft und eineindeutig zitiert werden. Auch alle zukünftig bei IANUS archivierten Forschungsdaten werden einen solchen persistenten Identifikator erhalten.
IANUS ist ein von der Deutschen Forschungsgemeinschaft gefördertes und vom Deutschen Archäologischen Institut koordiniertes Projekt, dessen Ziel der Aufbau eines nationalen Forschungsdatenzentrums für die Archäologien und Altertumswissenschaften in Deutschland ist.

http://www.ianus-fdz.de/news/73

ianus-fdz

 

Quelle: http://dhd-blog.org/?p=3633

Weiterlesen