Neue Tools und Projekte von der Digital Humanities 2014 in Lausanne

Der jährliche Großkongress Digital Humanities fand in der letzten Woche in Lausanne am Genfersee statt. Die Veranstaltung dient traditionellerweise auch als Leistungsshow von Projekten und Produkten, die das Leben des Wissenschaftlers erleichtern sollen. Ein kurzer Überblick über neue und nicht mehr ganz neue Tools, die von Interesse sein könnten.

Im vergangenen Sommer entstand im Rahmen eines „one week, one tool“-Hackathon der Serendip-o-matic. Ein Aggregator, welcher aus eingegebenen Textstücken (vermeintlich) passende Einträge aus der Europeana, der Digital Public Library of America und anderen freien Ressourcen zusammenstellt. Der Faktor Zufall soll dabei eine wichtige Rolle spielen, wie sich aus dem von serendipity abgeleiteten Namen erschliesst:

Strukturierter und wissenschaftlich „abgesicherter” funktioniert das am IEG in Mainz entstehende EGO (Europäische Geschichte Online), welches ähnlich wie die docupedia für Zeitgeschichte ein kollaborativ erarbeitetes Portal ist. Im Fokus steht die europäische Geschichte der Frühneuzeit und Neuzeit (15.-21. Jahrhundert):

Die Seite überzeugt durch Verknüpfungen (etwa mit Personendaten), Querverweisen und eingebundenen Medien. Die Lizenzierung mit creative commons (CC-BY-NC-ND) zeugt vom umsichtigen Umgang mit den veröffentlichten Daten.

Personen und Urkunden stehen in den Datenbanken der POMS (People of Medieval Scotland und Paradox of Medieval Scotland) im Zentrum. Mittels Verknüpfung von Personen mit Vorgängen in Urkunden (Rechtsübertragung, Verbindung zu anderen Personen etc.) wird versucht der Staatswerdung Schottlands auf den Grund zu gehen.

Interessant ist nicht zuletzt das Konzept hinter den aufbereiteten Daten. Im Gegensatz zu mark-up Auszeichnung wie in der klassischen und digitalen Edition angewandt, werden die Quellen relational ausgewertet. Sprich Wortlaut und Formular der Dokumente bleibt auf der Strecke, während genannte Personen und die Art ihrer Nennung verzeichnet werden.

Ein ganz ähnlicher Ansatz wird im Projekt ChartEx verfolgt. Anhand der automatisierten Auswertung von Dokumenten aus Cluny und britischen Quellenedition werden automatisiert Verknüpfungen zwischen Personen in Dokumenten, Rechten und Orten hergestellt. Recherchierende werden auf Personen hingewiesen mit ähnlichen Namen oder häufigem Auftauchen im Umfeld der Personene/Dokumente. Ziel des Tools ist es Anhaltspunkte zu geben und effizientere Forschung zu ermöglichen.

Nicht Personen sondern Orte stehen im Zentrum zweier Tools zur Erkundung der Antiken Welt. Das bereits etablierte Produkt Orbis aus Stanford errechnet Wegstrecken und Kosten zwischen einzelnen Orten im römischen Reich. Wie bei modernen Navigationssystemen wird zwischen kürzestem, schnellsten und billigstem Weg unterschieden.

Pelagios – ein britisch-österreichisches Joint-Venture – ermöglicht Nutzenden selbst Verknüpfungen zwischen Antiken Texten und darin genannten Orten herzustellen. Mit der „bottom-less map“ (der unendlich tief annotierbaren Karte) als Ziel des Projekts.

Von der Antike zum Mittelalter, wo es insbesondere in den sogenannten Hilfswissenschaften Neues zu entdecken gibt.
Die Beschreibung von Handschriften zum Zweck der Unterscheidung von Schreibern gehört zu den Kernkompetenzen der Paläographie. Das Projekt digipal treibt dies auf die Spitze und hat ein Tool kreiert, mit welchem kleinste Unterschiede von Händen beschrieben und betrachtet werden können. Als nächste Schritte sind Ausbau um skandinavische und hebräische Handschriften geplant.

Unter anderem mit digitaler Kodikologie beschäftigt sich das Schoenberg Institute for Manuscript Studies und präsentierte eine erste Version des Manuscript Collation Project, welches erlaubt Codex nach Lagen zu betrachten, etwa um spätere Um- und Fehlbindungen zu identifizieren und digital zu korrigieren, ohne dass die Stücke einem physikalischen Risiko ausgesetzt werden.

Um Ergänzungen und Kommentare wird gebeten.

Quelle: http://ordensgeschichte.hypotheses.org/7637

Weiterlesen

Kommentar zu Markus Bernhardt “Erinnerungsorte, Eintracht Braunschweig und der Geschichtsunterricht”

[Autor: Sven Ehlert | Studierender | Universität Duisburg-Essen

Kommentar zum Blogeintrag: Bernhardt, Markus: Erinnerungsorte, Eintracht Braunschweig und der Geschichtsunterricht. In: Public History Weekly 1 (2013) 12, DOI: dx.doi.org/10.1515/phw-2013-751.

In Fanchoreographien wird das Anspruchsdenken, den eigenen Fußballverein als eine über Zeiten hinweg bestehende Konstante zu betrachten, deutlich: „So ist es schon seit Opas Zeit – schwarz-weiß bis in die Ewigkeit“[1]. Diese spezielle Wahrnehmung kann, wie von Markus Bernhardt in seinem Beitrag hervorgehoben wird, hervorragend dazu genutzt werden, im Geschichtsunterricht lokale Gegebenheiten in einen breiteren historischen, über das Lokale hinausgehenden, Kontext zu stellen.

Ein Fußballverein als Erinnerungsort, den man meines Erachtens nach durchaus besuchen kann, sei es durch das Betreten der Heimstätte, dem intensiven Austausch mit Anhängern dieses Erinnerungs-„kultes“, dem simplen Auseinandersetzen mit einem Fußballverein und seiner Geschichte oder durch den Besuch eines historisch aufbereiteten Fußball- beziehungsweise Vereinsmuseums, kann dazu dienen, die kollektivstiftende Wirkung eines Fußballclubs zu erfassen und „subjektiv aufzuladen.“

An dieser Stelle kann im Geschichtsunterricht angesetzt werden. Über die eigenen Eindrücke als Bezugspunkt kann vom eigenen Verein des Schülers her eine Brücke geschlagen werden zu (über-)regionalen und anderen lokalen Phänomenen und im Zuge dessen ein historisches Sujet abgehandelt werden. So könnte von einer lokalen Institution (wie es in Markus Bernhardts Beitrag etwa Eintracht Braunschweig ist) auf ein europäisches Spannungsfeld verwiesen werden, um in eine Thematik des Blocks „Das ‘kurze’ 20. Jahrhundert“ einzuführen.

Im Rahmen deutsch-spanisch bilingualen Geschichtsunterrichts soll laut Kerncurriculum in NRW „Der spanische Bürgerkrieg und Spanien nach 1945“ durchgenommen werden[2], somit könnte einer Unterrichtseinheit durchaus explizit die Rolle der katalanischen Nation innerhalb der Franco-Diktatur gewidmet werden. Das besondere Verhältnis der katalanischen Metropole Barcelona und der Zentralregierung Spaniens in Madrid spiegelt sich im Fußball zwischen dem FC Barcelona und Real Madrid während der Franco-Diktatur wider und sorgt auch heutzutage im Zuge des diesjährigen Referendums zur Abstimmung eines unabhängigen Kataloniens noch für Gesprächsstoff. Verwiesen sei an dieser Stelle auf die besondere Rolle der Spielstätte des FC Barcelona: während des Francoregimes fungierte das Camp Nou als Forum für die katalanische Gesellschaft, hier konnte die eigene Sprache gesprochen werden, die zu dieser Zeit verboten war, die katalanische Flagge gezeigt und auch politisch kontrovers diskutiert werden, ohne Sanktionen durch den Staatsapparat zu fürchten.

Auf diese Art und Weise wird ein spezieller Ort, nämlich das Stadion Camp Nou, zu einem signifikanten Erinnerungsort einer Nation. Die Erzählungen über den eigene Widerstand zu Zeiten der Diktatur und die erlittene Repression der eigenen Sprache wird zentraler Gegenstand der eigenen Identität. Der Erinnerungs-„Ort“ ist hier nicht mehr nur metaphorisch zu verstehen. An dieser Stelle wird die Rolle eines Fußballvereins als Brennglas einer Nation hervorgehoben, dessen Bedeutung überregional Gehör findet und über die lokale Identitätsstiftung hinaus geht. Genau derartige Anekdoten können dem Geschichtsunterricht ein breiteres Spektrum ermöglichen, die Geschichte eines Landes „von einer anderen Seite“ aufzugreifen. Die Eigenzuschreibung „Més que un club“ (Mehr als ein Klub) zu sein verdeutlicht einerseits die Bedeutung des Vereins für die katalanische Nationalbewegung, andererseits können diese Worte im Zuge der voranschreitenden Kommerzialisierung des Fußballs eher als schlichter Slogan verstanden werden.

Ein erster Blick auf die Inhaltsfelder für die gymnasiale Oberstufe des Landes NRW und deren Umsetzung in den ersten Konzepten diverser Schulbuchverlage verdeutlicht, dass der Fußball im modernen Geschichtsunterricht angekommen ist. Für das Inhaltsfeld I „Fremdsein, Vielfalt und Integration – Migration am Beispiel des Ruhrgebiets im 19. und 20. Jahrhundert“ wird unter dem Schlagwort „Erinnern“ ein Schwerpunkt gelegt auf die Entwicklung des Fußballs im Ruhrgebiet im Zuge der Zuwanderung polnischsprachiger Flüchtlinge im Laufe des späten 19. und des frühen 20. Jahrhunderts. Ein (weiteres) Indiz für das steigende Interesse an der eigenen lokalen Vergangenheit und der Bewusstwerdung der Bedeutung des eigenen Fußballvereins ist sicherlich die seit dem Ende der 1990er Jahre in Deutschland entstandene und mittlerweile weit verbreitete Ultrà-Kultur, die es Jugendlichen ermöglicht, aktiv am Vereinsleben teilzuhaben und somit dessen eigene Motivation hervorhebt, an geschichtsträchtigen Momenten und neuen Episoden des Erinnerungsortes zu partizipieren und Geschichte „mitzuschreiben“.

[1]Fankurve von Borussia Mönchengladbach im ersten Spiel der Bundesliga-Saison 2010/11 gegen den 1.FC Nürnberg, online einsehbar unter: http://nordkurvenfotos.de/?p=69.

[2]Vorgaben zu den unterrichtlichen Voraussetzungen für die schriftlichen Prüfungen im Abitur in der gymnasialen Oberstufe im Jahr 2014, online einsehbar unter:

https://www.standardsicherung.schulministerium.nrw.de/abitur-gost/getfile.php?file=3116, S.4.

Quelle: http://zwopktnull.hypotheses.org/180

Weiterlesen

App “American Way”

[Autorin: Ann-Kathrin Bauroth | Studierende | Universität Duisburg-Essen]

Die App „American Way“ wurde für die Ausstellung „The American Way. Die USA in Deutschland.“ konzipiert. Das ’Sichtfenster’ der App im App-Store bietet unter anderem Informationen über den Anbieter (beier und wellach projekte), den Entwickler (siehe Anbieter), den Herausgeber (Stiftung Haus der Geschichte der Bundesrepublik Deutschland), Altersfreigabe (4+), eine kurze Beschreibung, vier Bilder, etc. Weitere und ausführlichere Informationen findet man in der App selbst, gut sichtbar am unteren linken Rand, unter dem Button „Information“. Hier befinden sich die Rubriken: „Information“, „Zur Ausstellung“, „Zur App“, „Stiftung Haus der Geschichte“, „Impressum“ und „Bilderrechte und Lizenzen“.

In der App werden, stellvertretend für die anderen 1.000 Exponate, 18 ausgewählte Objekte ’ausgestellt’. Außerdem haben die Nutzer die Möglichkeit die ausgewählten Objekte ausführlich zu untersuchen. Zu sehen sind unter anderem ein Zigarettenetui, eine Fotografie von Präsident J. F. Kennedy, uvm. Jedes Objekt verfügt über 2-3 Vertiefungsebenen. Eine davon löst „Hotspots“ (rote Kreise) aus. Diese bieten entweder Informationen direkt zum Objekt, soziale bzw. geschichtliche Einordnungen oder weiterführende Informationen. Einige Objekte sind außerdem mit Audio- oder Videodateien verlinkt. Durch eine Verlinkung bei dem Objekt „Jukebox“ kann man sich zum Beispiel Elvis Presleys Version des deutschen Liedes „Muss I denn“ anhören, eine weitere Verlinkung auf dem Poster zu dem Thema „Der Marshallplan“ zeigt eine Videoaufnahme der Deutschen Wochenschau aus dem Jahre 1951, mit dem Titel „Europa-Zug startet zur Europa-Fahrt“.

Wie schon erwähnt, verfügt jedes Objekt über 2-3 Vertiefungsebenen:

  1. Objekt erforschen: von hier gelangt man zu den Hotspots
  2. Zeitstrahl: über diese Aktion gelangt man zu bis zu sechs verschiedenen Daten und den dazugehörigen Informationen, welche in Verbindung zu dem ausgewählten Objekt stehen
  3. Objekt drehen: durch die Auswahl dieser Aktion ist man in der Lage das ausgewählte Objekt horizontal zu drehen, wobei diese Option nicht bei jedem Objekt verfügbar ist

Durch eine Navigationsebene im unteren Bereich des Bildschirms kann man Miniaturansichten der verschiedenen Objekte sehen und diese von hier auswählen, wobei man auch durch die „Wischtechnik“ von einem zum anderen Objekt gelangt. Außerdem kann jedes Element beliebig vergrößert werden. Sowohl die Vertiefungsebene als auch die Navigationsebene kann so minimiert werden, dass sie kaum noch auf dem Bildschirm wahrnehmbar ist und alleine das Objekt diesen ausfüllt.

Nach einer genauen Begutachtung der App komme ich zu dem Schluss, dass die Hersteller bei der Entwicklung eine gute Leistung erbracht haben. Die App scheint qualitativ auf einem hohen Niveau zu sein und bietet dem Nutzer viele Möglichkeiten die Objekte zu untersuchen. Sehr interessant finde ich vor allem die Hotspots und deren weiterer ’Zugaben’ (weitere Bilder, Tonaufnahmen, Videos, etc.). Die Benutzung der audiovisuellen Sinne empfinde ich als gute Kompensation dazu, dass man das Objekt eigentlich nicht vor sich stehen hat, wie es bei einem realen Museumsbesuch der Fall wäre. Außerdem unterstreichen diese Zusätze die Emotionalität mancher Bilder bzw. Fotografien, wie zum Beispiel das Video von J. F. Kennedys Rede vom 26. Juni 1963 in Berlin, welche sich in einem Hotspot zu einer seiner Fotografien befindet.

Die Benutzung dieser App setzt zwar einen Fokus auf die Weiterbildung des Nutzers, doch hat man nicht das Gefühl, dass man es mit einer reinen Lern-App zu tun hat. Dies sehe ich als großen Pluspunkt, da dies, im Hinblick auf jüngere Nutzer, nicht abschreckend wirkt. Dies führt mich zu den einzigen beiden Punkten, die ich leicht ’kritisieren’ könnte, wobei es sich nicht wirklich um eine Kritik handelt. Im Hinblick auf die Altersfreigabe von 4+, stellt sich mir die Frage, ob ein Kind von 5 Jahren die App nutzen könnte bzw. Interesse daran hätte. Hierfür ist die Optik und Gestaltung zu sehr für Jugendliche und Erwachsene ausgelegt. Und auch der zweite Punkt ist weniger eine Kritik als ein Feststellung oder ein Wunsch. Es hätten meiner Meinung nach ruhig mehr als 18 ausgewählte Objekte in der App gezeigt werden können. Im Ganzen ist die App sehr gelungen, unter anderem auch dadurch, dass die Entwickler und Hersteller darauf geachtet haben, genaue Angaben zu der App zu machen und auch die Bildrechte und Lizenzen hier veröffentlicht haben, was der App viel Seriosität verleiht.

Quelle: http://zwopktnull.hypotheses.org/178

Weiterlesen

École dʼété de lʼUniversité Franco-Allemande / Sommerschule der Deutsch-Französischen Hochschule

l'homme_dans_la_vieLa vie dans l’homme ou l’homme dans la vie? Généalogies franco-allemandes entre anthropologie et anti-humanisme

Das Leben im Menschen oder der Mensch im Leben ? Deutsch-Französische Genealogien zwischen Anthropologie und Anti-Humanismus

21–25 juillet 2014

École normale supérieure de Paris

29, Rue d’Ulm

Salle Paul Langevin (1er étage)

 

Une coopération entre l’Institut de Philosophie de l’Université de Potsdam et les Archives Husserl de Paris (UMR 8547) avec le soutien de l’Université franco-allemande

Direction scientifique

Christian Sommer (Archives Husserl), Hans-Peter Krüger (Universität Potsdam)

Organisation

Thomas Ebke (Bourse Feodor-Lynen de la Fondation Alexander von Humboldt), Caterina Zanfi (République des savoirs)

21.07

Les « enjeux »

Die „Einsätze“

9:30-10

Accueil : Christian Sommer (Archives Husserl Paris), Hans-Peter Krüger (Potsdam)

10-11:30

Hans-Peter Krüger (Potsdam)

Philosophische Anthropologie und theoretischer Antihumanismus

Répondant : Guillaume Plas (Paris IV)

11:30-12

Pause

12-13:30

Christian Sommer (Archives Husserl Paris)

Approches du vivant entre anthropologie et phénoménologie

Répondant : Mario Marino (TU Cottbus/UAM Poznan)

13:30-15

Déjeuner

15-15:15

Accueil : Jochen Hellmann (Secrétaire général, UFA)

15:15-17

Workshop en allemand/auf Deutsch

Ugo Balzaretti (Bâle)
Leben und Tod des Menschen. Anthropologie zwischen Michel Foucault und Georges Canguilhem

Moritz Neuffer (Berlin)
Aggression und Utopie. Zur Kritik der Philosophischen Anthropologie in der Bundesrepublik Deutschland der 1960er und 1970er Jahre

Sebastian Edinger (Potsdam)
Eine kleine Genealogie des Verhältnisses von Anthropologie und Ontologie im Denken Adornos

Présidé par Annika Hand (Coblence-Landau)

17-17:30

Pause

17:30-19:30

Workshop en français/auf Französisch

Thomas Viennet (Bonn)
Heidegger et la critique de la transcendance de l’homme

Benjamin Pinhas (Paris IV)

Un procès sans sujet? L’histoire à l’épreuve de l’anti-humanisme théorique

Hervé Ondoua (Yaoundé)
Jacques Derrida et la déconstruction du corps : Vers une libération des représentations du corps humain

Presidé par Guillaume Plas (Paris IV)

 

22.07

Lectures croisées

Kreuzpunkte der Lektüren

9-10:30

Olivier Agard (Paris IV)

Les sources françaises de lʼanthropologie philosophique de Max Scheler

Répondant : Silvia Richter (Berlin)

10:30-11

Pause

11-13

Workshop en allemand/auf Deutsch

Gregor Schmieg (Fribourg-en-Brisgau)
Die Rezeption der Uexküllschen Umwelttheorie

in Helmuth Plessners Begriff der „Positionalität“

Dennis Johannßen (Providence)
Anthropologie und Lebensphilosophie in Heideggers Sein und Zeit

Daniel Hackbarth (Darmstadt)
Materialismus contra Humanismus: Zur Kritik der Anthropologie in den Gesellschaftstheorien Max Horkheimers und Louis Althussers

Présidé par Annika Hand (Coblence-Landau)

13-14:30

Déjeuner

14:30-16

Wolfhart Henckmann (Munich)

‘Nietzsche und die Fragwürdigkeit des Menschen’. 
Fragen zur Edition eines unvollendeten Vortrags von Max Scheler

Répondant : Edoardo Simonotti (Gênes)

16-16:45

Niki Théron (Frankfurter Buchmesse, Francfort-sur-le-Main)

Colette Buffière (OFAJ Paris)

Christophe Lucchese (Traducteur, Paris)

Präsentation des Georges-Arthur-Goldschmidt-Programms für junge LiteraturübersetzerInnen

16:45-18

Excursion/Exkursion : Fonds Henri Bergson, Bibliothèque littéraire Jacques Doucet

En collaboration avec la Société des Amis de Bergson

 

23.07

Phénoménologie et anthropologie

Phänomenologie und Anthropologie

9-10:30

Annette Hilt (Mayence)
Pathisches Leben – Schmerzen und die Dimensionen einer Phänomenologie der Affektivität

Répondant : Claudia Serban (ENS Paris)

10:30-11

Pause

11-13

Workshop en français/auf Französisch

Madalina Guzun (Wuppertal/Paris IV)

De la vie dans lʼhomme à lʼhomme dans le Logos : repenser la question anthropologique avec Merleau-Ponty

Kyla Bruff (Bonn)
Le corps, la perception et l’ontologie : Merleau-Ponty, médiateur entre le dernier Heidegger et le premier Foucault

Marion Schumm (Paris X)
L’anthropologie phénoménologique de Hans Blumenberg

Présidé par Claudia Serban (ENS Paris)

13-14:30

Déjeuner

14:30-16

Workshop en allemand/auf Deutsch

Tim-Florian Goslar (Wuppertal)
Hans Blumenberg und Jacques Derrida: Leben, Geschichte – gelebte Geschichte und dazwischen der Mensch?

Juliane Keusch (Coblence-Landau)
Merleau-Pontys Phänomenologie des Leibes als 
Phänomenologie des Lebens

Marion Stahl (Eichstätt)
Der fähige Mensch zwischen Selbstschätzung und Anerkennen. Zur Anthropologie und hermeneutischen Phänomenologie in Paul Ricoeurs Spätwerk

Présidé par Jasper van Buuren (Potsdam)

16:30-17

Pause

17-18:30

Etienne Bimbenet (Lyon III)

Ce que le langage fait à la vie : quelques ressources phénoménologiques

Répondant : Jasper van Buuren (Potsdam)

 

24.07

Biologie et philosophie du vivant

Biologie und Philosophie des Lebendigen

9-11

Workshop en français/auf Französisch

Justus Schollmeyer (Berlin)
La philosophie transcendantale et 
le problème de l’explication fonctionnelle en biologie

Charles Martin-Fréville (Amiens)

Uexküll, ou : comment traduire la vie acentrée ?

Mathilde Lequin (Paris X)

Les modèles d’évolution de la bipédie entre paléoanthropologie et anthropologie philosophique

Présidé par Anne Lefebvre (Compiègne/CIPh Paris)

11-11:30

Pause

11:30-13

Thomas Ebke (Potsdam/Archives Husserl Paris)

„Dilettanten des Lebens“. Deutsch-Französische Brechungen der Anthropogenese in der Philosophie des 20. Jahrhunderts

Répondant : Mathilde Lequin (Paris X)

13-14:30

Déjeuner

14:30-16:30

Workshop en allemand/auf Deutsch

Moritz von Kalckreuth (Potsdam)
Körperausschaltung und geistige Freiheit in der Anthropologie Paul Alsbergs

Philipp Kressmann (Bochum)
Zum Verhältnis von Philosophischer Anthropologie und moderner Hirnwissenschaft

Tim Sparenberg (Francfort-sur-l’Oder)
Die Zickzacklinie und der „Weg der Wolke“.

Ansätze zu einer deutsch-französischen Formengeschichte des Menschen

Présidé par Christian Reiss (Ratisbonne)

16:30-17

Pause

17-18:30

Arnaud François (Toulouse II)

Comment Bergson utilise les sciences biologiques

Répondant : Christina Terberl (Witten)

 

25.07

Théories de la civilisation entre optimisme et décadence

Theorien der Zivilisation zwischen Optimismus und Dekadenz

9-10:30

Barbara Beßlich (Heidelberg):

Frankreich in der deutschen Kulturkriegspublizistik (1914-1918)

Répondant : Caterina Zanfi (République des savoirs)

10:30-11

Pause

11:30-13

Workshop en français/auf Französisch

Amirpasha Tavakoli (EHESS Paris)

Le destin de l’état de nature à l’époque du progrès des sciences et des arts (Le cas de Rousseau)

Bruno Batista Rates (Toulouse II)
Vie et histoire humaine chez Bergson : la technique comme critère

Lukas Held (Toulouse II)
«Lebensraum» und «Weltraum». Autour d’un motif critique de la pensée de Blumenberg

Présidé par Mario Marino (TU Cottbus/UAM Poznan)

13

Clôture des travaux

Quelle: http://trivium.hypotheses.org/640

Weiterlesen

aussichten. Perspektivierung von Geschichte, July 12, 2014

Neueste Beiträge in ‘aussichten’ Ein deutscher Künstler im Ersten Weltkrieg Kaiserbiographien: Pertinax (193 n. Chr.) Forschungsverbund für Universitätsgeschichte der Johannes-Gutenberg-Universität Mainz Der Münchner Wochenanzeiger über die digitalen Aktivitäten von VABOSH 2.0 Informationen zur politischen Bildung (Heft 261): Weimarer Republik Weitere Informationen finden Sie unter http://www.aussichten-online.net Digest powered by RSS Digest

Quelle: http://www.einsichten-online.de/2014/07/5255/

Weiterlesen

“Big Data” als Herausforderung an die “Digitale Pädagogik” – Ein Plädoyer für die Verwendung der “Grounded Theory”

Big Data als Herausforderungen an eine Digitale Pädagogik 

“Big Data” sind in der breiten Massenkultur angekommen. Sehen einige darin den Untergang der Privatheit durch die umfangreiche Überwachung und Analyse von Nutzerverhalten, so werden die Möglichkeiten der durch die Vernetzung und Interoperabilität von großen Daten-Mengen erzeugten neuen Daten stellenweise schon frenetisch gefeiert. Der Gewinn sich im Zuge von “Big Data” nun endlich mit den methodisch-reflexiven und praktischen Herausforderungen einer DH-affinen bzw. digitalen Pädagogik zu stellen, soll hier in Angriff genommen worden. Zu lange sind wir im Tal der Ahnungslosen verblieben bzw. haben uns darauf verlassen, dass es zu generellen Impulsen kommen wird, die aber seit langer Zeit ausgeblieben sind. Es sollen hier erste Anstösse gegeben werden, dass wir durch den Umgang mit “Big Data” und durch die Nutzung von “Big Data” die Chance ergreifen können die Potentiale, die die “Big Data” für die (Weiter-)Entwicklung der Digitalen Pädagogik birgt, zu nutzen. Dabei spielt die Einsicht von Arthur Conan Doyle “It is a capital mistake to theorize before one has data” (Doyle 1891) eine wichtige Rolle, da wir noch viel zu wenig das Augenmerk auf bereits vorhandene und zu gewinnende Daten bei digitalen Lehr- und Lernprozessen und -kulturen gelegt haben und die Auswertung dieser Daten bisher noch aussteht bzw. diese nur peripher genutzt werden. Es soll hier eine Lanze dafür gebrochen werden, dass wir im Umgang mit “Big Data” und “Big Data Technologien” vor neue Herausforderungen – auch und insbesondere in der Vermittlung – gestellt sind – dies würde auch wohl keiner mehr mit Ernst bezweifeln wollen.

Big Data und die “Grounded Theory” – Ein neuer Ansatzpunkt für die “Digitale Pädagogik”?

Bisher sind viele Potentiale von Big Data und Big-Technologien nicht genutzt worden, wenngleich immer wieder angeführt wird, dass wir durch die technische Umsetzung noch sehr begrenzt sind. Ich halte dies für ein Schein-Argument, da wir schon über viele Daten verfügen, die aber in konzeptionell-methodischer Hinsicht noch nicht aufgearbeitet sind. Erst durch die “datengestützte Theoriebildung” scheint es mir möglich überhaupt technische Anforderungen und weitergehende wechselseitig Bestimmung von Technik und pädagogischer Praxis zu formulieren, die dann wieder in die jeweilige weitere Ausformulierung des Zusammenspiels münden können. Ich gehe davon aus, dass die Big Data und ihre Technologien als Praktik, um die in den Daten schlummernde pädagogische Theorie zu entdecken. Ein theoretischer Ansatz könnte dabei in der “Grounded Theory” gesehen werden, die durch systematisches Erheben und Analysieren von Daten, die sich auf das entdeckte Phänomen beziehen, entdeckt, ausgearbeitet und vorläufig bestätigt. Folglich stehen Datensammlung, Analyse und die Theorie in einer wechselseitigen Beziehung zueinander, die wiederum dazu genützt werden können die technischen Anforderungen an eine neue Form von “digitaler Pädagogik” auszuarbeiten. Mit den vorhandenen Big Data und den vorhandenen Big Data-Technologien könnte die „Methode des permanenten Vergleichs“ angewendet werden. Bei dieser Methode finden die Datensammlung sowie das Kodieren und Analysieren der Daten parallel statt. Für die Kodierung werden substantielle und theoretische Codes verwendet: Die substantiellen Codes werden in offene und selektive Codes unterteilt. Zu Beginn der Analyse werden offene Codes verwendet (offene Kodierung). Offene Codes sind z. B. bestimmte Worte, die in den Daten wiederkehrend vorkommen. Es werden anhand der offenen Codes Unterschiede, Gemeinsamkeiten, Handlungsmuster usw. mit dem Ziel, Kategorien bilden zu können, gesucht. Die Klassifizierungen können gebildet werden, sobald diejenigen Verhaltensmuster identifiziert wurden, die Bedeutung oder Nicht-Bedeutung zugeschrieben bekommen. Diese Verhaltensmuster werden auch Kernvariablen genannt. Im zweiten Teil der Analyse wird nur noch selektiv (selektive Kodierung) kodiert, d. h. anhand der entwickelten Kategorien. Diese Analyseschritte könnten sowohl von forschenden Personen als auch durch Maschinen-lesbare Serialisierung der Daten vorangetrieben werden. So könnten  „Themengruppen“ und „Strategien“, anhand derer die einzelne Datensegmente gruppiert werden können, erhoben werden und systematisch für die Generierung von neuen Materialien im Lern- und Lehrprozess genutzt werden bzw. auf methodisch-reflektierter Ebene zur Fundierung von pädagogischen Mitteln und Methoden genutzt werden.. Das Ziel ist, dadurch Beziehungen und Zusammenhänge herausarbeiten zu können (Polit, Tatano Beck & Hungler, 2004), die dann wiederum in Theorie und Praxis einer “Digitalen Pädagogik” genutzt werden könnten. Es steht damit in Frage, ob bisher die “Digitale Pädagogik” noch zu sehr an dem positivistisch-funktionalistischen Paradigma des Hiatus von Theorie, Praktik und Technik aufsass und damit auch “Big Data” in eine Ecke gezwungen wurde, die das negative Bild prägte. Es wird hier vorgeschlagen Big Data im Zuge einer interaktionistisch-pragamtistischen Perspektive zu sehen. In dieser Sicht sind in den Big Data Interaktionen  zu beobachten, die helfen die Bedeutung von sozialen Objekten, Situationen und Beziehungen, die im symbolisch vermittelten Prozess der Interaktion/Kommunikation hervorgebracht werden, zu analysieren und zu nutzen.

Ein Neu-Ansatz der “Digitalen Pädagogik” im Angesicht der Möglichkeiten von Big Data und Big Data-Technologien müsste auf theoretischer Ebene bei einer interaktionistisch-pragmatistischen Wissenssoziologie anfangen, um in diesen die eingelagerten Interaktionszusammenhängen in der Wissensgenese und die vermittelnde Rolle von Daten und Datafakten im Zusammenklang von theoretisch-konzeptuellen und methodischer Impulse nutzen zu können. Durch diese Sicht können wir ein Miteinander von quantitativer und qualitativer Sozialforschung für die Entwicklung neuer Formen der “Digitalen Pädagogik” Neu-Ansatz der “Digitalen Pädagogik” im Angesicht der Möglichkeiten von Big Data und Big Data-Technologien müsste auf theoretischer Ebene bei einer interaktionistisch-pragmatistischen Wissenssoziologie anfangen, um in diesen die eingelagerten Interaktionszusammenhängen in der Wissensgenese und die vermittelnde Rolle von Daten und Datafakten im Zusammenklang von theoretisch-konzeptuellen und methodischer Impulse nutzen zu können.

Die Verwendung von Big Data in diesem unteraktionistisch-pragmatistischen Horizont weist dabei auf die Unterscheidung von Medium und Form auf, die das Re-entry der Form der Daten und ihrer Modellierung in die Form der Daten erlaubt.

Big Data: die Revolution, die die digitale Pädagogik verändert?

Das von Hirsch (2012) in Anschlag gebrachte Ungleichgewicht zugunsten der Fragen um die Forschungsmethoden, den Theorien und Ergebnissen gegen die kritischen und den aktuellen Praktiken des Unterrichtens, kann m.E. durch Nutzung von “Big Data” als Medium und Form eines pädagogischen Grundprinzips abgemildert werden. Gerade das Miteinander von Methoden der Datenerfassung, der Verteilung und Speicherung, sowie die im Zusammenhang mit Lehr- und Lernmaterialien entstandenen Daten zu durchsuchen, zu analysieren und zu visualisieren, um daraus wiederum Rückschlüsse, Ansätze für die Neugestaltung und Individualisierung von Lehr- und Lernmaterialien können den allzu oft künstlich hergestellten bzw. heraufbeschworenen Hiatus zwischen Digitaler Pädagogik und Big Data überwinden. Durch die Datenerfassung, das Tracing von Datenströmen, des IR als Bestandteil von Feedback-Schleifen durch Analyse und Visualisierung können sowohl für die Produktion und Entwicklung als auch als Maßnahme der Qualitätssicherung von Schulungsmaterialien Grundlagen aus den Big Data gewonnen werden. Durch die Nutzung und Analyse von Nutzerverhalten bei vorhandenen Schulungsmaterialien können wichtige Rückschlüsse daraus gezogen werden, wie diese benutzt werden, und für individuell nutzbare, aber trotzdem im Sinne eines “mass-customizing” sowie bei der Anpassung, der Aufarbeitung und Neugestaltung genutzt werden können. Insbesondere das Data-Mining mit dem Ziel, neue Muster zu erkennen, könnten genutzt werden, um die Lehr- und Lernmaterialien optimaler zu positionieren und durch die Big Data-Technologien von einem “mass-customizing” einer Lernplattform zu individualisierten Lerninseln vorstossen zu können. Die Big Data aus den Schulungsmaterialien mit den Schulungsmaterialien selbst sind dabei der Anfang des Knowledge Discovery in Databases-Prozesses (KDD) (Ester/Sander 2000) zu verstehen.

Die KDD als pädagogisches Mittel und Methode der Digitalität
Die bereits vorhandenen Erfahrungen der Nutzung und die vorhandenen Daten zum Schulungsmaterial könnten die vorbereitenden Untersuchungen und die Transformation der auszuwertenden Datensätze mit bedingen, die wiederum eine Dimension des Knowledge Discovery in Databases sind. Die Schulungsmaterialien selbst sind dabei auch als KDD anzusehen. Ziel wäre es damit zunächst die Erkennung bislang unbekannter Zusammenhänge aus vorhandenen Datenbestände aus und in Form und Medien von Schulungsmaterialien zu erschließen. Durch die Nutzung von Big Data-Technologien, wie z.B. die Clusteranalyse, die Outlier-Erkennung und die Analyse und Generierung von Indexstrukturen, könnten neue Data-Mining-Algorithmen entwickelt werden, um Schritte der Wissensentdeckung (Datenauswahl, Datenbereinigung, Datenreduktion, Modellbildung, Visualisierung usw.) gezielter für die (Weiter-)Entwicklung und neuer Schulungsmaterialien zu nutzen, indem Regelmäßigkeit, Gesetzmäßigkeiten und verborgene Zusammenhänge extrahiert werden und auf das vorhandene Schulungsmaterial zurückgeführt werden, welches in “real-time” dem Lehr- und Lernprozess des KDD angepasst wird. Big Data-Technologien können sowohl die Daten dabei als Medium als auch Form der Clusteranalyse, der Klassifikation, der Assoziations- und Regressionsanalyse der bestehenden Daten dienen. Hierdurch wird es möglich Daten für die Erstellung von neuen Schulungsmaterialien zu gewinnen, die wiederum Anstoss für weitere notwendige Theoretisierungen im Bereich der Digitalen Pädagogik . Durch die Verwendung von Big Data-Technologien, die durch das Daten-Mining von Schulungsmaterialien gewonnen werden können, könnte es möglich werden von Daten hin zur Theoretisierung und ausgehend von dort wiederum zur konkreten Umsetzung in neue Formen und zu Medien der Lehr- und Lernmaterialien zu gelangen. Die Verwendung von Big Data weist dabei eine Unterscheidung von Medium und Form auf, die das Re-entry der Form der Daten und ihrer Modellierung in die Form der Daten erlaubt. Durch diese Sicht können wir ein Miteinander von quantitativer und qualitativer Sozialforschung für die Entwicklung neuer Formen der “Digitalen Pädagogik” nutzen.

Ein Neu-Ansatz der “Digitalen Pädagogik” im Angesicht der Möglichkeiten von Big Data als KDD und Big Data-Technologien müsste auf theoretischer Ebene bei einer interaktionistisch-pragmatistischen Wissenssoziologie anfangen, um in diesen die eingelagerten Interaktionszusammenhängen in der Wissensgenese und die vermittelnde Rolle von Daten und Datafakten im Zusammenklang von theoretisch-konzeptuellen und methodischer Impulse nutzen zu können.

Es stellt sich damit aber umso dringender die Frage nach dem Anspruch eines solchen Ansatzes. Ist eine “Digitale Pädagogik” immer eine Pädagogik der DH oder ist die “Pädagogik der DH” nicht vielleicht doch das Nahziel.

Big Data: Medium und Form – Ansätze für eine “Digitale Pädagogik” oder Pädagogik der DH?
Der Soziologe Niklas Luhmann unterschied zwischen Medium und Form, wobei der von einer Kritik der üblichen Definition des Medienbegriffs ausging, die durch die zwei Aspekte “Vorstellung einer Vielzahl von Elementen und die Funktion des Vermittelns”charakterisiert sei, ohne daß ihr Zusammenhang klar werde. Nach Luhmann setzt gerade ein Medium Elemente voraus, die temporär gekoppelt werden und solchermaßen im Medium als unterscheidbare Formen erscheinen können.Ein Medium wird durch eine Differenz von loser und fester Kopplung seiner Element gekennzeichnet: “Wir müssen dann die Einheit dieser Unterscheidung als Medium bezeichnen, nennen diese lose gekoppelten Elemente mediales Substrat und die festen Kopplungen (deren Außenseite jeweils das mediale Substrat ist) Formen. Ein Medium (…) ist eine Unterscheidung (also selbst eine Form!) auf deren Innenseite Elemente fest und auf deren Außenseite Elemente lose gekoppelt sind” (Luhmann 2000, 30).

Das Medium ist selbst nicht beobachtbar, sondern nur Fortbildungen innerhalb des Mediums. Es soll hier die These vertreten werden, dass vieles dafür spricht, dass Big Data und die damit verbundenen Technologien als ein KDD-Prozess aufgefasst werden können, die sich für die Nutzung auf die Medium-Form-Unterscheidung stützen könnten. So betont Luhmann, dass allein die Formseite anschlussfähig ist, was aufgrund des temporären Charakters der Form zu ständiger (Re-)Aktualisierung von Formbildung zwingt, wie wir es auch bei Data-Mining-Prozessen bei den Big Data-Technologien erleben. Das Medium ist hingegen zeitlich weitaus stabiler, es verbraucht sich nicht durch Fortbildungen. Durch das Data-Mining findet eine Sinnoperation statt, die als re-entry der Form in die Form zu werden ist: “Als operative Einheit aus Unterscheidung und Bezeichnung ist Sinn eine Form, die sich selbst enthält, nämlich die Unterscheidung von Unterscheidung und Bezeichnung. Eine Form ist letztlich eine Unterscheidung, die in sich selbst als Unterschiedenes wieder vorkommt” (Luhmann 1998, 57).

Big Data und ihre Technologien als Medium sorgen somit für die kommunikative Autopoiesis der Daten, indem hier nicht mehr davon ausgegangen wird, dass Informationen einfach übertragen werden, sondern her- und zugestellt werden können, die wiederum in eine Form (hier die Schulungsmaterialien) einfließen können. Durch Big Data als Form der digitalen Pädagogik wird die Markierung einer Unterscheidung möglich (Luhmann 1997,198). Big Data als lose gekoppelte Elemente können in eine feste Kopplung überführt werden, indem sie mit den üblichen Verfahren des Data-Mining gebunden werden und bei jeder neuen Verwendung reproduziert werden, wobei sie immer beliebig oft verwendbar sind. Durch das Data-Mining werden die Big Data zum autopoetischen System, wenn sie als KDD betrachtet werden, das sie das eigene Medium zur eigenen Form binden (Luhmann 1997,197). Die Form ist also eine sich selbst entfaltende Selbstreferenz. Durch die Nutzung von Big Data-Technologien kann es gelingen das Schulungsmaterial der Lern- und Subjektkultur im Wechselspiel des Lernenden und Lehrenden anzupassen. Der individuell hinterlassene Datenstrom kann genutzt werden, um das Lehr- und Lernmaterial anzupassen. Auch dies umfasst die Änderung von einem positivistisch-funktionalistisch zu einem interaktionistisch-pragmatistischen Paradigma der Big Data als KDD.

Big learning data – Ansatzpunkte für eine Revolution der “Digitalen Pädagogik”
Big Data erlauben es also eine für ein breit ausgelegtes Publikum erstelltes Schulungsmaterial auf die jeweilige Lehr- und Lernkultur im Prozess der KDD anzupassen, um so ein “mass-customized” Schulungsmaterial zu einem individuell nutzbaren zu machen und dies in Echtzeit. Dabei können sowohl die Aspekte Volume, Velocity und Variety Berücksichtigung finden als auch notwendiges Feedback geben, die Motivation steigern, individuelle Lernprozesse abbilden und gestalten, die Kollaboration in Datenherstellung, -nutzung und -austausch steigern, die Lehr- und Lernkultur und -prozesse besser steuerbar machen, die Begleitung besser gestalten und das Verstehen von Lehr- und Lernprozessen als Medium und Form zu befördern. Durch die Gewinnung der Daten durch die Verwendung von Big Data als Medium und Form von pädagogischen Prozessen, deren Abbildung und Realisierung der Clusteranalyse, der Klassifikation, der Assoziations- und Regressionsanalyse, kann es gelingen, dass wir in eine höchst produktive und kreative Phase der DH eintreten können und jedem unmittelbar der Nutzen von Digital Humanities verdeutlichen können. Wir können dann wirklich von Daten ausgehen, auf deren Grundlage wir die Theoretisierung und notwendige und in der Dringlichkeit nicht abzustreitende Theoriearbeit der Digitalen Pädagogik weitertreiben zu können und zu müssen. Die Nutzung von Big Data und der damit in Zusammenhang stehenden Technologien könnte somit auch eine Revolution der Digitalen Pädagogik im interaktionistisch-pragmatischen Sinn herbeiführen, die sich von einer blossen Medienpädagogik endlich ablöst und die Big Data aus der Schmuddelecke des Feuilleton befreit.

 

Quelle: http://dhd-blog.org/?p=3794

Weiterlesen

DARIAH-DE – Workshop “Forschungsdaten für Andere”

Lizenzen, so könnte man es positiv formulieren – sollen es ermöglichen Daten(sätze)und Datafakten innerhalb der Grenzen der geltenden Gesetze so öffentlich verfügbar zu machen wie möglich. Demgegenüber stehen die Unsicherheiten und die Unkenntnis darüber, was überhaupt lizensiert werden kann und darf, was die diversen Lizenzen auf dem Markt zu leisten vermögen, wie sich die jeweiligen Lizenzen in welchem Punkt unterscheiden. Auch herrscht meist Unklarheit darüber, wie Schutzkraft von Lizenzen einzuschätzen ist. Was schließen die jeweiligen Lizenz ein und was schließen sie aus? Wo liegen die jeweiligen Stärken und Schwächen, Chancen und Grenzen der Lizenz und wie komme ich überhaupt an diese? Angesichts möglichst freier, überregionaler und langfristiger Zugriffe auf Daten zu gewährleisten, sind gerade Lizenzen ein unumgänglicher Teil im Prozess der globalen Austausches. Allerdings erscheinen Lizenzprozesse und -entscheidungen für viele Wissenschaftler ein kaum zu bewältigendes und überschaubares Minenfeld zu sein. Dies führt teilweise zu falschen Entscheidungen in Bezug auf die Lizenzierung, so dass eine freier, überregionaler und langfristiger Zugang schwierig ist, oder es wird keine Lizenz vergeben, ohne zu bedenken, dass ohne eine explizierte Lizenz die Weiterverwendung stark beschränkt ist.

Durch das enorm gewachsene Interesse am offenen Zugang zu Forschungsdaten bzw. deren Bereitstellung in den historisch arbeitenden Wissenschaften, wird es immer dringlicher eine Regelung für die offene Frage der Urheber- und Verwertungsrechte an Forschungsdaten zu finden, da Forschungsdaten Grundpfeiler wissenschaftlicher Erkenntnis darstellen und Grundlage weiterer Forschung sind.[1] Zudem ergeben sich aus Projekten (wie z.B. WissGrid) und durch die gesteigerten Anforderungen durch Geldgeber immer mehr Notwendigkeiten sich mit dem “Datenmanagement” zu beschäftigen, welches auch die Beschäftigung mit Datenlizenzierung und Entscheidungsprozessen für eine Lizenz mit impliziert.

Diese und andere Problemkonstellationen waren Anlass am Leibniz-Institut für Europäische Geschichte in Mainz zusammen mit dem Deutschen Archäologischen Institut in Berlin als Partner in DARIAH-DE am 12./13.06. 2014 ausrichtete. Der Workshop war explizit zur Lizensierung von Forschungsdaten und Datafakten für die historisch arbeitenden Wissenschaften gedacht. In theoretischer und praktischer Perspektive wurden die Lizensierungsmöglichkeiten, die Lizensierungsprozesse und -entscheidung in den Blick genommen und diskutiert.

Am ersten Tag (12.6) wurde mit Experten in Input-Talks auf die Grundlagen der Forschungsdatenlizensierung eingegangen und die Themenkomplexe Urheberrecht, Nutzungsrechte und Datenschutz behandelt. Einzelne Projekte und Einrichtungen stellten ihre Modelle und Lösungen mit Lizenzierungsentscheidungen und -prozessen für den nationalen und internationalen Datenaustausch vor.

Zunächst stellte WIBKE KOLBMANN (Berlin) das Infrastrukturprojekt DARIAH-DE vor und verdeutlichte die Notwendigkeit an und von europäischen Infrastrukturprojekten zur Schaffung von Interoperabilität von Datenbeständen bzw. Datafakten sich stärker als bisher mit Fragen rund um die Lizensierung von Forschungsdaten zu beschäftigen.

JOHANNES PAULMANN (Mainz) als Direktor des Leibniz-Instituts für Europäische Geschichte unterstrich in seinem Grußwort die Dringlichkeit der Fragen nach den sozialen und wissenschaftlichen Regeln für Bereitstellung und Nutzung von Daten. Er verwies dabei auf die Notwendigkeit des freien Zugangs zu Forschungsdaten und Publikationen in Form von Open Access und Open Data. Er verwies dabei auf die eigenen Erfahrungen mit dem Projekt Europäische Geschichte Online und den in diesem Projekt bereitgestellten Metadaten zu Beiträgen und Multimediaelementen. So wies er darauf hin, dass die Beiträge zumeist unter einer Creative-Commons-Lizenz veröffentlicht würden und dadurch potentiellen Nutzern die Bedingungen für die (Weiter-)Nutzung deutlich gemacht würden und müssten.

Der Jurist und Kulturmanager PAUL KLIMPEL (Berlin) gab einen Überblick über die rechtlichen Rahmenbedingungen für wissenschaftliche Daten. Er machte nochmals deutlich, dass zunächst wissenschaftliche Daten nicht grundsätzlich einem urheberrechtlichen Schutzbereich angehören und damit diese nicht per se geschützt sind. Vielmehr tritt hier die Notwendigkeit von Lizenzen und Lizensierungsprozessen zutage, denn in juristischer Hinsicht sind Lizenzen rechtsverbindliche Verträge, die den Gebrauch und Nutzung von Daten(-beständen) eindeutig regeln. So machte Klimpel auch darauf aufmerksam, dass der Lizenzhinweis ein wichtiges Element darstelle, insbesondere dann, wenn dieser maschinenlesbar ist (z.B. als RDF), da dieser dann als rechtlich Metadatum gelten könne.

Die Leiterin des Arbeitspaketes “Standards und Richtlinien” im Projekt APEx (ArchivPortal Europa Exzellenznetzwerk) am Bundesarchiv SUSANNE WAIDMANN (Berlin) vertiefte den Aspekt zur Angabe des Lizenzhinweises anhand von archivischen Daten im Kontext des Archivportals Europa und dem Europeana-Projekt. Sie erläuterte anhand der Aufarbeitung der archivischen Daten in XML-Dateien das Format EAD (Encoded Archival Description) und die anschließende Konvertierung in das Europeana Daten Modell (EDM), wobei in diesem Schritt die Rechteinformationen mit in die Dateien eingebaut würden. Auch in Bezug auf die Metadaten kann METS (Metadata Encoding and Transmission Standard) als Containersystem für digitale Objekte und deren Präsentation in Kombination mit METSRights eine Einbindung von Rechteinformationen über digitale Objekte erreicht werden. Allerdings gäbe es keine Einigkeit über die Nutzung von Lizenzen (so z.B. bei Europeana CC) bei Erschließungsangaben bzw. Informationen, was allerdings teils auch an den nationalen Gesetzgebungen, so dass auf CC-By-Lizenzen zurückzugreifen wäre, wie es auch das Bundesarchiv mit CC BY-NC-SA mache. Es könne aber keinen generellen Aussagen darüber gemacht werden, wann und wie Lizenzen genutzt werden, sondern hänge immer noch stark vom jeweiligen Einzelfall ab, was ein zeit- und kostenintensives Unternehmen ist. Es müsse von daher ein valider Workflow entwickelt werden, der Arbeitsaufwand und Nutzen in ein rechtes Verhältnis setze.

ALINE DEICKE und ANNA NEOVESKY (Mainz) von der Digitalen Akademie verdeutlichten in ihrem Vortrag zu OpenAccess im Akademienprogramm zunächst die Rahmenbedingungen von OpenAccess und Lizensierungen unter der spezifischen Perspektive der Akademieprogramme. Sie berichteten aus den aktuellen Projekten im Umgang mit dem Einsatz von Lizenzen und stellten sowohl grundlegende Gedanken an und brachten diese in Zusammenhang mit gewonnenen Erfahrungen aus dem Arbeitsalltag. Sie machten darauf aufmerksam, dass es keinen Automatismus zwischen der Online-Verfügbarkeit und OpenAccess gäbe, insbesondere wenn die zur Verfügung gestellten Daten unter keine Lizenz gestellt wurden, da die Unklarheit der rechtlichen Lage zur Nicht-Nutzung führen würden. In den Projekten in den Akademieprogrammen würden sich Tendenzen zu CC-Lizenzen in der Form von CC-BY-SA abzeichnen, aber die Entscheidung über Lizenzen würde immer wieder an die Erfordernisse  des Projektes abgestimmt. Einige Projekte haben für eine Entscheidung die General Public License genutzt, um zu einem Ergebnis zu kommen. Für Deicke/Neovesky sei es allerdings offen, wie es mit Lizenzen, Entscheidungen und Prozessen angesichts von kollaborativen Projekten umgegangen werden müsse und wie die Lizensierung sich auch auf die Möglichkeiten der Langzeitarchivierungsstrategien auswirken würden.

MICHAEL KAISER (Bonn) von der Max-Weber-Stiftung in seinem Beitrag “Wissen, Bewusstsein, Praktikabilität” auf die rechtlichen Implikationen des digitalen Publizierens hin. Er zeigte dies an dem von ihm betreuten Projekt perspectivia.net und betonte, dass im Durchlaufen der Phasen von der Konzeptionierung bis zum Alltagsbetrieb die lizenzrechtliche Klärung immer ein wichtiges Element darstelle. Auch die Rollenverteilung zwischen den beteiligten Akteuren auf jeder Ebenen in allen Phasen der Konzeption und Durchführung von “digitalen” bzw. hybriden Projekten spiele eine wichtige Rolle. Er konstatierte, dass die Akzeptanz von und das Bewusstsein für Lizenzen auf allen Ebenen und Dimensionen der Projektphasen noch steigerungsbedürftig seien, wobei oft der Aspekt des Designs der Lizenzierung allzu oft in den Hintergrund gerät und das Spektrum der angebotenen Lizenzen bei weitem nicht genutzt wird. Er machte am Schluss seiner Ausführung darauf aufmerksam, dass auch die Internationalisierung von Lizenzen bisher noch unzureichend bedacht und umgesetzt ist, so dass sich Probleme bei dem Umgang mit der Mehrsprachigkeit und den Konflikt mit ausländischen Rechtsnormen noch zu wenig Aufmerksamkeit geschenkt würde, wenngleich dies nicht zu einem Alarmismus führen sollte.

Am zweiten Tag (13.6) wurden verschiedene Tools zur Lizenzentscheidung und -erstellung vorgestellt.

THOMAS KOLLATZ (Essen) stellte die Creative Commons Lizenzen mit Chancen und Grenzen vor und deren Lizensierungsportal Choose a license vor. Er zeigte auf, wie die CC-Lizenzen in verschiedenen Datenformaten Verwendung finden können (z.B. TEI, (x)html, EDM XML).

NIKO BEER (Paderborn) stellte das Licensing decision tool als Teil des OER IPR Support Project vor. In diesem Projekt werden umfangreiche Informations- und Hilfsmaterialien, sowie Werkzeuge zur Verfügung gestellt und verschiedenste Wege der Offenheit der Daten und ihrer Lizensierung mit bedacht werden kann.

WIBKE KOLBMANN (Berlin) stellte wiederum den Public Domain Calculator des Projektes Europeana Connect vor. Dieser entstand im Zuge der Suche nach einem Europeana Licensing Framework und soll die Klärung der Rechtslage und Empfehlung für Datenanbieter im Hinblick auf die Lizenzierung ihrer Daten für Europeana fördern. Er ist ein Instrument zur Bestimmung, ob Schutzfristen für ein Werk ausgelaufen sind, ob andersweitige Fakten vorliegen oder ob es sich um ein neu entstandenes Werk handelt, welches freiwillig als gemeinfrei veröffentlich werden kann. Allerdings wies Kolbmann in ihren Ausführungen nochmals darauf hin, dass der Anwendungsbereich des Tools durch die Auswahl der Medienformate eingeschränkt und zudem nicht für die Evaluierung von Metadaten geeignet sei.

Abschließend testeten die Teilnehmer an eigenen Rechnern die vorgestellten Tools, die sie bei der Lizenzentscheidung und -erstellung unterstützen können anhand ihrer eigenen Daten. Jeweilige Anwendungsfragen konnten direkt mit den jeweiligen BeraterInnen von DARIAH-DE diskutiert und gelöst werden.

In der Abschlussdiskussion wurde nochmals deutlich, dass es einen enormen Bedarf an Aufklärungs- und Beratungsarbeit in Bezug auf die Entscheidungsprozesse für oder wider eine Lizenzart gibt. Es war allgemeiner Konsens, dass es eine zentrale Stelle geben sollte, um sich bei Fragen der Lizensierung von Daten und Datafakten in den historisch arbeitenden Wissenschaften beraten zu lassen. Grundsätzlich wurde aber die Notwendigkeit für die Verwendung und den Nutzen der Lizenzierung von Forschungsdaten nicht mehr in Frage gestellt, was wiederum auch ein wichtiges Ergebnis des Workshops darstellt.

Workshopübersicht

Begrüßung Johannes Paulmann (Mainz)

Einführung Wibke Kolbmann (Berlin), Lizenzen als Thema von Infrastrukturprojekten – DARIAH-DE

Theorie und Praxis – Perspektiven und Herausforderungen der Datenlizenzierung

Paul Klimpel (Berlin), Rechtliche Rahmenbedingungen für wissenschaftliche Daten – Ein Überblick

Susanne Waidmann (Berlin), Rechteangaben rund um archivische Daten im Archivportal Europa und Europeana

Aline Deicke / Anna Neovesky (Mainz), OpenAccess im Akademienprogramm – Anwendung und Herausforderungen

Michael Kaiser (Bonn), Wissen, Bewusstsein, Praktikabilität – rechtliche Implikationen des digitalen Publizierens

Methoden und Tools ? Praktische Perspektiven der Datenlizenzierung

Thomas Kollatz (Essen), creative commons 4.0

Niko Beer (Paderborn), OER Licensing Decision Tool

Wibke Kolbmann (Berlin), Public Domain Calculator

Fragen und Perspektiven

Hands-on-Session mit den vorgestellten Tools anhand von eigenen Daten und Datafakten und anschließender Diskussion mit Teilnehmern und Veranstaltern.

[1] So die Wissenschaftsallianz in ihren Grundsätzen zum Umgang mit Forschungsdaten. Die DFG sieht hierin auch die Sicherung guter wissenschaftlicher Praxis.

Quelle: http://dhd-blog.org/?p=3773

Weiterlesen

Die Terra Digitalis und die Wissenschaft der Zukunft

Cover_WissenschaftFür einen Historiker sind gesellschaftliche Veränderungen absolut faszinierend. Das gilt nicht weniger für die noch wenig historische Digitalisierung. Sie kommt einem medialen und gesellschaftlichen Umbruch a la Gutenberg gleich – und er war für den Beginn der Moderne, also eines neuen Zeitalter, nicht wenig mitverantwortlich. Wie bei Gutenberg vor gut 600 Jahren sind auch diesmal technische und  wissenschaftliche Erkenntnisse die Grundlage der Veränderung. Nicht zum ersten mal revolutioniert die Wissenschaft derzeit also die Gesellschaft – und damit auch sich selbst. Für die Historikerin und die Fachkommunikatorin in mir war es deswegen eine Herzenssache, mein zweites KM Magazin der Zukunft der Wissenschaft widmen zu können.

Nun sind die Zukunft der Wissenschaft und die Auswirkungen der Digitalisierung auf sie kein weißer Fleck auf der Landkarte mehr. Die ersten Tendenzen, die Schlagwörter der Digitalisierung, betreffen das Wissenschaftssystem genauso wie die Gesellschaft: Big Data, neue Kommunikationsformen, der Ruf nach mehr Transparenz und Offenheit, aber auch nach mehr Kreativität und Blicken über den Tellerrand. Werden sie in einigen wissenschaftlichen Bereichen schon länger umgesetzt, sind sie zumindest zum Teil für andere u.a. aufgrund der zunehmenden Ausdifferenzierung und Spezialisierung der Disziplinen noch neu.

Deswegen war es die Idee hinter dem Magazin, anhand von Interviews und Beispielsprojekten zu zeigen, was gute Wissenschaft in der Zukunft ausmacht und was sie bewirken kann. Ein Aspekt sticht dabei immer wieder heraus: Interdisziplinarität. Die Zusammenarbeit von Forschern verschiedenster Disziplinen und Wissenschaftsbereiche an einer Fragestellung beflügelt die Suche nach Antworten und Lösungswegen ungemein, das bestätigen alle Beispiele. Denn wenn es um die Umsetzbarkeit von Zukunftsvisionen geht, spielen nicht nur technische Möglichkeiten, sondern auch soziale Entwicklungen und historisch-kulturelle Einflüsse eine entscheidende Rolle. Eine Chance für die Geisteswissenschaften, zu zeigen, wie ihre Ergebnisse für die Gesellschaft anwendbar sind. Auch wenn Grundlagenforschung weiterhin wichtig bleibt, steht doch die Anwendbarkeit von Forschungsergebnissen immer mehr im Mittelpunkt der Ansprüche, die an das Wissenschaftssystem gestellt werden. Interdisziplinarität ist nach den Standards einzelner Fächer schwer zu bewerten, Anwendbarkeit hingegen schon. Sie gehört deshalb zu den Punkten, nach denen immer öfter über Fördergelder – und damit scheinbar Forschungsqualität – entschieden wird. Gerade für die Geisteswissenschaften ist das ein Problem und eine Chance zugleich. Die für das Magazin ausgewählten Beispiele haben fast alle auch geisteswissenschaftliche Aspekte und entwickeln Ergebnisse, die in technologischer, sozialer oder struktureller Hinsicht den Alltag verändern werden.

Zu den Projekten, die in Text- oder Bilderform vorgestellt werden, gehören CitizenScience, 3D-Druck, das MIT Senseable City Lab oder die MPI-Forschung rund um Graphen. Leider nur im Bild vertreten ist unternehmensinterne Forschung. Sie ist primär auf anwendbare Ergebnisse in hoher Qualität ausgerichtet, denn das Interesse der Unternehmen liegt in der späteren Umsetzung in konkrete innovative Produkte. Zugleich ist sie durch ihre Unabhängigkeit von Drittmitteln und Förderanträgen aber oft auch kreativer, vielfältiger und visionärer als ihr universitäres Pendant. So beschäftigt sich Forschung in Unternehmen auch damit, wohin Mobilität, Vernetzung, veränderte Infrastrukturen, Kommunikation und digitale Informationen die Gesellschaft führen werden. Google, Lego, Siemens oder Walt Disney investieren jährlich viele Millionen in interdisziplinäre Projekte und eigene Lehrstühle, die Sprach- und Erziehungswissenschaftler, Soziologen, Kommunikations- und Medienwissenschaftler, IT-Experten, Architekten, Ingenieure oder Neurobiologen vereinen.

Trotzdem der spannenden Ideen und wissenschaftlichen Herangehenweisen, die die Unternehmen verfolgen, war es ein DFG-Projekt, das mich zum Cover und Editorial für das Heft inspiriert hat. “Terra Digitalis“, ebenfalls interdisziplinär ausgelegt, verdeutlicht die wichtigsten Punkte der Digitalisierung für die Gesellschaft anhand einer Karte der noch dünn besiedelten digitalen Welt: Mobilität, Kommunikation, Information. Sie ist eine schöne Metapher auch für den Weg der Wissenschaft in dieser digitalen Welt, die sie mitkreiert und von der sie auch selbst verändert wird.

Gerade weil spezifisch geisteswissenschaftliche Forschungen, die Digital Humanities und weitgehend auch die Wissenschaftskommunikation nur am Rand des Magazins vorkommen, hoffe ich, dass es euch ebenso zu neuen Ideen anregt wie mich – ganz im Sinne der Interdisziplinarität. Das KM Magazin “Wissenschaft” könnt ihr hier kostenlos downloaden.

P.S. Speziell für die Mittelalter-Historiker gibts zum Aufregen und Diskutieren im Magazin auch den zweiten Teil der These, das Internet führe uns zurück ins Mittelalter. Der Beitrag ist aber nicht im Schwerpunktteil Wissenschaft verortet :)

Quelle: http://kristinoswald.hypotheses.org/1355

Weiterlesen

DAI- und IANUS-Sektion „Wohin mit meinen Daten?“ am 08.10.2014 in Berlin

Das endgültige Programm für die vom Deutschen Archäologischen Institut und IANUS gemeinsam durchgeführte Sektion „Wohin mit meinen Daten? Zum langfristigen Umgang mit Forschungsdaten in den Altertumswissenschaften“ auf dem 8. Deutschen Archäologiekongress in Berlin steht nun fest. Programm und weitere Informationen finden Sie veröffentlicht unter: http://www.ianus-fdz.de/wohin-mit-meinen-daten

Die Sektion wird am Mittwoch, den 8. Oktober 2014 ab 9 Uhr im Henry-Ford-Bau Hörsaal C stattfinden.

Im ersten Teil werden geladene Sprecher vom Data Archiving and Networked Services (DANS), Archaeology Data Service (ADS), Journal of Open Archaeology Data, OpenContext und PANGAEA – Data Publisher for Earth & Environmental Science Lösungen und Erfolgsbeispiele zu Archivierung, Bereitstellung und Nachnutzung von Forschungsdaten vorstellen. In zweiten Teil am Nachmittag werden Ansätze, Anforderungen und Angebote im deutschsprachigen Raum vorgestellt und diskutiert.

Die Anmeldung zum Kongress erfolgt über die Homepage des Mittel- und Ostdeutschen Verbands für Altertumsforschung e.V. (MOVA), der bis zum 31.07.2014 einen Frühbucherpreis anbietet.

ianus-fdz

Quelle: http://dhd-blog.org/?p=3767

Weiterlesen