“Big Data” als Herausforderung an die “Digitale Pädagogik” – Ein Plädoyer für die Verwendung der “Grounded Theory”

Big Data als Herausforderungen an eine Digitale Pädagogik 

“Big Data” sind in der breiten Massenkultur angekommen. Sehen einige darin den Untergang der Privatheit durch die umfangreiche Überwachung und Analyse von Nutzerverhalten, so werden die Möglichkeiten der durch die Vernetzung und Interoperabilität von großen Daten-Mengen erzeugten neuen Daten stellenweise schon frenetisch gefeiert. Der Gewinn sich im Zuge von “Big Data” nun endlich mit den methodisch-reflexiven und praktischen Herausforderungen einer DH-affinen bzw. digitalen Pädagogik zu stellen, soll hier in Angriff genommen worden. Zu lange sind wir im Tal der Ahnungslosen verblieben bzw. haben uns darauf verlassen, dass es zu generellen Impulsen kommen wird, die aber seit langer Zeit ausgeblieben sind. Es sollen hier erste Anstösse gegeben werden, dass wir durch den Umgang mit “Big Data” und durch die Nutzung von “Big Data” die Chance ergreifen können die Potentiale, die die “Big Data” für die (Weiter-)Entwicklung der Digitalen Pädagogik birgt, zu nutzen. Dabei spielt die Einsicht von Arthur Conan Doyle “It is a capital mistake to theorize before one has data” (Doyle 1891) eine wichtige Rolle, da wir noch viel zu wenig das Augenmerk auf bereits vorhandene und zu gewinnende Daten bei digitalen Lehr- und Lernprozessen und -kulturen gelegt haben und die Auswertung dieser Daten bisher noch aussteht bzw. diese nur peripher genutzt werden. Es soll hier eine Lanze dafür gebrochen werden, dass wir im Umgang mit “Big Data” und “Big Data Technologien” vor neue Herausforderungen – auch und insbesondere in der Vermittlung – gestellt sind – dies würde auch wohl keiner mehr mit Ernst bezweifeln wollen.

Big Data und die “Grounded Theory” – Ein neuer Ansatzpunkt für die “Digitale Pädagogik”?

Bisher sind viele Potentiale von Big Data und Big-Technologien nicht genutzt worden, wenngleich immer wieder angeführt wird, dass wir durch die technische Umsetzung noch sehr begrenzt sind. Ich halte dies für ein Schein-Argument, da wir schon über viele Daten verfügen, die aber in konzeptionell-methodischer Hinsicht noch nicht aufgearbeitet sind. Erst durch die “datengestützte Theoriebildung” scheint es mir möglich überhaupt technische Anforderungen und weitergehende wechselseitig Bestimmung von Technik und pädagogischer Praxis zu formulieren, die dann wieder in die jeweilige weitere Ausformulierung des Zusammenspiels münden können. Ich gehe davon aus, dass die Big Data und ihre Technologien als Praktik, um die in den Daten schlummernde pädagogische Theorie zu entdecken. Ein theoretischer Ansatz könnte dabei in der “Grounded Theory” gesehen werden, die durch systematisches Erheben und Analysieren von Daten, die sich auf das entdeckte Phänomen beziehen, entdeckt, ausgearbeitet und vorläufig bestätigt. Folglich stehen Datensammlung, Analyse und die Theorie in einer wechselseitigen Beziehung zueinander, die wiederum dazu genützt werden können die technischen Anforderungen an eine neue Form von “digitaler Pädagogik” auszuarbeiten. Mit den vorhandenen Big Data und den vorhandenen Big Data-Technologien könnte die „Methode des permanenten Vergleichs“ angewendet werden. Bei dieser Methode finden die Datensammlung sowie das Kodieren und Analysieren der Daten parallel statt. Für die Kodierung werden substantielle und theoretische Codes verwendet: Die substantiellen Codes werden in offene und selektive Codes unterteilt. Zu Beginn der Analyse werden offene Codes verwendet (offene Kodierung). Offene Codes sind z. B. bestimmte Worte, die in den Daten wiederkehrend vorkommen. Es werden anhand der offenen Codes Unterschiede, Gemeinsamkeiten, Handlungsmuster usw. mit dem Ziel, Kategorien bilden zu können, gesucht. Die Klassifizierungen können gebildet werden, sobald diejenigen Verhaltensmuster identifiziert wurden, die Bedeutung oder Nicht-Bedeutung zugeschrieben bekommen. Diese Verhaltensmuster werden auch Kernvariablen genannt. Im zweiten Teil der Analyse wird nur noch selektiv (selektive Kodierung) kodiert, d. h. anhand der entwickelten Kategorien. Diese Analyseschritte könnten sowohl von forschenden Personen als auch durch Maschinen-lesbare Serialisierung der Daten vorangetrieben werden. So könnten  „Themengruppen“ und „Strategien“, anhand derer die einzelne Datensegmente gruppiert werden können, erhoben werden und systematisch für die Generierung von neuen Materialien im Lern- und Lehrprozess genutzt werden bzw. auf methodisch-reflektierter Ebene zur Fundierung von pädagogischen Mitteln und Methoden genutzt werden.. Das Ziel ist, dadurch Beziehungen und Zusammenhänge herausarbeiten zu können (Polit, Tatano Beck & Hungler, 2004), die dann wiederum in Theorie und Praxis einer “Digitalen Pädagogik” genutzt werden könnten. Es steht damit in Frage, ob bisher die “Digitale Pädagogik” noch zu sehr an dem positivistisch-funktionalistischen Paradigma des Hiatus von Theorie, Praktik und Technik aufsass und damit auch “Big Data” in eine Ecke gezwungen wurde, die das negative Bild prägte. Es wird hier vorgeschlagen Big Data im Zuge einer interaktionistisch-pragamtistischen Perspektive zu sehen. In dieser Sicht sind in den Big Data Interaktionen  zu beobachten, die helfen die Bedeutung von sozialen Objekten, Situationen und Beziehungen, die im symbolisch vermittelten Prozess der Interaktion/Kommunikation hervorgebracht werden, zu analysieren und zu nutzen.

Ein Neu-Ansatz der “Digitalen Pädagogik” im Angesicht der Möglichkeiten von Big Data und Big Data-Technologien müsste auf theoretischer Ebene bei einer interaktionistisch-pragmatistischen Wissenssoziologie anfangen, um in diesen die eingelagerten Interaktionszusammenhängen in der Wissensgenese und die vermittelnde Rolle von Daten und Datafakten im Zusammenklang von theoretisch-konzeptuellen und methodischer Impulse nutzen zu können. Durch diese Sicht können wir ein Miteinander von quantitativer und qualitativer Sozialforschung für die Entwicklung neuer Formen der “Digitalen Pädagogik” Neu-Ansatz der “Digitalen Pädagogik” im Angesicht der Möglichkeiten von Big Data und Big Data-Technologien müsste auf theoretischer Ebene bei einer interaktionistisch-pragmatistischen Wissenssoziologie anfangen, um in diesen die eingelagerten Interaktionszusammenhängen in der Wissensgenese und die vermittelnde Rolle von Daten und Datafakten im Zusammenklang von theoretisch-konzeptuellen und methodischer Impulse nutzen zu können.

Die Verwendung von Big Data in diesem unteraktionistisch-pragmatistischen Horizont weist dabei auf die Unterscheidung von Medium und Form auf, die das Re-entry der Form der Daten und ihrer Modellierung in die Form der Daten erlaubt.

Big Data: die Revolution, die die digitale Pädagogik verändert?

Das von Hirsch (2012) in Anschlag gebrachte Ungleichgewicht zugunsten der Fragen um die Forschungsmethoden, den Theorien und Ergebnissen gegen die kritischen und den aktuellen Praktiken des Unterrichtens, kann m.E. durch Nutzung von “Big Data” als Medium und Form eines pädagogischen Grundprinzips abgemildert werden. Gerade das Miteinander von Methoden der Datenerfassung, der Verteilung und Speicherung, sowie die im Zusammenhang mit Lehr- und Lernmaterialien entstandenen Daten zu durchsuchen, zu analysieren und zu visualisieren, um daraus wiederum Rückschlüsse, Ansätze für die Neugestaltung und Individualisierung von Lehr- und Lernmaterialien können den allzu oft künstlich hergestellten bzw. heraufbeschworenen Hiatus zwischen Digitaler Pädagogik und Big Data überwinden. Durch die Datenerfassung, das Tracing von Datenströmen, des IR als Bestandteil von Feedback-Schleifen durch Analyse und Visualisierung können sowohl für die Produktion und Entwicklung als auch als Maßnahme der Qualitätssicherung von Schulungsmaterialien Grundlagen aus den Big Data gewonnen werden. Durch die Nutzung und Analyse von Nutzerverhalten bei vorhandenen Schulungsmaterialien können wichtige Rückschlüsse daraus gezogen werden, wie diese benutzt werden, und für individuell nutzbare, aber trotzdem im Sinne eines “mass-customizing” sowie bei der Anpassung, der Aufarbeitung und Neugestaltung genutzt werden können. Insbesondere das Data-Mining mit dem Ziel, neue Muster zu erkennen, könnten genutzt werden, um die Lehr- und Lernmaterialien optimaler zu positionieren und durch die Big Data-Technologien von einem “mass-customizing” einer Lernplattform zu individualisierten Lerninseln vorstossen zu können. Die Big Data aus den Schulungsmaterialien mit den Schulungsmaterialien selbst sind dabei der Anfang des Knowledge Discovery in Databases-Prozesses (KDD) (Ester/Sander 2000) zu verstehen.

Die KDD als pädagogisches Mittel und Methode der Digitalität
Die bereits vorhandenen Erfahrungen der Nutzung und die vorhandenen Daten zum Schulungsmaterial könnten die vorbereitenden Untersuchungen und die Transformation der auszuwertenden Datensätze mit bedingen, die wiederum eine Dimension des Knowledge Discovery in Databases sind. Die Schulungsmaterialien selbst sind dabei auch als KDD anzusehen. Ziel wäre es damit zunächst die Erkennung bislang unbekannter Zusammenhänge aus vorhandenen Datenbestände aus und in Form und Medien von Schulungsmaterialien zu erschließen. Durch die Nutzung von Big Data-Technologien, wie z.B. die Clusteranalyse, die Outlier-Erkennung und die Analyse und Generierung von Indexstrukturen, könnten neue Data-Mining-Algorithmen entwickelt werden, um Schritte der Wissensentdeckung (Datenauswahl, Datenbereinigung, Datenreduktion, Modellbildung, Visualisierung usw.) gezielter für die (Weiter-)Entwicklung und neuer Schulungsmaterialien zu nutzen, indem Regelmäßigkeit, Gesetzmäßigkeiten und verborgene Zusammenhänge extrahiert werden und auf das vorhandene Schulungsmaterial zurückgeführt werden, welches in “real-time” dem Lehr- und Lernprozess des KDD angepasst wird. Big Data-Technologien können sowohl die Daten dabei als Medium als auch Form der Clusteranalyse, der Klassifikation, der Assoziations- und Regressionsanalyse der bestehenden Daten dienen. Hierdurch wird es möglich Daten für die Erstellung von neuen Schulungsmaterialien zu gewinnen, die wiederum Anstoss für weitere notwendige Theoretisierungen im Bereich der Digitalen Pädagogik . Durch die Verwendung von Big Data-Technologien, die durch das Daten-Mining von Schulungsmaterialien gewonnen werden können, könnte es möglich werden von Daten hin zur Theoretisierung und ausgehend von dort wiederum zur konkreten Umsetzung in neue Formen und zu Medien der Lehr- und Lernmaterialien zu gelangen. Die Verwendung von Big Data weist dabei eine Unterscheidung von Medium und Form auf, die das Re-entry der Form der Daten und ihrer Modellierung in die Form der Daten erlaubt. Durch diese Sicht können wir ein Miteinander von quantitativer und qualitativer Sozialforschung für die Entwicklung neuer Formen der “Digitalen Pädagogik” nutzen.

Ein Neu-Ansatz der “Digitalen Pädagogik” im Angesicht der Möglichkeiten von Big Data als KDD und Big Data-Technologien müsste auf theoretischer Ebene bei einer interaktionistisch-pragmatistischen Wissenssoziologie anfangen, um in diesen die eingelagerten Interaktionszusammenhängen in der Wissensgenese und die vermittelnde Rolle von Daten und Datafakten im Zusammenklang von theoretisch-konzeptuellen und methodischer Impulse nutzen zu können.

Es stellt sich damit aber umso dringender die Frage nach dem Anspruch eines solchen Ansatzes. Ist eine “Digitale Pädagogik” immer eine Pädagogik der DH oder ist die “Pädagogik der DH” nicht vielleicht doch das Nahziel.

Big Data: Medium und Form – Ansätze für eine “Digitale Pädagogik” oder Pädagogik der DH?
Der Soziologe Niklas Luhmann unterschied zwischen Medium und Form, wobei der von einer Kritik der üblichen Definition des Medienbegriffs ausging, die durch die zwei Aspekte “Vorstellung einer Vielzahl von Elementen und die Funktion des Vermittelns”charakterisiert sei, ohne daß ihr Zusammenhang klar werde. Nach Luhmann setzt gerade ein Medium Elemente voraus, die temporär gekoppelt werden und solchermaßen im Medium als unterscheidbare Formen erscheinen können.Ein Medium wird durch eine Differenz von loser und fester Kopplung seiner Element gekennzeichnet: “Wir müssen dann die Einheit dieser Unterscheidung als Medium bezeichnen, nennen diese lose gekoppelten Elemente mediales Substrat und die festen Kopplungen (deren Außenseite jeweils das mediale Substrat ist) Formen. Ein Medium (…) ist eine Unterscheidung (also selbst eine Form!) auf deren Innenseite Elemente fest und auf deren Außenseite Elemente lose gekoppelt sind” (Luhmann 2000, 30).

Das Medium ist selbst nicht beobachtbar, sondern nur Fortbildungen innerhalb des Mediums. Es soll hier die These vertreten werden, dass vieles dafür spricht, dass Big Data und die damit verbundenen Technologien als ein KDD-Prozess aufgefasst werden können, die sich für die Nutzung auf die Medium-Form-Unterscheidung stützen könnten. So betont Luhmann, dass allein die Formseite anschlussfähig ist, was aufgrund des temporären Charakters der Form zu ständiger (Re-)Aktualisierung von Formbildung zwingt, wie wir es auch bei Data-Mining-Prozessen bei den Big Data-Technologien erleben. Das Medium ist hingegen zeitlich weitaus stabiler, es verbraucht sich nicht durch Fortbildungen. Durch das Data-Mining findet eine Sinnoperation statt, die als re-entry der Form in die Form zu werden ist: “Als operative Einheit aus Unterscheidung und Bezeichnung ist Sinn eine Form, die sich selbst enthält, nämlich die Unterscheidung von Unterscheidung und Bezeichnung. Eine Form ist letztlich eine Unterscheidung, die in sich selbst als Unterschiedenes wieder vorkommt” (Luhmann 1998, 57).

Big Data und ihre Technologien als Medium sorgen somit für die kommunikative Autopoiesis der Daten, indem hier nicht mehr davon ausgegangen wird, dass Informationen einfach übertragen werden, sondern her- und zugestellt werden können, die wiederum in eine Form (hier die Schulungsmaterialien) einfließen können. Durch Big Data als Form der digitalen Pädagogik wird die Markierung einer Unterscheidung möglich (Luhmann 1997,198). Big Data als lose gekoppelte Elemente können in eine feste Kopplung überführt werden, indem sie mit den üblichen Verfahren des Data-Mining gebunden werden und bei jeder neuen Verwendung reproduziert werden, wobei sie immer beliebig oft verwendbar sind. Durch das Data-Mining werden die Big Data zum autopoetischen System, wenn sie als KDD betrachtet werden, das sie das eigene Medium zur eigenen Form binden (Luhmann 1997,197). Die Form ist also eine sich selbst entfaltende Selbstreferenz. Durch die Nutzung von Big Data-Technologien kann es gelingen das Schulungsmaterial der Lern- und Subjektkultur im Wechselspiel des Lernenden und Lehrenden anzupassen. Der individuell hinterlassene Datenstrom kann genutzt werden, um das Lehr- und Lernmaterial anzupassen. Auch dies umfasst die Änderung von einem positivistisch-funktionalistisch zu einem interaktionistisch-pragmatistischen Paradigma der Big Data als KDD.

Big learning data – Ansatzpunkte für eine Revolution der “Digitalen Pädagogik”
Big Data erlauben es also eine für ein breit ausgelegtes Publikum erstelltes Schulungsmaterial auf die jeweilige Lehr- und Lernkultur im Prozess der KDD anzupassen, um so ein “mass-customized” Schulungsmaterial zu einem individuell nutzbaren zu machen und dies in Echtzeit. Dabei können sowohl die Aspekte Volume, Velocity und Variety Berücksichtigung finden als auch notwendiges Feedback geben, die Motivation steigern, individuelle Lernprozesse abbilden und gestalten, die Kollaboration in Datenherstellung, -nutzung und -austausch steigern, die Lehr- und Lernkultur und -prozesse besser steuerbar machen, die Begleitung besser gestalten und das Verstehen von Lehr- und Lernprozessen als Medium und Form zu befördern. Durch die Gewinnung der Daten durch die Verwendung von Big Data als Medium und Form von pädagogischen Prozessen, deren Abbildung und Realisierung der Clusteranalyse, der Klassifikation, der Assoziations- und Regressionsanalyse, kann es gelingen, dass wir in eine höchst produktive und kreative Phase der DH eintreten können und jedem unmittelbar der Nutzen von Digital Humanities verdeutlichen können. Wir können dann wirklich von Daten ausgehen, auf deren Grundlage wir die Theoretisierung und notwendige und in der Dringlichkeit nicht abzustreitende Theoriearbeit der Digitalen Pädagogik weitertreiben zu können und zu müssen. Die Nutzung von Big Data und der damit in Zusammenhang stehenden Technologien könnte somit auch eine Revolution der Digitalen Pädagogik im interaktionistisch-pragmatischen Sinn herbeiführen, die sich von einer blossen Medienpädagogik endlich ablöst und die Big Data aus der Schmuddelecke des Feuilleton befreit.

 

Quelle: http://dhd-blog.org/?p=3794

Weiterlesen

DAI- und IANUS-Sektion „Wohin mit meinen Daten?“ am 08.10.2014 in Berlin

Das endgültige Programm für die vom Deutschen Archäologischen Institut und IANUS gemeinsam durchgeführte Sektion „Wohin mit meinen Daten? Zum langfristigen Umgang mit Forschungsdaten in den Altertumswissenschaften“ auf dem 8. Deutschen Archäologiekongress in Berlin steht nun fest. Programm und weitere Informationen finden Sie veröffentlicht unter: http://www.ianus-fdz.de/wohin-mit-meinen-daten

Die Sektion wird am Mittwoch, den 8. Oktober 2014 ab 9 Uhr im Henry-Ford-Bau Hörsaal C stattfinden.

Im ersten Teil werden geladene Sprecher vom Data Archiving and Networked Services (DANS), Archaeology Data Service (ADS), Journal of Open Archaeology Data, OpenContext und PANGAEA – Data Publisher for Earth & Environmental Science Lösungen und Erfolgsbeispiele zu Archivierung, Bereitstellung und Nachnutzung von Forschungsdaten vorstellen. In zweiten Teil am Nachmittag werden Ansätze, Anforderungen und Angebote im deutschsprachigen Raum vorgestellt und diskutiert.

Die Anmeldung zum Kongress erfolgt über die Homepage des Mittel- und Ostdeutschen Verbands für Altertumsforschung e.V. (MOVA), der bis zum 31.07.2014 einen Frühbucherpreis anbietet.

ianus-fdz

Quelle: http://dhd-blog.org/?p=3767

Weiterlesen

DH Leipzig stellt Fragmentary Texts Editor in Perseids vor

perseids_banner31Das Projekt Perseus zur Edition und Annotation klassischer Dokumente, an dem der Alexander von Humboldt-Lehrstuhl für Digital Humanities am Leipziger Insitut für Informatik beteiligt ist, hat in seine kollaborative Arbeitsoberfläche Perseids jetzt einen “Fragmentary Texts Editor” integriert, der die Annotation von Zitaten und Wiederverwendung von Texten durch Autoren ermöglicht. Nähere Informationen hier.

Quelle: http://dhd-blog.org/?p=3730

Weiterlesen

Von Daten zu Erkenntnissen: Digitale Geisteswissenschaften als Mittler zwischen Information und Interpretation

Vom 23.-27.2.2015 findet die zweite Jahrestagung des Verbandes der “Digital Humanities im deutsprachigen Raum” organisiert durch das Zentrum für Informationsmodellierung – Austrian Centre for Digital Humanities an der Universität Graz statt.

In Workshops, Vorträgen, Panels und Diskussionen soll dabei den zentralen Fragen nachgegangen werden,

(a) welcher Mehrwert sich für Erkenntnisprozesse in den Geisteswissenschaften durch den Einsatz von digitalen Methoden in der Forschung ergibt,

(b) welche Bedeutung Daten in der Generierung von Wissen in den Geisteswissenschaften in der Zukunft spielen werden und

(c) welche disziplinübergreifenden Synergien für die Theoriebildung aus den in den Digitalen Geisteswissenschaften entwickelten Methoden, Techniken und Infrastrukturen zu erwarten sind.

Besuchen Sie die Konferenzwebsite unter dhd2015.uni-graz.at!

 

Quelle: http://dhd-blog.org/?p=3736

Weiterlesen

EHRI Community Hub: ein Community Hub für Holocaust ForscherInnen

EHRIDas EHRI Community Hub bietet einen virtuellen Ort, an dem holocaustinteressierte ForscherInnen und DokumentationsexpertInnen zusammen arbeiten können.

EHRI Community Hub ermöglicht BenutzerInnen eigene Profile zu erstellen und Profile anderer ForscherInnen mit ähnlichen Interessen zu entdecken und Arbeitsgruppen mit anderen KollegInnen zu erstellen. Hier können sie auch Dokumente und Projektergebnisse von EHRI finden, kommentieren und diskutieren.

Weitere Informationen über den Hub in Englisch: http://bit.ly/1pVkA1Q

Registrierung: http://bit.ly/1luuC8E

Quelle: http://dhd-blog.org/?p=3708

Weiterlesen

Osloer Munch-Museum lanciert Crowdsourcing für Coding der Briefe an Edvard Munch

Foto: Munch-Museum, Oslo / Norway

Foto: Munch-Museum, Oslo / Norway

Die Briefe und Texte von Norwegens bedeutendstem bildenden Künstler Edvard Munch (1863-1944), der viele Jahre auch in Deutschland lebte und arbeitete, sind bereits online, ediert und kommentiert. Nun legt das Osloer Munch-Museum nach: Per Crowdsourcing geht es nun auch an die Briefe an Munch, die digital in Text und Bild veröffentlicht und per XML/TEI erschlossen werden sollen. Nach dem Vorbild des erfolgreichen Crowdprojekts Transcribe Bentham werden via Wiki die automatisiert erfassten Briefabschriften mit den Scans der Originalbriefe abgeglichen; anschließend erfolgt die Erschließung mit XML/TEI Level 4. Vorbildlich hat man hier erklärt, dokumentiert und unterstützt, um auch in Sachen “Spitze Klammern” gänzlich unerfahrenen Freiwilligen die Möglichkeit zur Mitwirkung zu geben – ein perfekter Einstieg ins Textcoding. So stehen u.a. deutschsprachige Videotutorials und ein komfortables Editionsfenster mit umfangreicher Werkzeugleiste bzw. -schaltflächen für die bequeme (und fehlerminimierte) Codierung zur Verfügung. Nach Freigabe durch die Redaktion werden die fertig bearbeiteten Briefe auf http://www.emunch.no der Öffentlichkeit zugänglich gemacht.  Ein gelungenes Modell, das auch in Deutschland vermehrt Schule machen könnte.

Laut Hilde Bøe, Projektleiterin und Redakteurin von http://emunch.no/, stellt das Projekt im skandinavischen Raum den ersten Versuch einer solchen Teamarbeit zwischen Museum und Publikum dar. Im Munch-Museum ist man gespannt, wie diese Art digitaler Gemeinschaftsarbeit  – in den digitalen Geisteswissenschaften im Ausland zunehmend populär – angenommen wird. «Wir benötigen Freiwillige, die Handschriften in norwegischer, dänischer, schwedischer, französischer und nicht zuletzt in deutscher Sprache lesen können, denn etwa die Hälfte der Briefe an Munch ist deutschsprachig,» so Bøe. Freiwillige sollten außerdem die Bereitschaft zum digitalen Arbeiten in einem Wiki mitbringen, benötigen ansonsten jedoch keine Vorkenntnisse.

Unbenannt

Gut verständliche Erläuterungen und Richtlinien, Online-Support und Videotutorials erleichtern den Einstieg ins Wiki.

 

Das Arbeitsfenster mit Werkzeugleiste, Transkription und Faksimile.

 

«Das Museum besitzt rund 5.800 an Edvard Munch adressierte Briefe, und es ist fantastisch, dass diese jetzt zusammen mit den Briefen Munchs im Internet zugänglich gemacht werden», meint die leitende Konservatorin des Museums, Ute Kuhlemann Falck. «Es handelt sich um historisches Quellenmaterial, das nicht nur für die Munch-Forschung von Interesse ist, sondern auch für andere Forschungsfelder, die wir noch gar nicht absehen können.»

Die andere Seite der Korrespondenz zugänglich zu machen, trägt dazu bei, Munchs eigene Texte zu erläutern, auszuloten und zu nuancieren – ein sehr wichtiger Schritt, so Forschungsbibliothekar Lasse Jacobsen. Man hofft, durch die Arbeit auch weitere Briefautoren zu identifizieren – enthält die Korrespondenz doch einen Teil bislang nicht namentlich zugeordneter Verfasser. Unter den zahlreichen bekannten Namen finden sich u.a. Julius Meyer-Graefe, Gustav und Luise Schiefler, Harry Graf Kessler, August Macke, Elisabeth Förster-Nietzsche, Christian Krohg, August Strindberg und Stèphane Mallarmé.

Wiki: http://www.emunch.no/wiki/index.php/Briefe_an_Edvard_Munch
Einführung und Erläuterungen, Videotutorials: http://www.emunch.no/wiki/index.php/Erste_Schritte
Richtlinien für Transkription und Erschließung: http://www.emunch.no/wiki/index.php/Richtlinien
Direkt zum Archiv: http://www.emunch.no/wiki/index.php/Handschriften
eMunch – Edvard Munchs Texte (digitales Archiv): http://www.emunch.no/

Quelle: http://dhd-blog.org/?p=3668

Weiterlesen

Gesellschaftliche Innovationen: Wissenstransfer Universität – Gesellschaft

Wissenschaft hat strenge Regeln und die unterscheiden sich auch noch von Disziplin zu Disziplin. Zumeist werden die Ergebnisse in Fachzeitschriften veröffentlicht und diskutiert. Ob und wie sie im konkreten gesellschaftlichen Umfeld realisiert werden, welchen Einfluss sie auf Entwicklung und Veränderung haben – das zeigt sich in den meisten Fällen nur in natur- und ingenieurwissenschaftlichen Anwendungen. Gentechnik und Nanotechnologie, Elektromobilität oder Laseranwendungen – das sind Themenfelder, die z.T. als Fortschritt bejubelt, z.T. aber auch verteufelt und bekämpft werden.

Was aber ist mit sozial- und geisteswissenschaftlicher Forschung? Wie finden deren Ergebnisse ihren Weg in die Gesellschaft? Kann man von “sozialen Innovationen” sprechen? Ist solch ein Wandel wissenschaftlich induziert oder untersucht umgekehrt die Wissenschaft Ursachen, Hintergründe und Folgen von sozialen Veränderungen?

In der LMU werden diese und andere Fragen am 14. und 15. Juli diskutiert. Nicht nur interessante Vorträge und Präsentationen, auch Workshops werden angeboten und erlauben es, die eigenen Fragen und Überzeugungen im kleineren Kreise einzubringen.

 

Quelle: http://resilienz.hypotheses.org/177

Weiterlesen

Erstausgabe RIDE – Review Journal for Digital Editions

Das Institut für Dokumentologie und Editorik (IDE) freut sich, die Publikation der ersten Ausgabe einer neuen Rezensionszeitschrift, RIDE, bekannt zu geben. RIDE ist digitalen Editionen und Ressourcen gewidmet und will ein kritisches Forum zur Besprechung digitaler Editionen schaffen. Es soll helfen, die gängige Praxis zu verbessern und die zukünftige Entwicklung voranzutreiben. RIDE-Rezensenten sind deshalb angehalten, nicht nur die traditionellen Leistungen und Probleme von Editionen im Allgemeinen zu besprechen, sondern auch die sich weiter entwickelnde Methodologie und ihre technischen Implikationen zu berücksichtigen.

Bereits die soeben veröffentlichte erste Ausgabe enthält Besprechungen aus verschiedenen Fachbereichen, z.B. Philosophie, Kunstgeschichte, Philologie, die für Sie interessant sein könnten. Neben den ausführlichen Rezensionen bietet jeweils ein Factsheet einen schnellen Einblick in die besprochene Digitale Eidtion.

Alle Rezensionen und weitere Informationen finden Sie hier: http://ride.i-d-e.de

Mehr zu RIDE, unseren Zielen und unserer Vorgehensweise, finden Sie im Editorial: http://ride.i-d-e.de/about/editorial/

Wir freuen uns außerdem über Beiträge für die nächsten Ausgaben. Alle Informationen finden Sie hier: http://ride.i-d-e.de/reviewers/

Quelle: http://dhd-blog.org/?p=3662

Weiterlesen

Coding da Vinci – Preisverleihung

mitgeteilt von Wolfgang Peters-Kottig, Konrad-Zuse-Zentrum für Informationstechnik Berlin (ZIB).

Wir möchten Sie im Namen aller Veranstalter herzlich zur öffentlichen Präsentation und Preisverleihung von Coding da Vinci, dem ersten Kulturdaten-Hackathon, am 6. Juli 2014 in das Jüdische Museum Berlin einladen.

Während des erfolgreichen Auftaktwochenendes von Coding da Vinci Ende April haben die etwa 150 Teilnehmer/innen auf Basis der von 16 Kulturinstitutionen zur Verfügung gestellten offenen Kulturdaten erste Ideen für neue Anwendungen entworfen. Jetzt befinden sich die Teams im “10-Wochen-Sprint”. Sie entwickeln ihre Projekte weiter, um sie im Juli anschaulich zu präsentieren! Die fünf besten Projekte werden von einer Jury prämiert.

Wir würden uns daher sehr freuen, Sie und Ihre Freunde und Kollegen am 6. Juli 2014 ab 10:30 Uhr im Jüdischen Museum (Lindenstr. 9-14, 10969 Berlin) zur Preisverleihung begrüßen zu dürfen!

Melden Sie sich bitte hier zur Coding da Vinci – Preisverleihung an: http://codingdavinci.de/anmeldung/
Weitere Informationen zum Programm: http://codingdavinci.de/programm/

Wenn Sie schauen möchten, welche Institutionen Daten zur Verfügung gestellt haben, können Sie das hier auf der Coding da Vinci Webseite tun.
Wenn Sie sich einen ersten Eindruck über die Projekte verschaffen wollen, schauen Sie auf unser Hackdash, dort finden Sie erste Skizzen dazu.

Leiten Sie diese Information bitte auch in Ihre Netzwerke weiter!
Und folgen Sie uns auf twitter: @codingdavinci – Hashtag: #codingdavinci

Quelle: http://dhd-blog.org/?p=3651

Weiterlesen

Aktendigitalisierung für Anfänger. Oder: Die kurze Geschichte einer rasanten technischen Entwicklung

Wie lange wird die Digitalisierung der „Deutschen Nachkriegskinder“-Studie dauern? Durch die schnellen technischen Entwicklungen muss diese Frage stets neu und besser beantwortet werden. Am 5. Juni habe ich zusammen mit einer studentischen Hilfskraft versucht genau das auf dem aktuellen Stand der verfügbaren Technik herauszufinden. Dabei gebe ich auch einen Rückblick auf die bisher bestehenden Möglichkeiten.
Erst wenige Tage vorher habe ich entdeckt, dass in der Universitätsbibliothek Bonn ein sehr hübscher und neuer Buchscanner steht, mit dem jeder kostenlose Scans auf USB-Stick anfertigen kann. Noch vor wenigen Jahren kostete in der gleichen Bibliothek ein rein digitaler Scan genau so viel wie der Ausdruck auf Papier! Glücklicherweise sind diese Zeiten vorbei. Wir haben daher einen Vormittag lang verschiedene Unterlagen gescannt, die Zeit gemessen, Workflows und Einstellungen optimiert und dokumentiert.

Scanner anno dazumal (2009)

Aber gehen wir noch mal kurz zurück ins Jahr 2009, als ich zum ersten Mal mit der Forschungsgruppe „Deutsche Nachkriegskinder – revisited“ in Berührung kam. Damals war ich noch selbst studentische Hilfskraft. In meinem Büro stand ein Scanner zur Verfügung, der per Parallelschnittstelle an den Arbeitsrechner angeschlossen war: ein Kodak i80. Dieser Flachbettscanner kostete seinerzeit wohl eine kleine vierstelllige Summe, war jedoch schon zu meinem Arbeitsbeginn nicht mehr auf dem Stand der Technik und furchtbar langsam. Jeder Scan dauerte damit mindestens eine Minute, vom Einlegen des Blatts bis zum fertigen Scan auf dem Rechner. Meistens dauerte es viel länger. Ein ganzes Archiv damit zu digitalisieren würde einen Menschen sehr viel Lebenszeit rauben.

Smartphone-Scanner (2012)

Seit der Verbreitung von Smartphones mit guten Kameras erschloss es sich mir nicht mehr über eine Minute auf einen Scan zu warten, wenn ich sofort ein digitales Abbild der Akte erhalten kann. 2012 entdeckte ich ein  Crowdfunding-Projekt für eine Box, die es ermöglichte mit dem iPhone zu scannen, ohne die Kamera wackelig in der Hand zu halten, teils sogar mit eingebauter Beleuchtung. Ich baute mir zum Testen so selbst einen kleinen Smartphone-Scan-Automaten. Heutzutage gibt es solche fertige Boxen für wenig Geld.

Problematisch beim Smartphone-Scannen ist die fehlende Nachbearbeitung. Bilder sind oft verzerrt sein, die Farben und Lichtverhältnisse nicht korrekt wiedergegeben oder die Bilder sind unscharf, was man erst auf dem großen Bildschirm erkennen kann. Doch mit neuen Apps, die das Foto mit Algorithmen zu einem perfekten Scan zuschneiden, Farben und Licht optimieren, ist all das kein Problem mehr.

Im Alltag benutze ich keinen Scanner mehr, sondern die Scanbot-App der Bonner Entwickler von doo. Die Papierränder werden automatisch erkannt und das Bild automatisch nach der Scharfstellung und Dokumenterkennung ausgelöst. Danach landet das Bild sofort und ebenfalls automatisch in meiner Dropbox. Also muss ich nur noch meine Kamera ausrichten und danach kann ich das Ergebnis auf meinem Rechner begutachten.

Automatische Dokumenterkennung
Nachbearbeitung und Upload

Natürlich ist die Qualität dieser Bilder sehr unterschiedlich und hängt trotz aller Algorithmen sehr von den externen Lichtverhältnissen ab. Manchmal wird das Bild auch verzerrt, weil man die Kamera nicht perfekt gerade über das Blatt Papier gehalten hat. Trotzdem, mit der Handykamera und einer optimierten App könnte ich in meinen Tests etwa alle 30 Sekunden einen akzeptablen Scan erstellen.

Scannen mit dem Zeutschel zeta (2014)

Vor einem Jahr ist mir dann zum ersten Mal der Scanner der Firma Zeutschel bei Twitter über den Weg gelaufen. Ich war überrascht, dass eine Buchscanner-Firma mit sozialen Medien arbeitet. Um ehrlich zu sein, gibt es den Zeutschel zetal schon seit 2011 auf dem Markt. Doch erst eine Woche vor diesem Beitrag habe ich ihn dann endlich in der Bibliothek entdeckt und wollte ihn ausprobieren. Einen solchen Buchscanner kann man sich leider nicht selbst basteln und er liegt auch nicht im studentischen Budget. Umso schöner, dass die ULB Bonn ihn angeschafft hat.

Das Design des zeta erinnert ein wenig an Apple, zumindest ist es sehr hübsch für einen Buchscanner, die sonst eher funktionell gestaltet sind. Die einzige, aber dafür enorm störende Schwachstelle ist der Touchscreen, der leider nicht von Apple stammt. Das Betriebsystem ist Windows 7, das bekamen wir bei einem Absturz des Programms zu Gesicht. Wer  Multi-Touch-Gesten und eine funktionierende Bildschirmtastatur gewohnt ist, wird enttäuscht. Buchstaben muss man mehrfach drücken, die Tastatur hat keine Umlaute und das Anpassen des Scanbereichs ist nur nach mehrfachem Probieren zu nutzen, trotz Multitouchfähigkeit des Bildschirms ist das wirklich enttäuschend für so ein hochpreisiges Gerät.

Wenn man aber etwas mit dem zeta gearbeitet hat, merkt man, dass einige Algorithmen im Hintergrund die Arbeit des Buchscanners unbemerkt erleichtern. Finger, die das Blatt festhalten, werden aus dem Bild heraus gerechnet und es schien mir, als würde der Scanner eine Wahrscheinlichkeit berechnen, wo die nächste Buchseite ist, damit er die Zuschnitte nicht bei jedem Scan neu festlegen muss.

Die Scans kann man in den Formaten .jpg, .tif oder .pdf speichern, sie haben eine Auflösung von 300 dpi, unter gewissen Einstellungen auch bis zu 600 dpi. Bei PDF-Dateien besteht die Möglichkeit mehrerer Scans in eine Datei zu speichern (Multisite). Auch die Zuschnitte lassen sich per Einstellung optimieren (nur links, nur rechts, automatisch teilen oder nicht teilen).

Der Scanvorgang selbst ist wirklich sehr komfortabel und blitzschnell. Mit den Fingern fixiert man das Blatt, tippt sobald eine grüne LED leuchtet auf die Scanbuttons, die an mehreren Stellen ergonomisch erreichbar sind und kontrolliert danach das Ergebnis auf dem Touchscreen. Sobald der nächste Scan gestartet wird, wird das vorherige Bild auf dem USB-Stick gesichert. Nur beim letzten Scan muss man aufpassen, dass man das Speichern nicht vergisst, bevor man den USB-Stick entfernt.

Nachdem wir alle Einstellungen einmal ausprobiert haben und einen optimalen Workflow zu zweit entwickelten (einer sortiert die Aktenblätter, legt sie auf den Scanner und fixiert sie, der andere scannt, kontrolliert, korrigiert und löst den nächsten Scan aus), haben wir die Zeit gemessen, die wir brauchten um eine Beispielakte zu scannen. In einer Stunde konnten wir 184 Aktenseiten scannen. Die Konzentration lässt mit der Zeit etwas nach, dafür gibt es Übungseffekte, die den gesamten Vorgang beschleunigen.

Scanbeispiele

Hollerithschlüssel für den Lehrerbericht
Anleitung von 1953 zur Durchführung und Auswertung der psychologischen Untersuchungen
Akte für die Konstitutionsdaten
Akte für die psychologischen Untersuchungsergebnisse
Unterzeichentest

Ergebnis

Um die Dauer der gesamten Digitalisierung aller Akten abschätzen, müssen wir wissen, wie viele Aktenblätter es gibt. Im Schnitt sind etwa 100 Aktenblätter pro Akte enthalten. Insgesamt haben wir 4095 Akten wiedergefunden, was bedeutet, dass bis zu 409.500 Aktenblätter gescannt werden müssten.

Schätzung der notwendigen Arbeitsstunden zur Digitalisierung von 409.500 Aktenblätter mit klassischem Scanner, Smartphone und Buchscanner

Schätzung der Arbeitsstunden zur Digitalisierung von 409.500 Aktenblätter mit klassischem Scanner, Smartphone und Buchscanner

Nach meiner Schätzung sind also mit aktueller Technik für die Digitalisierung der Nachkriegskinder-Akten 4451 Arbeitsstunden nötig. Das errechnet sich aus 184 Aktenblätter, die pro Stunde mit zwei Personen gescannt werden können, bei einer Anzahl von 409.500 zu scannenden Aktenblätter.

Diese Zahlen sind nur grobe Schätzwerte und können sich durch Übung, bessere Workflows und bessere Technologien in kurzer Zeit wieder verändern. Nicht eingerechnet ist die Zeit für die Verschlagwortung und Anreicherung mit Metadaten, die vermutlich noch einmal das Doppelte der Zeit kosten wird.

Über Anregungen, Erfahrungen, Hinweise auf andere Artikel, best practices und Kommentare, aus denen wir mehr über Digitalisierung lernen können, würden wir uns freuen. Eine Einführung, die ich mir als nächstes genauer anschauen werde, ist die “Checkliste Digitalisierung”, die unter folgendem Link abgerufen werden kann:

http://dx.doi.org/10.12752/2.0.001.1

Ein weiterer Linktipp aus dem Archivamtblog: Marcus Stumpf, Digitalisierungsstrategien in Deutschland – Versuch einer Bestandsaufnahme, 8.5.2014: http://archivamt.hypotheses.org/668

Disclaimer: Es gibt keinen zu erklärenden Interessenkonflikt, da dieser Artikel aus privatem Interesse geschrieben wurde.

Quelle: http://zakunibonn.hypotheses.org/1119

Weiterlesen