2. Göttinger StudiDays in Digital Humanities #DHStudiDays2018

Zum zweiten Mal fanden in diesem Jahr die Göttinger StudiDays in Digital Humanities statt. Vom 24. bis 26.09.2018 trafen sich Studierende und WissenschaftlerInnen aus den Geisteswissenschaften, der Informatik und den Digital Humanities am Göttingen Centre for Digital Humanities (GCDH). Alle Teilnehmenden waren eingeladen Projekte vorzustellen, sich über Ideen auszutauschen, sich zu vernetzen und neue Tools und Fragestellungen kennen zu lernen. Den Auftaktvortrag hielt Dr. Markus Frank aus München über die Erfahrungen im Studiengang Digital Humanities in den Sprachwissenschaften an der LMU.

Der zweite Konferenztag begann mit Vorträgen von Studierenden.

[...]

Quelle: https://dhd-blog.org/?p=10557

Weiterlesen

Hogwarts Analytica

Zum wiederholten Mal wird seit zwei Tagen die Firma Cambridge Analytica durch meine Timeline getrieben, in Form einer durchaus spannend aufbereiteten Story, garniert mit einem Whistleblower, Facebook-Datenlöchern, Steve Bannon und den unvermeidlichen Russen. Die ausführlichsten Quellen dazu sind die beiden Qualitätsmedien Guardian und New York Times.

Cambridge Analytica (CA) sollte eigentlich allen ein Begriff sein, Ende 2016 wurde behauptet, die Firma sei der entscheidende Faktor sowohl für den Brexit, als auch für die Wahl Trumps zum amerikanischen Präsidenten gewesen. Der die Diskussion auslösende Artikel hier ist inzwischen hinter einer Paywall verschwunden, dafür ist die Einordnung des Ganzen als PR-Gig eines möchtegern-einflussreichen Unternehmens von Eva Wolfangel auf Spektrum weiterhin frei zugänglich.1

Umso erstaunlicher ist nun, wie es CA doch wieder geschafft hat, so viel Aufmerksamkeit zu generieren. Nun mag genau dies ein gewichtiger Teil des Geschäftsmodells solcher Firmen sein, aber es ist schon bemerkenswert, wie es eine Daten/Algorithmen-Klitsche wie CA zum wiederholten Male es in alle Gazetten schafft. Hauptzutat für diesen Aufmerksamkeits-Cocktail war jetzt ein Whistleblower. Ein durchaus sympathischer junger Mann, Christopher Wylie, der sich mit Nasenring, pinken Haaren und Armeeshirt ablichten lässt, behauptet „I made Steve Bannon’s psychological warfare tool“ und lässt sich vom Guardian zu seiner Zeit bei CA interviewen.

[...]

Quelle: https://texperimentales.hypotheses.org/2520

Weiterlesen

Rez.: Digital Humanities. Praktiken der Digitalisierung, der Dissemination und der Selbstreflexivität (H-Soz-u-Kult / ZOL)

http://www.hsozkult.de/publicationreview/id/rezbuecher-25088 Angesichts der Konjunktur des Begriffs “Digital Humanities” und seiner Ubiquität mag es erstaunen, wie unscharf definiert dieser Begriff auch über 10 Jahre nach seiner Prägung[1] noch immer ist. So fungiert der Terminus “Digital Humanities” zum jetzigen Zeitpunkt vor allem als Sammelkategorie für einen bunten Strauß von Tätigkeiten in den Geisteswissenschaften, deren gemeinsamer Nenner schlicht […]

Quelle: http://www.einsichten-online.de/2016/02/6320/

Weiterlesen

Abendvortrag „Exploring Art Markets of the Past: Tools and Methods in the Age of Big Data“

von Gabriele Zöllner, Technische Universität Berlin

Das Forum Kunst und Markt an der TU Berlin lädt am 13.11.2015 zu einem Abendvortrag von Dr. Christian Huemer (Getty Research Institute, Los Angeles) zum Thema „Exploring Art Markets of the Past: Tools and Methods in the Age of Big Data“ ein.

Beginn ist um 18:15h, an der TU Berlin, Hauptgebäude, Raum H 1035, Straße des 17. Juni 135, 10623 Berlin,

Nähere Informationen gibt es unter: http://www.fokum.

[...]

Quelle: http://dhd-blog.org/?p=5841

Weiterlesen

BMBF geförderte Nachwuchsgruppe “eTRAP – electronic Text Re-use Acuisition Project”

gcdh_logo_highresWir freuen uns, die durch das Bundesministerium für Bildung und Foschung (BMBF) finanzierte und am Göttingen Centre for Digital Humanities (GCDH) angesiedelte Nachwuchsgruppe eTRAP (electronic Text Reuse Acquisition Project) bekannt machen zu dürfen.

eTRAP ist eine international und interdisziplinär zusammengestellte Forschergruppe, die ab 1. März 2015 für vier Jahre vor dem Hintergrund der Klassischen Philologie, Geschichte, den Digital Humanities, der Natürlichen Sprachverarbeitung sowie der Visualisierung und der Paläografie/Kodikologie (Handschriftenkunde) an der Georg-August-Universität Göttingen forschen und lehren wird.

Im Fokus der Arbeiten steht dabei das Interesse daran, wie Paraphrasen, Allusionen oder auch Übersetzungen (im Generellen Re-Use) von historischen Autoren in ihren Arbeiten weitergegeben wurden, warum Re-use weiter gegeben wurde und welche Intensionen und Einflüsse dabei eine Rolle gespielt haben. Die Nachwuchsgruppe möchte damit eine Methodik schaffen, mit der „Historischer Text Re-use“ trotz seiner starken Diversität (aufgrund langer Überlieferungslinien, sprachlicher und kultureller Einflüsse, Zerstörung) beschrieben und messbar gemacht werden kann. So werden beispielsweise viele statistische Maße unbrauchbar, wenn historische Texte einen signifikanten Anteil von Re-use enthalten. Diesen  gründlich zu erfassen, ist jedoch auf variantem, historischem Text noch keineswegs gelöst. Als Untersuchungsgrundlage werden Big Data hinzugezogen, also Daten, die zu umfangreich sind, um sie manuell bearbeiten zu können. Es werden Texte in den Sprachen Altgriechisch, Deutsch, Englisch, Italienisch und Latein bearbeitet.

Weitere Informationen zum Projekt und zur Nachwuchsgruppe finden Sie unter http://etrap.gcdh.de/

Quelle: http://dhd-blog.org/?p=4853

Weiterlesen

Über die Dialektik der Kennzeichnung quantifizierten Leserhandelns

"kindle dictionary entry for literacy" by Jimmie (flickr-CC BY 2.0)

Es begab sich relativ zufällig, dass ich an das Kindle-Reader-Programm geraten bin. Auf dem Weg in die Weihnachtsferien stellte sich natürlich die Frage, welche Bücher mir die langen Zug- und Autofahrten in die Heimat und den Urlaub versüßen sollten; und wie immer stellt man nach ein paar Seiten und stolpernd über den ein oder anderen Literaturhinweis fest, dass man doch noch ein weiteres Buch aus dem Regal hätte mitnehmen können oder sollen. In meinem Fall handelte es sich um Hegels Phänomenologie des Geistes. Nun gut, es gibt auch genügend gute Gründe Hegel nicht mit in die Weihnachtsferien zu nehmen; die dicke des Buches wäre schon mal einer von ihnen. Wie dem auch sei; ich hätte ihn jetzt gern zur Hand gehabt. Ideal ist aber, dass Hegel schon ausreichend lange tot ist, um seine großen Schriften – kostenlos – als Kindle-E-Book herunterladen zu können. Und das sogar ohne Kindle-E-Book-Reader, denn den gibt es auch als Programm für PCs bzw. Notebooks. Um Hegel soll es hier aber gar nicht gehen.

Als ich nämlich die Phänomenologie des Geistes und – weil es ja kostenlos ist – beide Bände der Wissenschaft der Logik heruntergeladen und den ersten Ärger über die schlechte Orientierbarkeit in so einem E-Book überwunden hatte, fielen mir beim Reinlesen Markierungen im Text auf. Unter Sätze wie bspw.

„Die Philosophie aber muß sich hüten, erbaulich sein zu wollen./Noch weniger muß diese Genügsamkeit, die auf die Wissenschaft Verzicht tut, darauf Anspruch machen, daß solche Begeisterung und Trübheit etwas höheres sei, als die Wissenschaft.“ (Hegel: Phänomenologie des Geistes, Position 108; ja, E-Books haben keine Seitenzahlen)

ist da eine dünne, gestrichelte Linie gezogen, an deren Beginn der Vermerk steht: „4 Textmarker“. Ohne es bisher überprüft haben zu können (ich bin ja im glücklicherweise webstinenten Ostsee-Urlaub; sitze aber soeben mit meinem Laptop auf dem Schoß auf der Rückbank eines VW-Busses), nehme ich an, dass es sich bei diesen Markierungen um getrackte Quantifizierungen von Lese- oder besser Markierungshandeln von Lesern handelt.1 Mehr oder weniger subtil wird einem damit also vermittelt, dass – wie im obigen schöngeistigen Beispielsatz – 4 andere Leser der E-Book-Ausgabe von Hegels Phänomenologie des Geistes diese Stelle als zumindest markierenswert erachtet haben. Es ist ein bisschen so, als würde man in ein antiquarisch erstandenem Klassiker die Lesespuren des oder der Vorbesitzer/s entdecken; eine Angelegenheit, die ich aufgrund ihrer Individualität immer als äußerst spannend empfunden habe. Hier nun aber ist diesen Spuren aufgrund ihrer Quantifizierung jegliche Individualität und Situiertheit genommen.

Über das Potenzial dieser Quantifizierung von Markierungshandeln kam mir nun ein kleiner Gedanke, den ich im Folgenden kurz ausführen möchte. Vollkommen unkommentiert bleibt dabei die Frage, welchen ökonomischen Mehrwert eine solche Quantifizierung für Kindle (also Amazon) hat. Vermutlich ist es eine weitere Quelle, äußerst individuelle Profile ihrer Käuferschaft zu modellieren.2

Aber übertragen aus meinen Selbstbeobachtungen, wie ich mit Texten umgehe, die von anderen bereits gelesen, markiert und kommentiert wurden, habe ich mich gefragt, was für ein Potenzial die quantifizierte Sichtbarkeit solchen Markierungshandelns für die Rezeption haben kann. Immerhin handelt es sich bei Markierungen – mögen sie nun auf einer Papierseite, in einer PDF-Datei oder in einem Kindle-E-Book gemacht sein – minimal immer um eine Zuschreibung einer gewissen Wichtigkeit. Der Individualität dieser Zuschreibung wird nun mit der Quantifizierung versucht zu begegnen und vermittels des Quantors (im obigen Beispiel ganze 4!) für den Leser einschätzbar zu machen: Wie viele Leser erachteten betreffende Stelle als wichtig? Der Schwellenwert jedoch für die Sichtbarmachung dieser Zuschreibung scheint dabei offenbar nicht sehr hoch zu sein. Das obige Beispiel scheint deswegen vielleicht nicht das idealste zu sein. Aber allein in der Vorrede gibt es auch eine  Stelle, die z. B. 41 Mal identisch oder zumindest ähnlich3 markiert wurden. Andere Werke mögen andere Zahlenwerte erreichen. Und auch erst über größere Zahlenwerte können solche Quantifizierungen wohl wirkliche Wirkungspotenziale entfalten. Man müsste sich mal anschauen, welche Zahlenwerte bspw. zeitgenössische Werke erreichen und ob dort signifikante Unterschiede zu verzeichnen sind.

Welcher Art könnte dieses Wirkpotenzial nun sein? Liest man ein – z. B. wissenschaftliches oder philosophisches – E-Book und bekommt kontinuierlich die Stellen angezeigt, die eine gewisse Menge anderer, anonymer Leser mit einer unbestimmten Wichtigkeit versehen haben, zeigt sich schon im Buch selbst also eine Art ausgemittelter Common-Sense über die wichtigsten Sätze oder besser Propositionen, die nicht der Autor selbst also solche erachtete, sondern die gesammelte also quantifizierte Leserschaft. Es wird also die Nachgeschichte eines Werkes, der Diskurs über das Werk, verschränkt mit dem Werk selbst. Auf äußerst rudimentäre, reduzierte, ja verdinglichte Weise wird also die herrschende Meinung über die Un-/Wichtigkeit einzelner Passagen zur Darstellung gebracht.

Im Unterschied zum einzelnen antiquarisch gekauften Buch, das vielleicht die Spuren von ein, zwei oder drei Lesern versammeln kann, bevor es vollkommen unlesbar wird, kann sich im E-Book – auf oben beschriebene Weise und d.h. ausschließlich quantitativ – der gesamte Diskurs abbilden. Und mögen Markierungen in einzelnen Büchern nur von Wichtigkeit sein, wenn man bspw. Foucaults Ausgabe der Kritik der reinen Vernunft in die Hände kriegt (und man gleichzeitig Foucault-Exeget ist), so ermöglicht die Quantifizierung den koinzidierenden Unterstreichungen die beschriebene abbildende Qualität und somit eine ganz andere wirkmächtige Wichtigkeit zukommen zu lassen.

Schon bei der individuellen Lektüre gebrauchter Bücher mit individuellen Unterstreichungen und Kommentaren habe ich immer wieder bemerkt, wie solch unscheinbare Marginalien die mentale Verarbeitung des Gelesenen beeinflussen:

Vormaliger Leser fand diese Stelle wichtig. Vormaliger Leser fand offenbar diese Stelle wichtig? Vormaliger Leser fand ausgerechnet diese Stelle wichtig!? Warum das denn? Ach so, ja leuchtet ein. Oder? Nein, was für ein Quatsch!

Die Spanne der möglichen Reaktionen auf solcherart Markierungen ist denkbar breit, was offensichtlich mit ihrer umfangreichen Individualität, Situiertheit und – in ihrer Spurqualität für den Anderen – folglich unglaublichen Vagheit zu begründen ist, die ein Verstehen bis aufs Äußerste erschweren. Die Hoffnung der Quantifizierung oder besser: die Hoffnung der Quantifizierer ist nun, dass sich all diese Idiosynchrasien verrechneten und somit eine Form von Eindeutigkeit sich ergäbe, die ein Verstehen von etwas ermöglichte. Wie bewusst sich die Quantifizierer darüber sind, wie äußerst Begrenzt das zu Verstehende durch die Verrechnung nur noch ist, ist eine Frage, die sicherlich von den offenen und verdeckten Zielen und Zwecken der Verrechnung her gedacht und problematisiert werden müsste. Hier interessiert ja aber erst einmal die Wirkung auf den durchschnittlichen Leser, der mit solcherart Verrechnung konfrontiert wird. Ich bin ja Hermeneut.

Ermöglicht die Verrechnung und Kennzeichnung dem Leser einen einfacheren Einstieg in den Diskurs, indem er weiß oder zu wissen glaubt, was die wichtigen Stellen sind, die zu beachten und zu besprechen wären; und welche unwichtigen Stellen nur überflogen, ja vielleicht sogar übersprungen werden können, um sich mit nur wenig Aufwand im Diskurs zurecht zu finden, eine Meinung zu haben und mitsprechen zu können? Das wäre die eine Seite, die gewissermaßen die Common-Sense-Lesart solcher Markierungen ist. Sie birgt die offensichtliche Gefahr oberflächlicher Lektüre, die einen Mehrwert, eine innovative Lesart geradezu verhindert.

Es gibt aber auch eine andere Seite, eine Möglichkeit, die die Dialektik solcherart Markierungen entbirgt. Diese Möglichkeit besteht darin, auf die Lücken zwischen den quantifizierten Markierungen acht zu geben. Die herrschende Zuschreibung von Wichtigkeit zu hinterfragen und ein E-Book auf die scheinbar unwichtigen Stellen hin zu lesen und sie in Relation zu den vermeintlich tragenden Passagen wechselseitig zu perspektivieren. Damit wird nicht nur eine tiefere Lektüre und begründetere Argumentation, sondern auch die innovative Kraft abweichender Lesarten und (mithin) die Erhellung blinder Flecken im Diskurs, ja in ganzen Paradigmen ermöglicht.4

Die devolutionierende Tendenz dieser Markierungen wird also aufgehoben durch die innovationierende Lesart derselben. Beides wiederum ist aufgehoben im Potenzial des Umgangs mit solchen Quantifizierungen von Wichtigkeitszuschreibungen.

DSC_0562[1]

  1. Dazu Amazon: "Neben Ihren eigenen Markierungen können Sie in manchen Kindle eBooks auch Beliebte Markierungen aufrufen. Beliebte Markierungen zeigen Ihnen, welche Textstellen in einem eBook am häufigsten von anderen Kindle-Lesern markiert wurden."
  2. Zum "gläsernen Leser" und möglichen Folgen siehe Pleimling (02.10.2012) in diesem bpb-Artikel.
  3. Die Frage, wie groß die Abweichung oder wie klein die Übereinstimmung einzelner Markierungen sein muss, um als „identische“ Markierung gezählt zu werden, ist eine weitere Frage, die interessant wäre zu klären. Bestimmt sie doch den Grad der für die Quantifizierung nötigen Desituierung der einzelnen Markierungen.
  4. Beide Aspekte für den Deutschunterricht zu nutzen, bespricht dieser Artikel.

Quelle: http://metablock.hypotheses.org/825

Weiterlesen

Datenschutz und Geschichtswissenschaften

An der infoclio-Tagung 'Datenschutz und Geschichtswissenschaften' wurde v.a. von Sacha Zala auf das Problem aufmerksam gemacht, dass zwar immer mehr Daten veröffentlicht werden, aber gleichzeitig der Zugriff darauf massiv eingeschränkt wird. Selbst Daten, welche offiziell der Öffentlichkeit zugänglich gemacht werden müssen (bspw. Bundesratsentscheide nach 30 Jahren), können im Archiv, aber nicht im Internet eingesehen werden. Dort sind sie noch immer geschützt.

Die aufgeworfenen Probleme zu Persönlichkeitschutz, Datenschutz und Forschungsfreiheit betreffen die Forschenden vor allem in der Heuristik. Wie sollen Datenbestände durchforstet werden? Wie kann man sicher sein, dass nicht doch ein Bestand aus irgendeinem (relevanten oder irrelevanten) Grund nicht digitalisiert zur Verfügung steht? Vielleicht digitalisiert wurde, aber hinter einer 'Zensurwand' steckt? Wie lange kann auf einen relevanten Bestand zugegriffen werden?

Der Fall vor dem EuGH bzgl. Google und das Recht auf Vergessen hat aufgezeigt, dass das Persönlichkeitsrecht als sehr hoch gewichtet wird. Der Aufschrei, dass damit 'Zensur' geübt wird und die Meinungs- und Pressefreiheit eingeschränkt wird, ist zu relativieren. Unerheblich davon, wie das Urteil umgesetzt wird oder werden kann, es muss jeder Person selbst überlassen sein, wie gläsern er sein will.

Hierzu scheint es sinnvoll zwischen einer 'ungerichteten' und einer 'gerichteten' Suche zu differenzieren:

  • Bei einer ungerichteten Suche werden mittels digitalen Suchmaschinen grosse/riesige Datenbestände über einen grossen Zeitraum durchsucht (Big Data). Beziehungen zwischen Daten können sehr einfach geknüpft werden. Persönlichkeitsprofile mit detaillierten Auskünften über den ganzen Lebenszeitraum sind erstellbar.
  • Bei einer gerichteten Suche wird bei bestimmten Institutionen in deren spezifischen (digitalen) Datenbanken, Archiven, Bibliotheken etc. gesucht. Die Suche benötigt ein Vorwissen, eine entsprechende Ausbildung und einen intellektuel hohen Beitrag. Auch hier sind Beziehungen zwischen Daten und ein Persönlichkeitsprofil erstellbar, aber mit einem viel grösseren Aufwand.

Es sei die These aufgestellt, dass bei Entscheiden für das Recht auf Vergessen vor allem gegen die Einfachheit der Erstellung von Persönlichkeitsprofilen votiert wurde. Das Fehlen des intellektuel hohen Beitrages (und damit der Reflexion über die vorhandenen Daten und die erstellten Verknüpfungen) ist meines Erachtens der Grund, warum 'Big Data Search' eingedämmt werden sollte, unerheblich der technischen Machbarkeit. Die bestehenden Daten sollen weiterhin zur Verfügung gestellt, aber dürfen nicht datenbestandsübergreifend durchsucht werden können - zumindest während einer klar definierten Sperrfrist. Es wäre damit zu hoffen, dass die veröffentlichten Datenbestände weiter zunehmen, damit für Forschende auch mehr Informationen zur Verfügung stehen, aber die Restriktionen wieder abnehmen werden.

Quelle: http://hsc.hypotheses.org/311

Weiterlesen

CfP: 2. IEEE Workshop zu Big Humanities Data

Die Abgabefrist für Beiträge für den zweiten IEEE Workshop zum Thema “Big Data in den Geisteswissenschaften” rückt näher: noch bis zum 30. August können Full Papers (bis 9 Seiten) und Short Papers (bis zu 4 Seiten) online über das Konferenzverwaltungssystem eingereicht werden.

cropped-bigdatahumanitiescloud3-827x250

Der Workshop wird im Rahmen der internationalen IEEE Konferenz zu Big Data (IEEE BigData 2014) stattfinden, die dieses Jahr zwischen dem 27. und 30 Oktober in Washington, USA veranstaltet wird. Der Workshop wird sich mit Herausforderungen und Möglichkeiten von Big Data in den Geistes-, Kultur- und Sozialwissenschaften beschäftigen. Die Liste von verschieden Aspekten die dabei berücksichtigt werden sollen / können ist lang:

  • Text- and data-mining of historical and archival material.
  • Social media analysis, including sentiment analysis
  • New research objects for humanities analysis such as digital music, film
  • Cultural analytics
  • Social analytics
  • Crowdsourcing and big data
  • Cyber-infrastructures for the humanities (for instance, cloud computing)
  • NoSQL databases and their applications in the humanities
  • Big data and the construction of memory and identity
  • Big data and archival practice
  • Corpora and collections of big data
  • Linked Data and Big Data
  • Constructing big data for research in the humanities

Mehr Infos gibt es auf der Workshop-Website http://bighumanities.net/events/ieee-bigdata-oct-2014/.

Quelle: http://dhd-blog.org/?p=3934

Weiterlesen

“Big Data” als Herausforderung an die “Digitale Pädagogik” – Ein Plädoyer für die Verwendung der “Grounded Theory”

Big Data als Herausforderungen an eine Digitale Pädagogik 

“Big Data” sind in der breiten Massenkultur angekommen. Sehen einige darin den Untergang der Privatheit durch die umfangreiche Überwachung und Analyse von Nutzerverhalten, so werden die Möglichkeiten der durch die Vernetzung und Interoperabilität von großen Daten-Mengen erzeugten neuen Daten stellenweise schon frenetisch gefeiert. Der Gewinn sich im Zuge von “Big Data” nun endlich mit den methodisch-reflexiven und praktischen Herausforderungen einer DH-affinen bzw. digitalen Pädagogik zu stellen, soll hier in Angriff genommen worden. Zu lange sind wir im Tal der Ahnungslosen verblieben bzw. haben uns darauf verlassen, dass es zu generellen Impulsen kommen wird, die aber seit langer Zeit ausgeblieben sind. Es sollen hier erste Anstösse gegeben werden, dass wir durch den Umgang mit “Big Data” und durch die Nutzung von “Big Data” die Chance ergreifen können die Potentiale, die die “Big Data” für die (Weiter-)Entwicklung der Digitalen Pädagogik birgt, zu nutzen. Dabei spielt die Einsicht von Arthur Conan Doyle “It is a capital mistake to theorize before one has data” (Doyle 1891) eine wichtige Rolle, da wir noch viel zu wenig das Augenmerk auf bereits vorhandene und zu gewinnende Daten bei digitalen Lehr- und Lernprozessen und -kulturen gelegt haben und die Auswertung dieser Daten bisher noch aussteht bzw. diese nur peripher genutzt werden. Es soll hier eine Lanze dafür gebrochen werden, dass wir im Umgang mit “Big Data” und “Big Data Technologien” vor neue Herausforderungen – auch und insbesondere in der Vermittlung – gestellt sind – dies würde auch wohl keiner mehr mit Ernst bezweifeln wollen.

Big Data und die “Grounded Theory” – Ein neuer Ansatzpunkt für die “Digitale Pädagogik”?

Bisher sind viele Potentiale von Big Data und Big-Technologien nicht genutzt worden, wenngleich immer wieder angeführt wird, dass wir durch die technische Umsetzung noch sehr begrenzt sind. Ich halte dies für ein Schein-Argument, da wir schon über viele Daten verfügen, die aber in konzeptionell-methodischer Hinsicht noch nicht aufgearbeitet sind. Erst durch die “datengestützte Theoriebildung” scheint es mir möglich überhaupt technische Anforderungen und weitergehende wechselseitig Bestimmung von Technik und pädagogischer Praxis zu formulieren, die dann wieder in die jeweilige weitere Ausformulierung des Zusammenspiels münden können. Ich gehe davon aus, dass die Big Data und ihre Technologien als Praktik, um die in den Daten schlummernde pädagogische Theorie zu entdecken. Ein theoretischer Ansatz könnte dabei in der “Grounded Theory” gesehen werden, die durch systematisches Erheben und Analysieren von Daten, die sich auf das entdeckte Phänomen beziehen, entdeckt, ausgearbeitet und vorläufig bestätigt. Folglich stehen Datensammlung, Analyse und die Theorie in einer wechselseitigen Beziehung zueinander, die wiederum dazu genützt werden können die technischen Anforderungen an eine neue Form von “digitaler Pädagogik” auszuarbeiten. Mit den vorhandenen Big Data und den vorhandenen Big Data-Technologien könnte die „Methode des permanenten Vergleichs“ angewendet werden. Bei dieser Methode finden die Datensammlung sowie das Kodieren und Analysieren der Daten parallel statt. Für die Kodierung werden substantielle und theoretische Codes verwendet: Die substantiellen Codes werden in offene und selektive Codes unterteilt. Zu Beginn der Analyse werden offene Codes verwendet (offene Kodierung). Offene Codes sind z. B. bestimmte Worte, die in den Daten wiederkehrend vorkommen. Es werden anhand der offenen Codes Unterschiede, Gemeinsamkeiten, Handlungsmuster usw. mit dem Ziel, Kategorien bilden zu können, gesucht. Die Klassifizierungen können gebildet werden, sobald diejenigen Verhaltensmuster identifiziert wurden, die Bedeutung oder Nicht-Bedeutung zugeschrieben bekommen. Diese Verhaltensmuster werden auch Kernvariablen genannt. Im zweiten Teil der Analyse wird nur noch selektiv (selektive Kodierung) kodiert, d. h. anhand der entwickelten Kategorien. Diese Analyseschritte könnten sowohl von forschenden Personen als auch durch Maschinen-lesbare Serialisierung der Daten vorangetrieben werden. So könnten  „Themengruppen“ und „Strategien“, anhand derer die einzelne Datensegmente gruppiert werden können, erhoben werden und systematisch für die Generierung von neuen Materialien im Lern- und Lehrprozess genutzt werden bzw. auf methodisch-reflektierter Ebene zur Fundierung von pädagogischen Mitteln und Methoden genutzt werden.. Das Ziel ist, dadurch Beziehungen und Zusammenhänge herausarbeiten zu können (Polit, Tatano Beck & Hungler, 2004), die dann wiederum in Theorie und Praxis einer “Digitalen Pädagogik” genutzt werden könnten. Es steht damit in Frage, ob bisher die “Digitale Pädagogik” noch zu sehr an dem positivistisch-funktionalistischen Paradigma des Hiatus von Theorie, Praktik und Technik aufsass und damit auch “Big Data” in eine Ecke gezwungen wurde, die das negative Bild prägte. Es wird hier vorgeschlagen Big Data im Zuge einer interaktionistisch-pragamtistischen Perspektive zu sehen. In dieser Sicht sind in den Big Data Interaktionen  zu beobachten, die helfen die Bedeutung von sozialen Objekten, Situationen und Beziehungen, die im symbolisch vermittelten Prozess der Interaktion/Kommunikation hervorgebracht werden, zu analysieren und zu nutzen.

Ein Neu-Ansatz der “Digitalen Pädagogik” im Angesicht der Möglichkeiten von Big Data und Big Data-Technologien müsste auf theoretischer Ebene bei einer interaktionistisch-pragmatistischen Wissenssoziologie anfangen, um in diesen die eingelagerten Interaktionszusammenhängen in der Wissensgenese und die vermittelnde Rolle von Daten und Datafakten im Zusammenklang von theoretisch-konzeptuellen und methodischer Impulse nutzen zu können. Durch diese Sicht können wir ein Miteinander von quantitativer und qualitativer Sozialforschung für die Entwicklung neuer Formen der “Digitalen Pädagogik” Neu-Ansatz der “Digitalen Pädagogik” im Angesicht der Möglichkeiten von Big Data und Big Data-Technologien müsste auf theoretischer Ebene bei einer interaktionistisch-pragmatistischen Wissenssoziologie anfangen, um in diesen die eingelagerten Interaktionszusammenhängen in der Wissensgenese und die vermittelnde Rolle von Daten und Datafakten im Zusammenklang von theoretisch-konzeptuellen und methodischer Impulse nutzen zu können.

Die Verwendung von Big Data in diesem unteraktionistisch-pragmatistischen Horizont weist dabei auf die Unterscheidung von Medium und Form auf, die das Re-entry der Form der Daten und ihrer Modellierung in die Form der Daten erlaubt.

Big Data: die Revolution, die die digitale Pädagogik verändert?

Das von Hirsch (2012) in Anschlag gebrachte Ungleichgewicht zugunsten der Fragen um die Forschungsmethoden, den Theorien und Ergebnissen gegen die kritischen und den aktuellen Praktiken des Unterrichtens, kann m.E. durch Nutzung von “Big Data” als Medium und Form eines pädagogischen Grundprinzips abgemildert werden. Gerade das Miteinander von Methoden der Datenerfassung, der Verteilung und Speicherung, sowie die im Zusammenhang mit Lehr- und Lernmaterialien entstandenen Daten zu durchsuchen, zu analysieren und zu visualisieren, um daraus wiederum Rückschlüsse, Ansätze für die Neugestaltung und Individualisierung von Lehr- und Lernmaterialien können den allzu oft künstlich hergestellten bzw. heraufbeschworenen Hiatus zwischen Digitaler Pädagogik und Big Data überwinden. Durch die Datenerfassung, das Tracing von Datenströmen, des IR als Bestandteil von Feedback-Schleifen durch Analyse und Visualisierung können sowohl für die Produktion und Entwicklung als auch als Maßnahme der Qualitätssicherung von Schulungsmaterialien Grundlagen aus den Big Data gewonnen werden. Durch die Nutzung und Analyse von Nutzerverhalten bei vorhandenen Schulungsmaterialien können wichtige Rückschlüsse daraus gezogen werden, wie diese benutzt werden, und für individuell nutzbare, aber trotzdem im Sinne eines “mass-customizing” sowie bei der Anpassung, der Aufarbeitung und Neugestaltung genutzt werden können. Insbesondere das Data-Mining mit dem Ziel, neue Muster zu erkennen, könnten genutzt werden, um die Lehr- und Lernmaterialien optimaler zu positionieren und durch die Big Data-Technologien von einem “mass-customizing” einer Lernplattform zu individualisierten Lerninseln vorstossen zu können. Die Big Data aus den Schulungsmaterialien mit den Schulungsmaterialien selbst sind dabei der Anfang des Knowledge Discovery in Databases-Prozesses (KDD) (Ester/Sander 2000) zu verstehen.

Die KDD als pädagogisches Mittel und Methode der Digitalität
Die bereits vorhandenen Erfahrungen der Nutzung und die vorhandenen Daten zum Schulungsmaterial könnten die vorbereitenden Untersuchungen und die Transformation der auszuwertenden Datensätze mit bedingen, die wiederum eine Dimension des Knowledge Discovery in Databases sind. Die Schulungsmaterialien selbst sind dabei auch als KDD anzusehen. Ziel wäre es damit zunächst die Erkennung bislang unbekannter Zusammenhänge aus vorhandenen Datenbestände aus und in Form und Medien von Schulungsmaterialien zu erschließen. Durch die Nutzung von Big Data-Technologien, wie z.B. die Clusteranalyse, die Outlier-Erkennung und die Analyse und Generierung von Indexstrukturen, könnten neue Data-Mining-Algorithmen entwickelt werden, um Schritte der Wissensentdeckung (Datenauswahl, Datenbereinigung, Datenreduktion, Modellbildung, Visualisierung usw.) gezielter für die (Weiter-)Entwicklung und neuer Schulungsmaterialien zu nutzen, indem Regelmäßigkeit, Gesetzmäßigkeiten und verborgene Zusammenhänge extrahiert werden und auf das vorhandene Schulungsmaterial zurückgeführt werden, welches in “real-time” dem Lehr- und Lernprozess des KDD angepasst wird. Big Data-Technologien können sowohl die Daten dabei als Medium als auch Form der Clusteranalyse, der Klassifikation, der Assoziations- und Regressionsanalyse der bestehenden Daten dienen. Hierdurch wird es möglich Daten für die Erstellung von neuen Schulungsmaterialien zu gewinnen, die wiederum Anstoss für weitere notwendige Theoretisierungen im Bereich der Digitalen Pädagogik . Durch die Verwendung von Big Data-Technologien, die durch das Daten-Mining von Schulungsmaterialien gewonnen werden können, könnte es möglich werden von Daten hin zur Theoretisierung und ausgehend von dort wiederum zur konkreten Umsetzung in neue Formen und zu Medien der Lehr- und Lernmaterialien zu gelangen. Die Verwendung von Big Data weist dabei eine Unterscheidung von Medium und Form auf, die das Re-entry der Form der Daten und ihrer Modellierung in die Form der Daten erlaubt. Durch diese Sicht können wir ein Miteinander von quantitativer und qualitativer Sozialforschung für die Entwicklung neuer Formen der “Digitalen Pädagogik” nutzen.

Ein Neu-Ansatz der “Digitalen Pädagogik” im Angesicht der Möglichkeiten von Big Data als KDD und Big Data-Technologien müsste auf theoretischer Ebene bei einer interaktionistisch-pragmatistischen Wissenssoziologie anfangen, um in diesen die eingelagerten Interaktionszusammenhängen in der Wissensgenese und die vermittelnde Rolle von Daten und Datafakten im Zusammenklang von theoretisch-konzeptuellen und methodischer Impulse nutzen zu können.

Es stellt sich damit aber umso dringender die Frage nach dem Anspruch eines solchen Ansatzes. Ist eine “Digitale Pädagogik” immer eine Pädagogik der DH oder ist die “Pädagogik der DH” nicht vielleicht doch das Nahziel.

Big Data: Medium und Form – Ansätze für eine “Digitale Pädagogik” oder Pädagogik der DH?
Der Soziologe Niklas Luhmann unterschied zwischen Medium und Form, wobei der von einer Kritik der üblichen Definition des Medienbegriffs ausging, die durch die zwei Aspekte “Vorstellung einer Vielzahl von Elementen und die Funktion des Vermittelns”charakterisiert sei, ohne daß ihr Zusammenhang klar werde. Nach Luhmann setzt gerade ein Medium Elemente voraus, die temporär gekoppelt werden und solchermaßen im Medium als unterscheidbare Formen erscheinen können.Ein Medium wird durch eine Differenz von loser und fester Kopplung seiner Element gekennzeichnet: “Wir müssen dann die Einheit dieser Unterscheidung als Medium bezeichnen, nennen diese lose gekoppelten Elemente mediales Substrat und die festen Kopplungen (deren Außenseite jeweils das mediale Substrat ist) Formen. Ein Medium (…) ist eine Unterscheidung (also selbst eine Form!) auf deren Innenseite Elemente fest und auf deren Außenseite Elemente lose gekoppelt sind” (Luhmann 2000, 30).

Das Medium ist selbst nicht beobachtbar, sondern nur Fortbildungen innerhalb des Mediums. Es soll hier die These vertreten werden, dass vieles dafür spricht, dass Big Data und die damit verbundenen Technologien als ein KDD-Prozess aufgefasst werden können, die sich für die Nutzung auf die Medium-Form-Unterscheidung stützen könnten. So betont Luhmann, dass allein die Formseite anschlussfähig ist, was aufgrund des temporären Charakters der Form zu ständiger (Re-)Aktualisierung von Formbildung zwingt, wie wir es auch bei Data-Mining-Prozessen bei den Big Data-Technologien erleben. Das Medium ist hingegen zeitlich weitaus stabiler, es verbraucht sich nicht durch Fortbildungen. Durch das Data-Mining findet eine Sinnoperation statt, die als re-entry der Form in die Form zu werden ist: “Als operative Einheit aus Unterscheidung und Bezeichnung ist Sinn eine Form, die sich selbst enthält, nämlich die Unterscheidung von Unterscheidung und Bezeichnung. Eine Form ist letztlich eine Unterscheidung, die in sich selbst als Unterschiedenes wieder vorkommt” (Luhmann 1998, 57).

Big Data und ihre Technologien als Medium sorgen somit für die kommunikative Autopoiesis der Daten, indem hier nicht mehr davon ausgegangen wird, dass Informationen einfach übertragen werden, sondern her- und zugestellt werden können, die wiederum in eine Form (hier die Schulungsmaterialien) einfließen können. Durch Big Data als Form der digitalen Pädagogik wird die Markierung einer Unterscheidung möglich (Luhmann 1997,198). Big Data als lose gekoppelte Elemente können in eine feste Kopplung überführt werden, indem sie mit den üblichen Verfahren des Data-Mining gebunden werden und bei jeder neuen Verwendung reproduziert werden, wobei sie immer beliebig oft verwendbar sind. Durch das Data-Mining werden die Big Data zum autopoetischen System, wenn sie als KDD betrachtet werden, das sie das eigene Medium zur eigenen Form binden (Luhmann 1997,197). Die Form ist also eine sich selbst entfaltende Selbstreferenz. Durch die Nutzung von Big Data-Technologien kann es gelingen das Schulungsmaterial der Lern- und Subjektkultur im Wechselspiel des Lernenden und Lehrenden anzupassen. Der individuell hinterlassene Datenstrom kann genutzt werden, um das Lehr- und Lernmaterial anzupassen. Auch dies umfasst die Änderung von einem positivistisch-funktionalistisch zu einem interaktionistisch-pragmatistischen Paradigma der Big Data als KDD.

Big learning data – Ansatzpunkte für eine Revolution der “Digitalen Pädagogik”
Big Data erlauben es also eine für ein breit ausgelegtes Publikum erstelltes Schulungsmaterial auf die jeweilige Lehr- und Lernkultur im Prozess der KDD anzupassen, um so ein “mass-customized” Schulungsmaterial zu einem individuell nutzbaren zu machen und dies in Echtzeit. Dabei können sowohl die Aspekte Volume, Velocity und Variety Berücksichtigung finden als auch notwendiges Feedback geben, die Motivation steigern, individuelle Lernprozesse abbilden und gestalten, die Kollaboration in Datenherstellung, -nutzung und -austausch steigern, die Lehr- und Lernkultur und -prozesse besser steuerbar machen, die Begleitung besser gestalten und das Verstehen von Lehr- und Lernprozessen als Medium und Form zu befördern. Durch die Gewinnung der Daten durch die Verwendung von Big Data als Medium und Form von pädagogischen Prozessen, deren Abbildung und Realisierung der Clusteranalyse, der Klassifikation, der Assoziations- und Regressionsanalyse, kann es gelingen, dass wir in eine höchst produktive und kreative Phase der DH eintreten können und jedem unmittelbar der Nutzen von Digital Humanities verdeutlichen können. Wir können dann wirklich von Daten ausgehen, auf deren Grundlage wir die Theoretisierung und notwendige und in der Dringlichkeit nicht abzustreitende Theoriearbeit der Digitalen Pädagogik weitertreiben zu können und zu müssen. Die Nutzung von Big Data und der damit in Zusammenhang stehenden Technologien könnte somit auch eine Revolution der Digitalen Pädagogik im interaktionistisch-pragmatischen Sinn herbeiführen, die sich von einer blossen Medienpädagogik endlich ablöst und die Big Data aus der Schmuddelecke des Feuilleton befreit.

 

Quelle: http://dhd-blog.org/?p=3794

Weiterlesen