Einladung zur Tagung “#DigitalHumanities in der Praxis”

Nach drei Jahren praktischer Erfahrung mit den Ansätzen und Methoden der Digital Humanities ist es Zeit, zu rekapitulieren. Im Digital-Humanities-Forschungsverbund, der vom Niedersächsischen Ministerium für Wissenschaft und Kultur gefördert wird, arbeiten Historiker und Philologen, Politologen und Soziologen mit Informationswissenschaftlern und Programmierern zusammen. Zu den direkten Partnern gehören neben der Georg-August-Universität Göttingen und der Niedersächsischen Staats- und Universitätsbibliothek Göttingen auch die Göttinger Akademie der Wissenschaften, die Wolfenbütteler Herzog August Bibliothek und das Max-Planck-Institut zur Erforschung multireligiöser und multiethnischer Gesellschaften. Bei der Kooperation geht es um den Aufbau digitaler Ressourcen und deren Nutzung, aber auch um die Etablierung eines DH-Lehrprogramms am Standort Göttingen.

Eine Wortwolke der erwähnten Formate, Methoden, Datenquellen und Software würde ungefähr so aussehen: Semantic Web, XML (TEI), RDF, TextGrid, OCR, Wikis, Twitter, Network Analysis, Gephi, Python, Java, arXiv.org, ATLAS.ti, GIS, imeji, … Das technologische Know-how und die verschiedenen Datengrundlagen dienen dabei immer dazu, die geisteswissenschaftliche Forschung zu unterstützen. Die einzelnen Vorträge bieten dementsprechend ergebnisorientierte Einblicke in die verschiedenen Teilprojekte. Deutlich wird dabei, wie durch gemeinsame Probleme und Lösungsansätze beim Umgang mit digitalen Daten die Kooperation über Fächergrenzen hinweg auf neue Weisen möglich ist.

[...]

Quelle: http://dhd-blog.org/?p=5066

Weiterlesen

Drei Jahre DHd-Blog – Happy Birthday!

Der DHd-Blog wird drei Jahre alt, wenn das kein Grund zum Feiern ist!

Über 90 AutorInnen aus rund 60 Institutionen und Städten in Deutschland, Österreich und der Schweiz haben in den letzten drei Jahren mit 535 Beiträgen – das ist durchschnittlich fast alle zwei Tage ein neuer veröffentlichter Artikel – und zahlreichen Kommentaren dafür gesorgt, dass der Blog sich zu einem lebendigen Austauschforum rund um die Digital Humanities entwickelt hat.

Herzlichen Dank an alle unsere AutorInnen und LeserInnen.

Wir freuen uns auch 2015 wieder auf zahlreiche Beiträge und Diskussionen.

Das DHd-Blog-Team

Quelle: http://dhd-blog.org/?p=4565

Weiterlesen

“Eine schöne Nebenbeschäftigung”? Perspektiven einer altertumskundlich-mediävistischen Wissenschaftsgeschichte 2.0

Nach der kürzlichen Veröffentlichung eines kleinen E-Books zur “Wissenschaftsgeschichte im digitalen Zeitalter” (https://verlag-ripperger-kremers.de/fluechtigkeit-der-information) möchte ich – aus meiner Perspektive als literaturwissenschaftlicher Mediävist – an dieser Stelle einige Aspekte der Publikation perspektivieren und damit zur weiterführenden Diskussion einladen. Meine Überlegungen verstehe ich als Positionsbestimmung in einer disziplinübergreifenden Wissenschaftslandschaft und als Versuch einer konstruktiven Zusammenführung aktueller Diskussionspotenziale zwischen historisch arbeitenden Disziplinen und den Digital Humanities. Hingewiesen sei nicht zuletzt auch auf weitere Bände der neuen Reihe “Transformationen von Wissen und Wissenschaft im digitalen Zeitalter” (https://verlag-ripperger-kremers.de/ebook-reihe/transformationen-des-wissens).

Es ist eine Klage, die sich durch Jahrzehnte zurückverfolgen lässt: der zunehmende Orientierungsverlust der Geisteswissenschaften hinsichtlich ihrer wissenschaftlichen und gesellschaftlichen Aufgabe – Orientierungslosigkeit als “Signum der Gegenwartsphilosophie” (K. W. Zeidler). Verschiedene Gründe werden ins Feld geführt: wachsende Dominanz diffus so bezeichneter ‘Kulturwissenschaften’, vermeintlicher Verfall wissenschaftlicher Werte und Traditionen angesichts von digital turn und open access… Man ist bisweilen erstaunt, wie mühelos kausallogische Zusammenhänge konstruiert werden. Interessanter erscheint die implizite Prämisse, diese Geisteswissenschaften könnten überhaupt eine Orientierungsleistung erbringen. Es geht dann nicht allein um Fragen der Methode, sondern um Zwecke und Ziele, unter denen solche Wissenschaften sich konstituieren. Fragen also, die sich als ungemein stimulierend erweisen können, doch zugleich einer Vielzahl an Meinungen Tür und Tor öffnen, die immer noch regelmäßig im erklärten Niedergang ‘der’ Geisteswissenschaften gipfeln.

Man kann diesen Fragenkomplex als Aufgabe der Fach-Philosophen von sich weisen. Oder sich der vermeintlich unverfänglichen Pflege etablierter Fronten von ‘Theorie’ und ‘Praxis’ widmen, wie sie sich im digitalen Zeitalter wieder verschärft zu haben scheinen. Eine solche Haltung muss aber zumindest in zweifacher Hinsicht verwundern. Zum ersten sind diese Fragen, wie gesagt, bereits seit Jahren, teils Jahrzehnten gestellt, sodass weder Geisteswissenschaften noch Wissenschaftsverlage heute, 2014, unvermittelt vor eine unerwartete Herausforderung gestellt sind, wie manche Diskussion indes suggeriert.[1] Zum zweiten ist die Reflexion von Bedingungen, unter denen Forschung und Theoriebildung sich vollziehen, doch seit jeher Voraussetzung einer fortwährenden Teilhabe an Wissenschaft. Anders gesagt: Die Geisteswissenschaften sind in ihrem Wesen reflexiv und damit gleichsam angewiesen auf Krisen, die dieses Bewusstsein gegenüber dogmatischer Erstarrung schärfen.

Desinteresse und Pessimismus angesichts sich vollziehender Transformationsprozesse mögen auch darauf beruhen, dass der Terminus ‘Wissenschaftsgeschichte’ im 20. Jahrhundert vielfältige Positionen befördert hat, die in ihren Relationen oft schwerlich überschaubar sind. Dahinter steht auch ein generelles terminologisches Problem, angesichts einer Vielzahl so genannter Schlüsselbegriffe, die in Fach- wie Alltagssprache in diversen Varianten verwendet und damit nicht selten zur assoziativen Auslegungsfrage werden. Wenn in den letzten Jahren Tendenzen einer verstärkten Wiederaufnahme und Weiterentwicklung begriffshistoriographischer Fragestellungen zu verzeichnen ist,[2] so sollte man dies zum Anlass nehmen, die Debatte auf breiterer Front wieder zu etablieren.

Das umrissene Desiderat betrifft auch die interdisziplinären Fachbereiche der Germanischen Altertumskunde und Mediävistik, denen die Geschichte des 20. Jahrhunderts eine besondere Aufgabe gestellt hat.[3] Das Erfordernis einer wissenschaftsgeschichtlichen Reflexion präsentiert sich weiterhin als Herausforderung, zumal mit Fokus auf Entwicklungen der Nachkriegsjahrzehnte;[4] gerade die 1980er Jahre kristallisieren sich als Zeitraum eines beschleunigten Orientierungswandels heraus.[5] So sollte man auch in altertumskundlich-mediävistischen Disziplinen (ich ziehe hier bewusst keine scharfen Grenzen) den Versuch wagen, Wissenschaftsgeschichte nicht allein als Geschichte der Wissenschaften im Mittelalter zu verfolgen, sondern sie als jüngere und – Stichwort: digital – jüngste Geschichte einzelner Disziplinen fruchtbar zu machen, zwischen Positionen zu vermitteln.

Damit ist die Frage der Perspektive gestellt, gibt ‘Wissenschaftsgeschichte’ doch kein verbindliches, gleichsam abzuarbeitendes Methodenspektrum an die Hand. Hier ist eine intensivierte Diskussion gefordert. So hat, um einen Ansatzpunkt zu nennen, Otto Gerhard Oexle in den letzten zwei Jahrzehnten das Konzept der ‘Problemgeschichte(n)’ in der Mediävistik befördert, im Sinne einer Orientierung an transdisziplinär zu bearbeitenden Fragestellungen.[6] Über Disziplingrenzen hinaus sind seine Vorschläge bisher aber – soweit ich sehe – allenfalls punktuell rezipiert worden. Zugleich wird daran beispielhaft deutlich, dass die historisch-systematische Hinterfragung disziplinärer Potenziale für ein Bewähren dieses zunehmend verkündeten, aber immer noch vagen Forschungsprinzips ‘Transdisziplinarität’ – in dem an erster Stelle zu lösende Probleme das Verbindende sein sollen – unerlässlich ist. Doch müssen solche ‘Probleme’ als wissenschaftliche (Re-)Konstruktionen in ihrer Geltung begründet sein.

Es kann der Wissenschaftshistoriographie ja nicht einfach um den Nachvollzug einer linear abstrahierten Genese von Wissen und Wissenschaft, eine “Autobiographie der eigenen Vernunft” (J. Mittelstraß) gehen, die dogmatisch am Status quo einer Disziplin orientiert wäre. Es geht um den Nachvollzug von Argumentationen, die darauf gründen, zweckmäßig und zielorientiert zu sein. Erst in der aktualisierenden Verhandlung solcher Argumentationsstrukturen kann Wissen konstituiert und somit relevant werden. Aber wo beginnt und wo endet Argumentation? Es sind ja dynamische Prozesse angesprochen, bei deren Erfassung vielfach mit den Begriffen ‘Innovation’ und ‘Tradition’ operiert wird, einerseits also Potenziale zur Diskussion stehen, andererseits die Unhintergehbarkeit von Wirkungsgeschichten mitgedacht ist. Der Hermeneutik sind beide Begriffe inhärent. Doch ist die Forderung nach hermeneutischer Reflexion vielfach Gemeinplatz geworden: Hermeneutik muss als reproblematisierendes Diskussionsfeld einzelner Disziplinen wieder kultiviert werden![7]

Die Digital Humanities versprechen einen Ausweg aus dem skizzierten Dilemma, erheben sie doch selbstbewusst den Anspruch, eine zukunftsträchtige Form der Geisteswissenschaften zu etablieren.[8] Aber was ist damit gemeint? Wenn regelhaft ‘überprüfbare Antworten’ zum Ziel erklärt werden, so rückt die bekannte Frage der praktischen Relevanz der Geisteswissenschaften in den Fokus, in Orientierung an den so genannten exakten Wissenschaften. Wie verhält sich dieser Anspruch der ‘Exaktheit’ zur angedeuteten philosophischen Dimension der Aufgabe? Ein ‘Antwortenkönnen’ funktioniert in den Geisteswissenschaften ja allein im kulturellen Kontext, setzt dort also weiterhin eine hermeneutische Kompetenz voraus, die sich nicht in Ja/Nein-Entscheidungen erschöpft  – ‘Wissen’ ist dort eben doch noch etwas anderes als in den Naturwissenschaften.[9] Die Leistungsfähigkeit digitaler Werkzeuge liegt aber in Prozessen, die nach eben diesem binären Prinzip automatisiert sind. Einen praktischen Nutzen von Suchfunktionen und Datenbanken wird andererseits niemand in Frage stellen wollen, der diese Leistungsfähigkeit erfahren hat. Doch ist mit der Selektion und Strukturierung abstrakter Daten zu Informationen nicht automatisch ein ‘Wissen’ generiert, um dessen zukunftsträchtige Bewahrung und Aktualisierung es in der Wissenschaft doch gehen soll. Es wird deutlich, dass künftig stärker der Dialog aller Beteiligten zu suchen ist, um etablierte Fronten zu entspannen. Es steht zu hoffen, dass zunehmende – und zunehmend ernst genommene – Blog-Diskussionen dazu ihren Beitrag leisten werden.

In der vorgestellten Publikation konkretisiere ich die vorausgehenden Überlegungen am Beispiel des “Reallexikons der Germanischen Altertumskunde” sowie der vor einigen Jahren daraus hervorgegangenen “Germanischen Altertumskunde Online”.[10] In diesem rund 50.000 Druckseiten umfassenden Großprojekt finden Archäologie, Geschichtswissenschaft, Philologie und Religionswissenschaft zusammen; die Frage der kulturwissenschaftlichen Inter- und Transdisziplinarität ist umso dringlicher gestellt. Waren unlängst aber noch voluminöse Registerbände vonnöten, um Fragestellungen auf einer Metaebene zu verknüpfen, so erscheint die Kombination leistungsfähiger Datenbanken und Suchfunktionen mit digitalen Darstellungsmöglichkeiten (die über bloße Listen ja längst hinausführen) als künftige Option, Problemstellungen der Wissensgenerierung und ‑tradierung visuell zu ‘materialisieren’ – und an einer solchen Darstellung neue Fragen zu entwickeln.

Wo ansetzen? Im Nachvollzug disziplinärer und überdisziplinärer Entwicklungsprozesse treten als Kristallisationspunkte von Diskursen Begriffe hervor, die weiterhin zum konstruktiven Ausgangspunkt einer Untersuchung von ‘Problemen’ gereichen könnten. Es ginge aber nicht darum, weiterhin in enzyklopädischer Weise unter ausgewählten Lemmata disziplinäre Positionen zu versammeln. Es ginge darum, über die Leistungsfähigkeit digitaler Werkzeuge semantische Netze zu generieren, deren Strukturen nach Wirkungszusammenhängen fragen lassen. Die Plausibilität gesetzter ‘Probleme’ wäre dann nicht zuletzt zu bemessen an deren Potenzial, neue ‘Probleme’ zu erschließen; Wissenschaft verwirklicht sich im fortdauernden Prozess. Einer strikten Hierarchie von Fragestellungen und Thesen (und damit schließlich von Disziplinen) wären Netze potenzieller Problemrelationen entgegengestellt, die schließlich auch ‘Unerwartetes’[11] hervorbringen könnten – und damit nicht nur jene curiositas stimulieren, sondern auch der Forderung nach Transdisziplinarität Rechnung tragen würden.

Die Möglichkeiten des digitalen Mediums stehen zu ‘traditioneller’ Wissenschaft somit keinesfalls konträr. Es ist aber an der Zeit, “daß die Theoretiker ihre Überheblichkeit und die Praktiker ihre Ignoranz ablegen”,[12] um programmatischen Bekenntnissen aktive Zusammenarbeit folgen zu lassen. “Das freundliche Ende der Geisteswissenschaften”, das Hans Ulrich Gumbrecht unlängst in der F.A.Z. proklamierte – Geisteswissenschaften als schöne Nebenbeschäftigung (amenity) –,[13] sehe ich noch nicht eingeläutet. Solange indes Bescheidenheit[14] den (‘traditionellen’) geisteswissenschaftlichen Betrieb bestimmt, wird man Gumbrechts Formulierung von einem “Über-Leben auf Gnade und an der intellektuellen Peripherie” zustimmen müssen. Gefordert ist keine neue Form der Geisteswissenschaften. Gefordert ist ein neues Selbstbewusstsein ihrer Vertreterinnen und Vertreter, die sich der Reflexionsform und der Orientierungsfunktion ihrer Tätigkeit – über Fachgrenzen hinaus – wieder bewusst werden und unter den Bedingungen und Möglichkeiten des frühen 21. Jahrhunderts stellen.

Jan Alexander van Nahl 2014: Die Flüchtigkeit der Information. Wissenschaftsgeschichte im digitalen Zeitalter. (Transformationen von Wissen und Wissenschaft im digitalen Zeitalter 3.) Ripperger & Kremers, Berlin.



[1] Vgl. van Nahl, Jan Alexander 2014: Odyssee 2.0? Wege und Irrwege digitaler Publikationen in den Geisteswissenschaften. In: Ulrich Seelbach (Hg.), Zwischen Skylla und Charybdis? Forschung, Wissenschaftsverlage und Web 2.0, S. 129–136. Bern.

[2] Vgl. Eggers, Michael/Matthias Rothe (Hg.) 2009: Wissenschaftsgeschichte als Begriffsgeschichte. Terminologische Umbrüche im Entstehungsprozess der modernen Wissenschaften. Wetzlar.

[3] Vgl. Zernack, Julia 2005: Kontinuität als Problem der Wissenschaftsgeschichte. Otto Höfler und das Münchner Institut für Nordische Philologie und Germanische Altertumskunde. In: Klaus Böldl/Miriam Kauko (Hg.), Kontinuität in der Kritik. Zum 50jährigen Bestehen des Münchener Nordistikinstituts. Historische und aktuelle Perspektiven der Skandinavistik, S. 47–72. Freiburg.

[4] Vgl. meine exemplarischen Bemerkungen zu “Walter Baetke” in: Germanischen Altertumskunde Online 01/2014 (s.u.). Abrufbar unter: http://www.degruyter.com/view/GAO/GAO_32 [20.10.2014].

[5] Vgl. van Nahl, Jan Alexander 2013: Verwehter Traum? Ältere Skandinavistik zu Beginn des 21. Jahrhunderts. In: Hartmut Bleumer et al. (Hg.), Turn, Turn, Turn? – Oder: Braucht die Germanistik eine germanistische Wende?, S. 139–142. Siegen.

[6] Vgl. u.a. Oexle, Otto Gerhard 2007: Krise des Historismus – Krise der Wirklichkeit. Eine Problemgeschichte der Moderne. In: Otto Gerhard Oexle (Hg.), Krise des Historismus – Krise der Wirklichkeit. Wissenschaft, Kunst und Literatur 1880–1932, S. 11–116. Göttingen.

[7] Vgl. auch meine Diskussion zu “Veröffentlichungsformen der Zukunft” mit Christian Schwaderer und Jan Keupp unter http://mittelalter.hypotheses.org/3893 [20.10.2014].

[8] Vgl. Thaller, Manfred 2011: Digitale Geisteswissenschaften. Abrufbar unter: http://www.cceh.uni-koeln.de/Dokumente/BroschuereWeb.pdf [20.10.2014]. Es seien an dieser Stelle die Vertreterinnen und Vertreter der Mediävistik daran erinnert, dass Manfred Thaller bereits seit den späten 1970er Jahren (!) zu grundlegenden Fragen einer digitalen Geschichtswissenschaft arbeitet.

[9] Vgl. Rheinberger, Hans-Jörg 2004: Wozu Wissenschaftsgeschichte? In: Rudolf Seising/Menso Folkerts/Ulf Hashagen (Hg.), Form, Zahl, Ordnung. Studien zur Wissenschafts- und Technikgeschichte, S. 51–62. Stuttgart.

[10] http://www.degruyter.com/view/db/gao [20.10.2014].

[11] Rheinberger, Hans-Jörg 2007: Man weiß nicht genau, was man nicht weiß. Über die Kunst, das Unbekannte zu erforschen. In: Neuer Zürcher Zeitung 05.05.2007. Abrufbar unter: http://www.nzz.ch/aktuell/startseite/articleELG88-1.354487 [20.10.2014].

[12] Peckhaus, Volker 1999: Chancen kontextueller Disziplingeschichtsschreibung in der Mathematik. In: Volker Peckhaus/Christian Thiel (Hg.), Disziplinen im Kontext. Perspektiven der Disziplingeschichtsschreibung, S. 77–95. (Erlanger Beiträge zur Wissenschaftsforschung.) München, hier: S. 92.

[13] Gumbrecht, Hans Ulrich 2013: Ein freundliches Ende der Geisteswissenschaften? In: Frankfurter Allgemeine Zeitung, Digital/Pausen 04.10.2013 Abrufbar unter: http://blogs.faz.net/digital/2013/10/04/freundliches-ende-geisteswissenschaften-379 [20.10.2014].

[14] Vgl. Heidbrink, Ludger/Harald Welzer (Hg.) 2007: Das Ende der Bescheidenheit. Zur Verbesserung der Geistes- und Kulturwissenschaften. München.

Quelle: http://dhd-blog.org/?p=4170

Weiterlesen

AIME – An Inquiry into Modes of Existence (B. Latour)

Screen Shot 2014-08-28 at 13.44.01Einige kennen ihn vielleicht aus Laussane von einem sehr interessanten Vortrag im Rahmen des DH 2014-Opening Plenary: Bruno Latour, Soziologe und Philosoph, Schüler u.a. von Gabriel Tarde – gemeinsam mit Michel Callon und John Law prägender Kopf der ‘material-semiotischen’ Methode der sog. Akteur-Netzwerk-Theorie (oft abgekürzt ‘ANT’). Neben anderen hat David M. Berry dieser DH-Vortrag Latours im Rahmen seines Blogs ganz offensichtlich inspiriert.

Als Professor der Sciences Po, Paris – und gemeinsam mit einem großen Team von Mitarbeitern dort sowie weiteren weltweiten Beiträgern – publiziert Latour nun sein neuestes Buch ‘An Inquiry into Modes of Existence’ im Rahmen einer sehr ansprechend gestalteten, zweisprachigen Internetseite (Zugriff: Anmeldung erforderlich): http://www.modesofexistence.org/

Neben einem Projektblog bietet die Seite Vollzugriff auf den Text Latours (“book”) mittels mehrerer interessanter Technologien, wobei hier neben dem “Notizbuch” und der Volltextsuche insb. die dezente und zugleich  intuitive, vielgenutzte Annotationsmöglichkeit besticht. Sie bildet gewissermaßen eine dritte Spalte des Texts. So finden sich auf o.g. Präsenz neben dem Print-Text (und einer Notizbuch-Funktionalität) auch weitere Anmerkungen, u.a. Latours, es entstehen Diskussionen u.v.m.

Hervorzuheben sind daneben aber auch jene ‘disamalgamierenden’ Text-Zugänge (“crossings”), die Textbereiche des Buchs über eine zweite Spalte, die anfangs als alphabetisch angeordnete Abbreviaturen-Liste erscheinen mag, verknüpfend durchziehen – oder aber thematisch angeordnet sowie mittels übersichtlich vernetzter ‘Punkt’-Einstiege einen weiteren Einstieg erlauben. Mehrere, einblendbare Tutorials, teils in Form von Videos, führen begleitend auch in diese experimentelleren Bereiche ein. Nicht zuletzt diese lohenen einen Besuch.

Quelle: http://dhd-blog.org/?p=3979

Weiterlesen

Rotkäppchen und der böse Wolf? – Das Titelthema „Digitale Geisteswissenschaften“ in Humboldt Kosmos

Kenneth Whitley, „Once upon a time“, ca. 1939. Bildnachweis: Library of Congress Prints and Photographs Division Washington, http://www.loc.gov/pictures/item/98518274/ (public domain).

Kenneth Whitley, „Once upon a time“, ca. 1939. Bildnachweis: Library of Congress Prints and Photographs Division Washington, http://www.loc.gov/pictures/item/98518274/ (public domain).

Die Digitalen Geisteswissenschaften bleiben im Gespräch! Nach der großen Herrenhausen-Tagung der Volkswagen Stiftung im Dezember 2013, dem ausführlichen duz-Themenheft vom November 2013, das den schönen Titel „Digitale Geisteswissenschaften – Die Nerds unter den Denkern“ hatte, sowie der ersten Jahrestagung des Verbands der Digitalen Geisteswissenschaften im deutschsprachigen Raum (DHd) in Passau mit über 350 TeilnehmerInnen, stehen die Digitalen Geisteswissenschaften nun erneut im Fokus der geisteswissenschaftlichen Öffentlichkeit: Im August diesen Jahres ist Humboldt Kosmos, das Magazin der Alexander von Humboldt Stiftung, mit dem Titelthema „Digital Humanities – Rotkäppchen 2.0“ erschienen (Heft 102/2014).

Das Titelthema wird im Kontext des Wissenschaftsjahrs 2014 präsentiert, das unter dem Motto „Die digitale Gesellschaft“ steht, und erscheint sowohl auf deutsch als auch auf englisch. Auch das Engagement der Humboldt-Stiftung in diesem Bereich, insbesondere mit der Einrichtung der hochdotierten Humboldt-Professur „Digital Humanities“ in Leipzig, die bekanntlich mit Gregory Crane besetzt wurde, dürfte eine Rolle bei der Wahl des Themas gespielt haben.

Der Beitrag der Wissenschaftsjournalistin Lilo Berg beleuchtet verschiedene Einsatzgebiete digitaler Daten und Methoden in den Geisteswissenschaften und zeigt überzeugend deren Nützlichkei für die Forschung auf, nicht ohne auch problematische Aspekte anzusprechen. Der Haupttext, in dem zahlreiche prominente deutsche VertreterInnen der digitalen Geisteswissenschaften sowie einige kritische Stimmen zu Wort kommen, wird flankiert von Kurzprofilen der Beitragenden, einer Übersicht zu relevanten Studienangeboten und Zentren, einer kurzen Geschichte der Digital Humanities sowie einer Liste von Zeitschriften, Verbänden und Projekten aus dem Bereich der Digitalen Geisteswissenschaften. Ohne Zweifel bringt ein solcher Beitrag dem Thema viel Aufmerksamkeit und man kann sich daher eigentlich nur darüber freuen! Zugleich stolpert man als selbst in den Digitalen Geisteswissenschaften engagierter Wissenschaftler doch über die eine oder andere Passage, die das Feld weniger überzeugend porträtiert.

Zunächst einmal wird aber der große Nutzen digitaler Daten und Methoden für genuin geisteswissenschaftliche Fragestellungen, die zudem auf breites Interesse stoßen, nicht nur an zahlreichen Beispielen aus der Forschungspraxis der für den Beitrag befragten ForscherInnen aufgezeigt, sondern eben auch an dem wunderbaren Beispiel, das dem Themenheft seinen Titel gibt: Rotkäppchen. Was für die Gebrüder Grimm mangels Daten und Methoden eine unerreichbare Herausforderung war, nämlich die Ergründung der weltweiten Verbreitung des Rotkäppchen-Themas und die Suche nach einem möglichen Ursprung der Erzählung, wird mit digitalen Daten und Methoden erstmals möglich. Der Beitrag berichtet von den Arbeiten des Anthropologen Jamshid Tehrani, der auf der Grundlage zahlreicher (allerdings bei weitem nicht aller) Fassungen von Rotkäppchen aus unterschiedlichen Kulturkreisen und unter Nutzung digitaler Methoden, unter anderem Algorithmen aus der Phylogenetik, zu verlässlichen und neuen Ergebnissen kommt: Er zeigt, dass die Frage nach einem gemeinsamen Ursprung schlecht gestellt ist, sondern dass es vielmehr drei große Familien des Themas gibt, wie sie in Asien, Afrika und Europa existieren. (Wer den Originalbeitrag von Tehrani lesen möchte, kann dies übrigens in der ausgezeichneten Zeitschrift PLOSone tun, wo der Beitrag im Open Access erschienen ist.)

So schön dieses und weitere Beispiel sind, so schade ist allerdings auch, dass der Artikel immer wieder etwas verkürzend oder unkritisch verfährt, sowohl wenn es um bestimmte Details der digitalen Forschungspraxis und -methoden geht, als auch insbesondere dann, wenn es um die Argumente der Kritiker der Digitalen Geisteswissenschaften geht. Ein erster Punkt betrifft das disziplinäre Profil der Digitalen Geisteswissenschaften. Es fällt zum Beispiel (insbesondere den Literaturwissenschaftlern unter uns) auf, dass die Linguistik und Archäologie als Pioniere der Digitalen Geisteswissenschaften genannt werden, dann weitere Disziplinen genannt, die Literaturwissenschaft aber an dieser Stelle überhaupt nicht erwähnt, sondern offenbar unter die Linguistik subsumiert wird. Im überwiegenden Teil des Beitrags geht es dann umgekehrt vor allem um literaturwissenschaftliche Gegenstände und Methoden, und die Literaturwissenschaften im weitesten Sinne sind – mit Gregory Crane, Martin Hose, Fotis Jannidis, Gerhard Lauer, Jan-Christoph Meister, Claudine Moulin, und Gerhard Wolf – die bei weitem am Besten vertretene Disziplin im Beitrag. Zwar kommen Archäologie und Linguistik noch kurz zur Sprache, die zahlreichen Aktivitäten und Initiativen in anderen Bereichen der Digitalen Geisteswissenschaften in Deutschland – man denke insbesondere an die Geschichte, Kunstgeschichte oder Musikwissenschaft, bleiben leider unerwähnt. Das disziplinäre Profil der Digitalen Geisteswissenschaften ist viel breiter und viel interdisziplinärer, als es der Beitrag vermittelt.

Ziemlich befremdlich ist außerdem, dass ohne jegliche kritische Distanz die Digitalen Geisteswissenschaften für ein bestimmtes Übel der Gegenwart verantwortlich gemacht werden. Es mag ja sein, dass die Konzentrationsfähigkeit und sprachliche Sicherheit von Studierenden (zumindest aus Sicht der ProfessorInnen) unzureichend ist, und vielleicht stimmt es ja tatsächlich, dass diese beiden Kompetenzen bei Studienanfängern über die Jahre hinweg abnehmen. Die Digital Humanities, so wird im Beitrag Gerhard Wolf zitiert, verstärkten diesen Trend! Wenn es diesen Trend gibt (der Punkt ist durchaus umstritten), so ist dafür doch allenfalls die übergreifende Digitalisierung des gesellschaftlichen Lebens und der Medien insgesamt verantwortlich zu machen, nicht jedoch ein noch kleiner Teil des Wissenschaftsbetriebs, mit dem die allermeisten StudienanfängerInnen während ihrer Schulausbildung und Sozialisation bis dahin wohl kaum in Berührung gekommen sein dürften. Glücklicherweise ist das wirklich ein Randthema des Beitrags.

Wirklich ärgerlich wird es allerdings beim Thema Forschungsförderung. Hier übernimmt der Beitrag unkritisch die Strategie eines seiner Beiträger, etablierte und digitale Geisteswissenschaften gegeneinander auszuspielen. Einer der Kritiker der Digitalen Geisteswissenschaften, Gerhard Wolf, wird mit folgendem Hinweis zitiert: „Digitalprojekte verschlingen Ressourcen, die wir dringend für unser geisteswissenschaftliches Kerngeschäft bräuchten“. Dass die dann von Wolf genannten Kernaufgaben, „interpretatives Erforschen und Editieren“ selbstverständlich von den digitalen GeisteswissenschaftlerInnen praktiziert werden, bleibt unerwähnt. Auch sei die Langzeitverfügbarkeit digitaler Objekte “nicht gewährleistet” und die “Abhängigkeit von der Technik nehme besorgniserregend zu”. Hier bleibt die Tatsache unerwähnt, dass die Langzeitverfügbarkeit papierbasierter Editionen auch nicht an sich gewährleistet ist, sondern erst durch eine über Jahrhunderte gewachsene und institutionalisierte Bibliothekslandschaft möglich wird, mithin durch Infrastrukturen, von denen wir abhängig sind. Die Anstrengungen, um eine vergleichbar tragfähige und dauerhaft verlässliche digitale Infrastruktur für digitale Objekte zu schaffen (in der Tat nach wie vor eine Herausforderung!), in der Digitalisate sicher aufbewahrt, langfristig verfügbar und unter neuen Fragestellungen nutzbar sind, werden erst seit verhältnismäßig kurzer Zeit und mit vergleichsweise geringen Mitteln betrieben. Niemand würde fordern, statt Bibliotheken doch lieber Forschung zu fördern, denn Bibliotheken sind unbestrittene Grundlage für Forschung. Ebenso verhält es sich mit der digitalen Infrastruktur: auch sie ist Grundlage (digitaler) Forschung und auch sie muss in vergleichbarer Weise wie die analoge Forschungsinfrastruktur institutionalisiert und dauerhaft gefördert werden. Vor allem aber: Alle GeisteswissenschaftlerInnen sollten an einem Strang ziehen, um ihre wissenschaftliche und gesellschaftliche Bedeutung sichtbar zu machen und mit ihren (auch, aber nicht nur finanziellen) Bedürfnissen bei Politik und Forschungsförderern gehört zu werden!

Was bleibt als Fazit? Einen Blogpost über einen wissenschaftsjournalistischen Beitrag schreibt man nicht, um seine Stärken zu loben. Daher lag hier der Schwerpunkt auf einigen Aspekten des Beitrags, die aus Sicht der Digitalen Geisteswissenschaften eher kritisch zu sehen sind. Es bleibt zu hoffen, dass sich die sicherlich zahlreichen GeisteswissenschaftlerInnen, die den Beitrag lesen werden, in der Lage sind, die Verkürzungen des Beitrags zu erkennen und ihnen vor allem die wunderbaren Anwendungsbeispiele im Gedächtnis bleiben, die zeigen, wie vielfältige neue Erkenntnisse und neue Fragestellungen durch digitale Daten und Methoden möglich werden!

Quelle: http://dhd-blog.org/?p=3953

Weiterlesen

Neuerscheinung: Facing the Future – European Research Infrastructure for the Humanities and Social Sciences

Die Konferenz “Facing the Future”, die im November 2013 gemeinsam vom European Strategy Forum on Research Infrastructures (ESFRI), dem Europäischen Akademienverband All European Academies (ALLEA), der Union der deutschen Akademien der Wissenschaften und dem Rat für Sozial- und Wirtschaftsdaten (Rat SWD) im Rahmen des BMBF-geförderten Projekts “Bestandsaufnahme und Analyse geistes- und sozialwissenschaftlicher Grundlagenforschung an den europäischen Wissenschaftsakademien” organisiert wurde, hat ihre Ergebnisse in einem Buch zusammengefasst: “Facing the Future – European Research Infrastructure for the Humanities and Social Sciences” von Adrian Dusa Dietrich Nelle, Günter Stock und Gert G. Wagner (Herausgeber).

Ein pdf des Buches befindet sich hier.

ISBN 978-3-944417-03-5

Quelle: http://dhd-blog.org/?p=3816

Weiterlesen

“Big Data” als Herausforderung an die “Digitale Pädagogik” – Ein Plädoyer für die Verwendung der “Grounded Theory”

Big Data als Herausforderungen an eine Digitale Pädagogik 

“Big Data” sind in der breiten Massenkultur angekommen. Sehen einige darin den Untergang der Privatheit durch die umfangreiche Überwachung und Analyse von Nutzerverhalten, so werden die Möglichkeiten der durch die Vernetzung und Interoperabilität von großen Daten-Mengen erzeugten neuen Daten stellenweise schon frenetisch gefeiert. Der Gewinn sich im Zuge von “Big Data” nun endlich mit den methodisch-reflexiven und praktischen Herausforderungen einer DH-affinen bzw. digitalen Pädagogik zu stellen, soll hier in Angriff genommen worden. Zu lange sind wir im Tal der Ahnungslosen verblieben bzw. haben uns darauf verlassen, dass es zu generellen Impulsen kommen wird, die aber seit langer Zeit ausgeblieben sind. Es sollen hier erste Anstösse gegeben werden, dass wir durch den Umgang mit “Big Data” und durch die Nutzung von “Big Data” die Chance ergreifen können die Potentiale, die die “Big Data” für die (Weiter-)Entwicklung der Digitalen Pädagogik birgt, zu nutzen. Dabei spielt die Einsicht von Arthur Conan Doyle “It is a capital mistake to theorize before one has data” (Doyle 1891) eine wichtige Rolle, da wir noch viel zu wenig das Augenmerk auf bereits vorhandene und zu gewinnende Daten bei digitalen Lehr- und Lernprozessen und -kulturen gelegt haben und die Auswertung dieser Daten bisher noch aussteht bzw. diese nur peripher genutzt werden. Es soll hier eine Lanze dafür gebrochen werden, dass wir im Umgang mit “Big Data” und “Big Data Technologien” vor neue Herausforderungen – auch und insbesondere in der Vermittlung – gestellt sind – dies würde auch wohl keiner mehr mit Ernst bezweifeln wollen.

Big Data und die “Grounded Theory” – Ein neuer Ansatzpunkt für die “Digitale Pädagogik”?

Bisher sind viele Potentiale von Big Data und Big-Technologien nicht genutzt worden, wenngleich immer wieder angeführt wird, dass wir durch die technische Umsetzung noch sehr begrenzt sind. Ich halte dies für ein Schein-Argument, da wir schon über viele Daten verfügen, die aber in konzeptionell-methodischer Hinsicht noch nicht aufgearbeitet sind. Erst durch die “datengestützte Theoriebildung” scheint es mir möglich überhaupt technische Anforderungen und weitergehende wechselseitig Bestimmung von Technik und pädagogischer Praxis zu formulieren, die dann wieder in die jeweilige weitere Ausformulierung des Zusammenspiels münden können. Ich gehe davon aus, dass die Big Data und ihre Technologien als Praktik, um die in den Daten schlummernde pädagogische Theorie zu entdecken. Ein theoretischer Ansatz könnte dabei in der “Grounded Theory” gesehen werden, die durch systematisches Erheben und Analysieren von Daten, die sich auf das entdeckte Phänomen beziehen, entdeckt, ausgearbeitet und vorläufig bestätigt. Folglich stehen Datensammlung, Analyse und die Theorie in einer wechselseitigen Beziehung zueinander, die wiederum dazu genützt werden können die technischen Anforderungen an eine neue Form von “digitaler Pädagogik” auszuarbeiten. Mit den vorhandenen Big Data und den vorhandenen Big Data-Technologien könnte die „Methode des permanenten Vergleichs“ angewendet werden. Bei dieser Methode finden die Datensammlung sowie das Kodieren und Analysieren der Daten parallel statt. Für die Kodierung werden substantielle und theoretische Codes verwendet: Die substantiellen Codes werden in offene und selektive Codes unterteilt. Zu Beginn der Analyse werden offene Codes verwendet (offene Kodierung). Offene Codes sind z. B. bestimmte Worte, die in den Daten wiederkehrend vorkommen. Es werden anhand der offenen Codes Unterschiede, Gemeinsamkeiten, Handlungsmuster usw. mit dem Ziel, Kategorien bilden zu können, gesucht. Die Klassifizierungen können gebildet werden, sobald diejenigen Verhaltensmuster identifiziert wurden, die Bedeutung oder Nicht-Bedeutung zugeschrieben bekommen. Diese Verhaltensmuster werden auch Kernvariablen genannt. Im zweiten Teil der Analyse wird nur noch selektiv (selektive Kodierung) kodiert, d. h. anhand der entwickelten Kategorien. Diese Analyseschritte könnten sowohl von forschenden Personen als auch durch Maschinen-lesbare Serialisierung der Daten vorangetrieben werden. So könnten  „Themengruppen“ und „Strategien“, anhand derer die einzelne Datensegmente gruppiert werden können, erhoben werden und systematisch für die Generierung von neuen Materialien im Lern- und Lehrprozess genutzt werden bzw. auf methodisch-reflektierter Ebene zur Fundierung von pädagogischen Mitteln und Methoden genutzt werden.. Das Ziel ist, dadurch Beziehungen und Zusammenhänge herausarbeiten zu können (Polit, Tatano Beck & Hungler, 2004), die dann wiederum in Theorie und Praxis einer “Digitalen Pädagogik” genutzt werden könnten. Es steht damit in Frage, ob bisher die “Digitale Pädagogik” noch zu sehr an dem positivistisch-funktionalistischen Paradigma des Hiatus von Theorie, Praktik und Technik aufsass und damit auch “Big Data” in eine Ecke gezwungen wurde, die das negative Bild prägte. Es wird hier vorgeschlagen Big Data im Zuge einer interaktionistisch-pragamtistischen Perspektive zu sehen. In dieser Sicht sind in den Big Data Interaktionen  zu beobachten, die helfen die Bedeutung von sozialen Objekten, Situationen und Beziehungen, die im symbolisch vermittelten Prozess der Interaktion/Kommunikation hervorgebracht werden, zu analysieren und zu nutzen.

Ein Neu-Ansatz der “Digitalen Pädagogik” im Angesicht der Möglichkeiten von Big Data und Big Data-Technologien müsste auf theoretischer Ebene bei einer interaktionistisch-pragmatistischen Wissenssoziologie anfangen, um in diesen die eingelagerten Interaktionszusammenhängen in der Wissensgenese und die vermittelnde Rolle von Daten und Datafakten im Zusammenklang von theoretisch-konzeptuellen und methodischer Impulse nutzen zu können. Durch diese Sicht können wir ein Miteinander von quantitativer und qualitativer Sozialforschung für die Entwicklung neuer Formen der “Digitalen Pädagogik” Neu-Ansatz der “Digitalen Pädagogik” im Angesicht der Möglichkeiten von Big Data und Big Data-Technologien müsste auf theoretischer Ebene bei einer interaktionistisch-pragmatistischen Wissenssoziologie anfangen, um in diesen die eingelagerten Interaktionszusammenhängen in der Wissensgenese und die vermittelnde Rolle von Daten und Datafakten im Zusammenklang von theoretisch-konzeptuellen und methodischer Impulse nutzen zu können.

Die Verwendung von Big Data in diesem unteraktionistisch-pragmatistischen Horizont weist dabei auf die Unterscheidung von Medium und Form auf, die das Re-entry der Form der Daten und ihrer Modellierung in die Form der Daten erlaubt.

Big Data: die Revolution, die die digitale Pädagogik verändert?

Das von Hirsch (2012) in Anschlag gebrachte Ungleichgewicht zugunsten der Fragen um die Forschungsmethoden, den Theorien und Ergebnissen gegen die kritischen und den aktuellen Praktiken des Unterrichtens, kann m.E. durch Nutzung von “Big Data” als Medium und Form eines pädagogischen Grundprinzips abgemildert werden. Gerade das Miteinander von Methoden der Datenerfassung, der Verteilung und Speicherung, sowie die im Zusammenhang mit Lehr- und Lernmaterialien entstandenen Daten zu durchsuchen, zu analysieren und zu visualisieren, um daraus wiederum Rückschlüsse, Ansätze für die Neugestaltung und Individualisierung von Lehr- und Lernmaterialien können den allzu oft künstlich hergestellten bzw. heraufbeschworenen Hiatus zwischen Digitaler Pädagogik und Big Data überwinden. Durch die Datenerfassung, das Tracing von Datenströmen, des IR als Bestandteil von Feedback-Schleifen durch Analyse und Visualisierung können sowohl für die Produktion und Entwicklung als auch als Maßnahme der Qualitätssicherung von Schulungsmaterialien Grundlagen aus den Big Data gewonnen werden. Durch die Nutzung und Analyse von Nutzerverhalten bei vorhandenen Schulungsmaterialien können wichtige Rückschlüsse daraus gezogen werden, wie diese benutzt werden, und für individuell nutzbare, aber trotzdem im Sinne eines “mass-customizing” sowie bei der Anpassung, der Aufarbeitung und Neugestaltung genutzt werden können. Insbesondere das Data-Mining mit dem Ziel, neue Muster zu erkennen, könnten genutzt werden, um die Lehr- und Lernmaterialien optimaler zu positionieren und durch die Big Data-Technologien von einem “mass-customizing” einer Lernplattform zu individualisierten Lerninseln vorstossen zu können. Die Big Data aus den Schulungsmaterialien mit den Schulungsmaterialien selbst sind dabei der Anfang des Knowledge Discovery in Databases-Prozesses (KDD) (Ester/Sander 2000) zu verstehen.

Die KDD als pädagogisches Mittel und Methode der Digitalität
Die bereits vorhandenen Erfahrungen der Nutzung und die vorhandenen Daten zum Schulungsmaterial könnten die vorbereitenden Untersuchungen und die Transformation der auszuwertenden Datensätze mit bedingen, die wiederum eine Dimension des Knowledge Discovery in Databases sind. Die Schulungsmaterialien selbst sind dabei auch als KDD anzusehen. Ziel wäre es damit zunächst die Erkennung bislang unbekannter Zusammenhänge aus vorhandenen Datenbestände aus und in Form und Medien von Schulungsmaterialien zu erschließen. Durch die Nutzung von Big Data-Technologien, wie z.B. die Clusteranalyse, die Outlier-Erkennung und die Analyse und Generierung von Indexstrukturen, könnten neue Data-Mining-Algorithmen entwickelt werden, um Schritte der Wissensentdeckung (Datenauswahl, Datenbereinigung, Datenreduktion, Modellbildung, Visualisierung usw.) gezielter für die (Weiter-)Entwicklung und neuer Schulungsmaterialien zu nutzen, indem Regelmäßigkeit, Gesetzmäßigkeiten und verborgene Zusammenhänge extrahiert werden und auf das vorhandene Schulungsmaterial zurückgeführt werden, welches in “real-time” dem Lehr- und Lernprozess des KDD angepasst wird. Big Data-Technologien können sowohl die Daten dabei als Medium als auch Form der Clusteranalyse, der Klassifikation, der Assoziations- und Regressionsanalyse der bestehenden Daten dienen. Hierdurch wird es möglich Daten für die Erstellung von neuen Schulungsmaterialien zu gewinnen, die wiederum Anstoss für weitere notwendige Theoretisierungen im Bereich der Digitalen Pädagogik . Durch die Verwendung von Big Data-Technologien, die durch das Daten-Mining von Schulungsmaterialien gewonnen werden können, könnte es möglich werden von Daten hin zur Theoretisierung und ausgehend von dort wiederum zur konkreten Umsetzung in neue Formen und zu Medien der Lehr- und Lernmaterialien zu gelangen. Die Verwendung von Big Data weist dabei eine Unterscheidung von Medium und Form auf, die das Re-entry der Form der Daten und ihrer Modellierung in die Form der Daten erlaubt. Durch diese Sicht können wir ein Miteinander von quantitativer und qualitativer Sozialforschung für die Entwicklung neuer Formen der “Digitalen Pädagogik” nutzen.

Ein Neu-Ansatz der “Digitalen Pädagogik” im Angesicht der Möglichkeiten von Big Data als KDD und Big Data-Technologien müsste auf theoretischer Ebene bei einer interaktionistisch-pragmatistischen Wissenssoziologie anfangen, um in diesen die eingelagerten Interaktionszusammenhängen in der Wissensgenese und die vermittelnde Rolle von Daten und Datafakten im Zusammenklang von theoretisch-konzeptuellen und methodischer Impulse nutzen zu können.

Es stellt sich damit aber umso dringender die Frage nach dem Anspruch eines solchen Ansatzes. Ist eine “Digitale Pädagogik” immer eine Pädagogik der DH oder ist die “Pädagogik der DH” nicht vielleicht doch das Nahziel.

Big Data: Medium und Form – Ansätze für eine “Digitale Pädagogik” oder Pädagogik der DH?
Der Soziologe Niklas Luhmann unterschied zwischen Medium und Form, wobei der von einer Kritik der üblichen Definition des Medienbegriffs ausging, die durch die zwei Aspekte “Vorstellung einer Vielzahl von Elementen und die Funktion des Vermittelns”charakterisiert sei, ohne daß ihr Zusammenhang klar werde. Nach Luhmann setzt gerade ein Medium Elemente voraus, die temporär gekoppelt werden und solchermaßen im Medium als unterscheidbare Formen erscheinen können.Ein Medium wird durch eine Differenz von loser und fester Kopplung seiner Element gekennzeichnet: “Wir müssen dann die Einheit dieser Unterscheidung als Medium bezeichnen, nennen diese lose gekoppelten Elemente mediales Substrat und die festen Kopplungen (deren Außenseite jeweils das mediale Substrat ist) Formen. Ein Medium (…) ist eine Unterscheidung (also selbst eine Form!) auf deren Innenseite Elemente fest und auf deren Außenseite Elemente lose gekoppelt sind” (Luhmann 2000, 30).

Das Medium ist selbst nicht beobachtbar, sondern nur Fortbildungen innerhalb des Mediums. Es soll hier die These vertreten werden, dass vieles dafür spricht, dass Big Data und die damit verbundenen Technologien als ein KDD-Prozess aufgefasst werden können, die sich für die Nutzung auf die Medium-Form-Unterscheidung stützen könnten. So betont Luhmann, dass allein die Formseite anschlussfähig ist, was aufgrund des temporären Charakters der Form zu ständiger (Re-)Aktualisierung von Formbildung zwingt, wie wir es auch bei Data-Mining-Prozessen bei den Big Data-Technologien erleben. Das Medium ist hingegen zeitlich weitaus stabiler, es verbraucht sich nicht durch Fortbildungen. Durch das Data-Mining findet eine Sinnoperation statt, die als re-entry der Form in die Form zu werden ist: “Als operative Einheit aus Unterscheidung und Bezeichnung ist Sinn eine Form, die sich selbst enthält, nämlich die Unterscheidung von Unterscheidung und Bezeichnung. Eine Form ist letztlich eine Unterscheidung, die in sich selbst als Unterschiedenes wieder vorkommt” (Luhmann 1998, 57).

Big Data und ihre Technologien als Medium sorgen somit für die kommunikative Autopoiesis der Daten, indem hier nicht mehr davon ausgegangen wird, dass Informationen einfach übertragen werden, sondern her- und zugestellt werden können, die wiederum in eine Form (hier die Schulungsmaterialien) einfließen können. Durch Big Data als Form der digitalen Pädagogik wird die Markierung einer Unterscheidung möglich (Luhmann 1997,198). Big Data als lose gekoppelte Elemente können in eine feste Kopplung überführt werden, indem sie mit den üblichen Verfahren des Data-Mining gebunden werden und bei jeder neuen Verwendung reproduziert werden, wobei sie immer beliebig oft verwendbar sind. Durch das Data-Mining werden die Big Data zum autopoetischen System, wenn sie als KDD betrachtet werden, das sie das eigene Medium zur eigenen Form binden (Luhmann 1997,197). Die Form ist also eine sich selbst entfaltende Selbstreferenz. Durch die Nutzung von Big Data-Technologien kann es gelingen das Schulungsmaterial der Lern- und Subjektkultur im Wechselspiel des Lernenden und Lehrenden anzupassen. Der individuell hinterlassene Datenstrom kann genutzt werden, um das Lehr- und Lernmaterial anzupassen. Auch dies umfasst die Änderung von einem positivistisch-funktionalistisch zu einem interaktionistisch-pragmatistischen Paradigma der Big Data als KDD.

Big learning data – Ansatzpunkte für eine Revolution der “Digitalen Pädagogik”
Big Data erlauben es also eine für ein breit ausgelegtes Publikum erstelltes Schulungsmaterial auf die jeweilige Lehr- und Lernkultur im Prozess der KDD anzupassen, um so ein “mass-customized” Schulungsmaterial zu einem individuell nutzbaren zu machen und dies in Echtzeit. Dabei können sowohl die Aspekte Volume, Velocity und Variety Berücksichtigung finden als auch notwendiges Feedback geben, die Motivation steigern, individuelle Lernprozesse abbilden und gestalten, die Kollaboration in Datenherstellung, -nutzung und -austausch steigern, die Lehr- und Lernkultur und -prozesse besser steuerbar machen, die Begleitung besser gestalten und das Verstehen von Lehr- und Lernprozessen als Medium und Form zu befördern. Durch die Gewinnung der Daten durch die Verwendung von Big Data als Medium und Form von pädagogischen Prozessen, deren Abbildung und Realisierung der Clusteranalyse, der Klassifikation, der Assoziations- und Regressionsanalyse, kann es gelingen, dass wir in eine höchst produktive und kreative Phase der DH eintreten können und jedem unmittelbar der Nutzen von Digital Humanities verdeutlichen können. Wir können dann wirklich von Daten ausgehen, auf deren Grundlage wir die Theoretisierung und notwendige und in der Dringlichkeit nicht abzustreitende Theoriearbeit der Digitalen Pädagogik weitertreiben zu können und zu müssen. Die Nutzung von Big Data und der damit in Zusammenhang stehenden Technologien könnte somit auch eine Revolution der Digitalen Pädagogik im interaktionistisch-pragmatischen Sinn herbeiführen, die sich von einer blossen Medienpädagogik endlich ablöst und die Big Data aus der Schmuddelecke des Feuilleton befreit.

 

Quelle: http://dhd-blog.org/?p=3794

Weiterlesen

DARIAH-DE – Workshop “Forschungsdaten für Andere”

Lizenzen, so könnte man es positiv formulieren – sollen es ermöglichen Daten(sätze)und Datafakten innerhalb der Grenzen der geltenden Gesetze so öffentlich verfügbar zu machen wie möglich. Demgegenüber stehen die Unsicherheiten und die Unkenntnis darüber, was überhaupt lizensiert werden kann und darf, was die diversen Lizenzen auf dem Markt zu leisten vermögen, wie sich die jeweiligen Lizenzen in welchem Punkt unterscheiden. Auch herrscht meist Unklarheit darüber, wie Schutzkraft von Lizenzen einzuschätzen ist. Was schließen die jeweiligen Lizenz ein und was schließen sie aus? Wo liegen die jeweiligen Stärken und Schwächen, Chancen und Grenzen der Lizenz und wie komme ich überhaupt an diese? Angesichts möglichst freier, überregionaler und langfristiger Zugriffe auf Daten zu gewährleisten, sind gerade Lizenzen ein unumgänglicher Teil im Prozess der globalen Austausches. Allerdings erscheinen Lizenzprozesse und -entscheidungen für viele Wissenschaftler ein kaum zu bewältigendes und überschaubares Minenfeld zu sein. Dies führt teilweise zu falschen Entscheidungen in Bezug auf die Lizenzierung, so dass eine freier, überregionaler und langfristiger Zugang schwierig ist, oder es wird keine Lizenz vergeben, ohne zu bedenken, dass ohne eine explizierte Lizenz die Weiterverwendung stark beschränkt ist.

Durch das enorm gewachsene Interesse am offenen Zugang zu Forschungsdaten bzw. deren Bereitstellung in den historisch arbeitenden Wissenschaften, wird es immer dringlicher eine Regelung für die offene Frage der Urheber- und Verwertungsrechte an Forschungsdaten zu finden, da Forschungsdaten Grundpfeiler wissenschaftlicher Erkenntnis darstellen und Grundlage weiterer Forschung sind.[1] Zudem ergeben sich aus Projekten (wie z.B. WissGrid) und durch die gesteigerten Anforderungen durch Geldgeber immer mehr Notwendigkeiten sich mit dem “Datenmanagement” zu beschäftigen, welches auch die Beschäftigung mit Datenlizenzierung und Entscheidungsprozessen für eine Lizenz mit impliziert.

Diese und andere Problemkonstellationen waren Anlass am Leibniz-Institut für Europäische Geschichte in Mainz zusammen mit dem Deutschen Archäologischen Institut in Berlin als Partner in DARIAH-DE am 12./13.06. 2014 ausrichtete. Der Workshop war explizit zur Lizensierung von Forschungsdaten und Datafakten für die historisch arbeitenden Wissenschaften gedacht. In theoretischer und praktischer Perspektive wurden die Lizensierungsmöglichkeiten, die Lizensierungsprozesse und -entscheidung in den Blick genommen und diskutiert.

Am ersten Tag (12.6) wurde mit Experten in Input-Talks auf die Grundlagen der Forschungsdatenlizensierung eingegangen und die Themenkomplexe Urheberrecht, Nutzungsrechte und Datenschutz behandelt. Einzelne Projekte und Einrichtungen stellten ihre Modelle und Lösungen mit Lizenzierungsentscheidungen und -prozessen für den nationalen und internationalen Datenaustausch vor.

Zunächst stellte WIBKE KOLBMANN (Berlin) das Infrastrukturprojekt DARIAH-DE vor und verdeutlichte die Notwendigkeit an und von europäischen Infrastrukturprojekten zur Schaffung von Interoperabilität von Datenbeständen bzw. Datafakten sich stärker als bisher mit Fragen rund um die Lizensierung von Forschungsdaten zu beschäftigen.

JOHANNES PAULMANN (Mainz) als Direktor des Leibniz-Instituts für Europäische Geschichte unterstrich in seinem Grußwort die Dringlichkeit der Fragen nach den sozialen und wissenschaftlichen Regeln für Bereitstellung und Nutzung von Daten. Er verwies dabei auf die Notwendigkeit des freien Zugangs zu Forschungsdaten und Publikationen in Form von Open Access und Open Data. Er verwies dabei auf die eigenen Erfahrungen mit dem Projekt Europäische Geschichte Online und den in diesem Projekt bereitgestellten Metadaten zu Beiträgen und Multimediaelementen. So wies er darauf hin, dass die Beiträge zumeist unter einer Creative-Commons-Lizenz veröffentlicht würden und dadurch potentiellen Nutzern die Bedingungen für die (Weiter-)Nutzung deutlich gemacht würden und müssten.

Der Jurist und Kulturmanager PAUL KLIMPEL (Berlin) gab einen Überblick über die rechtlichen Rahmenbedingungen für wissenschaftliche Daten. Er machte nochmals deutlich, dass zunächst wissenschaftliche Daten nicht grundsätzlich einem urheberrechtlichen Schutzbereich angehören und damit diese nicht per se geschützt sind. Vielmehr tritt hier die Notwendigkeit von Lizenzen und Lizensierungsprozessen zutage, denn in juristischer Hinsicht sind Lizenzen rechtsverbindliche Verträge, die den Gebrauch und Nutzung von Daten(-beständen) eindeutig regeln. So machte Klimpel auch darauf aufmerksam, dass der Lizenzhinweis ein wichtiges Element darstelle, insbesondere dann, wenn dieser maschinenlesbar ist (z.B. als RDF), da dieser dann als rechtlich Metadatum gelten könne.

Die Leiterin des Arbeitspaketes “Standards und Richtlinien” im Projekt APEx (ArchivPortal Europa Exzellenznetzwerk) am Bundesarchiv SUSANNE WAIDMANN (Berlin) vertiefte den Aspekt zur Angabe des Lizenzhinweises anhand von archivischen Daten im Kontext des Archivportals Europa und dem Europeana-Projekt. Sie erläuterte anhand der Aufarbeitung der archivischen Daten in XML-Dateien das Format EAD (Encoded Archival Description) und die anschließende Konvertierung in das Europeana Daten Modell (EDM), wobei in diesem Schritt die Rechteinformationen mit in die Dateien eingebaut würden. Auch in Bezug auf die Metadaten kann METS (Metadata Encoding and Transmission Standard) als Containersystem für digitale Objekte und deren Präsentation in Kombination mit METSRights eine Einbindung von Rechteinformationen über digitale Objekte erreicht werden. Allerdings gäbe es keine Einigkeit über die Nutzung von Lizenzen (so z.B. bei Europeana CC) bei Erschließungsangaben bzw. Informationen, was allerdings teils auch an den nationalen Gesetzgebungen, so dass auf CC-By-Lizenzen zurückzugreifen wäre, wie es auch das Bundesarchiv mit CC BY-NC-SA mache. Es könne aber keinen generellen Aussagen darüber gemacht werden, wann und wie Lizenzen genutzt werden, sondern hänge immer noch stark vom jeweiligen Einzelfall ab, was ein zeit- und kostenintensives Unternehmen ist. Es müsse von daher ein valider Workflow entwickelt werden, der Arbeitsaufwand und Nutzen in ein rechtes Verhältnis setze.

ALINE DEICKE und ANNA NEOVESKY (Mainz) von der Digitalen Akademie verdeutlichten in ihrem Vortrag zu OpenAccess im Akademienprogramm zunächst die Rahmenbedingungen von OpenAccess und Lizensierungen unter der spezifischen Perspektive der Akademieprogramme. Sie berichteten aus den aktuellen Projekten im Umgang mit dem Einsatz von Lizenzen und stellten sowohl grundlegende Gedanken an und brachten diese in Zusammenhang mit gewonnenen Erfahrungen aus dem Arbeitsalltag. Sie machten darauf aufmerksam, dass es keinen Automatismus zwischen der Online-Verfügbarkeit und OpenAccess gäbe, insbesondere wenn die zur Verfügung gestellten Daten unter keine Lizenz gestellt wurden, da die Unklarheit der rechtlichen Lage zur Nicht-Nutzung führen würden. In den Projekten in den Akademieprogrammen würden sich Tendenzen zu CC-Lizenzen in der Form von CC-BY-SA abzeichnen, aber die Entscheidung über Lizenzen würde immer wieder an die Erfordernisse  des Projektes abgestimmt. Einige Projekte haben für eine Entscheidung die General Public License genutzt, um zu einem Ergebnis zu kommen. Für Deicke/Neovesky sei es allerdings offen, wie es mit Lizenzen, Entscheidungen und Prozessen angesichts von kollaborativen Projekten umgegangen werden müsse und wie die Lizensierung sich auch auf die Möglichkeiten der Langzeitarchivierungsstrategien auswirken würden.

MICHAEL KAISER (Bonn) von der Max-Weber-Stiftung in seinem Beitrag “Wissen, Bewusstsein, Praktikabilität” auf die rechtlichen Implikationen des digitalen Publizierens hin. Er zeigte dies an dem von ihm betreuten Projekt perspectivia.net und betonte, dass im Durchlaufen der Phasen von der Konzeptionierung bis zum Alltagsbetrieb die lizenzrechtliche Klärung immer ein wichtiges Element darstelle. Auch die Rollenverteilung zwischen den beteiligten Akteuren auf jeder Ebenen in allen Phasen der Konzeption und Durchführung von “digitalen” bzw. hybriden Projekten spiele eine wichtige Rolle. Er konstatierte, dass die Akzeptanz von und das Bewusstsein für Lizenzen auf allen Ebenen und Dimensionen der Projektphasen noch steigerungsbedürftig seien, wobei oft der Aspekt des Designs der Lizenzierung allzu oft in den Hintergrund gerät und das Spektrum der angebotenen Lizenzen bei weitem nicht genutzt wird. Er machte am Schluss seiner Ausführung darauf aufmerksam, dass auch die Internationalisierung von Lizenzen bisher noch unzureichend bedacht und umgesetzt ist, so dass sich Probleme bei dem Umgang mit der Mehrsprachigkeit und den Konflikt mit ausländischen Rechtsnormen noch zu wenig Aufmerksamkeit geschenkt würde, wenngleich dies nicht zu einem Alarmismus führen sollte.

Am zweiten Tag (13.6) wurden verschiedene Tools zur Lizenzentscheidung und -erstellung vorgestellt.

THOMAS KOLLATZ (Essen) stellte die Creative Commons Lizenzen mit Chancen und Grenzen vor und deren Lizensierungsportal Choose a license vor. Er zeigte auf, wie die CC-Lizenzen in verschiedenen Datenformaten Verwendung finden können (z.B. TEI, (x)html, EDM XML).

NIKO BEER (Paderborn) stellte das Licensing decision tool als Teil des OER IPR Support Project vor. In diesem Projekt werden umfangreiche Informations- und Hilfsmaterialien, sowie Werkzeuge zur Verfügung gestellt und verschiedenste Wege der Offenheit der Daten und ihrer Lizensierung mit bedacht werden kann.

WIBKE KOLBMANN (Berlin) stellte wiederum den Public Domain Calculator des Projektes Europeana Connect vor. Dieser entstand im Zuge der Suche nach einem Europeana Licensing Framework und soll die Klärung der Rechtslage und Empfehlung für Datenanbieter im Hinblick auf die Lizenzierung ihrer Daten für Europeana fördern. Er ist ein Instrument zur Bestimmung, ob Schutzfristen für ein Werk ausgelaufen sind, ob andersweitige Fakten vorliegen oder ob es sich um ein neu entstandenes Werk handelt, welches freiwillig als gemeinfrei veröffentlich werden kann. Allerdings wies Kolbmann in ihren Ausführungen nochmals darauf hin, dass der Anwendungsbereich des Tools durch die Auswahl der Medienformate eingeschränkt und zudem nicht für die Evaluierung von Metadaten geeignet sei.

Abschließend testeten die Teilnehmer an eigenen Rechnern die vorgestellten Tools, die sie bei der Lizenzentscheidung und -erstellung unterstützen können anhand ihrer eigenen Daten. Jeweilige Anwendungsfragen konnten direkt mit den jeweiligen BeraterInnen von DARIAH-DE diskutiert und gelöst werden.

In der Abschlussdiskussion wurde nochmals deutlich, dass es einen enormen Bedarf an Aufklärungs- und Beratungsarbeit in Bezug auf die Entscheidungsprozesse für oder wider eine Lizenzart gibt. Es war allgemeiner Konsens, dass es eine zentrale Stelle geben sollte, um sich bei Fragen der Lizensierung von Daten und Datafakten in den historisch arbeitenden Wissenschaften beraten zu lassen. Grundsätzlich wurde aber die Notwendigkeit für die Verwendung und den Nutzen der Lizenzierung von Forschungsdaten nicht mehr in Frage gestellt, was wiederum auch ein wichtiges Ergebnis des Workshops darstellt.

Workshopübersicht

Begrüßung Johannes Paulmann (Mainz)

Einführung Wibke Kolbmann (Berlin), Lizenzen als Thema von Infrastrukturprojekten – DARIAH-DE

Theorie und Praxis – Perspektiven und Herausforderungen der Datenlizenzierung

Paul Klimpel (Berlin), Rechtliche Rahmenbedingungen für wissenschaftliche Daten – Ein Überblick

Susanne Waidmann (Berlin), Rechteangaben rund um archivische Daten im Archivportal Europa und Europeana

Aline Deicke / Anna Neovesky (Mainz), OpenAccess im Akademienprogramm – Anwendung und Herausforderungen

Michael Kaiser (Bonn), Wissen, Bewusstsein, Praktikabilität – rechtliche Implikationen des digitalen Publizierens

Methoden und Tools ? Praktische Perspektiven der Datenlizenzierung

Thomas Kollatz (Essen), creative commons 4.0

Niko Beer (Paderborn), OER Licensing Decision Tool

Wibke Kolbmann (Berlin), Public Domain Calculator

Fragen und Perspektiven

Hands-on-Session mit den vorgestellten Tools anhand von eigenen Daten und Datafakten und anschließender Diskussion mit Teilnehmern und Veranstaltern.

[1] So die Wissenschaftsallianz in ihren Grundsätzen zum Umgang mit Forschungsdaten. Die DFG sieht hierin auch die Sicherung guter wissenschaftlicher Praxis.

Quelle: http://dhd-blog.org/?p=3773

Weiterlesen

Erfolg und Emergenz in den Digital Humanities – ein Tagungseindrucksausschnitt

von Fabian Cremer, Max-Planck-Institut zur Erfoschung multireligiöser und multiethnischer Gesellschaften

Es könnte durchaus aufhorchen lassen, mit welcher Selbstverständlichkeit ökonomische Kategorien zur Beschreibung oder Beurteilung wissenschaftlicher Vorhaben herangezogen werden, trotz der weit verbreiteten Kenntnis des Drucks [1], dem die drittmittelgeprägten Digital Humanities als Beutegemeinschaft ausgesetzt sind. Im gleichnamigen Panel der DHd 2014 [2] hängt der expliziten Frage nach dem „Mehrwert“ der Informationstechnologie in geisteswissenschaftlichen Projekten, implizit auch das Legitimationsbedürfnis einer Disziplin an, die neben ihrem Selbstverständnis auch ihre Förderwürdigkeit aus den Innovationsmomenten zieht, die in dieser Verbindung von Geisteswissenschaft und Informatik mitunter stecken. Die Entstehung des Mehrwerts lässt sich aus der Marxschen Theorie des Kapitalismus [3] auf die stärker erkenntnisgewinnorientierte Aspekte der Wissenschaft übertragen: Mit dem den Einsatz von Informationstechnologien im Arbeitsprozess der GeisteswissenschaftlerInnen entsteht ein Produkt, dessen Gegenwert über den der jeweils aufgebrachten Arbeitsleistung hinausgeht, ein wissenschaftliches Surplus. Von diesen emergenten Eigenschaften der wissenschaftlichen und personellen Verbindungen in den Digital Humanities zeugen die drei Erfolgsgeschichten, die in der Mehrwertsession erzählt wurden.

Das Forschungsgebiet kunsthistorisch motivierter Analyse von Musikvideos, in dem sich Thorsten Wübbena kunsthistorisch und Matthias Arnold informationstechnologisch bewegen [4], zeigt idealtypisch, welche Möglichkeiten sich nach dem Fall analoger Barrieren ergeben. Genuin digitale oder im Analogen nur schwer wissenschaftlich rezipierbare Medien wie Musikvideos, ergeben sich der Analyse ihres komplexen und in Bewegung befindlichen Bezugssystems aus Text, Bild und Musik in einer webbasierten Arbeitsumgebung zur Videoannotation [5] nicht nur leichtgängiger sondern auch nachhaltiger. Ohne Medienbrüche direkt im Material arbeiten zu können, erlaubt außerdem nicht nur bessere Analysebedingungen, sondern eröffnet in der wissenschaftlichen Kommunikation den Diskurspartnern auch einen anderen Zugriff auf die eigene Argumentationsgrundlage, die visuelle Materialerschließung in der digitalen Arbeitsumgebung. Der bisher unvermeidliche Umweg über den Text, die Abstraktion über die Verschriftlichung, wird vermieden.

Im Untersuchungsfeld der Wanderungsbewegungen von Musikern im 16. Und 17. Jahrhundert lässt sich anhand der Projektfolge Musici-Musmig [6] eines der Phänomene der Digital Humanities exemplarisch verfolgen, der Fokuswechsel von einer im Umfang beschränkten aber tiefgehenden Erschließung zu einer räumlich und thematisch breiteren Datenbasis mit reduzierterem Detailgrad und generalisierenden Ordnungsstrukturen. Neben der Notwendigkeit, sich dabei mit informationstechnologischen Methoden der Aufbereitung von Daten, ihrer Maschinenlesbarkeit und Modellierung auseinanderzusetzen (und dann davon zu profitieren), erschloss sich die hilfreiche Wirkung der Technologien im gemeinsamen Vortag von Berthold Over und Torsten Roeder ganz unmittelbar in den im Projekt eingesetzten Visualisierungsstrategien mit Karten und Bewegungsmustern, denn die Komplexität der untersuchten Phänomene, die Netzwerke und Dynamik von Personen, Orte, Zeiträume, Ereignissen und Beziehungen, ist in der linearen Struktur von Text und Sprache weit schwerer erfahrbar.

Die lineare Struktur von Text und ihre Formalisierbarkeit machen sich hingegen Christian Riepl und die Sprachwissenschaft zu Nutze. Der transkribierte und morphologisch und morphosyntaktisch ausgezeichnete hebräische Text des Alten Testamentes war in den letzten 30 Jahren kontinuierlich Gegenstand sprachwissenschaftlicher Fragestellungen, unter dem Kontrastmittel heutiger Dreijahresforschung eine Ewigkeit. An der Geschichte der „Biblia Hebraica transcripta“ [7] lassen sich zahlreiche Lehren für die Digital Humanities ziehen, die hier nur pointierter Form erscheinen können: Eine langfristige und dauerhafte Auseinandersetzung ist keine wissenschaftliche und technologische Innovationsbremse. Geisteswissenschaft kann in der Auseinandersetzung mit der Stukturliebe und formalisierten Denkweise der Informatik auch methodisch profitieren. Erhalt und stetige Erweiterung und Anreicherung digitaler Datenbestände sind der Schlüssel für die Pluralität und Kontinuität ihrer Nutzung. Dialogische Prinzipien in der Interaktion von Mensch und Maschine sorgen dafür, dass die Geisteswissenschaft weder in die Sklaverei formalisierter Regelwerke der Technik getrieben wird, noch in den Grenzen menschlicher Erfassungsvermögens gefangen bleibt.

Neben dem im Call der Konferenz geforderten „analytischen Mehrwert“ boten die drei Projektvorstellungen inspirierende Auseinandersetzungen mit Problemen, die sie ohne die beteiligten Computer sicher nicht gehabt hätten.

 

[1] http://www.dfg.de/foerderung/grundlagen_rahmenbedingungen/drittmitteldruck/

[2] DHd 2014. Digital Humanities – methodischer Brückenschlag oder “feindliche Übernahme”? Chancen und Risiken der Begegnung zwischen Geisteswissenschaften und Informatik, 1. Jahrestagung der Digital Humanities im deutschsprachigen Raum, 25.-28. März 2014, Universität Passau, http://www.dhd2014.uni-passau.de/

[3] Karl Marx: Das Kapital. Buch I: Der Produktionsprocess des Kapitals. Hamburg, 1867, S. 112, http://www.deutschestextarchiv.de/marx_kapital01_1867/131

[4] Portable Musicvideos: http://www.portablemvs.net; Thorsten Wübbena: http://d-nb.info/gnd/123312396, http://www.kunst.uni-frankfurt.de/de/mitarbeiter/seiten/thorsten-wuebbena/zur-person/; Matthias Arnold: http://www.asia-europe.uni-heidelberg.de/en/people/person/persdetail/arnold.html

[5] http://pan.do/ra

[6] Europäische Musiker in Venedig, Rom und Neapel (1650-1750): Musik, Identität der Nationen und kultureller Austausch: http://www.musici.eu; Music migrations in the early modern age: the meeting of the European East, West and South: http://musmig.hypotheses.org/; Berthold Over: http://d-nb.info/gnd/135197848, http://www.musikwissenschaft.uni-mainz.de/musikwissenschaft/personen/over.htm; Torsten Roeder: http://www.bbaw.de/die-akademie/mitarbeiter/roeder

[7] Biblia Hebraica transcripta – Forschungsdatenbank 3.0: http://www.bht.gwi.uni-muenchen.de/; Christian Riepl: http://d-nb.info/gnd/135197848, http://www.itg.uni-muenchen.de/personen/riepl_christian/index.html

Quelle: http://dhd-blog.org/?p=3268

Weiterlesen

»Wiki und die Wissenschaft«

Wikipedia, das prominente Wiki, funktioniert, obwohl sich seine Autoren meist nicht kennen, sie in keiner gemeinsamen Kommunikationsstruktur und hierarchischen Beziehung zueinander stehen (was Entscheidungen nicht grundsätzlich einfacher macht), viele dort anonym unterwegs sind (was Destruktion Tür und Tor öffnet) und es kein (näher bestimmtes) gemeinsames und verbindendes inhaltliches Ziel gibt. Darüber kann man staunen, oder aber auf die Idee kommen, dass das einzige, was an dieser Aussage ganz falsch ist, das »obwohl« ist. Wikipedia funktioniert, »weil« … muss es wohl eher heißen.

Der potenzielle Einsatzbereich von Wikis hat eine enorme Spannbreite: als internes kollaboratives Werkzeug für kleine Arbeitsgruppen, fürs Projektmanagement, als Forschungsarchiv, als Redaktionssystem für die Publikation von Projektfortschritten und Forschungsergebnissen, als Plattform für die Kommunikation mit der Öffentlichkeit … Wer aber ein Wiki einrichtet und dann, gefühlt oder tatsächlich, mit mangelnder und unausgewogener Beteiligung kämpft, muss sich fragen, ob eigentlich die Rahmenbedingungen stimmen. Stehen Hierarchien dagegen? (»Darf ich das so schreiben?«) – es ist eben nicht nur eine Frage der sachlichen Kompetenz, wer in einem gegebenen Umfeld »etwas zu sagen hat«. Steht das neue System in Kokurrenz mit längst im Projekt etablierten Verfahren? (»Das machen wir doch seit Jahren mit E-Mail – jetzt soll ich auch noch in einem Wiki arbeiten!«). Muss man die fortschreitende Kontrolle der individuellen Arbeitsleistung befürchten? – Wikis eignen sich ja (leider) auch dafür.

So gibt es in dieser Hinsicht wirklich Grund zur Reflexion, aber das war nur einer der vielen Aspekte, die ich aus der Konferenz »Wiki und die Wissenschaft« mitgenommen habe. Dass Wikis sich für eine Vielfalt von Zwecken eignen, dass ihr konkreter Einsatz solide erforscht und geplant gehört (und wird!), dass Wikis mit freien Inhalten nur so gut sein können, wie Wissenschaft, Kultur und Medien (die »Stakeholder«) ihnen das erlauben, dass man ihrem schier unendlichen Material mit Big-Data-Visualiserungen auf den Leib rücken kann, dass man weiter über Schnittstellen, Standards und Lizenzen reden muss, schließlich, dass »Listen to Wikipedia« nicht nur ein guter, sondern ebenso entspannender wie anregender Rat sein kann. Viel gelernt, was will man mehr !

Dem interessierten Publikum (und der Allgemeinheit) stand während der Konferenz das die Veranstaltungreihe begleitende Wiki zur Bearbeitung offen, und die Versorgung mit eduroam und weiterem WLAN war selbstverständlich – rundum gelungen.

Ein ganz subjektiver Eindruck der Berliner Gespräche zur Digitalen Kunstgeschichte IV. Wiki und die Wissenschaft, Jakob-und-Wilhelm-Grimm-Zentrum, 20. Feb. 2014.

Ach ja ! Was es auf sich hat mit »Listen to Wikipedia«, das verrät ein weiterer Klick …

Quelle: http://dhd-blog.org/?p=3095

Weiterlesen