CfP: Digital Hermeneutics – From Research to Dissemination: 4th Annual GHI Conference on Digital Humanities and Digital History

Digital Hermeneutics: From Research to Dissemination

October 10-12, 2019
International Conference and Workshop at the GHI
Organized in collaboration with the Luxembourg Centre for Contemporary and Digital History (C²DH) and the Roy Rosenzweig Center for History and New Media (RRCHNM)
Conveners: Andreas Fickers (C²DH), Gerben Zaagsma (C²DH), Sean Takats (RRCHNM), Simone Lässig (GHI), Jens Pohlmann (GHI), Daniel Burckhardt (GHI)

Call for Papers

The radical impact of the digital turn on the practice of all stages of historical research (archiving, research, analysis, interpretation and narrative) requires critical reflection on the methodological and epistemological consequences of digital technologies for historical scholarship. The Fourth Annual GHI Conference on Digital Humanities and Digital History will revolve around the concept of “digital hermeneutics,” defined as the critical and self-reflexive use of digital tools and technologies for the development of new research questions, the testing of analytical assumptions, and the production of sophisticated scholarly interpretations. At the same time, we wish to extend this concept to the realm of dissemination and storytelling. The conference thus aims to critically discuss tools and practices of digital historiography, on the one hand, and to focus on how the digital engenders new forms of public engagement and online dissemination of research results, on the other.

Digital History as first described by Edward L. Ayers in 1999 deals with “historical issues relating to digital or digitized source collections, which should (must) be carried out using interdisciplinary means of digital analysis or visualization.” (Föhr, Historische Quellenkritik im Digitalen Zeitalter, p. 8).

[...]

Quelle: https://dhd-blog.org/?p=11318

Weiterlesen

Universitätskurs ‘Technologie und Gesellschaft’ (WS 2015/2016)

Im nächsten Wintersemester 2015/2016 werde ich am Institut für Wissenschafts- und Technikforschung der Universität Wien wieder im Rahmen des Erweiterungscurriculums Wissenschaft, Technik und Gesellschaft den Universitätskurs (UK) Technologie und Gesellschaft (5 ECTS) lehren. Das Erweiterungscurriculum kann voraussetzungsfrei besucht werden.

Termin: montags 17.00-19.00 Uhr, ab 12.10.2015

Ort: Seminarraum STS, NIG Universitätsstraße 7/Stg. II/6.

[...]

Quelle: http://www.univie.ac.at/identifizierung/php/?p=5745

Weiterlesen

Algorithmen für Ängstliche

In jüngerer Zeit kam die Berichterstattung über Algorithmen wieder auf die Tagesordnung und man ist fast versucht, als Tenor “Lasst, die ihr eintretet, alle Hoffnung fahren!” zu vernehmen: Die Welt ist beherrscht von einer weithin unbekannten Supermacht, die das Dasein jedes Einzelnen und das Zusammenleben aller durch unsichtbare Fäden aus dem Hintergrund lenkt. Da werden Frauen über ihr Konsumverhalten als schwanger kategorisiert, ehe sie sich dessen selbst bewusst werden. Da bekommen Lebensgemeinschaften keinen Kredit, weil sie am falschen Ende der Straße wohnen. Da plant ein Online-Versand, Kunden die gewünschten Waren zuzusenden, bevor sie überhaupt daran dachten, diese zu bestellen. Und das alles nur, weil da jemand die “richtige mathematische Formel” gefunden hat und in der Lage war, diese “auf einem Computer zu programmieren”. Und jetzt sind die so geschaffenen Algorithmen dabei, sich von ihren Schöpfern loszusagen und die gesamte Menschheit bis zum Sankt Nimmerleinstag zu knechten.

angst

Der Zaubertrank: Deep Learning

Ich habe zunächst versucht, den Wahrheitsgehalt dieser Darstellungen in meinem Unwissen zu finden, was mir nicht sonderlich gut gelang. Sollten etwa die anderen doch nicht mit Wasser kochen und das, was ich so über das Thema weiß, überholtes Wissen sein? Ja, natürlich gibt es auf der einen Seite den Deep-Learning-Ansatz, der – salopp gesagt – irgendwie sowas wie die Architektur des menschlichen Gehirns auf einem künstlichen Rechnersystem nachbildet und das Ergebnis mit Beispielen füttert, auf dass es eigenständige Kategorisierungen vornehme. Ein solcher Ansatz benötigt allerdings auch in unserer Zeit schneller Desktop-PCs noch nicht-alltägliche Rechneranlagen, eine Menge Spezialisten für die Implementation und das Training neuronaler Netzwerke sowie eine hohe Frustrationstoleranz, weil relativ schwer analysierbar ist, was genau passiert und wie man Ergebnisse verbessern kann. Der Deep-Learning-Ansatz wird deswegen vor allem von großen Forschungseinrichtungen und Unternehmen eingesetzt, Google etwa hat Ray Kurzweil darauf angesetzt.

Deep-Learning-Techniken eignen sich vor allem für Aufgaben, wo Muster erkannt werden müssen, die sich nicht oder nur schwer durch spezifische Merkmale beschreiben lassen. So werden sie z. B. die Spracherkennungssyteme von iOS und Andoid eingesetzt. Soweit ich das beurteilen kann, wird der Ansatz abgesehen davon in freier Wildbahn noch kaum angewendet, weil er einfach noch nicht gut genug modellierbar ist.

Der Kochtopf mit Wasser: Maschinelles Lernen

Realweltszenarien, in denen Algorithmen eingesetzt werden, lassen sich fast alle durch Klassifikations- oder Gruppierungsproblem formulieren: Ist die Nutzerin schwanger oder nicht? Welche Kreditkonditionen bekommen die Kunden in der Gruppe, in die der potentielle Kreditnehmer eingeordnet wurde? Produkte welcher Warengruppe haben die anderen Käufer des Artikels noch erworben?  Ist der Autor des unbekannten Pamphlets Donald Rumsfeld oder der Una-Bomber? Will die Politikerin Europa – ja oder nein? Oder – wie in der Facebook-Studie damals - ist der Nutzer bzw. die Nutzerin heterosexuell oder irgendwas anderes (sic!)?

Es ist hier nicht mein Punkt, welche der möglichen Anwendungsszenarien methodisch zweifelhaft oder gar ethisch verwerflich sind. Was gemacht werden kann, wird wahrscheinlich eh irgendwo durchgeführt werden, da habe ich wenig Illusionen. Mir geht es hier nur darum, aufzuzeigen, dass dort in den seltensten Fällen neue mathematische Formeln ersonnen werden, die dann irgendwer auf dem Computer programmiert. Vielmehr steht ein ganzer Werkzeugkasten bekannter Verfahren zur Klassifikation und Gruppierung (Clustering) von Objekten zur freien Verfügung. Theoretisch könnte sich also jede|r daran bedienen und für welche Typisierungen auch immer anwenden. Mit ein wenig Geduld kommt man auch mit so mächtigen Programmen wie WEKA zurecht (da bekommt man auch eine graphische Benutzeroberfläche). Oder man ist so verwegen und installiert sich die entsprechenden Pakete für R.

Und schon ist man Data Scientist. Eigentlich, denn der Teufel liegt mal wieder … in den Daten. Um Objekte zu klassifizieren, muss man sie zunächst durch Merkmale beschreiben, jedenfalls wenn man nicht einen solchen Zauber-Neuronalen-Netzwerk-Ansatz wie oben beschrieben verfolgt. Texte kann ich z.B. beschreiben über die Wörter, die sie enthalten; Menschen über ihre Augenfarbe, ihre Größe, ihr Geschlecht, ihren Wohnort oder eben über die Bücher, die sie bisher erworben haben. Oder ich kombiniere einfach mehrere Merkmale. Und gewichte sie dann möglicherweise unterschiedlich – Augenfarbe ist wichtig, Anzahl der Muttermale etwas weniger relevant. Was auch immer ich messen oder abzählen kann, ist als Merkmal verwendbar. Schwierig ist die Mischung von Merkmalen unterschiedlicher Skalenniveaus, aber auch das ist mit ein wenig Phantasie meist lösbar. Augenfarbe könnte etwa über RGB-Werte angegeben werden – dann hätte ich statt eines nominalskalierten Merkmals gleich drei verhältnisskalierte. Diesen Vorgang – die Zuordnung von Merkmalen zu Objekten – nennt man Feature Engineering. Am Ende dieses Schrittes hat man zu jedem Objekt, das man gruppieren oder klassifizieren möchte, eine Reihe von Zahlen. Und mit diesen Zahlen kann ich dann meinen Algorithmus füttern. Bei der Gruppierung gebe ich die Objekte einfach alle hinein und bekomme am Ende Gruppen (immer hinsichtlich der ausgewählten Merkmale) homogener Objekte zurück. Das nennt man auch unüberwachtes Lernverfahren, weil ich die ursprünglichen Objekte nicht vorklassifizieren musste, um sie in Gruppen einzuteilen.

Ein weiteres bekanntes Verfahren ist das überwachter Art: Hierfür werden Trainingsobjekte benötigt, die bereit vor Anwendung des Algorithmus mit ihrer Klasse versehen sind (+/-schwanger, Text von Rumsfeld, Text vom Una-Bomber etc). Über diese Trainingsobjekte bildet sich der Algorithmus ein Modell, das er zu Rate zieht, wenn er weitere, nicht vorausgezeichnete Objekte zuweisen soll.

Was ich eigentlich damit sagen will

Hinter dem was landläufig als Algorithmen bezeichnet wird, die einen immer größeren Einfluss auf unser Leben haben, verbergen sich meist maschinelle Lernverfahren. In denen steckt zwar ein wenig was an Mathematik drin, vor allem bei der Gewichtung von Merkmalen, bei der Distanzberechnung von Merkmalskombinationen und eben bei der Gruppierung oder Klassifikation. Dies sind aber in den meisten Fällen frei zugängliche Formeln oder gar fertige Implementationen, die über graphische Oberflächen von eigentlich jedem zu bedienen sind. Manche dieser Verfahren liefern für bestimmte Anwendungsfälle bessere, für andere wieder schlechtere Ergebnisse. Zumindest in meinem Bereich, der Computerlinguistik, lässt sich meist schwer voraussagen, welche der Kombinationen gut funktioniert. Man probiert halt einfach alle aus und schaut dann, welche am besten performt (ja, manchmal sind wir halt einfach Ingenieure).

Mit das Wichtigste für die Funktion der Verfahren ist allerdings die Auswahl an Merkmalen, mit denen die Objekte beschrieben werden. Und anstatt darüber zu mosern, dass Algorithmen Entscheidungen für oder über uns treffen, sollte man vielleicht besser darauf drängen, offenzulegen, auf welcher Grundlage sie dies tun. Welche Merkmale erhebt die Schufa? Liest Amazon meine History aus oder beruhen die Empfehlungen nur auf den Daten, die ich ihnen gegeben habe? Vor allem: Kann ich das abschalten? Was der Algorithmus dann hinterher draus macht, kann ja auch mal hilfreich sein. Demnächst hoffentlich hier an einem konkreten Beispiel gezeigt.

Quelle: http://texperimentales.hypotheses.org/1111

Weiterlesen

Smarte Diskriminierung? Vortrag bei der TA13 – Sicherheit als Technik

Am 3.Juni 2013 findet an der Österreichischen Akademie der Wissenschaften die 13. Österreichische Technikfolgen-Abschätzung Konferenz zum Thema Sicherheit statt. Aus der Ankündigung:

Das Thema Sicherheit ist in aller Munde: Immer neue, meist technische Maßnahmen sollen uns sicherer machen. Aber reichen solche Lösungen tatsächlich aus, dass wir uns auch sicherer fühlen? Und was sind die Nachteile dieser Entwicklung?

“Vorratsdatenspeicherung, Überwachungskameras, Handy-Ortung – Technologien zur Kontrolle und Überwachung sind Teil unseres Alltags geworden. Die 13. Österreichische TA-Konferenz wird weniger prominente Aspekte von Sicherheit, wie soziale Sicherheit, individuelle Freiheit und Privatsphäre, in den Blickpunkt holen“, so Walter Peissl, stv. Direktor des ITA.

 

Ich werde dabei in der Parallel Session 1.1 zum Thema “Gerechtigkeit” um 11.30 Uhr meinen Vortrag “Smarte Diskriminierung? Zum Verhältnis von visueller Überwachung, (Un-)Sicherheiten und sozialer Gerechtigkeit” halten. Abstract

Das Programm findet sich hier. Die Teilnahme ist kostenlos!

Quelle: http://www.univie.ac.at/identifizierung/php/?p=5456

Weiterlesen