Resilienz und die Kommunikation mit Maschinen
Kommunikation mit Maschinen – so hieß die Tagung des neuen Human Dynamics Centre der Universität Würzburg. Hier lud die Philosophische Fakultät II vom 26. bis 28. Juni Philosophen, Soziologen, Psychologen und Ingenieure ein, um interdisziplinär über das Thema zu diskutieren.
Aus Sicht des Forschungsverbunds liegt es nahe, die einzelnen Beiträge daraufhin zu untersuchen, welche Rolle die Resilienz darin spielt. Dabei stellen wir uns zwei Fragen: Welche Systeme werden als resilient dargestellt? Was erzeugt diese Resilienz?
Der Beitrag “Zeigen als Technik – Bilder als Werkzeug” von Lambert Wiesing (Bildtheorie und Phänomenologie, Uni Jena) bildete den Auftakt der Tagung am Donnerstag Abend. Als eine erstaunlich resiliente Zeigetechnik erweist sich die Zentralperspektive, die über verschiedene Kulturen hinweg das dominante Darstellungsmittel geworden ist (im Gegensatz z.B. zur Bedeutungsperspektive). Der allergrösste Teil der von uns verwendeten Bilder ist in Zentralperspektive dargestellt (abgesehen von Kinderzeichnungen). Die Zentralperspektive ist keiner Beeinflussung von Weltanschauung, Religion oder Genderzugehörigkeit verdächtig. Was macht sie so erstaunlich resilient? Eine These ist, das die Verbreitung der Fotografie, einer Technik die es einfach macht, Bilder in Zentralperspektive zu erstellen, zu einer Dominanz der Zentralperspektive beigetragen haben könnte. Lambert Wiesing schlägt alternativ vor, dass die Zentralperspektive zwar vereinfachen und Details weglassen kann, aber dabei nichts darstellt was nicht richtig wäre.
Nach einem 1:0 für Deutschland im Spiel gegen die USA und einem zünftigem fränkischen Essen startete am nächsten Morgen Nicole Krämer (Sozialpsychologie, Uni Duisburg) mit ihrem Beitrag “Falsche Freunde? – Sozial-emotionale Wirkungen der Interaktion mit Maschinen”. Sie berichtete über die aus Ihrer Sicht erstaunliche Resilienz des sozialen Verhaltens von Menschen, die selbst auf computergesteuerte Avatare so reagieren, als wären sie soziale Wesen. So ist die Sprechangst vor einem ablehnend reagierenden virtuellen Publikum aus Avataren größer als vor einem freundlich gestimmten. Wir wählen andere Filme aus, wenn diese von einem virtuellen Agenten empfohlen werden, als wenn wir sie einfach aus einer Liste auswählen. Je häufiger ein Avatar lächelt, desto häufiger lächeln wir. Wenn ein Roboter gequält wird, leiden wir mit. Und da nützt es gar nichts, dass wir wissen, dass wir es in all diesen Fällen nicht mit sozialen Wesen sondern mit vorprogrammierten Maschinen zu tun haben – wir verhalten uns trotzdem so. Was macht unser Sozialverhalten so resilient und damit manipulierbar für Maschinen? Die Antwort könnte darin liegen, dass das Sozialverhalten sich im Laufe der Evolution entwickelt hat und damals eben noch keine Computer und künstliche Personen vorhanden waren. Aber ist das nicht zu einfach? Auch gegenüber Plüschtieren und Puppen zeigen wir uns emphatisch. Wieviel Realismus und Ähnlichkeit ist nötig? Nicht viel meint das Publikum, denn bereits Heider und Simmel (1944) konnten in ihren Studien zeigen, dass sogar Dreiecke und Kreise die sich bewegen von uns als mit sozialen Intentionen ausgestattete Individuen wahrgenommen werden.
Stephan Schwan (Leibniz-Institut für Wissensmedien, Tübingen) schließt an mit einer Betrachtung von “Digitalen Schnittstellen des Denkens und Lernens”. Sein Vortrag verweist darauf, dass das Externalisieren unserer Kognitionen unser Denken und Lernen resistenter machen kann. Klassisch geschieht das zum Beispiel mit Hilfe von Vorlesungsmitschriften oder Spickzetteln (wobei bei normalen Prüfungen die ersteren den letzteren überlegen sind). Computer können uns stupide oder hochkomplexe Rechenoperationen abnehmen und Daten grafisch darstellen. Damit befreien sie unser Denken für kreatives Problemlösen. Jedoch heißt eine Aufgabe zu vereinfachen nicht immer auch, sie leichter erlernbar zu machen. Ein gewisses Schwierigkeitsniveau ist nötig, sonst bleibt nichts im Gedächtnis hängen. Wie und wofür die Maschinen eingesetzt werden bestimmt also, ob unser Denken und Lernen mit ihnen resilienter wird.
Kurz vor der Mittagspause spricht Elena Esposito (Soziologie, Universität Modena und Reggio Emilia) über “Interaktion mit Algorithmen”. Sie erinnert uns daran, dass bereits ein Viertel aller Twitternachrichten und vier Fünftel der Bewegungen an Aktienmärkten von Algorithmen verursacht werden. Dies wirft die Frage nach der Resilienz unserer Kommunikation auf. Können wir überhaupt noch von Kommunikation reden, wenn wir mit Algorithmen interagieren? Denn Algorithmen denken nicht selbst. Sie bedienen sich parasitär der menschlichen Intelligenz indem sie unsere Aussagen nur noch nach Häufigkeiten sortieren und Verknüpfungen zwischen ihnen aufbauen (vgl. Googles Page Rank). Die wahre Semantik muss immer noch von uns kommen. Also Entwarnung? Oder werden wir uns doch verändern?
Den ersten Beitrag am Nachmittag liefert Werner Rammert (Techniksoziologie und – philosophie, TU Berlin) zu “Interaktionen mit technischen Dingen und Daten”. Er erinnert daran, dass unser Eindruck von Autonomie im Alltag, und insbesondere bei der Nutzung von Technik, eine sehr resiliente Illusion ist. In einem Mensch-Machine-System sind beide Partner weitaus mehr aufeinander angewiesen, als es zunächst den Anschein hat. Genauso illusionär wäre es anzunehmen, dass auch eine Maschine völlige Autonomie haben kann (z.B. ein Autopilot im Flugzeug). Warum die Autonomie-Illusion dennoch so resilient ist, liegt daran, dass sie Verantwortungszuschreibungen ermöglicht. Wir halten daran fest, nicht nur weil es nützlich für die juristische Praxis ist, sondern auch um die anthropologische Differenz zu anderen Lebensformen zu erhalten und um Spielräume für kreatives Handeln zu ermöglichen.
Der letzte Vortag des Tages gehörte Andrea Kübler und Elisa Holz (Interventionspsychologie, Uni Würzburg), die über “Gehirn-Computer Schnittstellen” zur Verbesserung der Lebensqualität gelähmter Menschen referierten. Bei einer fortschreitenden Erkrankung wie der Amyothrophen Lateralsclerose (ALS), die für die Patienten zu schwersten Lähmungen führt und im Locked-In Syndrom endet, stellt sich die Frage, wie die Lebensqualität dieser Patienten aufrechterhalten lässt. Am Beispiel von zwei schwerst gelähmten Künstlern wurde gezeigt, wie Algorithmen, die Hirnstromsignale in die Steuerung eines Malprogramms übersetzen, den Künstlern ermöglichten selbst wieder Kunstwerke herzustellen und diese sogar auf Ausstellungen zu verkaufen. Die Auswirkungen auf Selbstwert, Lebensqualität und Teilhabe am Leben zeigten sich deutlich positiv. Der Vortrag lieferte ein besonderes Beispiel dafür wie es moderne Technik erlaubt, selbst unter extremen Bedingungen eine erhöhte Resilienz zu zeigen.
Der erste Vortrag am Samstag wurde von Lena Pint (Philosophie, Uni Würzburg) gehalten. Aus ihrem Vortrag zu “Körper und Leiblichkeit im digitalen Raum” nimmt man mit, dass trotz aller Verarmung der Interaktionen im Internet ein resilientes Bestreben vorhanden ist, den Körper wieder zu zeigen, sei es als Smiley-Icon in E-Mail Nachrichten, Selfie-Bildern auf sozialen Webseiten oder selbst gestalteten Avataren in Online-Games. Ähnlich wie in Nicole Krämers Vortrag zeigt sich, dass bisherige Kommunikationspraktiken sich auch in der ästhetisch reduzierten Kommunikation mit und durch Maschinen sehr resilient fortwirken können.
Die Tagung wurde beschlossen von einem Vortrag von Rüdiger Rupp (Neurorehabilitation, Universitätsklinikum Heidelberg). In seinem Vortrag “Lokomotionsrobotik in der Neurorehabilitation” ging es darum, wie querschnittsgelähmte Menschen durch den Einsatz von Robotertechnik wieder das Laufen erlernen können. Resilienz entsteht durch die Maschinen nicht nur individuell, sondern auch gesellschaftlich, wenn sie auf die Resilienz von Rehabilitationseinrichtungen wirken, deren Mangel an Physiotherapeuten in der Zukunft verschärfen wird.
Auch wenn es die Vortragenden nicht explizit benannt haben – das Konzept der Resilienz spielte in jedem Vortrag eine Rolle. Liegt es am Thema “Kommunikation mit Maschinen”, das zu Resilienzbezügen auffordert oder ist Resilienz ein allgegenwärtiges Phänomen? Evolutionspsychologen würden behaupten, dass Resilienz der Selbsterhaltung dient und deswegen eine zentrale Fähigkeit lebender Systeme beschreibt. Aus den Vorträgen von Rupp, Kübler/Holz und Schwan lernen wir, dass Technik auf verschiedenartige Weise zu unserer Resilienz beitragen kann. Beim Eintreten in solche Mensch-Maschine-Systeme sollte uns jedoch bewusst sein, dass, obwohl es nötig sein könnte anders zu kommunizieren (Esposito), unsere kommunikative Grundausstattung uns daran hindern könnte zu erkennen, dass wir von Maschinen manipuliert werden. Verschiedene Resilienz-Mechanismen, die uns zunächst die Kommunikation mit Maschinen erleichtern, wurden angesprochen: die Illusion von Autonomie (Rammert), Körperlichkeit (Pint) und unser soziales Verhalten (Krämer). Schließlich zeigt Wiesings Beitrag, dass es sich auch lohnt zu untersuchen, wie Technik(en) selbst resilient gegenüber gesellschaftlichem Wandel werden können.
(Gerhild Nieding und Jörn Hurtienne gehörten zum Organisationsteam der Tagung)
AK Studie zum Thema Credit Scoring
Credit Scoring als “smarte” Diskriminierung im digitalen Kapitalismus [1]
Die Studie analysiert das Phänomen des Credit Scorings von Privatpersonen aus Sicht der Technikfolgenabschätzung. Neben den wesentlichen rechtlichen Rahmenbedingungen sowie einer Vorstellung der zentralen Stakeholder der Branche, erfolgt vor allem eine kritische Auseinandersetzung mit den Methoden des Scorings sowie den sich daraus ergebenden sozialen Implikationen. Den Abschluss bilden Handlungsempfehlungen zu einer sozialverträglichen Gestaltung des Technologie- und Politikfeldes.
Dabei lässt sich grundsätzlich sagen, dass die Verfahren des Scorings gerade durch die Digitalisierung im Zuge der letzten Jahre hinsichtlich ihrer Eingriffsintensität einen wesentlichen Wandel erfahren haben. Während die bonitätsbezogene Informationssammlung über Privatpersonen und die Kontrolle der VerbraucherInnen über sogenannte „Schwarze Listen“ bereits seit den 1960er Jahren existiert, geht das Verfahren des Credit Scorings in seiner Qualität über derartige Negativdatenbanken hinaus. Statt einer eindimensionalen Betrachtung der Zahlungsmoral erfolgt eine multidimensionale Analyse sämtlicher Lebensumstände einer Person. Ein Blick auf die internationale Scoringlandschaft zeigt hier bedenkliche Tendenzen. So werden die Scoring-Modelle zunehmend mit externen, mitunter auch datenschutzrechtlich sensiblen Informationen angereichert die in ihrem ursprünglichen Entstehungskontext nicht für die Bonitätsbewertung gedacht waren.
Diesen Entwicklungen steht eine weitgehende Unwissenheit der VerbraucherInnen um diese Verfahren gegenüber – aufmerksam wird man erst, wenn negative Aspekte offenbar werden. Während die kreditgebende Wirtschaft die Notwendigkeit des Credit Scoring als Teil des Risikomanagements begründet und versucht die Vorhersage der Zahlungsausfallwahrscheinlichkeit zu präzisieren, schlagen Daten- und KonsumentenschützerInnen Alarm und diagnostizieren einen unverhältnismäßigen Eingriff in die Selbstbestimmtheit des Privatlebens der VerbraucherInnen, welche in diesem Spiel als strukturell Schwächere der Dominanz des Kreditsystems ausgeliefert sind.
Dabei scheinen tiefgreifende Scoring-Verfahren zur Risikominimierung gerade dann unglaubwürdig, wenn Zahlungsausfälle der Schuldner ohnehin über (mehrere) zusätzliche Sicherheiten, wie Hypotheken oder Versicherungen einkalkuliert sind. Grundsätzlich nachvollziehbar ist, dass die Kreditvergabe nicht ohne weitere Sicherheiten und Begutachtungsverfahren ablaufen kann, und der Gläubiger den potentiellen Schuldner genauer unter die Lupe nehmen will, bevor Kredit gegeben wird. Zugleich darf jedoch nicht vergessen werden, dass Gläubiger ganz wesentlich von der Kreditvergabe profitieren und diese gerade bei Banken eigentlich zur Wert- und Geldschöpfung dient.
Die Verwendung von personenbezogenen Scoring-Verfahren zur Bonitätsbewertung ist ein interessenpolitisch stark umkämpftes Terrain. Dementsprechend schwierig ist es, zu konkreten Informationen bezüglich Mechanismen, Algorithmen und verwendeter Daten zu kommen. Während über das Scoring von Unternehmen Informationen verfügbar sind, ist der Bereich des Scorings von Privatpersonen und VerbraucherInnen nahezu tabu. Von Auskunfteien, Versicherungen und der kreditgebenden Wirtschaft werden diesbezüglich weder die verwendeten Variablen, noch die definierten Risikoklassen offengelegt. Für den einzelnen Betroffenen ist es mitunter sogar in der Hausbank nicht möglich, den eigenen Score zu erfahren. Während der konkrete Algorithmus des Scorings dem Betriebsgeheimnis unterliegt, ist die Informations- und Auskunftspflicht über andere Aspekte der personenbezogenen Bewertung jedoch sogar gesetzlich festgeschrieben. Aufgrund der bestehenden Intransparenz ist ein Dialog zwischen den Vertragspartnern in der Praxis oft nicht möglich. Auch die Rechtsansprüche auf Richtigstellung und Löschung der Daten versagen weitgehend.
Gerade aufgrund der Masse an Verbraucherkrediten sowie der rasanten Digitalisierung sämtlicher Lebensbereiche wäre eine verstärkte Problematisierung dieser Vorgänge angebracht. Die Verbreitung neuer Informations- und Kommunikationstechnologien hat die Erfassung, Archivierung und Analyse personenbezogener Daten zudem wesentlich erleichtert und in ihrer Qualität zugleich tiefer, weitreichender und subtiler gemacht. Letztlich ergeben sich daraus zahlreiche neue Möglichkeiten zur analytischen Vermessung von Sozialität.
Die digitale Spur in Form des individuellen Zahlungsverhaltens liefert einen detailreichen Einblick in den Alltag von VerbraucherInnen. Ob der aktuelle Arbeitgeber, die Höhe der Miete, oder die letzte Onlinebestellung ganz nach dem Motto „Zeige mir dein Zahlungsverhalten und ich sage dir wer du bist“ ist es der kreditgebenden Wirtschaft über derartige Datensammlungen möglich, ihrer KlientInnen zu analysieren und deren Glaubwürdigkeit und Zahlungsmoral zu werten. Mittels statistischer Prozesse werden ganze Bevölkerungssegmente kategorisiert und zu Gunsten der kreditgebenden Wirtschaft (aus)sortiert. Dabei entscheiden derartige Prozesse immer öfter darüber, ob und zu welchen Konditionen VerbraucherInnen überhaupt als Vertragspartner akzeptiert werden.
Doch den herangezogenen Informationen und Methoden mangelt es oft an Aktualität und unmittelbarem Bezug zum Zahlungsverhalten. Wie die Studie zeigt, kann die Vielschichtigkeit des Lebens durch die formale Methodik der Statistik bestenfalls annähernd, jedoch niemals vollkommen objektiv und wertfrei wiedergegeben werden. Wie bei jedem quantitativ-statistischen Verfahren, können im Zuge von Credit-Scoring-Prozessen diverse qualitative Besonderheiten der sozialen Wirklichkeit zwangsläufig nicht berücksichtigt werden. So kann die automationsunterstützte Kreditwürdigkeitsbewertung letztlich zu wirtschaftlicher Ungleichbehandlung und stereotyper Diskriminierung führen.
Eine adäquate Regulierung des Verbraucher-Scorings sollte daher jedenfalls die Transparenz gegenüber den Betroffenen sichern. Zudem ist über konkretere Schranken für die Anwendung derartiger Verfahren sowie die dabei verwendeten Datenarten nachzudenken. So sollte Arbeitgebern oder Vermietern jedenfalls untersagt sein, bei ihren Entscheidungen auf Scoring-Verfahren zurückzugreifen. Auch die Anwendung unterhalb einer zu bestimmenden Bagatellgrenze dient der Eingrenzung ausufernden Datensammelns und Überwachens. Letztlich geht es in der Regulierung des Scorings aber auch um die praktische Durchsetzbarkeit bereits existierender Rechtsansprüche.
[1] Studie: Rothmann, Robert; Sterbik-Lamina, Jaro; Peissl, Walter (2014): “Credit Scoring in Österreich”; Institut für Technikfolgen-Abschätzung der Österreichischen Akademie der Wissenschaften (ITA/ÖAW); Studie im Auftrag der Bundesarbeiterkammer (AK Wien); ITA-Projektbericht Nr.: A66. ISSN: 1819-1320 | ISSN-Online: 1818-6556. pdf
Siehe auch: science.apa.at
SdK 75: Sebastian Vehlken über Computersimulation
Computerbasierte Simulationsmodelle haben einige Wissenschaften, wie die Atomphysik oder die Biologie, in den letzten Jahrzehnten maßgeblich verändert. Denn Forschung basiert nun nicht mehr nur auf den erprobten Verfahren von Theorie und Experiment, sondern versucht, Zukunft quantifizierbar zu machen – etwa zur Berechnung eines Restrisikos. Der Medienwissenschaftler Sebastian Vehlken arbeitet zur Theorie und Geschichte der Computersimulation und beschäftigt sich mit Schwarmforschung und Supercomputing. Er erklärt, welche Rolle Hollywood und Batman bei der Entwicklung von Simulationsmodellen spielte und warum Computersimulationen häufig Katastrophen imaginieren.
Linkliste: Sebastian Vehlken (IFK, Leuphana Universität Lüneburg), DFG-Kollegforschergruppe Medienkulturen der Computersimulation, Dissertation: Zootechnologien. Eine Mediengeschichte der Schwarmforschung, Emergenz (Wikipedia), Bionik (Wikipedia), Manhattan-Projekt (Wikipedia), Norbert Wiener (Wikipedia), Stafford Beer (Wikipedia), Viktor Mayer-Schönberger: Freiheit und Vorhersage – Über die ethischen Grenzen von Big Data, Wunderland Kalkar, Google Flu Trends (Wikipedia), Bruno Latour (Wikipedia), Eyjafjallajökull (Wikipedia)
SdK 75: Sebastian Vehlken über Computersimulation
Workshop Offene Kulturdaten beim Open Knowledge Festival
Von Helene Hahn, Open Knowledge Foundation Deutschland e.V.
Die weltweite Open Knowledge Community trifft sich dieses Jahr beim Open Knowledge Festivals vom 15-17. Juli 2014 in der Kulturbrauerei, Berlin! Diskutiert mit uns zu Themen rund um Transparenz, Beteiligung und offenes Wissen.
Diesen Termin sollte man sich merken:
Am 15. Juli von 09.30-13.00 Uhr findet in Kooperation mit der OpenGLAM Initiative, dem DM2E Projekt, der Open Knowledge Foundation Deutschland und Wikimedia Deutschland ein Workshop zu offenen Kulturdaten statt.
Während des Workshops stellen sich verschiedene Projekte aus Deutschland vor, die bereits mit offenen Kulturdaten arbeiten wie Wikidata, die Deutsche Digitale Bibliothek und Coding da Vinci, der Kultur-Hackathon. Gemeinsam mit internationalen OpenGLAM-Aktiven und Kulturinstitutionen diskutieren wir über die Möglichkeiten und Schwierigkeiten bei der Öffnung von Kulturdaten und darüber, wie man diese Hindernisse überwinden kann.
Angelehnt an erfolgreiche OpenGLAM-Initiativen aus der Schweiz und aus Finnland, die über ihre Erfahrungen bei der Datenöffnung im Kulturbereich berichten werden, wollen wir gemeinsam mit Euch eine OpenGLAM-Arbeitsgruppe in Deutschland gründen.
Alle Interessierten, bereits Aktive und Vertreter von Kulturinstitutionen sind herzlich eingeladen, den Workshop und die OpenGLAM-Arbeitsgruppe mitzugestalten.
Die Teilnahme ist kostenlos. Wir bitten um eine vorherige Registrierung.
Veranstaltungsort: Wikimedia Deutschland, Tempelhofer Ufer 23-24, 10963 Berlin
Weitere Infos: http://okfn.de/openglam/
Quelle: http://dhd-blog.org/?p=3741
DH Leipzig stellt Fragmentary Texts Editor in Perseids vor
Das Projekt Perseus zur Edition und Annotation klassischer Dokumente, an dem der Alexander von Humboldt-Lehrstuhl für Digital Humanities am Leipziger Insitut für Informatik beteiligt ist, hat in seine kollaborative Arbeitsoberfläche Perseids jetzt einen “Fragmentary Texts Editor” integriert, der die Annotation von Zitaten und Wiederverwendung von Texten durch Autoren ermöglicht. Nähere Informationen hier.
Quelle: http://dhd-blog.org/?p=3730
Snapchat und das fotografische Gedächtnis des Internets
Speichergedächtnis Archiv und gesellschaftliches Funktionsgedächtnis verhalten sich zueinander wie Fotografie und Malerei. Mit dem Internet wird der gesamte Alltag archiviert, worauf die Kultur mit Gerichtsurteilen antwortet, die das Vergessen sichern sollen, und auch mit Vergessenstechnologien wie Snapchat. Die List der Technik liegt darin, dass diese Ephemeralisierung der Kommunikation im Grunde der Aggregation weiterer, fotografischer Daten dient.
Platos Theuth & Thamus
Erinnern und Vergessen ist immer auch eine Frage der erreichten Medienentwicklung. Als einst der ägyptische Gott Theuth König Thamus die Schrift schenken wollte, lehnte dieser ab, weil die Menschen das Erinnern verlernen würden, wenn sie alles aufschreiben können. So steht es in Platons Phaidros-Dialog. Die Erfindung der Schrift ist die erste Zäsur im Wechselverhältnis Medien und Gedächtnis, denn nun ist dieses nicht mehr an Erinnerung gebunden und Speichern keine Frage der mündlichen Überlieferung mehr. Während in oralen Kulturen Rhapsoden und Priester bestimmten, wie das Vergangene erzählt wird, stärkte die schriftliche Überlieferung die Position des Vergangenen in der Gegenwart.
Malerei vs. Fotografie
Aber nur zu den Bedingungen der Lebenden. Denn das situations- und personenunabhängig Gespeicherte muss immer noch in konkreten Situationen aufgegriffen und kommuniziert werden. Die Wortführer und Wortkontrolleure lassen nur das ins kulturelle Gedächtnis der Gegenwart aufsteigen, was dem aktuell politisch gewünschten Entwurf der Vergangenheit entspricht. Die selektive Mobilisierung des Gespeicherten verwandelt das “passionslose Archiv” in einen “emphatischen Gedächtnisort” kollektiver Sinnstiftung, wie es Archiv-Theoretiker Wolfgang Ernst formuliert.1 Diese Perspektive lässt sich weiter treiben: Das Speichergedächtnis Archiv verhält sich zum Funktionsgedächtnis des aktuell Erinnerten wie die Fotografie zur Malerei. Denn während jene alles aufnimmt, was sich vor dem Apparat befindet, zeigt diese nur das (und nur so), was (und wie es) durch den Kopf des Malers ging. So entspricht für Siegfried Krakauer der räumliche Inventarismus der Fotografie – als “kahle Selbstanzeige der Raum- und Zeitbestände” – dem zeitlichen des Historismus.2 Jean Baudrillard dramatisiert diese Opposition, wenn er die Fotografie als Bericht “vom Zustand der Welt in unserer Abwesenheit” bestimmt und darin einen Widerstreit zwischen der Philosophie des Subjekts und der Antiphilosophie des Objekts ausmacht: als “Kampf zwischen dem Willen des Subjekts, eine Ordnung, eine Sicht, durchzusetzen, und dem Willen des Objekts, sich in seiner Diskontinuität und seiner Augenblicklichkeit durchzusetzen” – als “aleatorische Abfolge von partiellen Objekten und Details”.3
Herkömmliches Archivieren
Diesem Willen der Objekte gehorcht der Archivar, dessen Passion das Aufbewahren mit Registraturfokus ist. Sein Ordnungssinn zielt auf die Kategorisierung und Auffindbarkeit des Materials, nicht auf eine Sinn gebende Geschichte, in der die verschiedenen Daten den Platz eines Beweises erhalten. Das gilt vor allem, wenn die Aufbewahrung nach dem Provenienzprinzip organisiert wird, Objekte also in ihrem Herkunftsbezug verbleiben. Aber selbst im Zeichen des im 19. Jahrhunderts üblichen Pertinenzprinzips, das nach Sachbegriffen ordnet, wussten Archivare: Für Sinn gebende Geschichten müssen zu viele Daten zurechtgerückt oder unterdrückt werden. Archivare sind keine Erzähler: aus Respekt vor dem Material. Allerdings findet die neutrale Materialbesessenheit des Archivars ihre Grenzen in der räumlichen Beschränkung des Archivs und den Vorgaben der Politik. Man kann und will gar nicht die ganze Welt archivieren. Das Vergessen, strategisch oder nicht, beginnt mit dem Wegwerfen, das wiederum damit beginnt, dass etwas gar nicht erst aufgehoben wird. Es wird begutachtet schon, was überhaupt auf die Festplatte kommt. Das Archiv ist keine Fotografie der Welt. Es sei denn, die Welt selbst findet in einem Archiv statt. Genau das aber ist zunehmend der Fall.
Wir und das Netzgedächtnis
Alles was digital präsent ist, ist zugleich aufbewahrt. Dies ist die Weisheit des Internets. Es gibt kein Vergessen, außer man erzwingt es beim EuGH.4 Aber auch in diesem Falle wird nicht die Information aus dem Archiv gelöscht, sondern der dekontextualisierte Zugriff per Suchmaschine unterbunden. Der Gerichtsbeschluss garantiert nicht das Vergessen, er attackiert nur die Reduktion des Erinnerns auf die Logik der Fahndung.
Der Nachteil des Internet für das Leben des einzelnen ist gut bekannt. Man entkommt seiner Vergangenheit nicht, wenn unüberlegte Kommentare aus tiefer Nacht noch Jahre später Bewerbungsgespräche beeinflussen. Auf diese Situation gibt es drei Antworten:
- Man rettet das Grundrecht auf Vergangenheit (also auf Vergessen und Vergebung) durch pragmatische, letztlich aber halbherzige Gerichtsurteile.
- Man nimmt sich die Worte des vormaligen Google-CEO Eric Schmidt zu Herzen: “Wenn es Dinge gibt, von denen Sie nicht wollen, dass irgendjemand etwas darüber erfährt, dann sollten Sie so etwas nicht tun.”5 In diesem Falle siegt die Technik über die Kultur, wird die Unerbittlichkeit des Archivs zur moralischen Anstalt; das Unvergehen der Gegenwart ändert das Verhalten in der Zukunft.
- Die Kultur diszipliniert die Technik, und zwar durch mehr Technik. Stichworte dafür sind der “digitale Radiergummi”, ein Verfallsdatum für digitale Daten oder eben eine Ephemeralisierungstechnologie wie Snapchat.
Archiv perfekt?
Mit Snapchat zeigt sich allerdings zugleich die List der Technik, noch die Technologien des Vergessens für die Perfektionierung des Erinnerns zu nutzen. Denn die Oralisierung schriftlicher und visueller Kommunikation durch den eingeschriebenen Verflüchtigungsmodus verführt nicht nur dazu, gewagter zu kommunizieren (Stichwort Sexting), sie überführt auch Kommunikation in nonverbale, visuelle Form: Man schreibt nicht, wie es einem geht, man schickt ein Foto von sich vor dem Fernseher, mit einem Drink in der Hand, die Füße auf dem Tisch. Dies setzt die Fotografie (die indexikalische Abbildung) über die Malerei (die subjektive Beschreibung) und akkumuliert zusätzlich Information: Denn das Foto einer Handtasche, die man gern kaufen würde, liefert, anders als die Textnachricht, auch die Metadaten Zeit und Ort. Insofern Snapchats Snapshots sich nur für die Nutzer auflösen, auf dem Server aber gesammelt werden, entsteht eine immense Menge an Archivmaterial über das Alltagsleben unserer Zeit. Die Hüter dieses Archivs sind zunächst die Technologieprovider (Snapchat) und schließlich all jene, die auf dem entstehenden Big Data Markt eine Kopie des Archivs erwerben. Die neuen Archivare sind die Algorithmen, die das Material genau jener automatischen Analyse unterziehen, die der Europäische Gerichtshof in seinem Suchmaschinen-Urteil einschränkt. Die Algorithmen analysieren präzise und passionslos die “kahlen Selbstanzeigen der Raum- und Zeitbestände” in den Fotos der Snapchatter. Das perfekte Archiv, wenn man es so will.
Literaturhinweise
- Ernst, Wolfgang: Das Archiv als Gedächtnisort. In: Ebeling, Knut / Günzel, Stephan (Hrsg.): Archivologie. Theorien des Archivs in Theorie, Medien und Künsten, Berlin 2009, S. 177-200.
- Baudrillard, Jean: Photographies 1985-1998 (hrsg. v. Peter Weibel), Ostfildern-Ruit 2000.
- Mayer-Schönberger, Victor: Delete. Die Tugend des Vergessens in digitalen Zeiten, Berlin 2010.
Externe Links
- Urteil des Europäischen Gerichtshof zur Linkkappungspflicht von Suchmaschinen am 13. Mai 2014: http://curia.europa.eu/jcms/upload/docs/application/pdf/2014-05/cp140070de.pdf (zuletzt am 1.7.2014)
- Startseite von Snapchat, Inc.: https://www.snapchat.com (zuletzt am 2.7.2014)
- Wikipedia-Artikel zu “Snapchat”: https://de.wikipedia.org/wiki/Snapchat (zuletzt am 2.7.2014)
Twittern
Abbildungsnachweis
© Stefan Emilius / pixelio.de
Empfohlene Zitierweise
Simanowski, Roberto: Snapchat und das fotografische Gedächtnis des Internet. In: Public History Weekly 2 (2014) 24, DOI: dx.doi.org/10.1515/phw-2014-2241.
Copyright (c) 2014 by De Gruyter Oldenbourg and the author, all rights reserved. This work may be copied and redistributed for non-commercial, educational purposes, if permission is granted by the author and usage right holders. For permission please contact: julia.schreiner (at) degruyter.com.
The post Snapchat und das fotografische Gedächtnis des Internets appeared first on Public History Weekly.
Universität und Twitter: Gezwitscher in der Lehre?
Immer wieder lese ich in Portraits von ProfessorInnen, wenn Besonderheiten in deren Lehre herausgestellt werden sollen, dass sie in ihrer Lehre auch Twitter einsetzen. Leider wird diese Anmerkung in der Regel nicht weiter vertieft, und ich habe ich oft gefragt, wie man auf 140 Zeichen begrenztes Microblogging sinnvoll in der Hochschullehre einsetzen kann.
In anderem Kontext – es ging in diesem Fall um eine Tagung – wurde ich auf die Twitterwall aufmerksam. Ich könnte mir vorstellen, dass sich die sinnvoll in der Lehre nutzen lässt. (Für alle, die sich – wie ich vor Kurzem noch – unter diesem Begriff nichts vorstellen können, sei zur kurzen Einführung auf einen Beitrag von Ulrike Langer verwiesen: “Gezwitscher auf Events” )
Einführende Sitzungen bei Seminaren und Übungen gestalte ich oft als Frontalunterricht, um die teilnehmenden Studierenden auf einen gleichmäßigen einheitlichen Wissenstand zu bringen. Diese Art des Unterrichts mag zwar effektiv sein, ist aber wenig interaktiv – und auch gelegentliches Fragen in die Runde bringt meist nur wenige Wortmeldungen, wenn überhaupt. Eine Twitterwall scheint mir hier eine gute Möglichkeit, die Studierenden einzubinden.
Eine Twitterwall mit Fragen und Kommentaren aus dem Auditorium parallel zur eigenen Vortragspräsentation anzuzeigen, wäre sicherlich sowohl für mich als auch für die Studierenden spannend, jedoch sind die meisten Unterrichtsräume mit nur einem Beamer ausgestattet und sind daher dafür nicht ausgelegt. Ein wirklich spontanes und zeitnahes Reagieren auf getwitterte Fragen und Anmerkungen ist damit also nicht möglich. Doch eine Twitterwall zu einer Veranstaltung könnte in regelmäßigen zeitlichen Abständen, oder beim Erreichen inhaltlicher Absätze, statt der Vortragspräsentation angezeigt werden, und die dort gestellten Fragen der Studierenden könnten besprochen werden. Vielleicht führt diese Möglichkeit, sich aktiv einzubringen, zu einer höheren Aufmerksamkeit im Auditorium? Und wie viele Fragen werden von den Studierenden auf diesem Weg wohl kommen? Handys und Smartphones haben die Studierenden in der Regel ohnehin immer in Griffweite.
Im kommenden Semester werde ich das in einer meiner Veranstaltungen einmal ausprobieren.
Kleine Kabinettausstellung: „Das Verbrechen von Sarajevo“ – Öffentliche Wahrnehmungen des Attentats auf Erzherzog Franz Ferdinand am 28.6.1914
1. Juli bis 30. Oktober 2014
In der Reihe „kOSTproben“
Wie „das Verbrechen von Sarajevo“ (Reichspost, Wien, 29.6.1914) in den Tagen des Attentats und in den darauf folgenden Wochen wahrgenommen wurde und in welcher Weise sich der kommende Krieg für die europäischen Öffentlichkeiten abzuzeichnen begann, lässt sich anhand von Zeitungen sowie anderen Druckerzeugnissen unterschiedlicher politischer und geografischer Provenienz gut erkennen.
Die Bayerische Staatsbibliothek bietet hierfür auf der Basis einer der größten zeitgenössischen Weltkriegssammlungen im deutschen Raum einen reichhaltigen Fundus, aus dem sich die vorliegende kleine Kabinettausstellung der Osteuropaabteilung in Zusammenarbeit mit dem Institut für Ost- und Südosteuropaforschung (Regensburg) speist.
Bayerische Staatsbibliothek, Eingangsbereich des Ostlesesaals (3. OG)
Öffnungszeiten:
Montag bis Freitag 9 – 17 Uhr
August 9 – 12.30 Uhr
An Feiertagen geschlossen
Eintritt frei
Welch weltweite dramatische Folgen die Ermordung des habsburgischen Erzherzogs und Thronfolgers Franz Ferdinand und seiner Gattin Sophie Chotek nach sich ziehen sollte, ahnte im Frühsommer des Jahres 1914 kaum jemand. Allerdings rechneten zeitgenössische Beobachter doch mit gravierenden Konsequenzen. Der bayerische Gesandte etwa schrieb am 30. Juni aus Wien, dass sich nun schwerwiegende Fehler in der Außen- und Innenpolitik rächen würden; die Weiterentwicklung der Zustände im Innern der österreichisch-ungarischen Monarchie bezeichnete er gar als unberechenbar.
Die Schüsse von Sarajevo setzten bekanntlich eine folgenschwere Kettenreaktion in Gang, die im Blutbad des Ersten Weltkrieges, der „Urkatastrophe des 20. Jahrhunderts“ endete. Damit läutete das in Sarajevo verübte Attentat vom 28. Juni 1914 eine Zeitenwende ein, in deren Folge es zur Auflösung dreier multinationaler Imperien – Österreich-Ungarn, Osmanisches Reich, Zarenreich – und zum Ende der Herrschaft vier traditionsreicher Dynastien (Habsburger, Hohenzoller, Osmanen, Romanovs) kam. Dies konnten die Zeitgenossen in den ersten Stunden und Tagen nach den Schüssen nicht ahnen, wiewohl die aufkommende Julikrise das vorhandene Konfliktpotential aufgrund der divergierenden geopolitischen Vorstellungen der Großmächte offen legte. Nach und nach wurde ein großer europäischer Krieg als Folge der Zuspitzung des Konflikts zwischen Österreich-Ungarn und Serbien von immer mehr Akteuren und Beobachtern als reale Möglichkeit erachtet.
In dieser spannungsreichen Phase nahm die internationale Presse das Attentat von Sarajevo und dessen mögliche Bedeutung für die weitere Gesamtentwicklung in Europa ganz unterschiedlich wahr. Dabei spielte das Massenmedium Zeitung selbst in der politischen Agitation eine wichtige Rolle. Die Verlautbarungen waren sowohl ein Indikator für die öffentliche Meinung als auch für offiziöse wie offizielle Anschauungen und Intentionen. Gleichzeitig waren die Presseorgane gefordert, komplexe Sachverhalte und Bündnissysteme der Leserschaft verständlich zu machen. Dabei bedienten sie sich zusehends einfach gestrickter Freund-Feind-Schemata und griffen mit der eskalierenden Julikrise verstärkt auf bereits bestehende Stereotype und Feindbilder zurück. Ein prägnantes Beispiel hierfür sind die von Teilen der deutschen Presse befeuerten Ängste bezüglich einer „slawischen Gefahr“ aus dem Osten, gegen die man in einer um sich greifenden Propagandaschlacht zu Felde zog.
In der Kabinettausstellung sind 15 Titelseiten von europäischen Zeitungen zwischen dem Attentat von Sarajevo und der Kriegserklärung Österreich-Ungarns an Serbien zu sehen. In zwei Vitrinen sind zudem folgende Stücke ausgestellt.
Quelle: http://ostbib.hypotheses.org/435