Workshop 2 : Methoden auf der Testbank. Drei Zugänge im Vergleich #digigw18_2

NetzwerkAusschreibung des zweiten Workshops im Rahmen der Reihe „Digitale Lehrmethoden und digitale Methoden in der Geschichtswissenschaft: Neue Ansätze für die Lehre“ der AG Digitale Geschichtswissenschaft im VHD:

Methoden auf der Testbank. Drei Zugänge zur Hexenforschung im Vergleich

Ein Workshop von Dr. Katrin Moeller, Andreas Müller M.A., Dr. Anne Purschwitz (Martin-Luther-Universität Halle-Wittenberg)

Datum: Freitag, 13. April 2018, 9:00-16:00 Uhr
Ort: Computerpool des Instituts für Geschichte, SR 15 (Geisteswissenschaftliche Bibliothek), Emil-Abderhalden-Str. 25, 06108 Halle/Saale
 Anmeldung zur Veranstaltung: Katrin Moeller (katrin.

[...]

Quelle: https://digigw.hypotheses.org/1751

Weiterlesen

Raketenstart 2016: Der Jahresbericht

Mit der Energie eines Raketentriebwerks drang der Arbeitskreis 2016 in viele Arbeitsfelder vor. Diese Anfänge lassen auf eine nachhaltige, aktive Zukunft hoffen. (Abb. Auszug Screenshot, Civilization 6 PC, Nolden)

Wenn man nicht mehr weiter weiß…

In aller Munde ist zurzeit, wie fürchterlich doch das Jahr 2016 gewesen sei. Wer die außenpolitischen Krisen beobachtet, schwelende Kriege und Konflikte oder die Schärfe religiös und politischer motivierter Gewalt, der kommt nicht umhin, aus den Erfahrungen von 2016 wenig erfreut nach 2017 zu blicken. Auch im akademischen Bereichgibt es große Probleme, insbesondere für den wissenschaftlichen Nachwuchs. Ist die Stellenlage grundsätzlich schon desolat, (be)fristen Wissenschaftlerinnen und Wissenschafler in den meisten Fällen ihr Dasein auf Stellen, die nur selten langfristige Perspektiven bieten. Diese Struktur ist nicht nur für die persönliche Lebensplanung bedauerlich.

[...]

Quelle: http://gespielt.hypotheses.org/1068

Weiterlesen

Wenn die Interviewpartnerin weint

Als Kulturantropolog_innen werden wir im Feld mit einer Vielfalt an Emotionen und Reaktionen konfrontiert. Besonders wenn Interviews zu emotional belasteten Themen geführt werden, können die Forschenden gemeinsam mit ihren Gepsrächspartner_innen ein sprichwörtliches „Wechselbad der…

Quelle: https://frask.hypotheses.org/125

Weiterlesen

Workshop Review: Practices and Context in Contemporary Annotation Activities

Annotationen sind zur Zeit eines der am intensivsten beforschten Themen im Kontext von E-Science und Digital Humanities. Vor gerade einmal zwei Jahren veröffentlichte die W3C Open Annotation Community Group ihren finalen Entwurf zur formalen Bestimmung dessen, was eine Annotation informationswissenschaftlich sein soll. Auf der anderen Seite haben fast alle großen europäischen Infrastrukturprojekte wie DARIAH, CLARIN, DASISH oder auch EUDAT das Thema Annotationen in der einen oder anderen Form in ihren Arbeitsplan aufgenommen. Etablierten Projekten wie dem Annotator der Open Knowledge Foundation oder dem CATMA-Projekt wird eine unvermindert anhaltende Aufmerksamkeit geschenkt. So bildet der Annotator einen zentralen Use-Case in der aktuellen W3C Web Annotation Working Group und ist technischer Ausgangspunkt für das von der Mellon Foundation geförderte hypothes.is-Projekt gewesen.

Zweifelsohne ist das Interesse an Annotationen im Kontext der Etablierung computergestützter Forschung stark gewachsen. Die „Entmaterialisierung“ von Annotationen – also die Tatsache, dass sie in einer digitalen Umgebung unabhängig vom Objekt, das sie annotieren, gespeichert und verwendet werden können – hat neue Anwendungs- und Verwertungsmöglichkeiten für Annotationen geschaffen, die noch lange nicht ausgeschöpft und hinreichend evaluiert sind. Crowdsourcing wie im vielbeachteten Transcribe Bentham-Projekt, Annotationen als primärer Forschungsoutput wie im Pelagios-Projekt oder als Mittel der formalen Datenintegration zur Automatisierung von Interferenzprozessen, wie am Beispiel der SWAN-Ontologie in den Neurowissenschaften zu sehen, sind nur einige wenige dieser Perspektiven.

[...]

Quelle: http://dhd-blog.org/?p=6371

Weiterlesen

durchsichten: Übung zu speziellen Methoden und Theorien. Vergleichende und transnationale Geschichte

http://www.eug.ruhr-uni-bochum.de/lehre/uesmt_vergleichende_transnationale_geschichte.html Transnationale Geschichte ist seit Jahren en vogue. Gleichwohl ist der Begriff schillernd, und es ist keineswegs klar, was genau sich dahinter verbirgt. Ein Minimalkonsens besteht lediglich darin, dass es sich um eine Art der Geschichtsbetrachtung handelt, die in irgendeiner Form über nationalstaatliche Grenzen hinausgeht. Entsprechend heterogen ist das Forschungsfeld und groß die Themenvielfalt. Gemeinsam […]

Quelle: http://www.einsichten-online.de/2015/10/6206/

Weiterlesen

Digital ist besser für euch?! – Historische Bildungsarbeit mit Actionbound


Manchmal denk ich wie es wäre
wenn es nicht so wär
Ich wär wohl anders und
vielleicht wär ich auch glücklicher
Tocotronic: Digital ist besser (1995)

Digital ist besser für mich (ohne Fragezeichen!) hieß es bei Tocotronic schon 19951. Und auch wenn Dirk von Lotzow wohl weniger die digitale Revolution der 2000er mit der massenhaften Verbreitung des Internets, Smartphones und vernetzten Kühlschränken im Sinn hatte, so lohnt es sich doch, die von ihm in den obigen Zeilen geäußerten Zweifel einen Moment lang auf die eigene (Bildungs-)Arbeit zu übertragen. Wäre es denn möglich, in der historisch-politischen Bildung weiterhin nur mit Stift und Papier zu arbeiten? Was wäre, wenn ich mich dem Wunsch nach vermeintlicher „Alltagsnähe“ zu den jugendlichen Teilnehmenden verweigern würde? Vermutlich werden viele diese Momente kennen, gerade wenn technische Schwierigkeiten oder auch ein grundlegender Mangel in der Ausstattung, die Qualität der inhaltlichen Arbeit zu überdecken drohen. Dann überlegen wir wohl, wie es wäre/wenn es nicht so wär. Und ob wir nicht vielleicht auch glücklicher (oder zumindest weniger gestresst) wären.



[...]

Quelle: http://gedenkpaed.hypotheses.org/14

Weiterlesen

Fünf Herausforderungen digitaler Methoden, oder: Ranke re-visited: digital herausfinden, „wie es eigentlich gewesen“?

tagcrowdNachdem wir uns in der Einleitung mit Methoden generell auseinandergesetzt haben, geht es weiter mit den digitalen Methoden und den Herausforderungen, vor die sie die Geschichtsschreibung stellen. Rieder und Röhle1 zählen in ihrem grundlegenden Beitrag fünf Herausforderungen auf, von denen drei hier näher vorgestellt werden:

1. Die Verlockung der Objektivität

Die erste Herausforderung besteht laut den Autoren darin, dass durch den Einsatz von „unbestechlichen“ Maschinen und Computern Forschungsergebnisse aus dem Bereich der Digital Humanities „objektiv“ erscheinen können. Das ist konträr dazu, dass die Geisteswissenschaften Disziplinen sind, in denen es um interpretatives Wissen und weniger um verifizierbares Wissen geht. Es könnte die Versuchung entstehen, ähnlich wie in den Naturwissenschaften zu objektivierbaren Ergebnissen kommen zu wollen, womit an den Wunsch nach „Wahrheit“ aus dem 19. Jahrhundert anknüpft wird. Die Gefahr besteht darin, im Anschluss an Ranke digital herausfinden zu wollen, „wie es eigentlich gewesen“.

Dabei handelt es sich freilich um ein Missverständnis, das darauf begründet ist, dass Maschinen manche Aufgaben schneller und genauer erfüllen können als Menschen. So entsteht die Vorstellung, dass Computer „wahre“ Ergebnisse liefern, die epistemologisch auf einem höheren Status stehen als eine von Forschenden erstellte Interpretation. So wird leicht vergessen, dass die Genauigkeit der Fragestellung, die Modelle und Vorannahmen, die der Forschung zugrunde liegen, menschlich gemacht sind und damit interpretiert und subjektiv.

Rieder/Röhle weisen darauf hin, dass uns die Faszination für die Objektivität des Computers nicht davon abhalten sollte, Werkzeuge und Software genau zu analysieren und die ihnen zugrunde liegenden Entscheidungen freizulegen. Die Forschung ist darauf angewiesen, dass Vorannahmen, Algorithmen und Modelle als methodische Grundlagen für ein Projekt oder eine Fragestellung transparent gemacht werden.

2. Die Macht des visuellen Beweises

Viele DH-Werkzeuge produzieren ein visuelles Ergebnis, z.B. Netzwerkanalysen, Zeitleisten, angereicherte Karten. Diese haben zumeist auch ästhetische Qualitäten, die sie zu mächtigen argumentativen Werkzeugen machen. Wie kann man diese rhetorischen Qualitäten von Abbildungen und Visualisierungen und ihre argumentative Macht kritisch hinterfragen?

Rieder und Röhle weisen darauf hin, dass Visualisierungen manche Aspekte eines Phänomens sichtbarer machen als textliche Darstellungen, da sie eine reduzierte Repräsentation der beobachteten Wirklichkeit sind. Die Reduzierung entspricht einem Bedarf, Informationen und Dimensionen zu verkleinern, so dass sie überhaupt abbildbar werden, zum Teil in Abhängigkeit von graphischen Bedingungen wie Bildschirmgröße, Auflösung etc. Manchmal sind es technische Bedingungen, die zu einer Reduktion führen, manchmal wird aber auch manipuliert, was in keinem Bereich mittlerweile so offensichtlich sein dürfte wie bei Bildern (Stichwort Photoshop).

Manche Informationen werden in Visualisierungen ganz weggelassen: Durch die Reduzierungen und Auslassungen werden einige Interpretationen und Schlussfolgerungen plausibler als andere. Denn Visualisierungen können trotz der Reduzierung ein sehr großes argumentatives Gewicht haben. Darin liegt ein zweiter Grund für ihre Autorität. Numerische und visuelle Darstellungen werden viel einfacher als Beweis akzeptiert als Text, der eher als argumentativ wahrgenommen wird. Das hängt mit der Produktion des Arguments zusammen. Während man ein textbasiertes Argument recht schnell in sein Gegenteil umwandeln kann – und sei es nur als advocatus diaboli – ist das bei Statistiken, bei Visualisierungen nicht möglich. Quantitative Ergebnisse können nicht umgedreht werden. Man kann ihre Erhebung anzweifeln und man kann sie gegebenenfalls auch unterschiedlich interpretieren. Aber ihre reine Darstellung gilt als Fakt. Sie überrumpeln die Forschenden gleichsam, die Visulisierungen damit weniger hinterfragen oder deren inhärenten Erklärungen kritisch reflektieren.

worditoutAls Ausweg aus diesem Dilemma schlagen Rieder und Röhle nach Bettina Heintz2 eine prozessbasierte Herangehensweise an wissenschaftliche Bilder vor: Man solle sie als momentanen Ausdruck eines fortlaufenden Prozesses präsentieren, der noch weiterläuft. Dadurch würde der methodische Fokus auf die Phase vor Schaffung des Bildes gelenkt und damit auf die Entscheidungen und Reduktionen, die während der Produktion stattgefunden haben. Ebenso wird die Phase nach der Präsentation deutlich: die Notwendigkeit, die Ergebnisse zu interpretieren, zu vergleichen, Fragen zu stellen über Gültigkeit, Generalisierbarkeit und vor allem über die Bedeutung der Visualisierungen. Dies ist freilich nicht unumstritten, da ein Bild nach anderer Meinung eher zum Nachdenken über den Inhalt als über Grafik-Design oder Methodik anregen soll.

3. Blackboxing

Die dritte Herausforderung betrifft die technologische Untermauerung und wie sich die Geisteswissenschaftler dazu stellen. Indem digitale Methoden geschaffen werden, werden heuristische Prozesse mechanisiert, wobei methodologische Überlegungen in technische Form gegossen werden. Inhalte werden formalisiert in Datenstrukturen, Algorithmen, Arten der Darstellung und Möglichkeiten der Interaktion. Diese sind nicht unbedingt immer transparent oder verstehbar. Transparenz bedeutet in diesem Zusammenhang die Möglichkeit, die Methode nachvollziehen zu können: wie sie funktioniert, auf welchen Vorüberlegungen sie beruht, sie reproduzieren zu können und sie kritisieren zu können. Es gelte daher, die Labor-Blackbox offen zu legen: den Code der digitalen Werkzeuge zu veröffentlichen, „code literacy“ zu lehren und zu lernen, um den Code lesen und verstehen zu können – womit wir wieder bei der Frage sind, ob HIstoriker programmieren können müssen. Dennoch bleibt dann, so Rieder und Röhle, immer noch ein Teil an Ergebnissen bleibe, der mit statistischen Konzepten nicht zu verstehen sei. Als Beispiel nennen Rieder und Röhle, dass zwei verschiedene Visualisierungsprogramme zu unterschiedlichen Ergebnissen gelangen, da sie nicht unbedingt dieselben Verbindungen in einem Netzwerk prominent darstellen.

Im Seminar probieren wir das auf einer unteren Eben aus, indem wir den Ankündigungstext des Methodenkurses in zwei unterschiedlichen Wordcloud-Tools darstellen lassen und anschließend diskutieren. Die Ergebnisse sind hier abgebildet und sie zeigen, wie verschieden die Clouds tatsächlich wirken, zumal das erst Tool über die Spracheinstellung automatisiert Stoppwörter wie “der”, “die”, “das” rausfiltert, die zweite nicht3.

Der Vollständigkeit halber seien auch die zwei weiteren von Rieder und Röhle genannten Herausforderungen aufgezählt, ohne diese hier weiter auszuführen:

4.) Institutionelle Störungen: Auswirkungen auf die Forschungslandschaft

5.) Streben nach Universalismus kommt zurück

Zusammenfassend plädieren Rieder und Röhle dafür, einen neuen Methodenstreit zu vermeiden. Stattdessen sollten Wissenschaftlerinnen, die digitale Methoden verwenden, ihre methodische Entscheidungen explizit und transparent machen, etwa in projektbegleitenden Websites.

________

Abbildungen

Wordcloud 1 mit TagCrowd.com erstellt (mit Spracheinstellung)

Wordcloud 2 mit WordItOut erstellt (ohne Spracheinstellung)

Literatur

Rieder, Bernhard, Röhle, Theo: Digital Methods: Five Challenges, in: David M. Berry (Hg.), Understanding Digital Humanities, Houndmills 2012, S. 67-84.

Alves, Daniel: Introduction, in: Digital Methods and Tools for Historical Research: A Special Issue. International Journal of Humanities and Arts Computing, Bd. 8, Heft 1 (April 2014). [Paywall: http://www.euppublishing.com/toc/ijhac/8/1]

  1. Rieder, Bernhard, Röhle, Theo: Digital Methods: Five Challenges, in: David M. Berry (Hg.), Understanding Digital Humanities, Houndmills 2012, S. 67-84.
  2. Bettina Heintz, Zahlen, Wissen, Objektivität: Wissenschaftssoziologische Perspektiven, in: A. Mennicken, H. Vollmer (Hg.), Zahlenwerk. Kalkulation, Organisation und Gesellschaft, Wiesbaden 2007, S. 65-86.
  3. Eine Übersicht zu Word-Cloud-Tools gibt es hier: http://praxistipps.chip.de/word-clouds-kostenlos-online-erstellen-die-besten-webseiten_30199

Quelle: http://dguw.hypotheses.org/115

Weiterlesen

Poster ‘Historical Source Criticism in the Digital Age’

Am Workshop: ‘Digital Humanities for European Global Studies’ durfte ich ein Poster zum Dissertationsprojekt vorstellen.

Poster - Historical Source Criticism - PF

Poster – Historical Source Criticism in the Digital Age Pascal Föhr, 27.03.2015

Ergänzung (04.04.2015):

Poster - Historische Quellenkritik - PF

Poster – Historische Quellenkritik im Digitalen Zeitalter Pascal Föhr, 27.03.2015

Aufgrund der Bitte von Mareike König (siehe Kommentar) erläutere ich das Poster und füge die deutsche Übersetzung hinzu.

Bisher wurde ein Objekt nach der historisch-kritischen Methode mit den Schritten Heuristik, Quellenkunde, Quellenkritik, Interpretation und Darstellung gesucht und gefunden, eingeordnet, kritisiert, interpretiert und als historische Ressource ‘verwendet’. Die Fragestellung meiner Dissertation dreht sich nun darum, ob die traditionelle historisch-kritische Methode auch auf digitale Objekte angewendet werden kann.

Verschiedene Einflüsse (nicht abschliessende Stichworte computational turn (Medientheorie), Digitalmedien (Social Media etc.), Virtualität (des Objekts, Cyberspace etc.), einem Alterungsprozess unterliegende Hard-/Software, algorithmisch generierte Daten etc. müssen bei der Quellenkritik (Kriterien wie Nachvollziehbarkeit, Persistenz, Echtheit, Authentizität etc.) berücksichtigt werden, die bei physischen Objekten bisher keine Rolle spielten. Digitale Objekte unterscheiden sich grundlegend von bisher bekannten, was eine kritische Auseinandersetzung mit der bisherigen Methode notwendig macht.

Weil digitale Objekte sich grundlegend von bisher bekannten unterscheiden und neuartige Rahmenbedingungen gelten, sind Kriterien der Quellenkritik in der bekannten Form nicht mehr anwendbar. Daraus leite ich für die Verwendung von digitalen Objekten als Forschungsressourcen meine Thesen ab: Es entstanden und entstehen neue, bisher nicht bekannte Quellentypen mit neuartigen Eigenschaften, der Prozess der Objektbeurteilung muss angepasst und neue Methoden der Quellenkritik müssen erarbeitet werden, was den Historiker zwingt auch neue Arbeitsmethoden im Umgang mit digitalen Objekten zu erlernen und anzuwenden.

Ausführlicher erklärt wird dies in meiner Arbeit… :-)

Quelle: http://hsc.hypotheses.org/328

Weiterlesen

Ab wann sehen Babys dreidimensional?

Die Fähigkeit zur Tiefenwahrnehmung entsteht im ersten Lebensjahr. Dies zeigen zahlreiche Studien mit den unterschiedlichsten experimentellen Anordnungen (z.B. Gibson & Walk, 1960; Kellman & Arterberry, 2006). Wann genau entwickelt sich die Fähigkeit zur Tiefenwahrnehmung? Wir erforschen in unserem Projekt die … Weiterlesen

Quelle: http://babyvision.hypotheses.org/112

Weiterlesen

Wie sehe ich, was das Baby sieht?


Was sehen Säuglinge im ersten Lebensjahr?

Wie können wir das wissen, wenn wir sie nicht fragen können?
Mit der letzten Frage haben sich zum Glück schon einige intensiv beschäftigt, sodass wir auf verschiedene häufig eingesetzte Methoden zurückgreifen können, um an den Antworten zur ersten Frage zu arbeiten.
Da wir die kleinen Studienteilnehmer nicht fragen können, beobachten wir ihr Blickverhalten.

Es gibt verschiedene Methoden, um das Blickverhalten von Säuglingen zu beobachten und zu beurteilen. Vorgestellt werden die Methoden, die wir in unseren Studien einsetzen. Wir beurteilen die natürliche Präferenz für bestimmte Bilder und Objekte oder folgen dem Ansatz der Habituations-Dishabituationsmethode.

Der grundlegende Aufbau für unsere Studien sieht so aus, dass das Baby auf dem Schoß der Mutter sitzt und auf einen Monitor schaut. Oberhalb des Monitors befindet sich eine Kamera, die das Gesicht des Kindes aufzeichnet. Auf unserem Kontrollbildschirm können wir somit zeitgleich die Blickbewegung des Kindes aufzeichnen und auswerten. Wir messen immer einmal live während der Untersuchung und später misst ein anderer Mitarbeiter die Blickzeiten mithilfe des aufgezeichneten Videos. Diese Messung dient der Bestimmung der Interraterreliabilität, der Messgenauigkeit unabhängig vom Versuchsleiter.

Ein Durchgang besteht immer aus einem attention getter und einem Testbild. Frei nach dem Prinzip „alles, was sich bewegt und Geräusche macht, zieht die Aufmerksamkeit von Babys auf sich“ zeigen wir ihnen ein sich drehendes buntes Bild, das alle acht Sekunden ein klingelndes Geräusch macht. Sobald wir die Aufmerksamkeit des Babys gewonnen haben, zeigen wir ihm unser Testbild, das entweder zwei gleiche oder zwei verschiedene Bilder anbietet, die jeweils zentriert auf der linken oder rechten Bildschirmhälfte positioniert sind.

Beurteilung der natürlichen Präferenz

Der Ansatz der natürlichen Präferenz geht davon aus, dass Babys bestimmte Bilder oder Objekte lieber anschauen als andere. Dem Baby werden hierfür in der Regel zwei Bilder gleichzeitig angeboten. Dies kann beispielsweise ein natürliches Gesicht gegenüber einem künstlichen sein oder verschiedene Muster.

Es wird beobachtet, welches spontan und länger angeschaut wird. Wir verwenden hierfür zwei verschiedene Messmethoden: Messung der Blickzeiten (Fantz, 1958; Valentine, 1914) oder die Messung der spontanen Präferenz (Berlyne, 1958; Marsden, 1903; Teller, 1997).

Ein Ziel unserer Studien ist, diese Methoden miteinander zu vergleichen.

Messung der Blickzeiten (CNP):

Bei der Messung der Blickzeiten werden zwei Bilder gleichzeitig präsentiert. In unseren Studien erfolgen vier Testdurchgänge mit denselben Bildern, wobei die Position der Bilder ausgetauscht wird.

Die Blicke des Babys werden kontinuierlich durch den Versuchsleiter erfasst. Es wird permanent entschieden, ob das Baby das rechte, das linke oder keines der beiden Bilder anschaut. Die Messung bricht ab, sobald für insgesamt zehn Sekunden die Bilder angeschaut worden sind. Für die Datenauswertung wird die Anblickzeit für eines der beiden Bilder über beide Testdurchgänge relativiert an der Gesamtanblickzeit berücksichtigt.

Spontane Präferenz (FPL):

Bei dieser Methode werden ebenfalls zwei Bilder gleichzeitig präsentiert. Allerdings erfolgen hier im Gegensatz zur CNP-Messung 24 Testdurchgänge. Es wird in jedem Durchgang dasselbe Bildpaar gezeigt, die Position des Paares wechselt randomisiert. Maximal dreimal hintereinander erscheint die Paarung an derselben Position.

Der Versuchsleiter entscheidet in jedem Durchgang, welches der beiden Bilder spontan vom Baby präferiert wurde. Hierfür hat er maximal zehn Sekunden Zeit. Zeigt das Baby keine eindeutige Präferenz oder ist der Versuchsleiter unsicher, läuft die Zeit ohne Urteil ab. Kriterien für die Beurteilung sind z.B. die Richtung des ersten Blicks, das Aufreißen der Augen und die jeweiligen Anblickzeiten der beiden Bilder.
Für die Datenauswertung wird ein relativer Präferenzscore gebildet, der angibt, wie oft das Kind den Testreiz präferiert.

Erfolgreiches Langweilen und Orientierungsreaktion

Einen anderen Ansatz verfolgt die Habituations-Dishabituationsmethode (Fantz, 1964; Saayman, Ames & Moffett, 1964). Ein Baby ist grundsätzlich neugierig auf alles, was neu ist. Wird ihm immer wieder dasselbe gezeigt, verliert es das Interesse. Diese Eigenschaften nutzen wir, indem wir das Experiment in zwei Phasen einteilen, die Gewöhnungsphase (Habituation) und die Orientierungsphase mit einem neuen Bild (Dishabituation).

Über maximal 15 Durchgänge hinweg zeigen wir den Kindern genau dasselbe Bild auf der linken und der rechten Seite des Monitors. Der Versuchsleiter beobachtet, ob das Kind sich eines der beiden Bilder anschaut oder nicht. Schaut es zwei Sekunden lang weg, bricht der Durchgang ab. Auch wenn das Kind über eine Minute lang beide Bilder anschaut, bricht der Durchgang ab.

Zur Beurteilung, ob das Baby erfolgreich gelangweilt wurde, werden die Anblickzeiten der ersten drei Durchgänge aufaddiert und mit den Anblickzeiten der jeweils letzten drei Durchgängen verglichen. Sobald das Baby in den letzten drei Durchgängen insgesamt nur noch halb so lange geschaut hat wie in den ersten drei Durchgängen, gilt es als erfolgreich gelangweilt. Es hat habituiert.

Wir beenden die Habituationsphase und starten die Dishabituationsphase. Hier wird eines der beiden Bilder durch ein neues ersetzt. Das neue Bild erscheint in zwei Durchgängen jeweils einmal auf der linken und einmal der rechten Bildschirmhälfte. Gemessen wird jetzt nach der CNP-Methode.

Dishabituiert das Baby? Entdeckt es das neue Bild und interessiert sich dafür?

Literatur

Berlyne, D.E. (1958). The influence of albedo and complexity of stimuli on visual fixation in the human infant. British Journal of Psychology, 49, 315-318.
Fantz, R.L. (1958). Pattern vision in young infants. Psychological Record, 8, 43-47.
Fantz, R.L. (1964). Visual experience in infants: Decreased attention to familiar patterns relative to novel ones. Science, 146 (3644), 668-670.
Marsden, R.E. (1903). Discussion and apparatus. A study of the early color sense. Psychological Review, 10, 37-47.
Saayman, G., Ames, E. W. & Moffett, A. (1964). Response to novelty as an indicator of visual discrimination in the human infant. Journal of Experimental Child Psychology,1 (2), 189-198.
Teller, D.Y. (1997). First glances: The vision of infants. The Friedenwald Lecture. Investigative Ophthalmology & Visual Science, 38 (11), 2183-2203.
Valentine, C.W. (1914). The colour perception and colour preferences of an infant during its fourth and eighth months. British Journal of Psychology, 6, 363-386.

Quelle: http://babyvision.hypotheses.org/70

Weiterlesen