Installiere die Dokumente-Online App

<
>
Upload File
Dokumenttyp

Prüfungsvorbereitung
Psychologie

Universität, Schule

Paris-Lodron-Universität Salzburg

Note, Lehrer, Jahr

2015

Autor / Copyright
Hannelore V. ©
Metadaten
Format: pdf
Größe: 0.46 Mb
Ohne Kopierschutz
Bewertung
sternsternsternsternstern_0.2
ID# 49957







1.1 Was macht Psychologie einzigartig?

1.1.1 Definitionen

  • Was ist das Wesen des Menschen? -Diese Frage wird beantwortet durch die Betrachtung der Prozesse innerhalb eines Individuums und die Kräfte in seiner physischen und sozialen Umwelt

  • Formale Definition von Psychologie: Die wissenschaftliche Untersuchung des Verhaltens von Individuen und ihren kognitiven Prozessen

  • Wissenschaftlich: Psychologische Schlussfolgerungen müssen auf Belege gründen, die durch die wissenschaftlichen Methode gesammelt wurden

  • Wissenschaftliche Methode: Besteht aus einer Menge geordneter Schritte zur Analyse und Lösung von Problemen –d.h. Objektiv erhobene Informationen als Faktenbasis des Schlussfolgerns.

  • Verhalten: Das Mittel, durch welches sich der Organismus an Umwelt anpasst. Verhalten bedeutet Aktivität. –l Gegenstand in Psychologie: Das beobachtbare Verhalten von Mensch und Tier
    ---> Psychologen untersuchen,
    was das Individuum tut und wie es dieses Tun in einer vorgegebenen Situation und im größeren sozialen & kulturellen Kontext umsetzt.

  • Individuen (Gruppen) : Gegenstand psychologischer Untersuchungen (Mensch/Tier) – Individuum wird in seinem natürlichem Lebensraum oder unter kontrollierten Bedingungen eines Forschungslabors untersucht.

  • Kognitive Prozesse: Arbeitsweise des menschl. Geistes. Das Verstehen von kognitiven Prozessen ist für das spezifischere Verständnis des menschl. Verhaltens nötig.

  • Viele menschl. Aktivitäten finden als private, innere Ereignisse statt (denken, planen) – dennoch sind in der Psychologie Techniken vorhanden, die mentalen Prozesse zu untersuchen & offenzulegen

  • Die Kombination dieser Anliegen macht die Psychologie zu einem einzigartigen Feld:
    (1) Psychologie in
    Sozialwissenschaften: Konzentration auf das Verhalten der Menschen in verschiedenen Umgebungen
    (2) Psychologie in
    Soziologie: Konzentration auf das Verhalten von Menschen in Gruppen oder Institutionen
    (3) Psychologie in
    Anthropologie: Konzentration auf einen breiteren Kontext von Verhalten in unterschiedlichen Kulturen.

  • Psychologie profitiert auch von Erkenntnissen anderer Disziplinen
    (1)
    Biowissenschaften: Prozesse im Gehirn & biochemische Grundlagen des Verhaltens (2) Kognitionswissenschaften: Funktionieren kognitiver Prozesse in Beziehung zu Forschungen der Informatik, Philosophie, Linguistik & Neurowissenschaft
    (3)
    Gesundheitswissenschaften (auch Verbindung mit Medizin, Pädagogik, Rechts-wissenschaften): Verbesserung der Lebensqualität

    1.1.2 Ziele der Psychologie - Verhalten beschreiben, erklären, vorhersagen
    und kontrollieren

  • Beschreiben: Erste Aufgabe ist es Verhalten genau beobachten (Daten) – Verhaltensdaten: Aufzeichnungen von Beobachtungen, wie sich Organismen verhalten und den Bedingungen, unter denen das Verhalten auftritt – Auswahl einer angemessenen Analyseebene und Entwicklung von Verhaltensmaßnahme (Objektivität!)

  • Ebenen der Analyse: Unterschiedliche Ebenen der Beschreibung beziehen sich auf unterschiedliche Fragen. Jede Ebene liefert Informationen zum Gesamtbild der menschl. Natur
    (1) Oberste Ebene: Untersuchung des Verhaltens der gesamten Person im komplexen sozialen und kulturellen Kontext (z.B Kulturelle Unterschiede, Ursache von Vorurteilen)
    (2) Spezifischere Ebene:
    Engere kleinere Verhaltenseinheiten (z.B. Reaktionszeit auf Stoppsignal hin)
    (3) Noch spezifischere Ebene:
    z.B. biologische Grundlagen des Verhaltens durch Identifikation der Gehirnregionen, biochemische Veränderungen, sensorische Bahnen

  • In jeder Beobachtung steckt ein subjektiver Blickwinkel (Verzerrungen, Vorurteile, Erwartungen) – Dennoch muss Objektivität gewährleistet sein!


  • Erklären: Erklärungen gehen über das Beobachtbare hinaus - Zentrales Ziel in vielen Bereichen ist es, regelhafte Muster im Verhalten & in mentalen Prozessen zu finden (wie funktioniert das Verhalten?)

  • Erklärungen gehen davon aus, dass Verhalten durch eine Kombination von Faktoren beeinflusst wird (Meist Berücksichtigung zweier Faktoren)
    (1)
    Innere Faktoren/Determinanten (genetische Ausstattung, Intelligenz.) lassen auf Besonderheiten des Organismus schließen
    (2)
    Äußere Faktoren sind stark durch Einflüsse außerhalb der Person bestimmt.

  • Beispiel Rauchen: Individuen sind anfällig für Risikoverhalten (innerer Faktor)
    oder einem starkem Gruppendruck ausgesetzt (situationaler Auslöser) oder beides

  • Häufiges Ziel von Psychologen: eine große Bandbreite von Verhaltensweisen auf der Grundlage einer einzigen Ursachen zu erklären (Beispiel: Schüchternheit)

  • Um kausale Erklärungen zu finden, müssen Forscher kreativen Prozess durchlaufen & viele verschiedene Daten sammeln

  • Einsetzen von Sachwissen fundierter Vorstellungskraft, die in kreativer Weise eine Synthese aus Bekanntem und Unbekanntem hervorbringt

  • Erklärung durch menschl. Erfahrung und Fakten: Versuch zu erkennen, welche der verschiedenen möglichen Erklärungen am genauesten zum Verhaltensmuster passt.



  • Vorhersagen: Aussagen über die Wahrscheinlichkeit mit der ein bestimmtes Verhalten auftreten wird oder ein bestimmter Zusammenhang nachgewiesen werden kann

  • Wissenschaftliche Vorhersagen müssen hinreichend exakt formuliert sein, um getestet und gegebenenfalls zurückgewiesen werden zu können

  • Oftmals gilt: zutreffende Erklärung der Ursache führt zu zutreffender Vorsage über zukünftiges Verhalten

  • Wenn mehrere Erklärungen vorhanden sind, dann wird danach bewertet, wie gut sie umfassende zutreffende Vorhersagen ermöglichen

  • Aus der Forschung: Beobachtung des Verhaltens eines Babys in Anwesenheit von Erwachsenen/Babys oder Affen/Babys im Bezug auf Verbesserung von Vorhersagen: Es gibt systematisch variierende Umweltbedingungen um den Einfluss dieser Änderungen auf die Reaktionen des Babys beobachten


  • Kontrollieren: Verhalten auftreten oder auch nicht auftreten zu lassen – es zu starten, aufrechtzuerhalten, zu beenden, seine Form, Stärke und Auftretenswahrscheinlichkeit zu beeinflussen.

  • Möglichkeit der Verhaltenskontrolle sehr wichtig: Hilfe bei der Verbesserung der Lebensqualität (Interventionen) - Optimismus: nahezu jedes unerwünschte Verhaltensmuster kann durch eine angemessene Intervention modifiziert werden



    1.2 Die Entwicklung der modernen Psychologie

    1.2.1 Historische Grundlagen der Psychologie

  • Hermann Ebbinghaus: Die Psychologie besitzt eine lange Vergangenheit aber nur eine kurze Geschichte

  • Wurzeln liegen in den Schriften der klassischen griechischen Philosophen Platon (427- 347 v. Chr.) und Aristoteles (384-322 v. Chr)

    (1)Beschäftigung mit fundamentalen Fragen: Funktionsweise des Geistes, Wesen der Willensfreiheit, Beziehung des Bürgers zu Gemeinschaft/Staat
    (2) Beide entwickelten
    gegensätzliche Positionen (Einfluss auch noch auf heutige Psychologie)

  • Empiristische Sichtweise: Menschlicher Geist ist zu Beginn des Lebens eine leere Tafel & durch Erfahrungen in der Welt gelangt der Mensch zu Informationen --> Verfechter John Locke (1632-1704). Die Wurzeln liegen bei Aristoteles

  • Nativistische Sichtweise: Menschen kommen bereits mit mentalen Strukturen zu Welt, die Grenzen haben --> Durch Immanuel Kant (1724-1804) kam es zur Entfaltung im 18. Jahrhundert. Die Wurzeln liegen bei Platon

  • René Descartes (1596-1650) hatte zu seiner Zeit neue & radikale Idee: Menschlicher Körper als „Tier-Maschine“, die wissenschaftlich verstanden werden kann, indem man durch empirische Beobachtung Naturgesetze entdeckt.

  • Gegen Ende des 19. Jhdts: Entwicklung der PS zu eigener Fachdisziplin durch Labortechniken aus anderen Wissenschaften (z.B Physiologie & Physik), zur Untersuchung der fundamentalen Fragen aus Philosophie

  • Wilhelm Wundt: 1879 Gründung des ersten Labors für experimentelle Psychologie in Leipzig (1) Trotz Ausbildung zum Physiologen interessierte er sich für Fragen des Geistes mit Ziel: Verstehen der elementaren Prozesse der Empfindung und Wahrnehmung und der Geschwindigkeit einfacher mentaler Prozesse
    (2) Veröffentlichung von „Physiologische Psychologie“ und Ausbildung der ersten Doktoranden in Leipzig (oftmals Gründer eigener psychologischen Labore)

  • Sobald die PS als eigenständige Disziplin etabliert war, kam es zur Eröffnung psychologischer Labore auch an den Universitäten Nordamerikas (John Hopkins University 1883) mit großem Einfluss von Wundts Ideen

  • Edward Titchener (ehemaliger Student Wundts) als einer der ersten Psychologen in USA: 1892 Gründung eines Labors an der Cornell University

  • William James: Entwicklung einer spezifisch amerikanischen Perspektive. 1890 „The Principles of Psychology“ (eins der bedeutsamsten Werke der Psychologie)

  • G. Stanley Hall: Gründung der American Psychological Association, die bis heute existierende nationale wissenschaftliche Fachgesellschaft der USA

  • Bis zum Jahre 1900: mehr als 40 psychologische Labore in Nordamerika

  • Entstehen einer Debatte über den richtigen Gegenstand und die Methoden der neuen Disziplin → Spannungsverhältnis zwischen Strukturalismus und Funktionalismus

    Strukturalismus: die Elemente des Geistes

  • Strukturalismus: Untersuchung der Struktur des Geistes und des Verhaltens

  • Geschichte: Potenzial der neuen Disziplin war erst durch die Laborwissenschaft & Experimente erkenntlich. Da Daten nun systematisch mit objektiven Methoden erhoben wurden, gab es die Möglichkeit, dass unabhängige Beobachtende die Ergebnisse der Experimente replizieren

  • Charakteristisch für Tradition Wundts: Betonung der wissenschaftlichen Methode, Bemühen um exakte Messung und statistische Analyse der Daten

  • Titchener als Begründer des Strukturalismus hatte das Ziel, die dem menschlichen Geist zugrunde liegende Struktur sichtbar zu machen, indem er die wesentlichen Bestandteile geistigen Lebens benannte

  • Forschung als Analogie zu Chemikern „Der Psychologe ordnet die mentalen Elemente genau so, wie der Chemiker die Elemente klassifiziert“

  • Verwendung von Introspektion, um wesentliche Elemente zu erkennen: Individuen untersuchen systematisch ihre eigenen Gedanken & Gefühle im Hinblick auf spezifische Wahrnehmungs- und Empfindungserlebnisse (z.B Geschmacksempfindung)

  • Viel Kritik: Unmöglich dass die Ergebnisse einer individuellen Introspektion verallgemeinerbare Aspekte menschlicher Psychologie darstellen

  • Alternative zum Strukturalismus durch Max Wertheimer: Eine Erfahrung soll als Gestalt (organisiertes Ganzes) angesehen werden und nicht als Summe einfacher Teile --> Vorstellungen der Gestaltpsychologie (noch immer Einfluss auf Untersuchung der Wahrnehmung)

    Funktionalismus: Absichtsvoller Geist

  • Funktionalismus als Gegenposition: Schlüsselfrage, worin die Funktion oder Absicht eines jeden Verhaltens besteht

  • William James: Übereinstimmung mit Titchener, dass das Bewusstsein zentral für die Wissenschaft der PS ist. Jedoch Aufmerksamkeit nicht auf Elemente mentaler Prozesse sondern auf ihre Absicht --> Ziel: Verstehen des Bewusstseins, um Menschen dabei zu helfen, sich effektiv an Umwelt anzupassen

  • Beispiel Reflexe: (1) Strukturalistisch: Versuch seine wesentlichen Bestandteile zu identifizieren. (2) Funktionalistisch gesehen von Theoretiker John Dewey: Konzentration auf die Funktion der Reflexe: Eine kontinuierlich angeordnete Sequenz von Handlungen im Bezug auf sich selbst und die Reihenfolge angepasst, um ein bestimmtes Endziel zu erreichen: Die Reproduktion der Spezies & den Erhalt des Lebens

  • Deweys beschäftigte sich auch mit praktischer Anwendung mentaler Prozesse, die zu wichtigen Fortschritten in der Pädagogik führte → Impulse für fortschrittliche Erziehung in den USA (Handlungsorientiertes Lernen statt Auswendiglernen --> Förderung der intellektuellen Neugier & erhöhtes Verständnis)

  • Warmherzige“ Psychologie von William James: Platz für Emotionen & das Selbst, für Wille, Werte und religiöse und mystische Erfahrungen. Betonung der Einzigartigkeit jedes Individuums, die nicht auf Formeln oder Zahlen aus Testergebnissen reduziert werden konnten – Ziel lag eher im Erklären, statt in experimenteller Kontrolle



    Das Vermächtnis von Strukturalismus & Funktionalismus

  • Trotz vieler Unterschiede gibt es einen intellektuellen Kontext

  • Heute: Sowohl Untersuchung der Struktur als auch der Funktion von Verhalten

  • Beispiel Sprachproduktion: Wörter müssen sowohl richtige Funktion erfüllen, als auch die richtige Struktur besitzen – Forscher untersuchen Bedeutungen (Funktionen) und grammatikalischen Strukturen

    1.2.2 Frauen als Pionierinnen der Forschungen

  • Forschung & Praxis wurde in den Anfängen von Männern dominiert.Trotzdem trugen Frauen erheblich zur neuen Disziplin bei

  • Margaret Washburn hatte als erste Frau einen Doktorgrad in PS – einflussreiches Lehrbuch „The Animal Mind“

  • Mary Calkins (Harvard University) war die erste weibliche Präsidentin der American Psychological Association

  • Anna Freud: verantwortlich für wichtige Fortschritte in Psychoanalyse (Therapieform, die auf psychodynamischen Perspektive beruht)

  • Charlotte Bühler: Bereits in den 20er Jahren Professorin und nach Emigration aus Nazi-Deutschland Entwicklungspsychologin und Therapeutin. Siewar Mitbegründerin der humanistischen Psychologie

  • Heute: Die Hälfte der Doktorgrade in Deutschland haben Frauen

    1.2.3 Perspektiven der Psychologie

  • Perspektiven: Herangehensweise der Art und Weise, wie Psychologen Verhalten und Denkprozesse untersuchen. Sie beeinflussen wonach Forschende suchen, wo sie es suchen und welche Forschungsmethoden angewendet werden.

  • Wichtig: Beschreibung von Ursache und Folge des Verhaltens

  • Obwohl es einen unterschiedlichen Ansatz bei jeder Perspektive gibt, kommt es zum Zurückgreifen bzw. Verschmelzen von mehr als eine Perspektive in der Forschung. Jede einzelne erweitert das Verständnis der Gesamtheit menschlicher Erfahrung.

    Die Psychodynamische Perspektive

  • Verhalten wird durch starke innere Kräfte angetrieben und motiviert. Handlungen rühren von ererbten Instinkten, biologischen Trieben und dem Versuch her, Konflikte zwischen persönlichen Bedürfnissen & sozialen Erfordernissen zu lösen.

  • Energie für das Verhalten liefern Deprivation, physiologische Erregung und Konflikte.

  • Reaktionen des Organismus enden, wenn seine Bedürfnisse befriedigt und seine Triebe zurückgegangen sind. --> Hauptzweck von Handlungen: Reduktion von Spannung.

  • Sigmund Freud, Wiener Arzt (1856-1939): Deutlichste Herausarbeitung der psychodynamischen Mechanismen der Motivation. Seine Ideen kamen durch Arbeit mit psychisch gestörten Patienten --> Zutreffen der beobachteten Prinzipien auch auf normales Verhalten

  • Theorie: Eine Person wird durch ein komplexes Netzwerk innerer und äußerer Kräfte gezogen & geschoben. Anerkennen der Tatsache, dass menschliche Natur nicht immer rational ist & Handlungen durch Motivation gesteuert werden können, die dem Bewusstsein nicht zugänglich sind. Betonung der frühen Kindheit als Phase,in der sich die Persönlichkeit ausbildet.

  • Neo-Freudianer hatten neue Richtungen: Persönlichkeit entsteht nicht nur in der frühen Kindheit, sondern auch durch soziale Einflüsse und Interaktionen

  • Psychodynamische Ideen haben großen Einfluss auf viele Bereiche der Psychologie: z.B. Entwicklung von Kindern, Träumen, Vergessen, unbewusste Motivation, Persönlichkeit & psychoanalytische Therapie

    Die behavioristische Perspektive

  • Der Versuch zu verstehen, wie bestimmte Umweltstimuli bestimmte Arten des Verhaltens hervorrufen.
    (1) Untersuchung der
    Antezendenzbedingungen der Umwelt → jene Bedingungen, die dem Verhalten zugrunde liegen und den Rahmen für einen Organismus schaffen, eine Reaktion auszuführen oder sie zurückzuhalten.
    (2) Betrachtung der
    Reaktionen (Hauptgegenstand der -Untersuchungen), die Verhaltensweise, die es zu verstehen, vorherzusagen und zu steuern gilt.
    (3) Untersuchen der beobachtbaren
    Konsequenzen, die auf Reaktion folgen.

  • John Watson (1878-1958), Entwickler der Perspektive: Forderung, dass psychologische Forschung nach speziesübergreifenden, beobachtbaren Verhaltensmustern suchen solle.

  • B.F. Skinner (1904-1990): Weiterer Einfluss des Behaviorismus, indem er Analysen auf Konsequenzen des Verhaltens ausweitete.

  • Idee, dass die untersuchten grundlegenden Prozesse bei Tieren als allgemeine Prozesse angesehen werden sollen, die auch auf den Menschen übertragbar sind.

  • Obwohl meist an Tieren geforscht wurde, wurden viele Prinzipien auch bei menschlichen Problemen angewandt. (z.B. Humanerer Ansatz bei Kindererziehung durch positive Verstärkung statt Bestrafung & neue Therapien zur Modifikation von Verhaltensstörungen)

  • Besonderer Wert: die exakte Beschreibung der beobachtbaren Phänomene und strenge Standards für die Überprüfung von Prinzipien.

  • Behaviorismus hinterlässt bedeutsames Erbe in der Praxis: Betonung der Notwendigkeit für genaues Experimentieren und sorgfältig definierte Variablen
    → Beeinflussung der meisten psychologischen Bereiche

    Die humanistische Perspektive

  • Entwicklung in den 50er Jahren als Alternative zur psychodynamischen & behavioristischen Perspektive

  • Idee: Menschen werden nicht durch instinktive Kräfte getrieben oder durch Umgebung manipuliert. Verhalten wird nicht auf Komponenten, Elemente & Variablen aus Laborexperimenten reduziert

  • Sondern: Menschen werden als aktive Geschöpfe gesehen, die von Grund auf gut sind und über die Freiheit der Wahl verfügen. Fokus auf Verhaltensmuster in der Lebensgeschichte des Menschen --> Hauptaufgabe des Menschen, das Streben nach positiver Entwicklung.

  • Carl Rogers (1902-1987): Betonung der natürlichen Tendenz des Individuums zu geistiger Weiterentwicklung und Gesundheit (Verstärkung des Vorgangs durch positive Wertschätzung der Umgebung)

  • Abraham Maslow (1908-1970): Prinzip der self-actualization (Selbstverwirklichung) als Drang jedes Individuums, sein Potenzial möglichst umfassend zu verwirklichen.

  • Eine Perspektive, die sich der ganzen Person annimmt (holistische Herangehensweise)
    → Für
    wirkliches Verständnis über das Wissen über Psyche, Körper und Verhalten eines Menschen muss der Hintergrund sozialer und kultureller Faktoren miteinbezogen werden.

  • Erweiterung um wertvolle Erkenntnisse in Literatur, Geschichte, Kunst → PS als vollständigere Disziplin --> Humanistischer Blickwinkel als Enzym, der Psychologie hilft, sich nicht nur auf negative Kräfte zu konzentrieren (Wichtig für Psychotherapie)

    Die kognitive Perspektive

  • Herausforderung für Behaviorismus, durch Aufzeigen dessen Beschränkungen.

  • Zentraler Fokus: menschliches Denken und all seine wissensbasierten Prozesse, z.B. Aufmerksamkeit, Denken, Erinnern & Verstehen --> Annahme, dass Menschen handeln, weil sie denken & mit dieser Fähigkeit ausgestattet sind.

  • Verhalten wird nur zum Teil durch vorangehende Umweltereignisse & frühere Verhaltenskonsequenzen bestimmt → Verhaltensweisen treten auch durch neue Wege des Denkens auf

  • Noam Chomsky (1928): Kinder sind in der Lage, Äußerungen zu machen, die mit vorherigen Erfahrungen nicht zu erklären sind Gegenargumentation zu Skinners Position, dass Kinder sich Sprache durch gewöhnliche Lernprozesse aneignen.

  • Schweizer Forscher Jean Piaget (1896-1980) nutzte in seiner Studie mit Kindern eine Serie mentaler Aufgaben, um qualitative Entwicklungen in kognitiver Entwicklung aufzuzeigen.

  • Konzentration auf das Untersuchen von höheren geistigen Prozessen (Wahrnehmung, Gedächtnis, Sprache, Problemlösen und Entscheiden) auf vielen Ebenen → Betrachtung von Ursache und auch Ergebnis der Handlung, z.B. Bedauern verspüren nach Verletzung

  • Ausrichten der Reaktion des Individuums auf die Realität, nicht nur in der objektiven Welt, sondern auch in der subjektiven Realität in seiner Innenwelt aus Gedanken und Bildern

    Die biologische Perspektive

  • Ursache des Verhaltens liegt in der Funktionsweise der Gene, des Gehirns, des Nervensystems und des endokrinen Systems.

  • Das Funktionieren des Organismus wird anhand der zugrunde liegenden körperlichen Strukturen und biochemischen Prozessen erklärt. Erfahrungen & Verhalten werden als Ergebnis chemischer und elektrischer Aktivitäten erklärt, die zwischen Nervenzellen stattfinden.

  • Idee: Psychische und soziale Phänomene können auf biochemische Prozesse zurückgeführt werden → Sogar die komplexesten Phänomene können dadurch verstanden werden, dass man sie analysiert und auf immer kleinere, spezifischere Einheiten reduziert.

  • Verhalten wird durch körperliche Strukturen und Vererbungsprozesse determiniert. Erfahrungen wirken auf Verhalten ein, indem sie diese biologischen Strukturen und Prozesse verändern.

  • Forscher dieser Perspektive arbeiten im interdisziplinären Feld der
    (1) Verhaltensbezogenen Neurowissenschaften:
    Das Verstehen der Vorgänge im Gehirn, denen Verhaltensweisheiten (Sinneswahrnehmung, Lernen, Emotion) zugrunde liegen
    (2) Kognitive Neurowissenschaften: Durchbruch durch Fortschritte der Hirnforschung in den bildgebenden VerfahrenAusdehnung der biologischen Perspektive auf breites Spektrum menschlicher Erfahrung mit dem multidisziplinärer Forschunsschwerpunkt auf Grundlagen höherer kognitiver Funktionen im Gehirn (Sprache,Gedächtnis)



    Die evolutionäre Perspektive

  • Verknüpfung der zeitgenössischen PS mit der Evolutionstheorie von Charles Darwin (1809-1882): Evolution durch natürliche Selektion → Diejenigen Organismen, die besser an ihre Umwelt angepasst sind, tendieren dazu mehr Nachkommen zu produzieren & ihre Gene weiterzugeben, als Organismen mit schlechterer Anpassung --> Veränderung einer Spezies über viele Generationen in Richtung der bevorzugten Anpassung.

  • Idee: Entwicklung von kognitiven & körperlichen Fähigkeiten über Millionen von Jahren, um spezifischen Anpassungserfordernissen gerecht zu werden.
    → Konzentration auf
    Umweltbedingungen, unter denen sich das Gehirn entwickelte.

  • Nutzen des reichhaltigen theoretischen Rahmengerüsts der Evolutionsbiologie um zentrale Probleme adaptiven Verhaltens unserer Spezies zu identifizieren. Beispiel: In Evolutionsgeschichte war der Mensch zu 99% Jäger und Sammler während des Pleistozäns (2 Mill. Jahre)

  • Sobald Anpassungsprobleme der frühen Menschen identifiziert waren→ Schlussfolgerungen im Rahmen der evolutionären Ausrichtung, welche durch kognitive Mechanismen und psychischen Anpassungen aus der Lösung solcher Probleme entstanden

  • Größte Unterscheidung von anderen Perspektiven: Konzentration auf zeitlich extrem lange Prozesse der Evolution (dienen als zentrales Erklärungsprinzip).

  • Beispiele: Unterschiedliche Geschlechterrollen als Produkt der Evolution & nicht als aktueller gesellschaftlicher Bedingungen. Man braucht viel Kreativität beim Nachweisen solcher Theorien, da keine Durchführung von Experimenten möglich ist.


    Die kulturvergleichende Perspektive

  • Wichtige Reaktion auf die Kritik, dass psychologische Forschung häufig auf einem westlichen Konzept des Menschen basiert

  • Untersuchung interkultureller Unterschiede der Ursachen und Konsequenzen von Verhalten.

  • Fokus: Herauszufinden, ob psychologische Theorien auf alle Menschen zutreffen, oder nur auf eine engere, spezifischere Population → Anwendung bei nahezu jedem Gegenstand psychologischer Forschungen

  • Betrachtung kultureller Kräfte für Vergleiche zwischen Gruppen innerhalb nationaler Grenzen. (Prävalenz von Essstörungen zwischen Frauen verschiedener Ethnien)

  • Untersuchung Kultureller Einflüsse auch zwischen Nationalitäten (mediale Berichte)

  • Infrage stellen von Folgerungen aus anderen Perspektiven → Beispiel: FreudsTheorien sind nicht auf Kulturen übertragbar, die sich stark von Freuds Wiener Kultur unterscheiden.

  • Anthropologe Bronislaw Malinowski: Kritik anhand von Familienpraktiken der Trobriander auf Neuginea an Freuds vaterzentrierter Theorie (Familienautorität liegt dort bei Mutter). Das heißt, einige der universellen Behauptungen der psychodynamischen Perspektive treffen nicht zu

  • Sie hilft, Generalisierungen zu relativieren, die Unterschiedlichkeit und Reichhaltigkeit von Kulturen keine Rechnung tragen

    Perspektiven vergleichen: Thema Aggression

  • Alle Ansätze: Bemühen, das Wesen von Aggression und Gewalt zu verstehen.

  • Psychodynamisch: Aggression als Reaktion auf Frustration, die durch Barrieren auf dem Weg zur Freude (ungerechte Autoritäten) entstanden sind. Beim Erwachsenen als Resultat der Verschiebung von Feindseligkeit, die ursprünglich als Kind gegenüber den Eltern empfunden wurde.

  • Behavioristisch: Identifiziert Verstärker vergangener aggressiver Reaktionen (Mehr Aufmerksamkeit für andere Kinder) --> Kinder von körperlich züchtigenden Eltern lernen, später mit ihren Kindern ähnlich zu verfahren.

  • Humanistisch: Suche nach persönlichen Werten und sozialen Bedingungen, die selbst einschränkende und aggressive Perspektiven anstelle von wachstumsfördernden Erfahrungen nähren.

  • Kognitiv: Erfasst unterschiedliche feindselige Gedanken und Fantasien, die Menschen bei Wahrnehmung gewalttätiger Handlungen erleben. Beachtet aggressive Vorstellungen und Absichten, andere zu verletzen. → Einfluss von Gewalt in Filmen

  • Biologisch: Untersucht die Rolle spezifischer Gehirnareale für Aggression, indem verschiedene Gehirnregionen stimuliert & aufgezeichnet werden. (Abnormalitäten bei Massenmördern)

  • Evolutionär: Untersuchung der Bedingungen, die Aggression zu Anpassungsverhalten für Urmenschen machten. Identifiziert psychologische Mechanismen, die unter diesen Bedingungen selektiv aggressives Verhalten hervorrufen konnten.

  • Kulturvergleichend: Betrachtet, wie Mitglieder verschiedener Kulturen, Aggression zeigen und interpretieren. Herausfinden, wie kulturelle Käfte die Wahrscheinlichkeit verschiedener Arten aggressiven Verhaltens beeinflussen.

  • Man kann erkennen, wie die verschiedenen Perspektiven zusammenwirken / sich ergänzen → umfassenderes Verständnis in spezifischen Feldern der Forschung → Großteil der Forschung nutzt mehrere Perspektiven

  • Entstehen neuer Theorien aus einer Kombination verschiedener Perspektiven: (1) In der Biologische Perspektive das Bildgebendes Verfahren für Sprachverarbeitung & Persönlichkeitsunterschiede (2) Internet als Basis weltweit zu kooperieren. (3) Kultur- vergleichend: moralisches Argumentieren oder wahrgenommenes Körperbild.



    2.1 Der Psychologische Forschungsprozess

  • 1. Schritt, Erste Beobachtungen (Fragestellung)

  • Beobachtungen, Überzeugungen, Informationen und Allgemeinwissen führen zu einer neuen Idee oder Sichtweise auf ein Phänomen Die Fragestellungen entstehen durch direkte Beobachtung , traditionelle Forschungsgegenstände, wie z.B. „große ungelöste Fragen“ und Kombinationen von alten mit neuen Ideen

  • Zeichen der wirklich kreativen Denker: Entdeckung einer neuen Wahrheit, die der Wissenschaft eine neue, bessere Richtung gibt.

  • Entwicklung von Theorien (wichtiger Kontext für Forschungsfragen) – Eine geordnete Menge von Begriffen und Aussagen, die ein Phänomen oder eine Gruppe von Phänomenen erklärt

  • Gemeinsame Grundlage von Theorien: Annahme des Determinismus → Alle Ereignisse (Physikalisch, kognitiv, behavioral) sind das Ergebnis von spezifischen Kausalfaktoren oder werden von diesen bestimmt. Die Kausalfaktoren sind auf das Individuum oder dessen Umgebung begrenzt.

  • Verhalten und mentale Prozesse folgen regeläßigen Mustern von Zusammenhängen und diese Muster können durch Forschung entdeckt/offengelegt werden.

  • Annahme, dass eine Theorie bekannte Fakten erklärt und neue Hypothesen generiert

  • 2. Schritt, Hypothese: Vorläufige und überprüfbare Aussage über den Zusammenhang zwischen Ursachen und Folgen.

  • Oft als Wenn-Dann-Vorhersagen formuliert, in denen Ergebnisse aufgrund spezifischer Bedingungen erwartet werden --> Um diese Beziehung zu bestätigen muss geforscht werden. Theorien von grundlegender Bedeutung für die Generierung neuer Hypothesen, denn falls die wissenschaftliche Daten einer Hypothese nicht entsprechen, müssen Aspekte der Theorie überdacht werden → Ständiger Austausch zwischen Theorie und Forschung.

  • 3. Schritt,Untersuchung entwerfen – wissenschaftliche Methodik, um Hypothesen zu überprüfen.

  • Wissenschaftliche Methodik: eine allgemein gültige Sammlung von Vorgehensweisen um Ergebnisse so zu gewinnen , dass Fehlerquellen minimiert und verlässliche Schlussfolgerungen gewonnen werden können → Psychologie in dem Maße als
    Wissenschaft angesehen, wie sie den Regeln der wissenschaftlichen Methodik folgt

  • 4. Schritt, Daten analysieren & Schlussfolgerungen

  • Ziel: Publikation der Ergebnisse

  • Voraussetzung: Dokumentation der Analysen, sodass andere Forscher nachvollziehen und bewerten können. Sie haben Möglichkeit die Methoden zu inspizieren, kritisieren, replizieren oder widerlegen→ Öffentliche Überprüfbarkeit!

  • In vielen Zeitschriften sind Forschungsarbeiten der American Psychological Association/ Science (ASP/ASA) relevant→ In Deutschland: „Psychologische Rundschau“ Organ der Gesellschaft für Psychologie und des Berufsverbandes deutscher Psychologen.

  • Peer review: Versand an Experten → Bericht über Beweisführung, Methodik und Ergebnisse. Wenn die Experten zufrieden sind, dann ist eine Veröffentlichung möglich -->
    Großteil aller Forschungsarbeiten in Fachzeitschriften haben hohen Qualitätsstandard

  • 5. Schritt, Ergebnisse einer größeren Öffentlichkeit vorstellen
    Pressemitteilungen durch ASP/ASP mit Beispiel George Miller → Psychologie für Allgemeinheit, Psychologen weniger in Expertenrolle.

  • Auch öffentliche Veranstaltungen, bei denen Forscher der Aufgabe, Psychologie weiterzureichen, nachkommen könnnen.

  • Einzelne Forscher: Bücher veröffentlichen oder Vorträge halten (Allgemeinheit!)

  • 6. Schritt, auf offene Fragen hinweisen

  • Diskussion der Wissenschaftsgemeinde (scientific community) über die vorgelegten Ergebnisse und Identifikation von offenen Fragen.

  • In meisten Arbeiten von Autor ein Abschnitt in dem Implikationen und Grenzen ihrer Argumentation aufgeführt werden. Auch wünschenswerte künftige Forschung wird genannt.

  • Wenn Daten eine Hypothese nicht widerspruchsfrei stützen, müssen Aspekte überdacht werden
    → Dauerhafte Wechselwirkung zwischen Theorie und Forschung.

  • 7. Schritt, offene Fragen in Angriff nehmen

  • Eventuell Forschungsprozess erweitern

  • Forschungsprozess basiert auf angemessener Anwendung wissenschaftlicher Methodik --> Ziel: Schlussfolgerungen mit möglichst großer Objektivität (Objektiv, wenn von Emotionen und beobachterabhängigen Urteilsverzerrung unbeeinflusst)

    2.1.1 Beobachterabhängige Urteilsverzerrung und operationale Definitionen

  • Beobachterabhängige Urteilsverzerrung (Observer bias): ein Fehler, der durch persönliche Motive und Erwartungen des Betrachters entsteht. Sehen und Hören von Dingen die erwartet werden, statt Tatsachen

  • Beispiel: Rede zum Thema Frieden von Hugo Münsterberg vor vielen Journalisten (Unterschiedlichste Beschreibungen seines Verhaltens während des Vortrags in späteren Artikeln → Zusammenhang mit politischen Überzeugungen

  • Alltag: Engere Beziehungen beeinflussen Motive und Erwartungen, wie das Verhalten der vertrauten Person wahrgenommen wird. Studie an verheirateten Paaren demonstriert: Erwartungen verschiedener Betrachter führen zu verschiedenen Schlussfolgerungen.

  • Voreingenommenheit bzw. resultierende Urteilsverzerrung wirken als Filter → Manches bedeutsam, andere Aspekte irrelevant und bedeutungslos

  • Im Psychologischen Experiment: Beispiel Beobachtungen --> Jeder Betrachter hat unterschiedliche Vorerfahrungen (Glaube an best. Theorien) → Urteilsverzerrung wird zum Problem → Harte Arbeit für Forscher, Beobachtungen ohne Vorurteilen zu begegnen

    Gegenmaßnahme

  • Standardisierung: Bei allen Stufen der Datengewinnung werden einheitliche und konsistente Verfahren genutzt. Alle Merkmale eines Tests/ Experiments sollen hinreichend standardisiert sein, sodass alle Probanden die gleichen Bedingungen erleben

  • Beispiel Interview: Immer gleiche Fragen, Auswertung der Fragen nach vorgegebenen Regeln --> Auch schriftliche oder akustische Dokumentation führt zu besserer Vergleichbarkeit zu anderer Zeit/Ort

  • Auch Standardisierung von Beobachtungen. Das zu lösende Problem ist die Übertragung der Theorien in Begriffe mit gleichbleibender Bedeutung.
    Operationale Definition: Standardisiert die Bedeutung innerhalb eines Experiments, indem ein Konzept festgelegt wird, das bestimmte Operationen oder Vorgänge benennt Dienen als Grundlage, um das Konzept zu messen oder zu konstatieren

  • Variablen: jener Faktor, der sich in Menge oder Art verändert → Müssen operational definiert sein.

  • Ziel eines Experiments: Ursache-Wirkungs-Zusammenhang zwischen zwei Arten von Variablen nachweisen.

  • Faktor des Experiments, der verändert wird: Unabhängige Variable, fungiert als Ursache

  • Ziel der Messung & Wirkungsteil ist die (von Ursache) abhängige Variable → Wenn eine Hypothese zum Ursache-Wirkungs-Zusammenhang richtig ist, dann wird der Wert der abhängigen Variablen von dem der unabhängigen Variablen abhängen.

  • Im Kontext eines Experiments:
    Studie beginnt mit großer Frage: Haben Menschen einen freien Willen oder hängt Verhalten von Kräften ab, die durch Gene oder Umwelt determiniert werden?

  • Ziel der Forscher zu zeigen, wie sich die Art und Weise, in der Menschen auf diese Frage eine Antwort zu finden (freier Wille oder Determinismus), auf das Verhalten auswirkt.

  • Argumentation: Menschen mit deterministischem Weltbild fühlen sich weniger für schlechtes Verhalten verantwortlich (außerhalb ihrer Kontrolle)
    Testen der Hypothese: Gelegenheit zu täuschen für Probanden.

  • Unabhängige Variable: Glaube an freien Willen vs. Determinismus → Um diese Variablen zu manipulieren: In Test für jede richtige Antwort einen Dollar (abhängige Variable)→ Eigenständige Auswertung des Tests in Abwesenheit des Versuchsleiters (Versuchsleiter kann nicht wissen, wer sich mehr Geld nahm als ihm zustand → Rahmen für Täuschung)
    Wirkung der unabhängigen Variablen entsprach Erwartungen/Hypothese der Forscher → Determinismus-Probanden zahlten sich mehr Geld aus, als Freier-Wille-Probanden

    2.1.2 Experimente Methoden: Alternativerklärungen und die Notwendigkeit von Kontrollbedingungen

  • Für dasselbe Ergebnis können verschiedene Ursachen infrage kommen. Es gibt Experimentelle Methoden, um unklare kausale Zusammenhänge aufzuklären: Eine unabhängige Variable wird manipuliert, um einen Einfluss auf eine abhängige Variable zu überprüfen.

  • Ziel: Sichere Kausalaussagen über den Einfluss einer Variable auf eine andere machen zu können. Problem : Alternativerklärungen!

    Eine Herausforderung an die Objektivität

  • Wenn Hypothese getestet wird, hat man oft eine Erklärung parat, weshalb eine Veränderung der unabhängigen Variable die abhängige Variable in einer bestimmten Weise beeinflusst

  • Um eine Hypothese möglichst überzeugend zu stützen, müssen Psychologen sehr auf mögliche Alternativerklärungen achten: Je mehr Alternativerklärungen, desto weniger sicher die Ausgangshypothese.

  • Konfundierende Variable: Etwas, das nicht absichtlich vom Versuchsleiter in Forschungssituation eingebracht wurde und das Verhalten der Probanden verändert, bzw. Verwirrung bei Interpretation der Daten stiftet. → Wenn wahre Ursache eines beobachteten Verhaltenseffekt konfundiert ist, stellt das die Interpretation der Daten infrage
    → Beispiel: Gewaltszenen im Fernsehen lauter & mehr Bewegung als andere Szenen →Thema „Gewalt“ & Oberflächliche Eigenschaften (Bewegung/Lautstärke) sind
    konfundiert. → Forscher kann nicht sagen was genau aggressives Verhalten produziert.

  • Obwohl in jedem Experiment eine Reihe von Alternativerklärungen sind, gibt es zwei Arten konfundierender Variablen die in fast allen Experimenten auftreten.

  • Ungewollte Erwartungseffekte: Treten auf, wenn Forschende/Betrachter dem Probanden auf subtile Weise mitteilen, welches Ergebnis sie erwarten & damit die gewünschte Reaktion hervorrufen → Es sind Erwartungen des Versuchsleiters & nicht die unabhängige Variable, die Reaktion auslösen. Erwartungseffekte verzerren den Inhalt der Entdeckungen aus Experiment.

  • Placeboeffekt: Tritt auf, wenn Probanden ihr Verhalten ohne experimentelle Manipulation verändern. Entwicklung des Konzeptes in der Medizin, bezieht sich auf eine Verbesserung des Gesundheitszustandes/Wohlbefindens, die auf der Überzeugung des Individuums beruht, eine wirksame Behandlung erfahren zu haben

  • Für einige Behandlungsmethoden ohne genuin medizinische Wirksamkeit wurde nachgewiesen, dass sie bei 70% der Patienten, gute bis ausgezeichnete Ergebnisse erzielen (Colloca &Miller)

  • In Psychologischer Forschung: Wenn Verhalten mehr durch Erwartungen eines Probanden, was er fühlen oder tun sollte, als durch eine spezifische Intervention beeinflusst wird.

  • Gefährdung der Ergebnisse: Forscher müssen bedenken, dass Probanden auch ihr Verhalten ändern, weil sie wissen, dass sie beobachtet bzw. getestet werden. (Hawthorne Efffekt) → Beispielsweise Gefühl der Auszeichnung, für Versuch ausgewählt zu sein

    Die Abhilfe: Kontrollmaßnahmen

  • Weil menschliches & tierisches Verhalten sehr komplex ist (und oft mehrere Ursachen hat) wird ein gutes Forschungsdesign mögliche konfundierende Variablen antizipieren und Strategien enthalten, diese auszuschließen.

  • Entwicklung von Gegenmaßnahmen → Kontrollmaßnahmen: Der Versuch, alle Variablen und Bedingungen konstant zu halten, bis auf diejenigen, die in direktem Zusammenhang mit der zu testenden Hypothese stehen.
    Alle Details (Instruktionen, Aufgaben, Zeit..) der Experimentalsituation müssen für alle Probanden gleich sein, um sicherzustellen, dass die Erfahrungen aller gleich sind. Unterschiede im Verhalten sollten allein durch die unabhängige Variable bestimmt sein.

  • Gegenmaßnahme zum Erwartungseffekt: Vorgehen der Doppelblindtechnik: Im Idealfall kann Erwartungseffekt verhindert werden, indem weder Proband, noch Versuchsleiter weiß, welcher Proband welcher Versuchsbedingung zugeordnet wird.

  • Gegenmaßnahme zum Placeboeffekt: Placebo-Kontrollgruppe: Um sie aufzuspüren, wird eine Versuchsbedingung hinzugefügt, in der keine Manipulation stattfindet.
    Sie gehören der Kategorie von Kontrollbedingungen an, mit denen
    vergewissert wird, dass Vergleiche zwischen den einzelnen Versuchsgruppen angemessen sind.
    → Beispiel Ginko biloba (Nahrungsergänzungsmittel für besseres Gedächtnis) → Verbesserung bei allen Gruppen (mit & ohne Inhaltsstoffe) → Placebokontrolle legt nahe, dass Leistungsverbesserung Effekt von Übung und nicht Inhaltsstoffe liegt

  • Solche Kontrolldaten als wichtige Bezugspunkte, an dem der Wert des experimentellen Ergebnisses gemessen wird.


    Weitere Abhilfe: Das Forschungsdesign

  • Um Kontrollbedingungen einzubauen,wird entschieden welches Forschunsdesign am besten zu den jeweiligen Zielen passt.
    Between-subjects-Designs: unterschiedliche Probandengruppen werden zufällig entweder einer Experimentalbedingung oder einer Kontrollbedingung (keine experimentelle Intervention) zugewiesen.

  • Zufällige Zuordnung als einer der wesentlichen Schritte, um konfundiere Variablen auszuschließen, die auf interindividuellen Unterschieden zwischen Probanden beruhen. Zufälligkeit soll z.B Vorlieben von Probanden in jeder beiden Gruppen mischen
    → Wenn sich zwischen den Bedingungen Unterschiede ergeben, ist sicherer, dass diese Unterschiede auf die
    Manipulation/Intervention zurückzuführen sind & nicht auf vorher bestehende Unterschiede

  • Auch durch die Art, wie Probanden rekrutiert werden, kann zufällige Verteilung unterstützt werden Schlussfolgerungen aus Experimenten sollen für gesamte ausgewählte Population (z.B. 4-6 Jährige Kinder) zutreffen. → Auswahl einer repräsentativen Stichprobe, die die Eigenschaften der Population möglichst genau widerspiegelt, z.B. in Hinblick auf Geschlechterverteilung, ethnische Gruppierungen oder sozio-ökonomischen Status

  • Um von Stichprobe auf Population generalisieren zu können → Zufällige Stichprobenziehung. Dadurch nimmt jedes Mitglied der Population mit einer identischen Wahrscheinlichkeit an dem Experiment teil.

  • Andere Art von Experimentaldesign: Within-subjects-Design, nutzt jeden Probanden gleichzeitig als die eigene Referenz. Beispielsweise kann ein Proband mehr als nur einer Bedingung der unabhängigen Variablen ausgesetzt werden. Oder Vergleich des Verhaltens vor und nach der Behandlung. → Beispiel Studie: Fitnessbesucher unterschätzen Genuss des Trainings vor Beginn → Interpretationen: Fokus auf Beginn des Trainings (oft schlimmster Teil) und nicht auf das gute Gefühl nach dem Training

  • Bisherige Forschungsmethoden beruhen auf Manipulation einer unabhängigen Variable, um den Effekt auf die abhängige Variable zu untersuchen. Obwohl diese Arten oft die stärkste Kausalzusammenhänge erlauben, oft nicht optimale Bedingungen für experimentelle Methode
    → 1. Untersuchung des Verhaltens in künstlicher Umgebung (Komplexität natürlicher Verhaltensmuster geht in kontrollierten Experimenten verloren ; werden zugunsten der einfacheren Handhabung einer oder weniger Variablen und Antworten geopfert)
    → 2. Wissen der Probanden, dass sie beobachtet/getestet werden (Möglichkeit, dass sie auf das Wissen reagieren, indem sie Forscher Gefallen tun oder Forschungszweck unterlaufen / Auch absichtliche Veränderung)
    → 3. Einige wichtige Forschungsfragen, die nicht durch ethisch vertretbare experimentelle Forschung zu klären sind (Beispiel: Wird die Neigung zu Kindesmissbrauch von Generation zu Generation weitergegeben?)

    Korrelationsmethoden

  • Fragestellungen bezüglich, Optimisten gesünder als Pessimisten, Zusammenhang zwischen Kindesmissbrauch & späteren seelischen Erkrankungen → betreffen Variablen die nicht leicht oder nicht in ethisch vertretbarer Weise manipuliert werden können.

  • Beantwortung solcher Fragen → Korrelationsmethoden: werden genutzt, um herauszufinden in welchem Ausmaß zwei Variablen, Eigenschaften oder Charakteristika zusammenhängen.

  • Um genaues Ausmaß der Korrelation zwischen zwei Variablen zu bestimmen, berechnet man die statistische Größe Korrelationskoeffizient ( r ).
    Der Wert variiert zwischen
    +1,0 (perfekte Positive Korrelation) und -1,0 (perfekte negative Korrelation). Wert von 0,00 entspricht überhaupt keiner Korrelation.

  • Wenn positiver Korrelationskoeffizient, wird, wenn die Werte einer von zwei Variablen steigen, die Werte der anderen Variable ebenfalls steigen. → Für negative Korrelation gilt das Gegenteil: die Werte der zweiten Variable verändern sich entgegengesetzt zu den Werten der ersten Variable.

  • Korrelationen näher bei 0, deuten auf schwachen/nicht vorhandenen Zusammenhang zwischen den Werten beider Variablen hin → Wenn r steigt und sich dem +/- 1,0 Maximum nähert, kann die Veränderung einer Variablen auf der Basis der Veränderung der anderen Variable immer besser vorhergesagt werden.

  • Achtung: Aussagen zu kausalen Zusammenhängen sind auf der Grundlage eines Maßes – wie dem Korrelationskoeffizienten – jedoch nicht zulässig! .

  • Beispiel aus Forschung mit Thema Schlaf: Studenten mit Schlafproblemen haben niedrigeren Notendurchschnitt (Gaultney, 2010) Versuch, Notendurchschnitt zu verbessern, indem Schlafprobleme gemindert werden. → Einmischung vergeblich, da starke Korrelation nur bedeutet, dass die beiden Datenwerte in systematischer Weise zusammenhängen.

  • Korrelation besagt nicht, dass ein Wert, den anderen verursacht. → Korrelation impliziert keine Kausalität!

  • Korrelation könnte irgendeine Usache-Wirkungs-Möglichkeit darstellen → Viele der Möglichkeiten implizieren dritte Variable, die im Hintergrund die Korrelation bewirkt.

  • Beispiel Studenten: Besserer Schlaf & bessere Noten durch leichtere Seminare → Korrelationen zwingen Forscher meist dazu, nach tiefer gehenden Erklärungen zu suchen. --> Studie: Ergebnis, dass Paare mit mehr Sprachstilpassung mit höherer Wahrscheinlichkeit längere Beziehung haben. Man konnte jedoch nicht mit Sicherheit sagen, ob nun mehr Sprachstilpassung zu besseren Beziehungen führt oder andersherum.

  • Korrelationsstudien lenken die Aufmerksamkeit auf faszinierende Aspekte der Welt


    3.2 Das Nervensystem in Aktion

  • Allgemein: Forscher der biologischen Systeme, die das gesamte Spektrum des Denkens und Handelns möglich machen, heißen Neurowissenschaftler.
    Neurowissenschaft: heute eines, der
    am schnellsten wachsenden Forschungsgebiete

    3.2.1 Das Neuron

  • Neuron: Eine Zelle, die darauf spezialisiert ist, Informationen zu empfangen, zu verarbeiten und/oder an andere Zellen weiterzuleiten. Sie besitzen unterschiedliche Formen, Größen, chemische Zusammensetzungen & Funktionen, haben jedoch alle die gleiche grundlegende Struktur. Anzahl im Gehirn: zwischen 100 Milliarden & einer Billion.
    Funktion: Sie erhalten an einem Ende Informationen und senden am anderen Ende Botschaften aus.
    -->
    Übertragung der Informationen in nur eine Richtung: von den Dendriten über das Soma zum Axon bis hin zu den Endknöpfchen

  • Dendriten: bestehen aus einer Anzahl verästelter Fasern außerhalb des Zellkörpers und sind der Teil der Zelle, der ankommende Signale erhält.
    Hauptaufgabe:
    Erregung von Sinnesrezeptoren oder Informationen von anderen Zellen zu empfangen.

  • Soma (Zellkörper): Enthält den Zellkern (Nukleus) und das Zytoplasma, das die Zelle am Leben erhält. Es integriert Informationen über die Stimulation, die von den Dendriten empfangen wird (oder manchmal direkt von anderem Neuron) & leitet sie über das Axon weiter.

  • Axon: Eine einzelne, ausgedehnte Faser (Länge im Rückenmark bis zu 1m & im Gehirn weniger als 1mm). Hauptaufgabe: Weiterleitung der Informationen seiner Länge nach.

  • Endknöpfchen: Die verdickten knollenähnlichen Strukturen befinden sich am anderen Ende des Axons. Über die Endknöpfchen werden die an das Neuron angrenzende Drüsen,Muskeln oder andere Neurone stimuliert.

  • Drei Hauptarten von Neuronen:
    1. Sensorische Neuronen: Sie übermitteln Botschaften von Sinnesrezeptoren an das ZentralnevensystemRezeptorzellen sind hoch spezialisierte Zellen (reagieren z.B auf Licht, Geräusche)
    2. Motorneurone: Sie leiten Botschaften weg vom Zentralnervensystem hin zu den Muskeln und Drüsen.
    3. Interneurone: Bilden die Mehrzahl der Neuronen im Gehirn. Sie leiten Botschaften von sensorischen Neuronen an andere Interneurone oder Motorneurone weiter.

  • Zusamenarbeit der drei Neuronen
    --> Auf jedes
    Motorneuron kommen etwa 5000 Interneurone im riesigen Schaltnetz, aus dem sich Verarbeitunssystems des Gehirns zusammensetzt.

    Beispiel Schmerzrückzugsreflex: Schmerzrezeptoren nahe der Hautoberfläche werden mit scharfen Gegenstand stimuliert --> sie senden Botschaften über die sensorischen Neuronen zu einem Interneuron im Rückenmark --> Interneuron reagiert, indem es Motorneurone stimuliert --> Motorneurone veranlassen, dass sich Muskeln im entsprechenden Körperteil von Gegenstand zurückziehen.

  • Erst nach Abfolge der neuronalen Ereignisse erhält das Gehirn Informationen über die Situation. Ähnlich in Fällen, in denen es um das Überleben geht: Schmerz wird erst
    wahrgenommen, wenn bereits körperlich auf Gefahr
    reagiert wurde.

  • Spiegelneurone: Zufällige Entdeckung in den 90er Jahren durch Giacomo Rizzolati mit Arbeitsgruppe. Untersuchung der Funktion der Motorneurone von Makaken --> Bestimte Neurone aktiv beim Ausführen motorischer Handlungen. Überraschung: Einige Neurone feuerten auch dann, wenn Affen beobachteten, wie Forscher dieselbe Handlung aufüh

  • Name Spiegelneurone enstand, weil sie aktiviert werden, sobald jemand beobachtet, dass ein anderer eine Handlung ausführt.

  • Sie erlauben es, die Absichten des Verhaltens anderer zu begreifen und auch auf eigene Erfahrungen zurückzugreifen, um das Verhalten anderer zu verstehen.

  • Durch Spiegelneurone entstand Fähigkeit, durch Beobachtungen lernen zu können, wodurch kulturelle Evolution entscheidend vorangebracht wurde.

  • Gliazellen (Stützzellen): “Glia” aus dem Griechischen & bedeutet Klebstoff.
    Hauptaufgabe -.Sie halten Neurone an ihrem Platz.
    1. Sie helfen neu gebildeten Neuronen während der Entwicklung, den richtigen Ort im Gehirn zu finden
    2. Bereich Körperhaushalt: Wenn geschädigte Neurone absterben, vermehren sich Gliazellen in diesem Bereich und entsorgen das übbriggebliebene zelluläre Abfallmaterial. Auch können sie überschüssige Neurotransmitter und andere Substanzen aus synaptischen Spalt aufnehmen.
    3. Isolierung - Myelinscheide: besteht aus Gliazellen, die eine Hülle um einige Arten von Axonen bilden. Diese Isolierung aus Fett ehöht die Geschwindigkeit der Übertragung von Nervensignalen enorm.
    4. Aufgabe, zu verhindern, dass giftige Substanzen im Blut die empfindlichen Zellen im Gehirn erreichen. Spezialisierte Gliazellen: Astrozyten Bilden die Blut-Hirn-Schranke, indem Blutgefäße im Gehirn mit beständigen Hülle aus Fett umgeben werden. Fettlösliche Substanzen können Barriere nicht überwinden (Viele Gifte nicht fettlöslich)
    5. Mutmaßung, dass Gliazellen auch bei neuronaler Kommunikation eine aktive Rolle spielen (Beeinflussung von Ionenkonzentration) und elektrochemische Signale generieren.



    3.2.2 Aktionspotenziale

  • Allgemein: Die elektro-chemischen Signale, die vom Nevensystem zu Verarbeitung und Übertragung von Informationen eingesetztwerden, stellen die Basis all dessen dar, was Menschen wissen, fühlen, wünschen und tun.

  • Grundlgegende Frage, jedes Neurons: Soll es zu einem bestimmten Zeitpunkt feuern (Reaktion erzeugen) oder nicht. Jedes Neuron erhält eine Bilanz aus exzitatorischen Inputs (Freuern!) und inhibitorischen Inputs (nicht feuern!)
    --> Das richtige Muster von exzitatorischen Inputs zur rechten Zeit am rechten Ort führt zur Erzeugung eines Aktionspotenzials (Neuron Feuert!)

    Die Biochemische Basis der Aktionspotenziale

  • Jegliche neuronale Kommunikation wird durch den Fluss elektrisch geladener Teilchen (Ionen), durch die Membran des Neurons (dünne “Haut”, die das Zellinnere von äußerer Umgebung trennt), erzeugt.

  • Flüssigkeit der äußeren Umgebung und die Flüssigkeit des Zellinneren enthalten Ionen Natriumatome (Na+), Chloratome (Cl-) und Kaliumatome (K+), die entweder positiv oder negativ geladen sind.

  • Membran der Zelle spielt wichtige Rolle, beim Halten des Gleichgewichts der Bestandteile der beiden Flüssigkeiten. --> Im Ruhezustand: größere Konzentration an Kalium-Ionen innerhalb und größere Konzentration an Natrium-Ionen außerhalb des Axons. Doch Membran ist keine perfekte Barriere --> Einige Natrium-Ionen schlüpfen in die Zelle und Kalium-Ionen heraus

  • Lösung: Transportmechanismen (Pumpen) innerhalb der Membran, die Natrium hinaus und Kalium hineinpumpen --> die Flüssigkeit innerhalb des Neurons ist im Vergleich zur Flüssigkeit außerhalb des Neurons leicht negativ geladen (70 mV) --> Die Flüssigkeit innerhalb ist hinsichtlich der Flüssigkeit außerhalb polarisiert.

  • Diese leichte Polarisierung nennt man Ruhepotenzial: Es stellt den elektrochemischen Kontext bereit, in dem eine Nervenzelle ein Aktionspotenzial erzeugen kann.

  • Übergang eines Ruhepotenzials in ein Aktionspotenzial ist die Reaktion auf das Muster inhibitorischer und exzitatorischen Inputs --> Diese Inputs beeinflussen die Wahrscheinlichkeit, dass sich Bilanz der Ionen innerhalb und außerhalb ändern wird, denn sie verändern Funktionen der Ionenkanäle (die erregbaren Teile der Zellmembran, die bestimmte Ionen selektiv hinaus-und hineinströmen lassen)

  • Inhibitorische Inputs sorgen dafür, dass Ionenkanäle die negative Ladung im Zellinneren beibehalten (hält die Zelle vom Feuern ab)

  • Exzitatorische Inputs verursachen, dass Ionenkanäle Natrium einströmen lassen (Zelle kann feuern) --> Weil Natrium-Ionen positiv geladen, kann ihr Einströmen die relative Bilanz positiver und negativer Ladung über die Zellmembran hinweg verändern.

  • Depolarisierung: Ein Aktionspotenzial beginnt, wenn genügend Natrium in die Zelle eingedrungen ist (das heißt, wenn die exzitatorischen stärker sind als die inhibitorischen Inputs, um Zelle zunächst von -70 mV auf -55mV zu depolarisieren.)

  • Wenn Natrium in das Neuron eingedrungen ist, wird das Innere des Neurons im Vergleich zur Umgebung positiv geladen --> Neuron ist vollständig depolarisiert.

  • Der Nervenimpuls wird entlang des Axons weitergeleitet, indem ein Segment nach dem anderen auf diese Weise depolarisiert wird (sukzessive Depolarisation entlang des Axons)

  • Erneute Herstellung des Ruhepotenzials: Wenn das Innere des Neurons positiv ist, schließen sich Natrium-Kanäle und Kalium-Kanäle öffnen sich --> Stellen negative Ladung wieder her --> Sobald das Ruhepotenzial wiederhergestellt ist, ist dieses Segment des Axons bereit für den nächsten Impuls.

    Eigenschaften des Aktionspotenzials

  • Alles-oder-nichts-Gesetz: Das Außmaß des Aktionspotenzials hängt nicht von der steigenden Intensität der Stimulationen über einen Schwellenwert hinaus ab. Erreicht die Summe der exzitatorischen Inputs einmal die Schwelle, wird ein gleichförmiges Aktionspotenzial generiert. Wird die Schwelle nicht erreicht, ereignet sich kein Aktionspotenzial
    Die Größe des Aktionspotenzials verringert sich nicht über die länge des Axons hinweg. --> Aktionspotenzial als selbst-propagierend (sich selbst forpflanzend), das heißt einmal gestartet, bedarf es keiner Stimulation mehr von außen, um es in Bewegung zu halten.

  • Unterschiedliche Neurone haben unterschiedliche Geschwindigkeit (schnellsten: 200m pro Sekunde, die langsamsten: 10cm pro Sekunde)

  • Die Axone der schnelleren Neurone sind mit einer eng umwickelten Myelinscheide umgeben (bestehend aus Gliazellen). --> Schmale Unterbrechungen zwischen den Isolierungen: Ranvier`sche Schnürringe --> Das Aktionspotenzial hüpft von einem Schnürring zum anderen. Das spart Zeit und Energie, die zum Öffnen/Schließen der Ionenkanäle gebraucht wird

  • Schädigung der Myelinscheide wirft zeitliche Planung des Aktionspotenzials durcheinander und verursacht schwerwiegende Probleme (Krankheit Multiple Sklerose mit Doppelsichtigkeit, Zittern und schließlich Lähmung, entsteht durch die Degeneration der Myelinscheide. Spezialisierte Zellen des Immunsystems greifen, myelenisierte Neurone an, und stören normale synaptische Übertragung)

  • Refraktärphase: Diese Phase entsteht, nachdem ein Aktionspotenzial ein Segment des Axons passiert hat. Sie garantiert, dass sich ein Aktionspotenzial nur in eine Richtung entlang des Axons bewegt --> Eine Ausbreitung rückwärts funktioniert nicht, da sich die vorherigen Segmente des Axons in Refraktärphase befinden.

  • Absolute Refraktärphase: Eine neue Stimulation, gleich wie intensiv, kann kein weiteres Aktionspotenzial hervorrufen.

  • Relative Refraktärphase: Neuron wird nur auf eine Stimulation reagieren, die stärker ist als üblicherweise nötig. (Überschwellige Stimulation)

    3.2.2 Synaptische Übertragung

  • Synapsen als biologisches Medium, in dem sich jegliches Verhalten ereignet. Eine Veränderung der normalen Aktivität, würde Veränderung im Verhalten des Menschen mit sich ziehen.

  • Vorgang: Gelangt das Aktionspotenzial zum Endknöpfchen, muss es seine Informationen dem nächsten Neuron übermitteln

  • Zwei Neurone berühren sich niemals. Sie treffen sich an einer Synapse, bestehend aus einem Schmalen Spalt zwischen der präsynaptischen Membran (Endknöpfchen des sendenden Neurons) und postsynaptischen Membran (Oberfläche eines Dendriten/Somas des empfangenden Neurons.

  • Synaptische Übertragung: die Übermittlung von Informationen von einem Neuron zum anderen über den synaptischen Spalt hinweg. Sie beginnt, wenn Aktionspotenzial am Endknöpfchen synaptische Vesikel dazu anregt, zur inneren Membran des Endknöpfchens zu wandern und sich daran anzuheften. --> Inhalt der Vesikel: Neurotransmitter (biochemische Substanzen), die andere Neurone stimulieren.

  • Ankommendes Aktionspotenzial führt dazu, dass sich die Ionenkanäle öffnen und Kalzium-Ionen in Endknöpfchen einströmen --> Verursacht das Platzen der synaptischen Vesikel und die Freisetzung der Neurotransmitter --> Ausbreitung im synaptischen Spalt --> Anbindung der Neurotransmitter an Rezeptormoleküle (sind in postsynaptischer Membran eingebettet)

  • Anbindung der Neurotransmitter möglich, wenn keine anderen Neurotransmitter vorhanden und wenn sie zur Form der Rezeptormoleküle passen (Schlüssel-Schloss-Prinzip) --> Wenn Anbindung erfolgreich war, dann kann es diesem nächsten Neuron Informationen zum "feuern" oder "nicht feuern" liefern. --> Wenn Aufgabe des Neurotransmitters erfüllt, löst er sich von Rezeptormolekül und wandert zurück in synaptischen Spalt (hier entweder Aufspaltung durch Enzyme oder Wiederaufnahme durch Endknöpfchen)

  • In Abhängigkeit von Rezeptormolekül hat Neurotransmitter einen exzitatorischen oder inhibitorischen Effekt (Derselbe Neurotransmitter kann exzitatorisch /inhibitorisch wirken), entscheidet, ob ein weiteres Aktionsptenzial initiiert wird

    3.2.4 Neurotransmitter und ihre Funktionen

  • Allgemein: Es gibt mehr als 60 Neurotransmitter im Gehirn. Gemeinsamkeiten: Jeder wird im präsynaptischen Endknöpfchen erzeugt und freigesetzt. Durch Vorhandensein des Neurotransmitters wird eine biologische Reaktion erzeugt. Wenn die Ausschüttung verhindert wird folgt keine Reaktion.

    Azetylcholin

  • findet man im zentralen und im peripheren Nervensystem.

  • Abbau von Neuronen, die Azetylcholin absondern, führt z.B. zu Gedächtnisverlust bei Alzeimer-Patienten.

  • Es wirkt auch an Verbindungen zwischen Nerven und Muskeln exzitatorisch, wo es Muskelkontraktionen verursacht. --> Eine Reihe von Giften beeinflusst synaptische Tätigkeit des Azetylcholins: 1. Botulinumtoxin (z.B.in falsch aufbewahrten Lebensmitteln) vergiftet den Menschen, indem Freisetzung des Azetylcholins im Atmungssystem verhindert wird. Botulismus kann zu Ersticken führen. 2. Curare (Gift,genutzt von Amazonasinidanern) lähmt die Atemmuskeln, weil es die Azetylcholinrezeptoren besetzt.

    GABA

  • Gammaaminobuttersäure ist der bekannteste inhibitorische Neurotransmitter im Gehirn. Es kann als Botenstoff in etwa einem Drittel aller Synapsen eingesetzt werden. Neurone, die auf GABA ansprechen befinden sich in Hirnregionen wie dem Thamalus, Hypothalamus und im Okzipitallappen

  • Wichtig bei Psychopathologie, da es neuronale Aktivität hemmt. Wird Konzentration von GABA gesenkt, empfinden Menschen Angst/Depressoin. Angststörungen werden oft mit Benzodiazepinen (Valium, Xanax), die GABA Aktivität steigern. Sie bewirken, dass sich GABA selbst auf effektivere Weise an Rezeptormoleküle binden kann.

    Glutamat

  • Es ist der häufigste exzitatorische Neurotransmitter im Gehirn. Da er dazu beiträgt, Informationen innerhalb des Gehirns zu übertragen, ist er wichtig bei emotionalen Reaktionen, Lernen und Gedächtnis. --> Lernen funktioniert langsamer, wenn Glutamatrezeptoren nicht richtig funktionieren.

  • Störungen der Glutamatkonzentration wurden in Verbindung mit verschiedenen psychischen Störungen (Schizophrenie) oder Abhängigkeitserkrankungen gebracht.


    Dopamin, Norepinephrin & Serotonin

  • Katecholamine als Klasse von chemischen Substanzen zu denen Neurotransmitter Norepinephrin und Dopamin gehören.

  • Beide haben entscheidende Rolle psychischen Störungen --> Substanzen, die Konzentration von Norepinephrin erhöhen, lindern Depressionen.
    --> Umgekehrt fand man bei Schizophrenen einen erhöhrten Dopaminspiegel (Behandlung durch Medikamente,die Dopaminspiegel senken) Auch bei Parkinson hat Dopamin zu besserem Verständnis der Krankheit geführt

  • Neurone, die Serotonin produzieren befinden sich im Hirnstamm (wichtig für Erregungsniveau und viele autonome Prozesse --> Beispiel LSD: Droge erreicht Wirkung, indem sie Wirkweise der Serotonin-Neurone unterdrückt (Serotonin-Neurone hemmen normalerweise andere Neurone) --> Mangel an Hemmung: bizarre Sinneseindrücke

  • Abweichende Serotoninkonzentration im Zusammenhang mit Stimmungsschwankungen --> Reduziertes Serotoninlevel: Depressionen (Erhöhrung des Serotoninspiegels durch Antidepressiva wie Prozac - Wiederaufnahme aus synapt. Spalt wird verhindert)

    Endorphine (endogene Morphine)

  • sind als Neuromodulatoren klassifiziert: jegliche Substanz, die Aktivität des postsynaptischen Neurons modifiziert/moduliert.

  • Wichtig bei der Kontrolle von emotionalem Verhalten und Schmerzempfinden, deshalb "Schlüssel zum Paradies" - Stoffe wie Opium/Morphin binden an denselben Rezeptoren an

  • Endorphine teilweise verantwortlich für Schmerzreduzierende Effekte wie Akkupunktur und Placebos --> Tests aus Forschung beziehen sich auf Naloxon (Abhalten der Anbindung an Rezeptoren) --> Jede Behandlunsmethode zur Schmerzlinderung ist wirkunslos, wenn Naloxon vorhanden --> Endorphine am Werk!

    3.3.1 Ein Blick ins Gehirn

  • Allgemein: Versuch der Neurowissenschaftler die Arbeitsweise des Gehirns auf unterschiedlichen Ebenen zu verstehen. (Angefangen bei großen Strukuren, bis hin zu Eigenschaften von einzelnen Nervenzelle) Die Untersuchungsebene bestimmt die Methoden der Wissenschaftler

    Eingriffe in das Gehirn

  • Verschiedene Forschungsmethoden führen zu einem direkten Eingriff in die Hirnstrukturen

  • Historisch wurzeln sie in Fällen wie von Phineas Cage 1848: Durch Arbeitsunfall stieß Eistenstange durch seinen Schädel. Seine körperlichen Beeinträchtigungen waren jedoch relativ gering. Psychisch war er jedoch ein ganz neuer Mensch --> Veranlassung von Cages Arzt zur Hypothese, dass Aspekte der Persönlichkeit und des rationalen Verhaltens in Gehirn verankert seien --> Damals standen Wissenschaftler noch am Anfang, Hypothesen über Beziehung von Hirnfunktionen und komplexen Verhalten zu bilden.

  • Beispiel Paul Broca: Untersuchung der Rolle des Gehirns bei der Sprache. Beginn seiner Forschung mit Autopsie eines Mannes (konnte nur ein Wort aussprechen "tan"). Feststellung, dass der linke vordere Bereich seines Gehirns schwer geschädigt war --> Untersuchung ähnlicher Fälle, alle mit derselben Schädigung im sogenannten Broca-Areal

  • Auch heute noch Versuch der Forscher, Verhaltensänderungen mit Regionen von Hirnschädigungen in Zusammenhang zu bringen. Problem bei der Untersuchung unfallgeschädigter Gehirne: Keine Kontrolle über Ort / Ausmaß der Schädigung -

  • Entwicklung einiger Techniken um Läsionen (eng umgrenzte Verletzungen des Gehirns) hervorzurufen. Experimente: Durchtrennen von Hirnarealen, Durchtrennen neuronaler Verbindungen bei Tieren --> radikale Wandlung des Wissens über das Gehirn durch Abgleichung der Ergebnisse aus Läsionsstudien an Tieren mit Menschen.

  • Repetitive transkraniale Magnetstimulation (rTMS): durch magnetische Stimulationspulse werden temporäre, vorübergehende "Läsionen" beim Menschen hervorgerufen (Kurzzeitige Abschaltung einzelner Regionen)

    Beispiel: Studie zu Formulierung von Verben und Substantiven. Testen der Reaktionen, nach Lädierung von Gehirnregionen --> Schlechtere Leistung beim Thema Verben, nicht bei Substantiven --> Treffen von Unterscheidungen des Gehirns bei Verben / Substantiven.

  • Anwendung von direkten Stimulationen.Walter Hess (1881-1973): in den 50er Jahren ein Pionier im Einsatz elektrischer Stimulation zur Erforschung tief liegender Hirnstrukturen --> Elektrodenimplantate bei Katzen: Entdeckung, dass Gefühle wie Angst, Wut, Müdigkeit in Abhängigkeit von Ort der Implantate erzeugt / abgeschaltet werden konnte

    Aufzeichnung und Bildgebung der Gehirnaktivität

  • Allgemein: Lokalisierung von Gehirnfunktionen, indem mit Elektroden die elektrische Aktivität des Gehirns, in Reaktion auf einen äußeren Reiz aufgezeichnet wird --> Betrachtung mit unterschiedlicher Genauigkeit, z.B einführen von Mikroelektroden für die Aufzeichnung elektrischer Aktivität eines einzelnen Neurons

  • Elektroenzephalogramm (EEG): Platzieren von Elektroden außen auf den Schädel, um größere, zusammenhängende Muster elektrischer Aktivität aufzuzeichnen --> Verstärkte Darstellung der Gehirnaktivität
    Funktionen: Untersuchung der Beziehung zwischen psychischer Aktivität & Reaktion des Gehirns. --> Beispiel: Nutzen in einem Experiment, dass die unterschiedliche Reaktion des Gehirns beim Betrachten emotionaler Bilder untersucht --> Unterschiedliche Muster bei neutralen, angenehmen & unangenehmen Bildern.

  • Computertomografien (CT / CAT): liefert dreidimensionales Bild vom Gehirn ohne invasive Verfahren, die das Risiko einer Gewebeschädigung mit sich bringen. --> Untersuchung mithilfe von Röntgenstrahlung, die später vom Computer in ein zusammenhängendes Bild des Gehirns verwandelt werden. Häufiger Nutzen bei der genauen Lokalisierung der Stelle und des Ausmaßes von Gehirnschädigung oder Abnormaliät.

  • Positronen-Emissions-Tomografie (PET): Probanden werden ungefährliche radioaktive Substanzen injiziert (wandern über das Blut in Gehirnzellen). Aufzeichnungsgeräte außerhalb des Schädels können Radioaktivität erfassen, die von Zellen ausgeht, die bei geistigen/verhaltensbezogenen Aufgaben aktiv sind. Der Computer erstellt aus den Daten ein dynamisches Bild (PET-Scan), das zeigt, wo psychische Aktivität stattfindet. Liefert genauere Informationen über Funktionen als das MRT.

  • Magnetresonanztomographie (MRT / MRI): nutzt Magnetfelder / Radiowellen zur Erzeugung von Energieimpulsen im Gehirn. Magnetimpuls wird auf verschiedene Frequenzen eingestellt --> Ausrichtung der Atome im Magnetfeld. Nach Abschaltung des Impulses vibrieren die Atome (erzeugen Resonanz), während dem Weg zurück zur Ursprungslage --> spezielle Wellenempfänger orten Resonanz und leiten sie an Computer weiter, der Bilder der Positionen unterschiedlicher Atome in den Hirnarealen generiert. Führt zum Erkennen der Verbindungen zwischen Hirnstrukturen und psychischen Prozessen --> Entstehen der deutlichsten Bilder anatomischer Details

  • Funktionale Magnetresonanztomographie (fMRT, fMRI): Neues Verfahren, dass Vorteile aus PET und MRT vereint, indem magnetische Veränderungen im Blutfluss zu den Gehirnzellen gemessen werden können --> fMRT erlaubt präzisere Aussagen über Struktur und Funktion des Gehirns und wird genutzt, um die Hirnregionen zu entdecken, für viele der wichtigsten kognitiven Fähigkeiten (Aufmerksamkeit, Wahrnehmung) verantwortlich sind.


    6.1.1 Was ist Lernen?

  • Grundlage Kognition: Höhere Geistige Prozesse, die sich auf Lernvorgänge auswirken
    Def. Lernen: Ein erfahrungsbasierter Prozess, der in einer relativ konsistenten Änderung des Verhaltens oder des Verhaltenspotenzial resultiert.

    Lernen - ein Prozess der auf Erfahrung beruht

  • Lernen findet ausschließlich durch Erfahrung statt. Erfahrung: Informationen aufzunehmen (diese zu bewerten und zu transformieren), sowie Reaktionenzu zeigen, welche die Umwelt beeinflussen --> Lernen besteht darin, dass diese Reaktionen durch Erfahrungen, die im Gedächtnis abgespeichert sind, beeinflusst werden.

  • Einige überdauernde Verhaltensänderungen erfordern eine Kombination aus Erfahrung und reifungsbedingter Bereitschaft --> Interesse, welche Verhaltensaspekte durch Erfahrung verändert werden können und wie die Änderungen vonstattengehen.

    Eine Veränderung im Verhalten oder Verhaltenspotenzial

  • Lernen hat dann stattgefunden, wenn ein Ergebnis vorgewiesen werden kann. Lernen selbst kann nicht beobachtet werden (Keine Veränderung im Gehirn zu sehen), vielmehr zeigt es sich in einer Leistung.

  • Im Gegensatz zur Leistung können auch Haltungen wie Wertschätzung oder Verständnis erworben werden, die sich nicht in messbaren Verhalten zeigen. In diesen Fällen wurde ein Verhaltenspotenzial erworben, dass sich durch bestimmte Haltungen und Werte zeigt.

  • Dieser Gegensatz als Beispiel für die Unterscheidung von Lernen und Leistung- Unterschied zwischen dem, was gelernt wurde, und was man im beobachtbaren Verhalten zum Ausdruck kommt

    Eine relativ nachhaltige Veränderung

  • Um als gelernt zu gelten, muss eine Änderung des Verhaltens/Verhaltenspotenzials über verschiedene Gelegenheiten hinweg relativ nachhaltig und konsistent auftreten.

  • Nachhaltige Veränderung bedeutet nicht immer eine permanente Veränderung --> Beispiel Dartwerfen als Laie: Nach Aufgeben des Sportes, wieder Ausgansniveau / Dartwerfen als Profi: Nach Aufgabe des Sportes, fällt es leichter es wieder neu zu erlernen
    --> Ein Teil der früheren Erfahrung wurde "gerettet" --> permanente Veränderung des Verhaltenspotenzials

    Habitutation und Sensibilisierung

  • Habitutation: Verhaltensreaktion lässt nach, wenn ein Stimulus wiederholt wird. Sie trägt dazu bei, die Aufmerksamkeit auf neuartige Ereignisse in der Umgebung zu konzentrieren

  • In Bezug auf Definition von Lernen: Es gibt eine Verhaltensänderung, die auf Erfahrung basiert und diese Verhaltensänderung ist nachhaltig.

  • Sensibilisierung: Eine Reaktion auf einen Stimulus wird eher stärker als schwächer, wenn sie wiederholt auftritt --> Beispiel: Man ist mehrere Male in kurzer Zeit, demselben schmerzhaften Stimulus ausgesetzt --> Selbst wenn Intensität gleichbleibend ist, fühlt sich der letzte Stimulus schmerzhafter an als der erste.

  • Sensibiliserung entspricht den Kriterien für Lernprozesse, da eine Erfahrung einen konsistenten Wandel der Verhaltensreaktion herbeiführt.

  • Organismus tendiert eher zur Sensibilisierung, wenn ein Stimulus intensiv / irritierend ist.



    6.1.2 Behaviorismus & Verhaltensanalyse

  • John Watson (1878-1958) als Begründer des Behaviorismus --> Amerikanische Psychologie 50 Jahre lang durch behavioristische Tradition dominiert ("Psychology from the Standpoint of a Behaviorist" 1919)

  • Seiner Theorie nach, galt Introspektion als kein akzeptables Mittel zur Untersuchung von Verhalten (nicht objektiv, Fehlen wissenschaftlicher Daten) --> Beobachtbares Verhalten als Grundlage der Psychologie mit dem Hauptziel, Verhalten vorherzusagen & zu kontrollieren.

  • B.F.Skinner (1904-1990) Radikaler Behaviorismus:Seine Kritik bezog sich nicht auf die fehlende Legitimität der Introspektion (wissenschaftl. Daten); vielmehr sie als Ursache von Verhalten zu sehen. --> Geistige Ereignisse wie Denken nicht als Ursache, sondern als Beispiele von Verhalten zu verstehen, die durch Umweltstimuli hervorgerufen werden

  • Beispiel Nahrunsentzug (Deprivation) bei Taube: Argumentation, dass sich Verhalten vollständig durch Umweltreize erklären lasse (Deprivation & Futter als Verstärker)
    --> Das Subjektive Gefühl "Hunger" ist nicht Ursache, sondern Ergebnis der Deprivation
    --> Es genügt die Lernprinzipien der Assoziation zu verstehen unter Nichtbeachtung der inneren psychischen Zustände

  • Behaviorismus diente als philosophische Grundlage der Verhaltensanalyse: Beschäftigt sich vorwiegend mit der Entdeckung von Umweltdeterminanten für das Lernen & das Verhalten.

  • Aufgabe von Verhaltensanalytikern: Universelle Regularitäten im Lernen zu entdecken, die in vergleichbaren Situationen bei allen Spezies vorkommen. Untersuchungen an Tieren führten zu entscheidendem Fortschritt, da die komplexen Formen des Lernen Kombinationen und Elaborationen einfacher Prozesse darstellen und nicht qualtitativ andersartige Phänomene sind.


    6.2 Klassisches Konditionieren: Lernen vorhersagbarer Signale

  • Allgemein: Klassisches Konditionieren als eine Grundform des Lernens, wobei ein Stimulus oder ein Ereignis das Auftreten eines anderen Stimulus oder Ereignisses vorhersagt
    --> Der Organismus lernt eine neue Assoziation (Verknüpfung) zwischen zwei Stimuli - Einem Stimulus, der zuvor die Reaktion nicht hervorrief und einem Stimulus, der die Reaktion natürlicherweise hervorrief. --> Gravierende Folgen für das Verhalten

    6.2.1 Pawlows überraschende Beobachtung

  • Iwan Pawlow (1849-1936) war ein russischer Physiologe, der Forschungen zur Verdauung an Hunden durchführte (Nobelpreis 1904) und durch Zufall auf klassische Konditionierung stieß. Zu Untersuchungszwecken bekamen die Hunde Fleischpulver in den Mund gegeben --> Beobachtung, dass Hunde speichelten, bevor das Pulver im Mund war
    --> Mit der Zeit konnte jeder Stimulus, der regelhaft dem Futter vorausging den Speichelfluss in Gang bringen.

  • Pawlow`sche Konditionierung: Stimulus (Ton, der keine Bedeutung für Hund hat) wird in regelmäßigen Abständen präsentiert und danach wird dem Hund Futter gegeben --> Erst einmal Orientierungsreaktion des Hundes, die jedoch mit wiederholten Durchläufen abnahm & Speichelfluss ihren Platz einnahm

  • Pawlows Entdeckung war kein Zufall, sondern konnte unter kontrollierten Bedingungen repliziert werden - Generalisierbarkeit durch Verwendung anderer Reize

  • Kern des Klassischen Konditioniern bilden Reflexe: eine ungelernte Reaktion (Speichelfluss, Lidschlagreflex,Pupillenkontraktion, Kniesehnenreflex) , die in natürlicher Weise durch spezifische Stimuli hervorgerufen wird, die für den Organismus biologisch relevant sind.

  • Unkonditionierter Stimulus (UCS): Jeder Stimulus, der natürlicherweise ein Reflexverhalten hervorruft, da der Stimulus ohne Lernen (also Konditionierung) Kontrolle über Verhalten hat --> Futter

  • Unkonditionierte Reaktion (UCR): Das auf den unkonditionierten Stimulus hin gezeigte Verhalten --> Speichelfluss

  • Neutraler Stimulus (NS) bzw der Ton führt zu keiner bzw irrelevanter Reaktion

  • Im Verlauf des Experiments wurde der NS jedoch wiederholt mit UCS gepaart

  • Ein solcher ehemals neutraler Stimulus wird im Zuge des Konditionierungsprozesses zum Konditionierten Stimulus (CS): Er besitzt nun die Möglichkeit, ähnliches Verhalten wie die UCR auszulösen und ist konditioniert auf seine Assoziation mit dem UCS.

  • Nach mehreren Durchgängen wird der CS die konditionierte Reaktion (CR) auslösen: Jede Reaktion, die der konditionierte Stimulus als Ergebnis des Lernens hervorruft.

  • Zusammenfassend: die Natur gibt uns eine Assoziation UCS-UCR vor, lernen nach dem klassischen Konditionieren hingegen produziert die Assoziation CS-CR --> Der CS erlangt einen Teil des Einflusses auf das Verhalten, der ursprünglich auf den UCS beschränkt war

    6.2.2 Prozesse des Konditionierens

  • Ursprüngliche Experimente Pawlows zogen Studien über das Entstehen und Verschwinden klassisch konditionierter Reaktionen nach sich.

    Ewerb und Löschung

  • Ewerb: Jener Prozess in dem die CR erstmalig auftaucht und ihre Häufigkeit mit zunehmenden wiederholten Paarungen ansteigt. CS und UCS müssen mehrfach gepaart werden, bevor der CS zuverlässig eine CR auslöst. So wird die CR mit steigender Häufigkeit ausgelöst --> Organismus hat konditionierte Reaktion erlernt

  • Entscheidende Eigenschaft: Das Timing: CS und UCS müssen zeitlich eng bei einander liegen, damit der Organismus sie als zeitlich verbunden wahrnimmt.

  • Verzögerte Konditionierung: Die am meisten verbreitete Art der Konditionierung. Hierbei wird der CS vor dem UCS präsentiert und hält mindestens so lange an bis der UCS einsetzt.

  • Spurenkonditionierung: CS wird unterbrochen oder entfernt, bevor der UCS präsentiert wird. Begriff "Spur" bezieht sich auf das Gedächtnis bzw die Erinnerung an den CS

  • Simultane Konditionierung: CS und UCS werden gleichzeitig dargeboten.

  • Rückwärtskonditionierung: CS wird nach dem UCS präsentiert.

  • Konditionierung am Effektivsten bei verzögerter Konditionierung mit kurzem Zeitintervall zwischen CS und UCS --> Zeitintervall hängt von verschiedenen Faktoren ab: Intensität des CS und der Reaktion die konditioniert werden soll. Für muskuläre Reaktionen wie den Lidschlag: Intervalle von 1s oder weniger ; Für viszerale Reaktionen wie Pulsschlag/ Speichelfluss: Intervalle von 5-15 s

  • Schlechte Ergebnisse bei simultaner Konditionierung und besonders schlecht bei Rückwärtskonditionierung. Die Konditionierung ist dort sehr schwach, weil der CS nicht wirklich den Beginn eines UCS vorhersagt.

  • Wenn CS nicht länger den UCS ankündigt, wird die CR mit der Zeit schwächer und tritt überhaupt nicht mehr auf --> Löschung (Extinktion): Die CR tritt in Anwesenheit des CS (und in Abwesenheit des UCS) nicht mehr auf. --> Konditionierte Reaktionen kein überdauernder Teil des Verhaltensrepertoieres.

  • Allerdings kann CR in schwacher Ausprägung erneut auftreten, wenn der CS wieder allein präsentiert wird --> Spontanremission: Das plötzliche Wiederauftreten der CR nach einer Pause, in welcher der UCS nicht dargeboten wurde.

  • Ersparnis: Nach dem ersten Lernen nimmt das Wiedererlernen weniger Zeit in Anspruch. Beim Organismus kann etwas der ursprünglichen Konditionierung behalten worden sein, trotz experimenteller Löschung --> Löschung hat die Leistung vermindert, das ursprünglich Gelernte nicht völlig aufgehoben. --> Unterschied zwischen Lernen und Leistung!

    Reizgeneralisierung

  • Wenn eine CR auf einen spezifischen CS hin konditioniert wurde, dann können auch ähnliche Stimuli die Reaktion auslösen --> Beispiel: Ursprünglicher Ton mit hoher Frequenz, jedoch wird die CR auch durch tieferen Ton ausgelöst.

  • Reizgeneralisierung: Automatische Erweiterung der Reaktion auf Stimuli, die nie mit dem Ursprünglichen UCS gepaart wurden. Je ähnlicher der neue Reiz dem ursprünglichen CS ist, desto stärker wird die Reaktion ausfallen.

  • Wenn die Reaktionsstärken für Serien von Reizen bestimmt, die entlang einer Dimension unähnlicher werden, so erhält man Generalisierungsgradienten

  • Da wichtige Stimuli in der Natur selten in exakt der gleichen Form auftreten baut die Reizgeneralisierung einen Sicherunsfaktor für Ähnliches ein, indem hierdurch der Bereich des Lernens über die ursprüngliche spezifische Erfahrung hinaus ausgedehnt wird --> Neue, jedoch vergleichbare Ereignisse können als bedeutungsgleich erkannt werden.


    Reizdiskrimination

  • Unter manchen Umständen ist es wichtig, dass eine Reaktion ausschließlich auf eine kleine Bandbreite von Reizen erfolgt (Tiere). Reizdiskrimination: Ein Organismus lernt, auf verschiedene Reize, die sich von dem CS entlang einer Dimension unterscheiden, unterschiedlich zu reagieren. (Beispiel: Farbstufen, oder Tonhöhen)

  • Reizdiskrimination kann durch Diskriminationstraining geschärft werden, indem nur einer der Reize den UCS ankündigt. Im Laufe des Trainings werden die Reaktionen auf andere, unähnliche Reize schwächer.

  • Damit ein Organismus optimal in seiner Umwelt funktioniert, müssen die Prozesse der Generalisierung und der Diskrimination sehr gut ausbalanciert sein. Der Organismus sollte weder überselektiv, noch überreaktiv sein.

  • Klassisches Konditionieren stellt Mechanismus dar, der es Lebewesen ermöglicht, effizient auf die Strukturen der Umwelt zu reagieren.


    6.2.3 Erwerb unter der Lupe

  • Pawlow: CS und UCS müssen in enger zeitlicher Beziehung stehen --> Diese zeitliche Beziehung wird zeitliche Kontiguität gentannt

  • Robert Rescorla modifizierte Klassisches Konditionieren in den 60er Jahren: Experimentaldesign für Hunde, mit zwei Bedingungen: Zum einen waren Ton (CS) und elektrischer Schock (UCS) lediglich durch Kontiguität verbunden, was Pawlows Annahmen entsprach. Zum Anderen, sagte der Ton zuverlässig das Auftreten des Schocks voraus.

  • Es reicht also nicht aus, ass CS und UCS eine zeitliche Kontiguität aufweisen, der CS muss zusätzlich eine zuverlässige Vorhersage (Kontigenz) für das Auftreten des UCS erlauben, damit klassisches Konditionien stattfindet.

  • Diese Annahme ist sinnvoll, denn in natürlichen Situationen in denen Lernen zur Anpassung an die Umwelt führt, treten Reize in Clustern auf und nicht in klar abgegrenzten, einfachen Einheiten wie in Laborexperimenten.

  • Bedingung, die ein Reiz erfüllen muss, um als Grundlage für eine klassische Konditionierung zu dienen: Er muss in der Umwelt informativ sein. Das Erfordernis der Information erklärt, warum Konditonierung dann am schnellsten erfolgt, wenn der CS sich deutlich von allen anderen Reizen abhebt. --> Stimulus wird eher bemerkt, wenn er intensiver ist und sich mehr von anderen Stimuli abhebt.

  • Ein neutraler Stimulus wird nur dann ein effektiver CS, wenn er sowohl angemessen kontingent, wie auch informativ ist.




    6.2.4 Klassisches Konditionieren: Anwendungen

    Emotionen und Vorlieben

  • Starke emotionale Reaktion oder starke Vorliebe als ein Ergebnis klassischer Konditionierung?

  • Da klassisch konditionierte Reatkionen nicht durch bewusstes Denken aufgebaut werden, sind sie auch sehr schwer durch bewusstes Denken zu eliminieren.

  • Das am besten untersuchte Alltagsergebnis des klassischen Konditionierens ist die Furchtkonditionierung. John Watsons Annahme, dass viele Furchreaktionen als eine Paarung eines neutralen Stimulus mit etwas natürlicherweise Furchtauslösendem verstanden werden können.

  • Experiment: Der kleine Albert:Training, Angst vor einer weißen Ratte zu haben, die er ursprünglich gerne mochte, inem sie das Erscheinen der Ratte mit aversiven UCS paarten (lautes Geräusch) --> Die unkonditionierte Schreckreaktion und der emotionale Stress, bildeten die Basis für das Lernen der Furchtreaktion. Albert lernte vor gefürchtetem Stimulus zu fliehen --> emotionale Konditionierung wird zur Verhaltenskonditionierung (heute nicht mehr ethisch vertretbar)

  • Angstkonditionierung hat einen starken Einfluss. Einziges traumatisches Ereignis kann dazu führen, dass man stark körperlich, emotional und kognitiv reagiert (vielleicht ein ganzes Leben lang)

  • Auch Reaktionen der Freude sind Beispiele von klassischer Konditionierung
    --> Beispiel: Die Werbebranche will im Denken potenzieller Käufer Assoziationen zwischen ihren Produkten und Leidenschaft herzustellen --> Die Erwartung, dass Elemente der Werbung als UCS dienen, um die UCR auszulösen (Gefühl/Leidenschaft) --> Hoffnung besteht darin, dass das Produkt zum CS wird.


    Drogenabhängigkeit und Lernen

  • Beispiel: Drogenabhängiger wird leblos aufgefunden. Vermutung Überdosis. Jedoch ist die Dosis geringer, als die alltägliche Dosis des Mannes. Wie kann ein Drogenabhängiger mit hoher Drogentoleranz in diesem Falle an Überdosis sterben?

  • Pawlow 1927 und später Kollege Bykov 1957: es kann sich eine Toleranz gegenüber Opiaten herausbilden kann, wenn die pharmakologische Wirkung antizipiert wird.

  • Herausarbeitung dieser Idee von Shepard Siegel mit der Annahme, dass das Setting, in dem der Konsum stattfindet, als konditionierter Stimulus für eine Situation dient, in welcher der Körper sich zu schützen lernt, indem er verhindert, dass die Droge ihre übliche Wirkung entwickelt. Droge (UCS) erzeugt bestimmte physiologische Reaktion auf die der Körper mit Gegenmaßnahmen reagiert, um wieder Homöostase herzustellen. Die Gegenmaßnahmen bilden die UCR.

  • Die sogenannte kompensatorische Reaktion wird mit der Zeit zu der CR.

    Das heißt, dass sich der Körper in Settings, die gewohnheitsmäßig mit Drogenkonsum (CS) assoziiert sind, physiologisch auf die erwarteten Effekte der Droge vorbereitet (CR)

  • Toleranz entsteht nun dadurch, dass der Konsument in diesem Setting jene Menge konsumieren muss, die die kompensatorische Reaktion übersteigt. Nur so entsteht der "positive" Effekt. --> Die Dosis muss immer mehr gesteigert werden, da die konditionierte kompensatorische Reaktion selbst anwächst.

  • Experiment: Ablauf der Konditionierung: Ratten erwarten in bestimmtem Setting (CS) eine Heroininjektion (UCS) oder eine Zuckerlösunginjektion (UCS) --> Toleranzentwicklung bei Heroin. --> Bei Veränderung des Settings starben doppelt so viele Ratten.
    --> Jene Ratten waren im üblichen Setting besser auf die potenziell gefährliche Situation vorbereitet, da der Kontext (CS) eine physiologische Reaktion (CR) hervorrief, die der typischen Wirkung der Drogen entgegenlief.

  • Befragung bei Heroinabhängigen: Kritischer Schuss der zu Überdosis führte in neuem Setting, einer nicht vertrauten Umgebung/Situation.

  • Eine Dosis, für die ein Abhängiger in einem bestimmten Setting eine Toleranz entwickelt hat, kann zu einer Überdosis in einem nicht vertrauten Setting werden.

  • Das klassische Konditionieren gilt als wichtige Komponente für viele Drogen (inkl. Alkohol) --> Hilfe bei der Erklärung der Mechanismen von Drogenabhängigkeit.

    6.2.5 Biologische Einschränkungen

  • Lernen von Geschmacksaversionen: die genetische Möglichkeit, Nahrung nur zu probieren und zu lernen, welche Nahrung sicher und welche giftig ist. Ein sehr wichtiger Mechanismus, der einen großen Wert für das Überleben erbringen kann.

  • Sie wird durch eine einzige Paarung eines CS (der neue Geschmack) und seiner Konsequenzen (Ergebnis des zugrunde liegenden UCS, das Element, das die Erkrankung auslöst) erlernt. Dies gilt sogar für große Intervalle,etwa 12 Stunden & mehr zwischen Substanzaufnahme und Erkrankung. Die Assoziation bleibt schon nach einer enzigen Erfahrung enthalten, da dieser Mechanismus zum Überleben beiträgt.

  • John Garcia (Psychologe, der das Lernen von Geschmacksaversionen nachwies) & Kollege Robert Koelling zeigten, dass Tiere eine biologische Pädisposition zum Lernen bestimmter Assoziationen besitzen
    -->Einige CS-UCS-Kombinationen können bei bestimmten Tierspezies klassisch konditioniert werden, andere Kombinationen jedoch nicht.

  • Resultat eines Experiments an Ratten & Trinkverhalten: Starke Reduktion des Trinkens, bei der Assoziation Geschmack mit Krankheit / Lärm und Licht mit Schmerzen --> Geschmack sowie Lärm und Licht sind nun als konditionierte Stimuli wirksam - Ergebnis: Angeborene Neigung der Ratten, bestimmte Stimuli mit gewissen Folgen zu assoziieren.

  • Geschmacksaversionen in der Anwendung --> Beispiel: Der Versuch Kojoten davon abzubringen, Schafe zu reißen, indem man die Schafe vergiftete --> Erfolg nach einmaliger Krankheitserfahrung

  • Klassische Studie: Das Paaren neuer Geschmacksrichtungen mit Substanzen, durch die sich Ratten krank fühlten. Miteinbeziehen auch andere Aspekte wie die Temperatur der Nahrung, die konditionierte Aversionen herveiführen --> Nahrung verfügt sowohl über Geschmack als auch Temperatur. Wenn eine Krankheit mit einer der beiden Dimensionen in Verbindung gebracht wird, erlernen Ratten schnell konditionierte Aversionen

    6.3 Operantes Konditionieren: Lernen von Konsequenzen

    6.3.1 Das Gesetz des Effektes

  • Edward L. Thorndike: (1847-1949) Beobachtung von Katzen beim Versuch aus einer Puzzlebox herauszukommen. Art des Lernens: Durch impulsive Handlung, wird eine Tür geöffnet. Der erfolgreiche Impuls wurde durch die resultierende Freude eingeprägt.

  • Annahme der Reiz-Reaktions-Verbindung (S-R-Verbindung / stimulus-response connection) --> Lernen sei eine Verbindung zwischen Reizen der Situation und Reaktionen, die erlernt wurden. Das Lernen einer angemessenen Reaktion, die in einer bestimmten Stimulusumgebung zu dem gewünschten Ergebnis führt

  • Das Lernen der S-R-Verbindung erfolgte allmählich und automatisch auf mechanistische Weise, da das Tier die Konsequenzen seiner Handlungen auf der Grundlage von Versuch und Irrtum erfuhr --> Zunehmen der Verhaltensweisen, die befriedigende Konsequenzen zeigten --> Entwicklung zu dominanten Verhaltensweisen

  • Dieses Verhältnis von Verhalten und Konsequenzen als Gesetz des Effektes: Folgt auf eine Reakton eine befriedigende Konsequenz, so erhöhrt sich die Auftretenswahrscheinlichkeit dieser Reaktion. Folgt eine nicht zufriedenstellende Konsequenz, so vermindertsich die Auftretenswahrscheinlichkeit dieser Reaktion.

    6.3.2 Experimentelle Verhaltensanalyse

  • Forschungsprogramm von B.F. Skinner mit der Zielsetztung, durch systematische Variation der Reizbedingungen den Einfluss von Umweltbedingungen auf die Auftretenswahrscheinlichkeit von Reaktionen zu untersuchen --> Aufgabe der experimentellen Analyse liegt in der Entdeckung jener Variablen, die auf die Wahrscheinlichkeit einer Reaktion einwirken.

  • Die Analyse des Empirikers Skinner war eher experimentell als theoretisch, denn er bevorzugte den Bottom-up-Ansatz. Beginnt mit der Sammlung von Daten, Beurteilung im Kontext eines Experiments und wird nicht durch Theorien geleitet.

  • Zur experimentellen Untersuchung von Verhalten, entwickelte Skinner Methoden zum operanten Konditionieren (instrumentelles Konditionieren): Man manipuliert die Konsequenzen des Verhaltens, um den Effekt der Konsequenzen auf das Folgeverhalten abzuschätzen. Als operant gilt jedes Verhalten, das von einem Organismus gezeigt wird und das anhand seiner beobachtbaren Effekte auf die Umwelt des Organismus beschrieben werden kann --> Bezeichnung für die Beeinflussung der Umwelt, d.h. die Ausführung von Operationen an der Umwelt.

  • Operante Reaktionen, werden nicht durch spezifische Reize ausgelöst, wie beim Klassischen Konditionieren

  • Die Auftretenswahrscheinlichkeit von Verhaltensweisen kann durch eine Manipulation der Effekte, die sie auf die Umwelt haben, erhöht oder gesenkt werden --> Operantes Konditionieren verändert somit die Wahrscheinlichkeit unterschiedlicher Arten operanten Verhaltens als Funktion der Umweltkonsequenzen, die das jeweilige Verhalten produziert.

  • Skinner-Box: in der speziell für Ratten hergestellten Vorrichtung kann auf einen Hebeldruck die Freigabe einer Futterpille folgen. Sie erlaubt dem Experimentatoren, die Variablen zu untersuchen, von denen es abhängt, ob Ratten das Verhalten, das die Versuchsleiter definieren, lernen - oder auch nicht.

  • In vielen Experimenten besteht de interessierende Messgröße darin, in welchem Ausmaß ein Tier dieses spezielle Verhalten in einer bestimmten Zeitspanne zeigt. Hierzu werden das Muster und die Gesamtmenge des Verhaltens während des Verlaufs aufgezeichnet. Durch diese Methode konnte Skinner den Effekt von Kontingenzen bei der Verstärkung auf das Verhalten von Tieren untersuchen.


    6.3.3 Kontingenzen bei der Verstärkung

  • Kontingenz bei der Verstärkung: eine zuverlässige Beziehung zwischen einer Reaktion und den dadurch hervorgerufenen Änderungen in der Umwelt.

  • Beispiel: Auf das Picken einer Taube auf eine Scheibe (Reaktion) folgt generell die Gabe von Körnern (entsprechende Veränerung in Umwelt) --> Diese zuverlässige Beziehung (Kontingenz) bei der Verstärkung, wird von Zuwachs der Pickrate begleitet --> Damit die Körnergabe ausschließlich die Wahrscheinlichkeit des Pickens erhöht, muss diese ausschließlich kontingent zu Pickreaktion sein --> Sie muss relgemäßig nach dieser Reaktion erfolgen, nicht aber nach anderen Reaktionen.

    Positive Verstärker

  • Verstärker: Jeder Stimulus, der - wird er kontingen zum Verhalten dargeboten - die Wahrscheinlichkeit deses Verhaltens im Lauf der Zeit erhöht. Als Verstärkung wird die Gabe von Verstärkern in der Folge von gezeigten Reaktionen bezeichnet.

  • Verstärker sind empirisch definiert und zwar durch den Effekt, mit dem sich die Wahrscheinlichkeit einer Reaktion verändert

  • Erkennen von 3 Klassen von Reizen im Alltag: neutrale, angenehme und aversive (man möchte diese meiden) Reize --> Was als angenehm oder aversiv wahrgenommen wird, ist durch das Verhalten jedes individuellen Organismus definiert.

  • Positive Verstärkung: Auf ein Verhalten erfolgt ein positiver Reiz (Tier zeigt Reaktion, wenn Futtergabe folgt)

  • Negative Verstärkung: Auf ein Verhalten folgt die Entfernung eines aversiven Reizes. --> Wahrscheinlichkeit eines Verhaltens wird höher, wenn dadurch etwas unangenehmes vermieden werden kann. Es gibt zwei Arten von Lernumständen:

  • Fluchtkonditionierung: Lernen, dass eine Reaktion es möglich macht, einem aversiven Stimulus zu entkommen (Regenschirm aufspannen bei Regen)

  • Vermeidungskonditionierung: Lernen von jenen Reaktionen, die es ermöglichen, aversiven Stimuli zu entkommen, bevor diese einsetzen. (Summer, bei fehlendem Anschnallen in Auto - man lernt sich anzugurten, um den aversiven Lärm zu vermeiden)

  • Unterscheidung zwischen positiver & negativer Verstärkung: Beide Verstärkungen erhöhen die Wahrscheinlichkeit der Reaktion, die zuvor erfolge. Positive Verstärkung erhöht die Reaktionswahrscheinlichkeit durch das Auftreten eines angenehmen Reizes in der Folge der Reaktion ; negative Verstärkung erzielt das Gleiche, allerdings auf umgekehrte Weise. Hier wird ein aversiver Stimulus in der Folge einer Reaktion entfernt, reduziert & verhindert

  • Wenn die Verstärkung ausbleibt, tritt operante Löschung ein: Wenn ein Verhalten keine verhersagbaren Konsequenzen mehr zeigt, geht es auf das Ausgangsniveau (Vor operanter Konditionierung) zurück

  • Spontanremission Das plötzliche Auftreten der konditionierten Reaktion, wenn eine gewisse Zeit nach der anfänglichen Verhaltenslöschung vergangen ist.


    Positive und negative Bestrafung

  • Bestrafungsreiz: Jeder Stimulus, der - wird er kontingent zu einer Reaktion dargeboten - die Wahrscheinlichkeit dieser Reaktion im Laufe der Zeit senkt. Bestrafung ist die Gabe eines Bestrafungsreizes in der Folge einer gezeigten Reaktion.

  • Bestrafung 1. Art - positive Bestrafung ("positiv" weil etwas hinzugefügt wird): Nach dem Verhalten folgt die Verabreichung eines aversiven Reizes - Die Reaktion wird eliminiert oder unterdrückt.

  • Bestrafung 2. Art - negative Bestrafung ("negativ" weil etwas entfernt wird) Auf das Verhalten folgt der Wegfall eines angenehmen Reizes - Die Reaktion wird eliminiert oder unterdrückt

  • Bestrafung senkt immer die Wahrscheinlichkeit des Wiederauftretens einer Reaktion, während Verstärkung die Wahrscheinlichkeit des Wiederauftretens einer Reaktion erhöht


    Diskriminative Reize und Generalisierung

  • Manchmal möchte man die Wahrscheinlichkeit einer Reaktion nur in einem bestimmten Kontext ändern --> Im Zuge der Assoziation mit Verstärkung oder Bestrafung erlangen bestimmte Reize, die einer spezifischen Reaktion vorausgehen, die Eigenschaft den Kontext des Verhaltens festzulegen.

  • Diese Stimuli heißen diskriminative Hinweisreize: Organismen lernen, dass ihr Verhalten in Anwesenheit bestimmter Reize, nicht aber in Anwesenheit anderer, mit großer Wahrscheinlichkeit einen bestimmten Effekt auf die Umwelt zeigt.
    Beispiel: Eine grüne Ampel verstärkt das Verhalten, eine Kreuzung zu passieren. Ist die Ampel rot, wird dieses Verhalten bestraft (Unfall, Strafzettel)

  • Folge von diskriminativem Reiz,Verhalten und Konsequenz als Dreifach-Kontingenz, die die meisten menschlichen Verhaltensweisen erklären kann.

  • Unter Laborbedingungen kann die Manipulation der Konsequenzen in Anwesenheit diskriminativer Stimuli eine wirksame Kontrolle auf das Verhalten ausüben (Beispiel Taube: Körner werden nach Picken nur bei grünem Licht, dem disrkiminativem Hinweiszreiz, gegeben, jedoch nicht bei rotem)

  • Organismen lernen schnell zwischen diesen Bedingungen zu unterscheiden und reagieren regelmäßig bei Vorliegen des einen Stimulus, jedoch nicht bei Anwesenheit des anderen. Durch Manipulation der Komponenten der Dreifach-Kontingenz kann man das Verhalten auf einen bestimmten Kontext festlegen.

  • Generalisierung: Organismen generalisieren auch ihre Reaktionen auf andere Reize, die dem diskriminativem Stimulus ähnlich sind. Wurde erst einmal eine Reaktion bei Vorliegen eines diskriminativen Reizes verstärkt, dann kann ein ähnlicher Reiz zu einem diskriminativem Hinweis für die gleiche Reaktion werden

    6.3.4 Nutzung von Kontingenzen bei der Verstärkung

  • Wie kann man das Verhalten definieren, das man verstärken oder löschen will?
    Genaue Kenntnis des Zielverhaltens, dessen Wahrscheinlichkeit man ändern möchte. Verstärkung muss genau zu diesem Verhalten kontingent sein. Wenn Verstärker nicht kontingent eingesetzt werden, haben sie nur einen geringen Einfluss auf das Verhalten

  • Wie kann man den Kontext definieren, in dem ein Verhalten angemessen oder ungangemessen ist?
    Man möchte selten eine Ausprägung von Verhalten komplett erlauben oder verbieten. Man muss die diskriminativen Reize definieren und herausfinden, inwiefern, sich die gewünschte Reaktion auf ähnliche Reize überträgt. Beispiel: Wenn ein Kind in der Schule sitzt, wird es vielleicht auch auf andere "ernste" Situationen übergreifen.

  • Unbeabsichtigte Verstärkung: Nimmt man an, man möchte ein bestimmtes Verhalten löschen, muss man die Verstärker für dieses Verhalten ausmachen und diese entfernen, um das Verhalten zu reduzieren. Beispiel: Junge hat Wutanfälle und bekommt dadurch Aufmerksamkeit (Sekundärgewinn des ungewünschten Verhaltens) --> Man versucht das Verhalten zu eliminieren, indem der Verstärker entzogen wird. Besser noch: Kombination aus Löschung und einer positiven Verstärkung sozial erwünschter Verhaltensweisen.

    Verstärker bei der Erziehung

  • Elternforschung: Unwissentliche Verstärkung als eine Ursache ernsthafter Verhaltensprobleme bei Kindern.

  • Gerald Patterson: Modell der Nötigung (coercionmodel) für antisoziales bestraflich oder hartes Verhalten --> Kinder gelten als gefährdend, wenn Eltern als Reaktion auf kleinere Fehlverhaltensweisen Drohungen aussprechen, ohne sie wahr zu machen. Dann werden Kinder allerdings plötzlich stark bestraft.

  • Modell der Nötigung geht davon aus, dass der Versuch von Eltern, mit Bestrafung auf das Verhalten der Kinder einzuwirken, zumeist ineffektiv ist

  • Die Kinder lernen, dass relativ starkes aggressives und nötigendes Verhalten notwendig und angemessen ist, um ein Ziel zu erreichen (Zyklus steigender Intensität des antisozialen Verhaltens der Kinder)

  • Es wird von Bestrafung abgeraten: Physische Bestrafung hat negative Folgen - Beispiel: Studie zum Zusammenhang von phyisischer Bestrafung und Verhaltensproblemen mit dem Ergebnis: je mehr physische Gewalt, desto aggressiver das spätere Verhalten.

  • Positive Verstärkung besser als Bestrafung, denn unerwünschte Verhaltensweisen können vollständig unterdrückt werden, wenn man alternatives und inkompatibles Verhalten verstärkt. - Kinder darin zu verstärken, positives Verhalten zu zeigen, ist auf lange Sicht dem Bestrafen von unerwünschtem Verhalten weit überlegen

  • "Timeouts" als andere Strategie, das Verhalten von Kindern zu ändern

  • Es gibt oft aus einer Kombination von Verstärkung und Bestrafung - Beispiel: Eltern wenden Bestrafung 2. Art an: Hausarrest - Teenager wendet "Strafabmilderungsverfahren" (Hilfsbereitschaft) und Hausarrest wird verkürzt - Hilfsbereites Verhalten wurde negativ verstärkt, weil die Hilfe zur Entfernung des aversiven Stimulus "Hausarrest" geführt hat. Bei erneutem Hausarrest (diskriminativer Hinweisreiz) wird das hilfsbereite Verhalten wahrscheinlicher einsetzen

    6.3.5 Verstärkereigenschaften

  • Verstärker verändern Verhalten, halten es aufrecht und besitzten komplexe Eigenschaften. Sie können auch durch Erfahrung gelernt werden, statt biologisch determiniert zu sein und sie können aus Aktivitäten statt aus Objekten bestehen.

    Konditionierte Verstärker

  • Primäre Verstärker: beispielsweise Nahrung oder Wasser, deren Verstärkereigenschaften biologisch determiniert sind

  • Konditionierte Verstärker (sekundäre Verstärker): neutrale Stimuli wurden mit der Zeit durch Assoziation mit primären Verstärkern zu konditionierten Verstärkern, die nun für die Verstärkung operanter Reaktionen zur Verfügung stehen.

  • Jeder Reiz kann durch Assoziation mit einem primären Verstärker zu einem konditionierten Verstärker werden.

  • Ein großer Teil des menschlichen Verhaltens ist durch eine Vielzahl konditionierter Verstärker bestimmt (Geld, Noten,Statussymbole)

  • Aus der Forschung: Schimpansen wurden mithilfe von Rosinen als primäre Verstärker trainiert, Probleme zu lösen --> Anschließend wurden Tokens zusammen mit Rosinen gegeben --> Als dann ausschließlich Tokens gegeben wurden, arbeiteten die Schimpansen weiter für "ihr Geld", da sie diese später in einem Automaten gegen Rosinen tauschten

  • Konditionierte Verstärker sind wirksamer und leichter zu handhaben als primäre Verstärker. Beispiel Schule: (1) Nur wenige Primäre Verstärker sind während des Unterrichts verfügbar, während jeder Stimulus, der sich unter Kontrolle des Lehrers befindet, ein konditionierter Verstärker sein kann (2) Man kann sie schnell geben (3) Sie sind transportabel (4) der Verstärkereffekt kann schneller zum Tragen kommen, da Wirkung nur von der Wahrnehmung abhängt, den Verstärker bekommen zu haben

  • Beispiel: Nutzung des Tokensystems in psychatrischen Kliniken oder Entzugseinrichtungen --> Explizit erwünschtes Verhalten (Körperpflege) wird definiert und die Patienten bekommen Tokens, wenn das Verhalten gezeigt wird (Späterer Tausch gegen Priviliegien) - --> Besonders effektiv, um die Häufigkeit positiver sozialer Interaktionen zu erhöhen.

    Reaktionsentzug und positive Verstärker

  • Theorie des Reaktionsentzugs (response deprivation theory): Verhaltensweisen werden dann bevorzugt und daher verstärkend, wenn ein Organismus daran gehindert wird, sie auszuüben. Beispiel: Kind wird Videospiel weggenommen, weil er Hausaufgaben machen muss - Um die Deprivation zu überwinden,wird das Kind Hausaufgaben machen.

  • Dieselbe Aktivität kann nicht für jeden Organismus immer als Verstärker funktionieren. Man muss z.B. wissen, ob dem Organismus die Nahrung entzogen wurde, bevor man versucht, Futter als Verstärker einzusetzen.

  • Praktisch jede Aktivitität kann als Verstärker wirken, denn Deprivation kann man bei allem erfahren.


    6.3.6 Verstärkerpläne

  • Geschichte von B.F.Skinner: Zu wenig Futter für Rattenexperimente - Sparen des Futters dadurch, dass Ratten nur nach einem gewissen Zeitintervall Futterpillen bekamen, ganz egal wie oft sie den Hebel drückten.

  • Trotz dieses Verfahrens partieller Verstärkung, reagierten die Ratten genau so wie bei kontinuierlicher Verstärkung - Reaktion in einer Extinktionsphase ohne jegliches Futter: Ratten mit partieller Verstärkung reagierten länger, als die unter kontinuierlicher.

  • Effekt partieller Verstärkung: Reaktionen, die unter Plänen partieller Verstärkung erworben wurden, sind löschungsresistenter als Reaktionen,die unterkontinuierlichen Verstärkerplänen erworben wurden

  • Entdeckung der Wirksamkeit partieller Verstärkung führte zur Forschung der Verstärkerpläne: Im Alltag/Labor werden Verstärker entweder nach einem Quotenplan (ratio schedule) oder nach einem Intervallplan (interval schedule) gegeben. Beim Quotenlan erfolgt die Verstärkung nach einer bestimmten Anzahl von Reaktionen, bei einem Intervallplan nach einem bestimmten Zeitintervall auf die erste Reaktion hin.

  • In beiden Fällen kann das Muster der Verstärkung entweder konstant und somit fixiert oder unregelmäßig und somit variabel sein.

    Fixierte Quotenpläne (FR - fixed ratio schedules)

  • Die Verstärkung erfolgt, nachdem der Organismus eine festgelegte Zahl von Reaktionen zeigte. FR-1-Plan: auf jede Reaktion erfolgt eine Verstärkung (das ist der ursprüngliche Plan kontinuierlicher Verstärkung), Bei FR-25-Plan: bei jeder 25. Reaktion

  • Sie produzieren eine hohe Auftretenswahrscheinlichkeit von Reaktionen, da eine unmittelbare Korrelation zwischen Reaktionen und Verstärkung besteht.

  • Auf jeden Verstärker erfolgt eine Pause: Je größer der Quotient ist, desto länger die Pause

  • Wenn das Verhältnis der Verstärkung allerdings zu mager ist, ohne dass das Tier darauf trainiert wurde, so viele Reaktionen zu prodzieren, kann das in Löschung münden.

    Variable Quotenpläne (VR - variable ration schedule)

  • Die mittlere Anzahl von Reaktionen zwischen den Verstärkern ist im Vornhinein festgelegt. Ein VR-10-Plan bedeutet, dass im Mittelwert eine Verstärkung auf jede 10. Reaktion erfolgt (sie kann daher manchmal auf die 1. Reaktion aber auch erst auf die 20. Reaktion erfolgen.

  • VR-Pläne lassen die Menschen im Unklaren, wann die Belohnung gegeben wird.

  • VR-Pläne produzieren die höchste Reaktionsrate und den größten Löschungswiderstand, insbesondere wenn der VR-Wert groß ist.

  • Beispiel: Glücksspiel unter Kontrolle von VR-Plänen: Reaktion (Münzen einzahlen) wird auf einem hohen konstanten Niveau durch die Gewinnauszahlungen aufrechterhalten, die nur nach einer variablen Anzahl von Reaktionen (Münzeinwürfen) erfolgen.

    Fixierte Intervallpläne (FI - fixed interval schedule)

  • Verstärkung erfolgt auf die erste Reaktion nach einem bestimmten Zeitintervall. Unter einem FI-10-Plan muss der Proband nach einer Verstärkung 10 Sekunden warten, bevor eine weitere Reaktion verstärkt werden kann - unabhängig von der Anzahl dazwischenligender Reaktionen.

  • Unmittelbar nach der Verstärkung zeigt das Tier nur wenige Reaktionen, wenn die Zeit der Belohnung näher rückt, nimmt die Reaktionsrate immer mehr zu.

  • Reaktionsraten unter FI-Plänen formen ein Bogenmuster

    Variable Intervallpläne (VI- variable interval Schedule)

  • Ein mittleres Zeitinervall wird festgelegt. In einem VI-20-Plan wird im Mittelwert ein Verstärker pro 20 Sekunden gegeben.

  • Ein VR-Plan produziert eine mäßige, aber sehr stabile Verhaltensrate

  • Löschung erfolgt allmählich und langsamer als unter fixierten Intervallplänen

    6.3.7 Shaping

  • Beispiel Skinner-Box: Auch das Verhalten einen Hebel zu drücken ist ein gelerntes Verhalten der Ratte

  • Shaping durch schrittweise Annäherung: Eine Methode um neues oder komplexes Verhalten zu trainieren - Alle Reaktionen werden verstärkt, die sich der gewünschten Reaktion schrittweise annähern und schließlich mit ihr übereinstimmen

  • Anwendung: Futterentzug der Ratten für einen Tag (Ohne Deprivation ist Futter kein Verstärker) - Darstellung des Futters in Spender (Ratte lernt dort nach Futter zu suchen) - Nun wird die Futtergabe kontingent auf bestimmte Aspekte des Verhaltens festgelegt (Ausrichtung zum Hebel - Futter) - Jede Annäherung wird belohnt.

  • Damit Shaping erfolgreich wird, muss definiert werden, werlches Verhalten als Fortschritt in Richtung Zielverhalten gilt. Es muss differenzielle Verstärkung eingesetzt werden, um jeden Schritt zu verbessern.

  • Aus der Forschung: Stabhochspringer strebte die Höhe an, die seinem physisches Potenzial entsprach an. Schrittweise wurde durch Lichtschranke & Signalton (konditionierter Verstärker) die Höhe erreicht - Durch die Shaping-Prozedur konnt er dieses Ziel durch allmähliche Annäherung erreichen


    6.3.8 Biologische Einschränkungen

  • Annahme, dass Lernprozesse bei allen Tieren übereinstimmend sind (Übereinstimmungen bei verschiedenen Spezies) --> Forscher kamen jedoch zum Verständnis, dass Lernen durch die biologischen und kognitiven Fähigkeiten individueller Spezies modifiziert wird.

  • Keller & Marion Breland: Untersuchung von Tieren unterschiedlicher Spezies mithilfe der operanten Konditionierung - Annahme, dass in der Laborforschung entwickelte allgemeine Lernprinzipien im Hinblick auf jede Art von Reaktion und Belohnung dirket auch zur Kontrolle von Verhalten bei Tieren außerhalb des Labors angewendet werden kann.

  • Beobachtung: Schlechtes Benehmen nahm mit der Zeit zu - Überzeugung, dass auch wenn Tiere gelernt hatten operante Reaktionen perfekt auszuführen, sich mit der Zeit das gelernte Verhalten in Richtung instinktives verhalten verschiebt - Instinktverschiebung!

  • Durch Instinktverschiebung wurde belegt, dass sich nicht alle Aspekte des Lernens unter der Kontrolle von Verstärkern des Experimentators befinden - Verhaltensweisen können in Abhängigkeit von den normalen, genetisch programmierten Reaktionen des Tieres in seiner Umwelt mehr oder weniger leicht verändert werden.

  • Konditionierung ist dann besonders effektiv, wenn man das Zielverhalten als biologisch relevant einbetten kann.

    7.1.1 Funktionen des Gedächtnisses

  • Allgemein: Das Gedächtnis ermöglicht es uns, Informationen zu entschlüsseln, zu speichern und abzurufen - Eine Form der Informationsverarbeitung

  • Wichte Funktion des Gedächtnisses: Einen bewussten Zugang zur eigenen und zur kollektiven Vergangenheit zu ermöglichen. Es erlaubt mühelos Kontinuität der Erfahrungen von einem Tag zum nächsten herzustellen - dies geschieht oft außerhalb der bewussten Wahrnehmung

    Implizites und explizites Gedächtnis

  • Sobald man eine bewusste Anstrengung vollbringt, um eine Information zu entschlüsseln oder abzurufen, handelt es sich um einen expliziten Zugriff auf das Gedächtnis (Information wird ohne bewusste Anstrengung verfügbar)

  • Wenn man Informationen entschlüsselt oder abruft, ohne bewusste Bemühung, wird das als impliziter Zugriff auf das Gedächtnis bezeichnet (bewusste Anstrengung, um Information wieder herzustellen)

  • Bei der erstmaligen Aneignung von Gedächtnisinhalten: Ein Großteil des Wissens wird ohne bewusste Anstrengung erworben. Im Gegensatz werden dazu beispielsweise Bezeichnungen von Objekten als Kind durch explizite Gedächtnisprozesse gelernt.

  • Die meisten Umstände, unter denen man Informationen enkodiert oder abruft ist eine Mischung aus implizitem und explizitem Gebrauch des Gedächtnisses

    Deklaratives und prozedurales Gedächtnis

  • Deklaratives Gedächtnis: Das Erinnern von Fakten und Ereignissen

  • Prozedurales Gedächtnis: das Erinnern, wie Dinge getan werden. Durch Übung ist man in der Lage, prozedurale Erinnerungen zu erlernen, zu behalten und anzuwenden, um perzeptuelle, kognitive und motorische Fertigkeiten zu entwickeln.

  • Theorien zum prozeduralen Gedächtnis: Beschäftigt sich damit, wie viel Übung und Zeit man braucht mit der Frage, wie man von einer bewussten Liste von Fakten über eine Tätigkeit ,zu einer unbewussten, automatischen Ausführung der Tätigkeit gelangt. Schwierigkeit, über die beteiligten deklarativen Fakten zu sprechen, nachdem eine Fertigkeit erlernt wurde

  • Beispiel: Das Lernen einer Telefonnummer, die zuerst aus einer Menge deklarativer Fakten bestand und letztendlich als Einheit ausgeführt werden kann

  • production compliation: die mentalen Anweisungen, aus denen eigene Handlungen hervorgehen, werden zusammengefügt - Durch Übung kann man längere Handlungssequenzen ausführen, ohne dass das Bewusstsein eingreift oder sich man anstrengen muss.

  • Man hat keinen bewussten Zugang zum Inhalt dieser zusammengefügten Einheiten - die production compilation macht es schwierig, das prozedurale Wissen mit anderen zu teilen. Außerdem kann sie zu Fehlern führen (sch, auf dem Computer)

  • Ohne prozedurales Gedächtnis wäre das Leben extrem anstrengend - jede Tätigkeit müsste Schritt für Schritt durchgegangen werden.

    7.1.2 Überblick über Gedächtnisprozesse

  • Um Wissen später nutzen zu können, sind drei mentale Prozesse vonnöten:

  • Enkodierung: Der erste Informationsverarbeitungsprozess, der zu einer Repräsentation im Gedächtnis führt. Speicherung: das Aufrechterhalten von enkodierter Information über eine gewisse Zeitspanne hinweg. Abruf: die Wiedergewinnung gespeicherter Informationen zu einem späteren Zeitpunkt.

  • Enkodierung: Sie erfordert die Bildung mentaler Repräsentationen der Information aus der externen Welt. Sie bewahren die wichtigsten Eigenschaften vergangener Erfahrungen, um es möglich zu machen, diese sich selbst zu repräsentieren.

  • Speicherung: Wenn Informationen korrekt enkodiert wurden, werden sie im Speicher über eine gewisse Zeitspanne hinweg aufrechterhalten. Speicherung erfordert sowohl kurzzeitige als auch langzeitige Veränderungen in Gehirnstrukturen.

  • Abruf: Gelingt der Abruf, so hat man - oftmals im Bruchteil einer Sekunde - Zugang zu Informationen, die zovor gespeichert waren.

  • Herausforderung für die Forschung: Herauszufinden, wie man in der Lage dazu ist, aus der riesigen Informationsmenge eine ganz spezielle Informationseinheit abzurufen.

  • Die Interaktion der drei Gedächtnisprozesse ist sehr komplex: Um beispielsweise die Information zu enkodieren, dass man einen Tiger gesehen hat, muss man zunächst die Informationen über das Konzept Tiger aus dem Gedächtnis abrufen /
    --> Enkodierung der Bedeutung von Sätzen: Bedeutungen jedes einzelnen Wortes müssen abgerufen werden, genauso wie grammatische Regeln, sowie Informationen zum Inhalt des Satzes, z.B Kultur.


    7.2.1 Ikonisches Gedächtnis

  • Beim Versuch sich an ein Bild zu erinnern, bekommt man einen kurzen "Extrablick" auf das zuvor Gesehene

  • Dies wird durch das ikonische Gedächtnis ermöglicht: einem Gedächtnissystem im visuellen Bereich, das große Informationsmengen für sehr kurze Zeiträume speichern kann.

  • Ein visueller Gedächtnisinhalt besitzt eine Lebensdauer von etwa einer halben Sekunde.

  • Sensorische Erinnerungen: Annahme von Forschern, dass jedes Sinnessystem über einen Gedächtnisspeicher verfügt, der Repräsentationen physischer Merkmale von Stimuli in der Umgebung für einen sehr kurzen Zeitraum(höchstens einige Sekunden) abspeichert.

  • Aus der Forschung (Sperling) :Durch die Methode des Ganzberichts/Teilberichts wurde das Erinnern von Items untersucht - Die Probanden der Teilberichtsmethode konnten durch einen Ton als Hinweisreiz & "Extrablick" des ikonischen Gedächtnisses alle Items korrekt widergeben --> alle Informationen mussten in das ikonische Gedächtnis gelangt sein (Beleg für die große Kapazität des ikonischen Gedächtnisses)

  • Der Unterschied zwischen der Ganzberichtsmethode und der Teilberichtsmethode legt nahe, dass Informationen rasch verblassen: Ganzberichtsmethode liefert schlechtere Ergebnisse. Dies wird auch durch Experimente erhärtet, in denen das Identifikationssignal verzögert dargeboten wurde --> zunehmendes Verzögerungsintervall - Stetiger Fall der Anzahl korrekt berichteter Items.

  • Um vonn dem "Extrablick" auf die visuelle Welt profitieren zu können, müssen die Gedächtnisprozesse sehr schnell Informationen in haltbare Speicher übertragen.

  • Das ikonische Gedächtnis entspricht nicht dem "fotografischen Gedächtnis" bzw, der eiditischen Vorstellungskraft: Menschen können sich an Details aus Bildern über eine sehr viel längere Zeitspanne hinweg erinnnern, als es durch das ikonische Gedächtnis möglich wäre. Kinder haben diese Vorstellungskraft viel eher, als Erwachsene - Sie nimmt mit dem Alter ab.

    7.2.2 Kurzzeitgedächtnis

  • das Kurzzeitgedächtnis (KZG / STM - short term-memory) ist ein eingebatuer Mechanismus, der die kognitiven Ressourcen auf eine kleine Menge mentaler Repräsetnationen hin bündelt. Diese Ressourcen sind allerdings flüchtig - man muss deshalb Sorgfalt walten lassen, um sicherzustellen, dass die Gedächtnisinhalte in einer stärker überdauernden Form enkodiert werden.

    Kapazitätsbeschränkungen des Kurzzeitgedächtnisses

  • Es gibt Beschränkungen der Fähigkeit, mehr als eine kleine Auswahl von Informationen im Kurzzeitgedächtnis aktiv zu halten. Die beschränkte Kapazität zwingt zu einer scharfen Bündelung der Aufmerksamkeit.

  • Um die Kapazität des KZG zu schätzen, wurde zuerst die Gedächtnisspanne bestimmt.

  • Beispiel: Zufallslisten - George Miller (1956) schlug die Zahl 7 (plus minus zwei) als "magische Zahl" für die Gedächtnisleistung von Menschen vor, wenn sie sich Zufallsfolgen merken sollten (bestehend aus bedeutungshaltigen und vertrauten Material: Zahlen, Buchstaben, Wörtern)

  • Diese Tests zur Gedächtnisspanne überschätzen jedoch die wahre Gedächtnisspanne, da die Probanden andere Informationsquellen nutzen können, um die Aufgabe auszuführen. - Das KZG trägt nicht mehr als drei bis 5 Items zu den etwas 7 ihrer Gedächtnisspanne bei.

  • Trotz der Kapazitätsgrenzen des KZG erinnert man sich effizient: durch Rehearsal und Chunking kann das Enkodieren von Information im KZG verbessert werden

    Rehearsal

  • Eine Mnemotechnik, die als erhaltende Wiederholung bezeichnet wird

  • Erhaltende Wiederholung hilft, die Informationen vor einem Verblassen im Kurzzeitgedächtnis zu bewahren.

  • Aus der Forschung: Wiedergeben von Konsonanten - Um erhaltende Wiederholung zu verhindern wurde eine Distraktoraufgabe zwischen dem Reizinput und dem Abrufsignal eingefügt - Die Abrufleistung sank mit zunehmender Zeitspanne, für welche die Informationen behalten werden sollten.

  • Abrufleistung ist durch die fehlende Wiederholung aber auch durch konkurierrende Informationen aus der Distraktoraufgabe gesunken. (Beispiel Namen merken)


    Chunking

  • Chunk: Eine bedeutungsvolle Informationseinheit. (einzelner Buchstabe, Zahl, Buchstabenfolge, Folge von Items, Folge von Wörtern, Sätze)

  • Chunking: ein Prozess der Rekonfiguration von Items, indem sie auf der Basis von Ähnlichkeit oder anderen Organisationsprinzipien gruppiert werden. Oder sie werden zu größeren Mustern kombiniert auf der Basis von Informationen, die Im Langzeitgedächtnis gespeichert sind

  • Beispiel: Folge 1-9-8-4 besteht aus 4 Ziffern, welche die Kapazität des KZG aufbrauchen könnten - Wenn man die Folge jedoch als Jahreszahl ansieht, bildet sich lediglich ein Chunk --> Es bleibt mehr Kapazität für andere Chunks von Informationen

  • Die Gedächtnisspanne kann immer deutlich vergrößert werden, wenn eine große Informationsmenge in Chunks geringerer Zahl organisiert

  • Möglichkeiten des Chunkings: Strukturierung der Informationen, indem ihnen persönliche Bedeutung zugeordnet wird, oder die Verbindung neuer Stimuli mit Kodes, die im Langzeitgedächtnis gespeichert sind, Verbindung mit Regeln, oder das Bilden von rythmischen Mustern oder zeitliche Gruppierung

    7.2.3 Arbeitsgedächtnis

  • Die Gedächtnisressourcen zum Faktenlernen reichen nicht aus, um von Augenblick zu Augenblick ein Gefühl von Kontinuität zu erzeugen - man muss auch in der Lage sein, bereits bestehende Gedächtnisinhalte wiederzufinden --> Entwicklung von Theorien des Arbeitsgedächtnisses, die benötigten Gedächtnisfunktionen, um sich im Leben zurecht zu finden

  • Das Arbeitsgedächtnis als jene Gedächtnisressource, die wir für Aufgaben wie Schlussfolgern und Sprachverstehen nutzen - Es stellt eine Grundlage für den Fluss der Gedanken und Handlungen von Moment zu Moment bereit.

  • Das AG hilft, die psychologische Gegenwart aufrechtzuerhalten und gibt den Kontext für neue Ereignisse vor und verbindet getrennte Episoden zu einer zusammenhängenden Geschichte, auch hilft es Repräsentationen einer wechselnden Situation ständig zu aktualisieren, um somit z.B einem Gespräch zu folgen.

  • Das AG dient als Pipeline für Informationen von und zum Langzeitdedächtnis

    Alan Baddeley (2002/2003) - Nachweis von 4 Komponenten des Arbeitsgedächtnisses

  • Eine phonologische Schleife (phonological loop) - Diese Ressource speichert und manipuliert sprachbasierte Informationen. Sie weist große Überschneidungen mit dem Kurzzeitgedächtnis auf (Beispiel Telefonnummer merken durch "Hören" der Ziffern)

  • Einen visuell-räumlichen Notizblock (visuospatial scetchpad ) - Diese Ressource führt die gleichen Funktionen aus wie die phonolgische Schleife, allerdings für visuelle und räumliche Informationen

  • Die zentrale Exekutive: (central executive) - Diese Ressource ist für die Kontrolle der Aufmerksamkeit verantwortlich sowie für die Koordination von Informationen aus der phonologischen Schleife und dem visuell-räumlichen Notizblock - Immer wenn man eine Aufgabe ausführen soll, die eine Kombination mentaler Prozesse erfordert, dann verteilt die zentrale Exekutive die mentalen Ressourcen auf die verschiedenen Aspekte der Aufgabe

  • Der episodische Puffer, ist ein von der zentralen Exekutive kontrolliertes System mit begrenzter Kapazität. Er ermöglicht es, Informationen aus dem Langzeitgedächtnis abzurufen und diese mit gegenwärtigen Informationen zu kombinieren. ( Beispiel: Verbindung von Ereignissen mit best. Geräuschen) Der episodische Puffer stellt Ressourcen zur Verfügung, um diese verschiedenen Arten perzeptueller Stimuliereung mit zurückliegenden Erfahrungen abzugleichen. Somit gelangt er zu einer integrierten Interpretation einer jeden Situation.

  • Um Aufgaben der Kognition (Sprachverarbeitung/Problemlösen) gerecht zu werden, müssen verschiedene Elemente in schneller Abfolge zusammengebracht werden --> AG wird gebraucht!

  • Denn das AG gilt als kurzfristige, spezifische Fokussierung auf die benötigten Elemente - Es richtet ein helleres mentales Licht auf die Gedächtnisrepräsentationen. Das AG koordiniert die notwendigen Aktivitäten, um mit den Gedächtnisrepräsentationen umzugehen.

  • Aus der Forschung: Gruppe, die vor einer Prüfung ihre Ängste niederschreibt, hat besseres Ergebnis, als Gruppe ohne Niederschrift - es wird mehr Kapazität im AG geschaffen

  • Menschen unterscheiden sich im Hinblick auf ihre Kapazität des AG - Entwicklung verschiedener Verfahren um Unterschiede zu messen

  • Operationsspanne: Menschen führen eine Aufgabe aus (Lösen einer Rechnung), während sie gleichzeitig einer zweiten Aufgabe nachgehen (Einprägen von Wörtern) - Sie gibt einen guten Index für den Unterschied im Bezug auf die Effezienz der zentralen Exekutive ab.

  • Nutzen der Arbeitsgedächtniskapazität (working memory capacity- WMC), um die Leistung bei einer großen Bandbreite an Aufgaben vorherzusagen.

  • Menschen mit höherer WMC sind eher in der Lage dazu ihre Aufmerksamkeit zu fokussieren. Auch negative Emotionen sorgen dafür, dass für akkurate Entscheidungen nicht genügend Ressourcen in der WMC zur Verfügung stehen


    7.3 Langzeitgedächtnis (LZG): Enkodierung und Abruf

  • Wenn man vom Langzeitgedächtnis spricht, bezeichnet man Gedächtnisinhalte, die oftmals ein Leben lang bestehen --> Jede Theorie, die erklärt wie diese Inhalte ins LZG kommen, muss auch erklären, wie sie auf Dauer zugänglich bleiben können

  • Langzeitgedächtnis: ist der Ablageort aller Erfahrungen, Ereignisse, Informationen, Emotionen, Fertigkeiten, Wörter, Kategoerien, Regeln und Berurteilungen, die über das Sensorische Gedächtnis und das Kurzzeitgedächtnis angeeignet wurden. - Es bestimmt beim Menschen das gesamte Wissen von der Welt und sich selbst.

  • Die Erinnerungsfähigkeit wird dann am besten sein, wenn die Umstände, unter denen man Informationen enkodiert hat, möglichst gut zu jenen Umständen passen, unter denen man die Informationen wieder abrufen möchte.

    7.3.1 Hinweisreize beim Abruf

  • Wie findet man einen Gedächtnisinhalt? - Nutzen von Hinweisreizen beim Abruf

  • Hinweisreize beim Abruf (retrieval cues): Stimuli, die bei der Suche nach einem bestimmten Gedächtnisinhalt verfügbar sind. Sie können von außen kommen (Fragen bei Quiz) oder sie können intern generiert werden (Frage an sich selbst)

  • Immer wenn man sich an einen epliziten Gedächtnisinhalt erinnert, passiert das mit einer bestimmten Zielsetzung, die häufig den Hinweireiz liefert. - Je nach Qualität des Hinweisreizes, fällt es leichter oder schwerer einen Gedächtnisinhalt wiederzuerlangen.

  • Behaltensintervall: eine Zeitspanne, über die man Informationen im Gedächtnis behält

    Abruf und Wiedererkennen

  • Abruf (recall): hierbei reproduziert man eine Information, die man bereits kennt (Beispiel: Wiederholungen beim Lernen)

  • Wiedererkennen (recognition): bezieht sich auf den Umstand, etwas als zuvor Gesehenes oder Gehörtes zu beurteilen (Beispiel: Multiple Choice Aufgaben)

  • Eine Verbindung zwische Abruf und Wiedererkennen kann durch die täglichen Erfahrungen mit dem expliziten Gedächtnis hergestellt werden - Beispiel Polizei: Zur Identifikation eines Verdächtigen soll das Opfer Merkmale beschreiben - Abrufmethode / Zeigen von Fotos zur Identifikation - Wiedererkennensmethode

  • Rolle von Hinweisreizen: Sowohl, Abruf als auch Wiedererkennen erfordern eine Suche anhand von Hinweisreizen; Beim Abruf muss man darauf hoffen, dass allein der Hinweisreiz hilft, die Information zu finden ; Für das Wiedererkennen sind sie allerdings viel nützlicher, denn andere haben einen Teil der Arbeit erledigt -- > Leistung in der Regel höher beim Wiedererkennen als beim Abruf, da Hinweisreize hilfreicher

    Episodisches und semantisches Gedächtnis

  • Unterscheidung zwischen deklarativem und prozeduralem Gedächtnis bei Gedächtnisfunktionen - Weitere Unterscheidung bei deklarativen Gedächtnis im Bezug auf Hinweisreize, die zur Wiedergewinnung von Gedächtnisinhalten benötigt werden.

  • Endel Tulving (1972): Der erste Psychologe, der die Unterscheidung in episodische und semantische Formen des deklarativen Wissens einführte.

  • Episodische Gedächtnisinhalte: sie bewahren die individuellen und spezifischen Ereignisse auf, die man persönlich erlebt hat. Um diese wiederzufinden, benötigt man Hinweisreize, die etwas über den Zeitpunkt und den Inhalt des gesuchten Ereignisses aussagen. - Abhängig von der Art & Weise der Enkodierung wird eine spezifische Gedächtnisrepräsentation produziert

  • Jegliches Wissen, hat man sich anfänglich in einem spezifischen Kontext angeeignet - Es gibt jedoch auch Informationen, die in vielen Kontexten auftauchten - Diese Informationsklassen sind verfügbar ohne das Zurückgreifen auf einen spezifischen Kontext

  • Diese Informationsklassen sind semantische Gedächtnisinhalte: generische kategoriale Gedächtnisinhalte, wie beispielsweise die Bedeutung von Wörtern & Konzepten - Man braucht keine Hinweisreize beim Abruf, die auf den Kontext verweisen

  • Abruf jedoch nicht immer fehlerfrei: Umstand, dass man viele Fakten vergisst, wenn sie vom zugehörigen Lernkontext getrennt wurden
    --> Strategie: den Gedächtnisinhalt wieder als episodischen Gedächtnisinhalt zu sehen, so können zusätzliche Hinweisreize für einen erfolgreichen Abruf geliefert werden.

    7.3.2 Kontext und Enkodieren

  • "Kontextschock": man trifft eine Person in einem Kontext, in dem sie einem noch nie begegnet ist, weshalb man sie nicht zuordnen kann (Briefträger bei Geburtstagsparty) -->

  • Erklärung durch das Prinzip der Enkodierspezifität: Gedächtnisinhalte kommen am leichtesten wieder, wenn der Kontext des Abrufs mit dem Kontext der Enkodierung übereinstimmt.

    Enkodierspezifität

  • Endel Tulving und Donald Thomson als erste Psychologen, die die Kraft der Enkodierspezifität untersuchten, indem sie die übliche Beziehung der Leistungen zwischen Abruf und Wiedererkennen umkehrten.

  • Aus der Forschung: Merken von Wortpaaren - Abrufleistung besser als Wiedererkennen ; Annahme, dass das Entscheidende im Wechsel des Kontexts lag --> Beispiel: Taucher lernt Wörter unter Wasser und zu Land, bei Wechsel der Umgebung, schlechtere Ergebnisse

  • Kontextabhängigkeit des Gedächtnisses: das Enkodieren von Erinnerungen findet im Zusammenhang mit einem bestimmten Kontext, der externen Umgebung statt (Testraum)

  • Zustandsabhängiges Gedächtnis: internale Zustände legen die Basis für die Enkodierspezifität ; Beispiel: Alkoholisierter Zustand bei Enkodieren & bei Abruf resultiert in sehr guter Leistung - Das zustandsabhängige Gedächtnis kommt auch bei anderen Drogen (Marihuana, Amphetamine) zum Tragen


    Der serielle Positionseffekt:

  • Primacy-Effekt und Recency-Effekt: Beispiel, Lernen einer Wortliste --> Ergebnis: Man kann sich ohne Probleme an die ersten Wörter (Primacy-Effekt) und auch an die letzten Wörter (Recency-Effekt), aber kaum an den mittleren Teil der Liste erinnern (Bild der Bahngleise)

  • Studie: Studenten sollten die Wörter entweder in der richtigen Reihenfolge (serial recall) oder frei abrufen (free recall). Auch hier ließ sich der Primacy- und der Recency Effekt nachweisen Diese Muster ist allgemein gültig.

  • Die Rolle, die der Kontext für den seriellen Positionseffekt spielt, hat mit der zeitlichen Unterscheidbarkeit verschiedener Items, Erfahrungen etc zu tun.

  • Zeitliche Unterscheidbarkeit: das Ausmaß, in dem ein Item sich in der Zeitspanne vom nächsten Item unterscheidet --> Recency-Effekt & Primacy-Effekt ragen zeitlich am meisten heraus

  • Es folgt eine bessere Gedächtnisleistung bei den "mittleren" Informationen, bei besserer Unterscheidbarkeit - Studie: Das Lernen von Items wurde so manipuliert, dass die früheren Items stärker unterscheidbar waren --> bessere Gedächtnisleistung

  • Der Recency Effekt entsteht dadurch, dass die zuletzt gelernten Items nahezu automatisch unterscheidbar sind. Ebenso wird ein neuer zeitlicher Kontext hergestellt, wenn man etwas Neues beginnt, wodurch die ersten Erfahrungen unterscheidbarer sind --> Primacy-Effekt

    7.3.3 Die Prozesse des Enkodierens und des Abrufes

  • Die Perspektive der transfer-adäquaten Verarbeitung (transfer-appropriate processing - TAP) geht davon aus, dass das Gedächtnis am besten funktioniert, wenn die Prozessart beim Enkodieren sich auf den für den Abruf notwendigen Prozess überträgt
    --> Genauerere Betrachtung der Forschungen, die diese Perspektive illustrieren

    Ebenen der Verarbeitunstiefe

  • Theorie der Verarbeitunstiefe (Levels-of-Processing Theory) nimmt an, dass je tiefer die Informationen verarbeitet wurden,desto wahrscheinlicher sie dem Gedächtnis überstellt werden. Das heißt, wenn die Verarbeitung mehr Analyse, Interpretation, Vergleich und Elaboration umfasst, dann sollte sie in einer besseren Gedächtnisleistung resultieren.

  • Die Tiefe der Verarbeitung ist oft definiert durch die Art von Urteilen, die Probanden im Hinblick auf Experimentalmaterial abgeben sollen - Je tiefer sie z.B. Worte ursprünglich verarbeiten, an umso mehr erinnern sie sich.

  • Warum hat die Verarbeitunstiefe einen Einfluss? - Tiefere Verarbeitung entspricht eher den Prozessen, bei denen es beim Abruf ankommt. Wenn man auf explizite Gedächtnisprozesse zurückgreift, um sich an ein Wort zu erinnern, nutzt man Informationen über seine Bedeutung (und nicht z.B. physische Erscheinung). Dementsprechend passt die Beurteilung der Bedeutung beim Enkodieren besser zum späteren Abrufen. --> Diese Erklärung macht aus dem Effekt der Verarbeitungstiefe eine Art transfer-adäquater Verarbeitung.

  • Die Verarbeitunstiefe ist ein Beleg dafür, dass die Art wie Informationen dem Gedächtnis übergeben werden, einen Effekt darauf hat, ob man die Informationen später wiederfindet.

    Prozesse und das implizite Gedächtnis

  • Die Unterscheidung zwischen der expliziten und impliziten Dimension trifft sowohl für die Enkodierung als auch Abruf zu --> Oftmals müssen jedoch implizite Gedächtnisinhalte abgerufen werden, die man ursprünglich explizit enkodiert hatte.

  • Implizite Gedächtnisinhalte zeigen die Bedeutung der Übereinstimmung zwischen den Prozessen beim implizitem Enkodieren und implizitem Abruf auf.

  • Jedoch können dieselben Umstände beim Enkodieren sich auf explizite und implizite Gedächtnisaufgaben ganz unterschiedlich auswirken.

  • Implizite Gedächtnisaufgaben beruhen lediglich auf einer physischen Passung zwischen dem urpsprünglichen Stimulus und der Information im Test - Dieselben perzeptuellen Prozesse, anhand derer Menschen Worte als physische Stimuli enkodieren, sollen ein physisches Abbild abrufbar machen (z.B. bei Wortstammergänzungen)

  • Studie zum Vergleich von impliziter und expliziter Gedächtnisleistung: Post-Marathongruppe und Prä-Marathongruppe machen einen impliziten und expliziten Gedächtnistest: Resultat: Post-Marathongruppe schneidet durch den Stress beim Rennen (Beeinträchtigung der Kodierung von expliziten Informationen) beim expliziten Gedächtnistest schlechter ab, jedoch bei der impliziten Gedächtnisleistung besser: Der Stress nach dem Lauf veranlasst dazu,die Aufmerksamkeit eher auf die physischen Eigenschaften des Wortes, als auf seine Bedeutung zu richten.

  • Maß für das explizite Gedächtnis: "Anteil des Erinnerten"

  • Maß für implizites Gedächtnis: Priming - die Erste Erfahrung mit einem Wort bereitet das Gedächtnis für spätere Erfahrungen vor

  • Bei beiden Gruppen gab es ein Priming, jedoch war es bei der Post-Marathongruppe ausgeprägter. - Diese Experiment steht für ein Priming, das auf pezeptuellen Prozessen basiert, die physische Aspekte eines Wortes enkodieren. - Man macht auch während der konzeptuellen Prozesse beim Enkodieren und Abrufen die Erfahrung eines Primings

  • Langlebigkeit impliziter Gedächtnisinhalte: Das konzeptuelle Priming der entsprechenden Erinnerung (z.B. erwähnter US-Bundesstaat in einer Vorlesung) kann 1-2 Monate anhalten.

    7.3.4 Warum wir vergessen

    Ebbinghaus quantifiziert das Vergessen

  • Psychologe Hermann Ebbinghaus (1850-1909) war seine eigene Versuchsperson - Untersuchung, wie viele Durchgänge er braucht, um eine bereits gelernte Items nach Ablenkung wiederzuerlerenen. Benötigte er weniger Durchgänge als beim urpsrünglichen Lernen, wurde Lernaufwand gespart.

  • Indem Ebbinghaus ein Ersparnismaß verwendete, bildete er den Grad des Behaltens in Abhängigkeit unterschiedlicher Zeitintervalle ab - Es entsteht die Vergessenskurve nach Ebbinghaus: die Behaltensleistung fällt zunächst sehr stark ab. Die Periode des sprunghaften Verlusts flacht danach allmählich ab

    Interferenz

  • Interferenz: Gedächtnisinhalte konkurrieren miteinander

  • Proaktive Interferenz (wirkt nach vorne): Umstände, wo Informationen, die in der Vergangenheit erworben wurden, den Erwerb neuer Informationen erschweren.

  • Retroaktive Interferenz (wirkt zurück) tritt auf, wenn der Erwerb neuer Informationen das Behalten früher erworbener Informationen erschwert.

  • Beispiel: Ändern der Telefonnummer - Erst erinnert man sich an die alte Nummer (proaktive Interferenz) und später fällt es schwer, sich an die alte Nummer zu erinnern (retroaktive Hemmung)

  • Ebbinghaus als erster Forscher, der die Interferenz in Experimenten nachwies - Beispiel Listen lernen: Nach vielen Durchgängen mit vielen Listen interferierte das zuvor Gelernte Proaktiv mit dem Abruf der aktuellen Listen.

    7.3.5 Verbesserung der Gedächtnisleistung bei unstrukturierten Informationen

  • Größter Vorteil beim Wiederfinden von Informationen: Vorliegen des gleichen Kontexts beim Lösen der Aufgabe, wie beim Erwerb des Gedächtnisinhaltes

  • Lösung beim Enkodieren unstrukturierter/zufälliger Informationen: Man muss die Assoziationen weniger zufällig erscheinen lassen

    Elaborierendes Wiederholen:

  • Def: Eine allgemeine Strategie, um das Enkodieren zu verbessern. Grundidee: Während des Wiederholens der Information - beim erstmaligen Einprägen in das Gedächtnis - diese zu erlaborieren, um das Material für das Enkodieren reichhaltiger zu gestalten.

  • Eine Möglichkeit ist eine Beziehung herstellen, die die Assoziation weniger zufällig erscheinen zu lässt, z.B durch Miniaturgeschichten, in die die Informationen enkodiert werden - oder durch visuelle Vorstellungskraft (mentales Bild) , die die Abrufleistung verbessert, indem sie Kodes für verbale als auch visuelle Gedächtnisinhalte liefert.

  • Der-Nächste-in-der Reihe-Effekt: Verschiebung der Aufmerksamkeit (z.B. bei Vorstellungsrunde, erinnert man sich nicht an die Person, die vor einem selbst dran war, da man sich selbst auf die Vorstellung vorbereitet) - Dieser Effekt kann verhindert werdern, durch das konzentrierte Halten der Aufmerksamkeit

    Mnemotechniken

  • Mithilfe von Mnemotechniken werden lange Folgen von Fakten mit vertrauten, bereits enkodierten Informationen assoziiert. Sie arbeiten mit vorgefertigten Hinweisreizen für den Abruf, die helfen zufälliges Material zu organsieren oder mit visueller Vorstellungskraft (effektive Verarbeitung während dem Erwerb)

  • Methode der Orte (method of loci) dient dazu, sich eine Folge von Namen/Objekten einzuprägen, indem man diese mit einer Folge von Orten assoziiert, die einem vertraut sind.

  • Ähnlich funktioniert die Wäscheleinemethode (peg-word-method), allerdings werden die Items einer Liste mit einer Folge von Hinweisreizen , statt mit vertrauten Orten assoziiert -Hinweisreize bestehen aus einer Folge von Reimen, die Zahlen mit Wörtern assoziiert ("Eins ist Heinz")

    7.3.6 Das Metagedächtnis

  • Das Metagedächtnis beschäftigt sich mit den Fragen, wie das Gedächtnis arbeitet, oder wie man weiß, welche Informationen man bestitzt.

  • Eine der wichtigsten Fragen ist, wann und warum das Gefühl, etwas zu wissen - der subjektive Eindruck, dass man die gesuchten Informationen im Gedächtnis hat-, zutreffend ist.

  • J.T. Hart (1965) als Pionier der Forschung zum "Gefühl, etwas zu wissen"

  • Experiment: Schüler sollten sich selbst einschätzen, ob sie sich sicher sind, dass sie bei einem Multiple Choice Test nicht die richtige Antwort geben können oder ob sie sich sicher sind, dass sie die richtige Antwort finden - Resultat: letztere Einschätzung brachte Erfolg - Beleg dafür, dass das Gefühl etwas zu wissen zutreffend sein kann.

  • Beurteilung des Lernens (judgement-of-learning, JOL): Das Empfinden, den Lernstoff bereits zu meistern. Funktionen: Lernzeit planen oder das Wiederholen von Lernstoff, der nach eigener Einschätzung noch nicht beherrscht wird

  • Konzentration der Forschung auf die Frage, wann eigene Einschätzungen das künftige Abschneiden in einem Test vorhersagen wird und wann nicht. Wichtige Frage: inwieweit Aktivitäten beim Enkodieren die Beurteilungen beeinflussen und "Warum glaube ich, dass ich den Stoff kenne (oder nicht)?

    9. Diagnostik

    9.1 Was ist Diagnostik?

  • Psychologische Diagnostik ist der Einsatz festgelegter Testverfahren zur Bewertung der Fähigkeiten, Verhaltensweien und Persönlichkeitseigenschaften von Personen.

  • Sie wird oft als die Messung interindividueller Unterschiede bezeichnet, weil die Beurteilungen angeben, inwiefern sich Personen im Bezug auf bestimmte Dimensionen unterscheiden

    9.1.1 Die Geschichte der Diagnostik

  • Entwicklung der Diagnostik in der westlichen Psychologie erst zu Beginn des 20. Jhdts.

  • Ursprünge in China vor 4000 Jahren: hochentwickeltes Programm zum Testen von Beamten (mündliche Prüfung); vor 2000 Jahren (Han-Dynastie): Schriftliche Tests für Beamte in Bereichen Recht, Militär, Landwirtschaft, Geographie;
    Ming-Dynastie (1368-1644): Auswahl Beamter anhand der Leistung in dreistufigen, objektiven Selektionsprozess

  • Anfang des 19. Jhdts: Beobachtung und modifzierter Einsatz der chinesischen Selektionsverfahren in Großbrittanien (später auch in Amerika)

  • Schlüsselfigur der Westlichen Intelligenztestung war Sir Francis Galton (1822-1911) mit dem Buch Hereditary Genius (Genie und Vererbung 1869)

  • Galton, ein Cousin von Charles Darwin, versuchte dessen Evolutionstheorie auf die Untersuchung menschlicher Fähigkeiten anzuwenden --> Großes Interesse an der Frage, wie und warum sich Menschen in ihren Fähigkeiten unterscheiden.

  • Vier wichtige Postulate zur Intelligenzdiagnostik:
    (1) Intelligenzunterschiede sind quantifizierbar als unterschiedliche Grade von Intelligenz; Zum Vergleich können Intelligenzstufen verschiedener Personen,Zahlenwerte zugewiesen werden
    (2) Die Unterschiede folgen einer glockenfürmigen Kurve, der Normalverteilung. Hier gruppieren sich die meisten Werte in der Mitte und nur wenige gehören zu den Extremen, Genialität und Minderbegabung.
    (3) Intelligenz kann durch objektive Testverfahren gemessen werden, bei denen es nur eine richtige Antwort auf jede Frage gibt.
    (4) Das exakte Ausmaß, in dem zwei Mengen von Testergebnissen zueinander in Beziehung stehen kann durch ein statistisches Verfahren bestimmt werden, die Korrelation.

  • Galtons Arbeiten bilden den Rahmen für die heutige Intelligenzdiagnostik

  • Kontroverse Ideen Galtons: (1) Annahme, dass Genialität erblich sei und so Talent und gesellschaftliches Ansehen innerhalb von Familien weitergegeben wird. (2) Annahme, dass Intelligenz mit Darwins Überlebensstärke der Arten in Beziehung steht.
    (3) Galton als Vater der Eugenik-Bewegung, die die eine Verbesserung der menschlichen Rasse durch die Anwendung der Evolutionstheorie propagierte.

    9.1.2 Grundeigenschaften formaler Diagnostik

  • Um für die Klassifikation von Menschen mit bestimmten Eigenschaften brauchbar zu sein, muss ein Verfahren der formalen Diagnostik drei Anforderungen genügen. Das Diagnose-instrument muss reliabel, valide und standardisiert sein.

  • Trifft das nicht zu, sind die diagnostischen Schlussfolgerungen daraus nicht verlässlich

  • Die Verfahren zur formalen Diagnostik gelten für alle Arten psychologischer Testung (nicht nur Intelligenzdiagnostik)


    Reliabilität

  • Def: Das Ausmaß, in dem man sich darauf verlassen kann, dass ein diagnostisches Instrument konsistente Ergebnisse liefert. (Waage: unterschiedliche Ergebnisse /unreliabel)

  • Ein Messinstrument kann nur insoweit als reliabel oder unreliabel bezeichnet werden, als der zugrunde liegende Sachverhalt, den es messen soll, stabil bleibt. (z.B. Gewicht)

  • Einfache Möglichkeit, um die Reliabilität eines Tests zu ermitteln ist die Berechnung der Retest-Reliabilität: ein Maß der Korrelation zwischen den Testwerten derselben Personen im selben Test, der zu unterschiedlichen Zeitpunkten durchgeführt wurde.

  • Bei einem vollständig reliablen Test, gibt es einen Korrelationkoeffizienten von +1; d.h es entsteht beide Male in identisches Muster von Testergebnissen. Ein vollständig unreliabler Test würde einen Korrelationskoeffizienten von 0 ergeben (es gibt keinen Zusammenhang zwischen den ersten und zweiten Messergebnissen)

  • Die Reliabilität eines Tests steigt in dem Maße, in dem sich der Korrelationskoeffizient dem Idealwert +1 annähert.

  • Ein weiteres Maß für Reliabilität ist die interne Konsistenz der Antworten in einem einzigen Test. (z.B Vergleich der Testwerte bei geraden und ungeraden Itemnummern) - Ein reliabler Test liefert das gleiche Ergebnis für seine beiden Hälften.

  • Beispiel: SAT-l-Examen vor Zulassung zum College. Ein Abschnitt des Tests hat keinen Einfluss auf die Bewertung, dieser Teil wird für zukünftige Tests geprüft. (Vergleich der Leistungen in zukünftigen und gegenwärtigen Examen)

    Validität

  • Def: Das Ausmaß eines Testes, in dem er misst, was ein Diagnostiker zu messen beabsichtigt. Ein valider Intelligenztest misst die diese Eigenschaft und erlaubt Vorhersagen über die Leistung in Situtationen, in denen Intelligenz wichtig ist.

  • Das Testergebnis in einem validen Kreativtest, spiegelt hingegen die tatsächliche Kreativität wieder (und nicht die Intelligenz)

  • Validität spiegelt die Fähigkeit eines Tests wieder, korrekte Vorhersagen über Verhaltensweisen und Leistungsresultate zu treffen, die in Beziehung zum Testzweck oder Testdesign stehen.

  • Vorraussetzungen für Validität können sehr unterschiedlich sein, deshalb ist die Frage, zu welchem Zweck ist der Test valide, am wichtigsten. Es gibt 3 Wichtige Validitätsarten

    Inhaltsvalidität:

  • Ein Test besitzt Inhaltsvalidität, wenn er die gesamte Bandbreite des zu erforschenden Gebiets abdeckt. --> Beispiel: Tests zur Lebenszufriedenheit - Um ein inhaltsvalides Maß zu entwickeln, würde man Stichproben aus verschiedenen Teilen des Lebens einbeziehen

    Kriteriumsvalidität:

  • um die Kriteriumsvalidität eines Tests zu ermitteln, vergleichen Psychologen die Testergebnisse einer Person mit ihrem Abschneiden bei einer anderen Vergleichsgröße oder einem Kriterium, das mit dem testrelevantem Merkmal in Beziehung steht --> eine der Hauptaufgaben von Testentwicklern: das Finden von angemessenen und messbaren Kriterien

  • Sobald Kriteriumsvalidität eines Messinstruments nachgewiesen wurde, vertrauen Forscher darauf, dass sie auch in der Zukunft Vorhersagen auf der Basis des Instruments machen.

  • Beispiele: Kriteriumsvalidität als Maß für die Voreingenommenheit von Juroren oder das NC-System (festgestelte positive Korrelation zwischen Abschlussnoten & Studiumleistung)

    Konstruktvalidität

  • Für viele Persönlichkeitsvariablen, gibt es kein ideales Kriterium. (kein einzelnes Verhaltensmuster kann z.B. anzeigen wie ängstlich oder aggressiv ein Mensch insgesamt ist) --> Entwerfen von Theorien / Konstrukte bezüglich der Persönlichkeitsvariablen (was sie verursacht, wie sie Verhalten beeinflussen und wie sie sich zu anderen Variablen verhalten)

  • Konstruktvalidität eines Testes ist der Grad, in dem er das zugrunde liegende Konstrukt adäquat misst. Beispiel: Ein neues Maß für Depression hat dann eine Konstruktvalidität, wenn die Werte, die sich daraus ergeben hochgradig mit den validen Merkmalen korrelieren, die das Konstrukt der Depression definieren. Dieses neue Maß soll keinen Bezug zu Merkmalen haben, die NICHT zm Konstrukt der Depression gehören

    Beziehung zwischen Realibilität und Validität

  • Während Reliabilität anhand der Korrelation des Tests mit sich selbst gemessen wird (durch Vorgabe des Tests zu unterschiedlichen Zeitpunkten oder mit unterschiedlichen Items), wird Validität durch die Korrelation des Tests mit etwas Externem (ein anderer Test, ein Verhaltenskriterium,eine Beurteilung durch Beobachter) gemessen

  • Für gewöhnlich ist ein nicht reliabler Test auch nicht valide, weil ein Test der sein eigenes Ergebnis nicht vorhersagen kann, auch nicht in der Lage sein wird, etwas anderes vorherzusagen.

  • Andererseits ist es möglich, dass ein Test hoch reliabel ist und gleichzeitig nicht valide.
    Beispiel: Die momentane Körpergröße als Maß der Intelligenz --> Diese Messung wäre reliabel, aber nicht valide

    Normen und Standardisierung

  • Man hat nun einen reliablen und validen Test, aber man braucht Normen, um einen Bezugsrahmen für die Interpretation der Testergebnisse zu schaffen.

  • Um herauszufinden, was ein indviduelles Ergebnis besagt, muss es mit typischen Ergebnissen oder statistischen Normen anderer Teilnehmer verglichen werden.

  • Anhand von Normen wird festgestellt, wie ähnlich ein Individuelles Ergebnis den Ergebnissen anderer ist und wie gut man im Vergleich zu dieser Normstichprobe abgeschnitten hat.

  • Gruppennormen sind bei der Interpretation individueller Ergebnisse sehr nützlich, wenn die Vergleichsgruppe in wichtigen Bereichen wie Alter, sozioökonimischem Status und kulturellem Hintergrund mit den getesteten Individuen übereinstimmt.

  • Damit Normen sinnvoll sind, bedarf es Standardisierung: ein Testinstrumennt muss bei allen Personen in gleicher Weise und unter den selben Bedingungen angewendet werden.

  • Ist ein Test nicht standardisiert, ist es schwierig, die Bedeutung eines Testresultats einzuschätzen oder einen Vergleich zu einer anderen Gruppe herzustellen

  • Abschließend: Forscher müssen sicherstellen, dass der Test reliabel und valide ist. Auch müssen sie die Standardbedingungen spezifizieren, unter denen der Test stattfindet, damit die daraus resultierenden Normen bedeutunsvoll sind.

    9.2 Intelligenzdiagnostik

  • Def: Intelligenz ist eine sehr allgemeine geistige Fähigkeit, die unter anderem die Fähigkeit zum schlussfolgernden Denken, zum Planen, zum Problemlösen, zum abstrakten Denken, zum Verstehen komplexer Ideen, zum raschen Auffassen und zum Lernen aus Erfahrung, einschließt.

  • Angesichts dieser Bandbreite gibt es Kontroversen darüber, wie Intelligenz gemessen wird.

  • Die Art und Weise, in der Theoretiker Intelligenz und höhere kognitive Funktionen kozeptualisieren, beeinflusst die Art und Weise sie zu messen. Vielleicht nochmal nachlesen, letzter Absatz S. 341

    9.2.1 Die Ursprünge der Intelligenzmessung

  • 1905: Erster funktionierender Intelligenztest

  • Alfred Binet (1857-1911): Auftrag des französischen Bildungsministers, effektivere Lehrmethoden für Kinder mit Entwicklungsstörungen zu entwickeln. Binet und Kollege Theodore Simon (1873-1961) nahmen an, dass man erst die geistigen Fähigkeiten von Kindern messen muss.

  • Entwicklung eines objektiven Tests der geistigen Leistungsfähigkeit, der geeignet war, normale Kinder und Kinder mit Entwicklunsstörungen zu klassifizieren (Hoffnung, dass sich Schulen nicht auf Subjektivität der Lehrer verlassen würden)

  • Entwicklung von altersgerechte Aufgaben (Testitems), anhand derer sich die Antworten vieler Kinder vergleichen ließen.
    Wahl der Aufgaben: konnten objektiv klassifiziert werden, unbeeinflusst vom sozialen Hintergrund der Kinder und Erfassung der Fähigkeit zu schlussfolgerndem Denken

  • Testen von Kindern verschiedener Altersgruppen und Berechnung des Durchschnittsalters für normal entwickelte Kinder. Darauf folgte der Vergleich der Leistung jedes einzelnen Kindes mit dem Durchschnitt gleichaltriger Kinder.

  • Diese Testergebnisse wurden in Form des Durchschnittsalters ausgedrückt, in dem ein normales Kind einen bestimmten Wert erreichte. Dieses Maß ist das Intelligenzalter.
    Beispiel: Ergebnis eines Kindes entspricht dem Durchschnittswert einer Gruppe von Fünfjährigen, so hat es das Intelligenzalter von 5 Jahren.

  • Intelligenzalter ist unabhängig vom Lebensalter, der seit der Geburt verstrichenen Zeit


    Große Auswirkungen auf die USA

  • Zu Beginn des 20. Jhdts ein Land im Umbruch --> Große Zahl an Einwanderern, die hinsichtlich ihrer Fähigkeiten klassifiziert werden sollten

  • Ausbruch des 1. Weltkrieges machte die Erfassung von geistigen Fähigkeit nötig, um die Rekruten zu beurteilen.

  • Einsatz von Intelligenztests im Hinblick auf Führunsstärke und andere sozial wichtige Eigenschaften in Schulen, Industrie oder Militär ; Diagnostik als Weg Ordnung in eine chaotische Gesellschaft zu bringen --> Um den großflächigen Einsatz zu erleichtern, Entwicklung von Verfahren mit breitem Anwendungsbereich


    9.2.2 IQ-Tests

  • Amerikanische Psychologen übernahmen die Führung und verbesserten problematischen Vergleich mit Intelligenzalter und Lebensalter durch die Verwendung des Intelligenzquotienten (IQ)

  • Der IQ ist ein numerisches, standardisiertes Maß der Intelligenz

    Die Stanford-Binet-Intelligenzskala

  • Lewis Terman (Universität Stanford) passte Binets Testfragen für amerikanische Schulkinder an, standardisierte die Vorgaben des Tests und entwickelte Normen für verschiedene Altersstufen

  • 1916 die Veröffentlichung der Stanford-Binet-Intelligenzskala, mit der Terman die Grundlage für das Konzept des IQ in seiner heutigen Verwendung als Abweichungsquotient schuf

  • IQ = Intelligenzalter/Lebensalter x 100 und der Durchschnitts IQ = 100

  • Der Standford-Binet-Test wurde zum Standardinstrument in der klinischen Psychologie, in der Psychatrie und Schulberatung. Er enthält eine Reihe von Untertests, die jeweils auf ein bestimmtes Alter zugeschnitten sind. (Kleinkindalter, Erwachsenenalter)

  • Die neueste 5. Ausgabe liefert IQ-Schätzungen für durschschnittlich Intelligente, Intelligenzgeminderte und hochbegabte Menschen

    Die Wechsler-Intelligenzskalen

  • David Wechsler versuchte bei der Diagnostik der Intelligenz Erwachsener die Abhängigkeit von verbalen Items zu verringern.

  • 1939 die Veröffentlichung der Wechsler-Bellevue-Intelligenzskala, die verbale Untertests mit nichtverbalen, handlungsbezogenen Untertests kombinierte. Dadurch wurde nicht nur der Gesamtintelligenz IQ, sondern auch der Verbal-IQ und der Handlungs-IQ festgestellt

  • 1955 unbenannt in Wechsler Adult Intelligence Scale (WAIS) bzw Hamburg-Wechsler-Intelligenztest für Erwachsene (HAWIE) - Heute gilt die Version WAIS-lV (ab 18 Jahren) bzw. HAWIE-R (ab 16 Jahren)

  • Der HAWIE-R hat 14 Untertests, die verbale (Bereiche wie Wortschatz & Verständnis) und Handlungsaspekte (Handhabung von Gegenständen) des IQ abdecken - Ergebnis: verbalen IQ, Handluns-IQ und Gesamt-IQ

  • Wechsler Intelligence Scale for Children (WISC-lV) bzw Hamburg-Wechsler-Intelligenztest für Kinder (HAWIK-lV) eignet sich für Kinder von 6 bis 16 Jahren

  • Wechsler Preschool and Primary Scale of Intelligence (WPPSI-III) bzw Hannover-Wechsler-Intelligenztest für das Vorschulalter (HAWIVA-III) für 4-6 Jährige

  • Der HAWIE-R, der HAWIK-lll und der HAWIVA-lll machen die Intelligenzdiagnostik für alle Altersgruppen möglich und haben sich als reliabel und valide erwiesen.

  • Die Untertests (Verbal & Handlung) erlauben Beobachtung der Entwicklung spezifischer intellektueller Fähigkeit über einen längeren Zeitraum hinweg und sind besonders nützlich bei Personen, die immer wieder untersucht werden - Beobachtung des Entwicklungs-forschritts bei Kindern

    9.2.3 Außergewöhnlich hohe oder niedrige Intelligenz

  • IQ von 100 gilt als Mittelwert und besagt dass 50% der Menschen des selben Alters niedrigere Punktzahlen erreicht haben (insgesamt sind Werte zwischen 85 und 115 normal)

    Intelligenzminderung und Lernschwächen TABELLE 9.2 BEACHTEN (S.345)

  • Wenn Menschen unter 18 valide IQ-Werte erzielen, die ungefähr 2 Standardabweichungen unter dem Mittelwert eines Intelligenztests liegen, gilt die Diagnose einer geistigen Behinderung. Für dein WAIS liegt dieser Wert bei 70.

  • Wichtig für die Diagnose: Einschränkungen in angepasstem Verhalten sind notwendig,die als Ansammlung gedanklicher sozialer und praktischer erlernter Fähigkeiten, die Menschen im Alltag einsetzten definiert wurde.

  • Früher: geistige Zurückgebliebenheit, da diese Definition aber auch adaptive Fähigkeiten meint, ist dies kein angemessener Begriff mehr.

  • Konzentration bei Diagnose darauf, welche Einschränkungen der Betroffen in Bezug auf seine adaptiven Fähigkeiten hat. Ziel: Ein soziales Umfeld zu schaffen, das den Bedürfnissen des Betroffenen entspricht.

  • Genetische Faktoren bzw Erbkrankheiten (verantwortlich für IQ von 55-70) :
    Down-Syndrom, Phenylketonurie (PKU, wird sie jedoch in Kindheit diagnostiziert, kann negativer Effekt durch Diät kontrolliert werden)

  • Schwere Formen geistiger Behinderung werden durch das Auftreten spontaner genetischer Veränderngen in der Entwicklung verursacht, die nicht erblich sind. Hierbei sind die pränatalen Umstände ausschlaggebend (Röteln oder Syphilis, Konsum von Alkohol oder anderen Drogen)

  • Sozialer Umgang: Früher wurden Betroffene in seperaten Einrichtungen erzogen, heute sollen behinderte Schüler so weit wie möglich die Regelschule besuchen (US Gesetz 1975)

  • IQ gibt allgemein Informationen darüber, welche Leistungen jemand (unter Berück-sichtigung altersbezogener Normen) bei verschiedenen verbalen/nichtverbalen Aufgaben erbringen kann. --> Verdacht auf Lernbehinderung, wenn der ermittelte IQ und die tatsächlichen Leistungen sich stark unterscheiden. Bevor sie jedoch klinisch diagnostiziert wird, müssen Faktoren wie fehlende Motivation, schlechte Unterrichtsqualität und physische Probleme ausgeschlossen werden.

    Hochbegabung

  • Bezeichnung "hochbegabt" für Menschen mit einem IQ über 130, jedoch kann der Begriff Hochbegabung nicht ausschließlich über den IQ definiert werden

  • Joseph Renzulli (2005): "Drei-Ringe"-Konzeption der Hochbegabung, in der Hochbegabung über Fähigkeit, Kreativität und Zielstrebigkeit (task commitment) definiert wird. Hochbegabte finden sich in der Schnittfläche von überdurchschnittlichen Fähigkeiten, herausragender Kreativität und einem hohen Maß an Zielstrebigkeit.

  • Somit gelten auch Menschen, die überdurchschnittlich, aber nicht überragend intelligent sind, als hochbegabt, wenn sie große Kreativität und Beharrlichkeit in best. Bereichen beweisen. Diese Erweiterung erklärt auch, warum Menschen oft nicht im gesamten akademischen Spektrum gleiche Begabung zeigen.

  • Eigenschaften hochbegabter Kinder (Langzeitstudie von Lewis Terman 1925): Widerlegung der allgemeinen Annahme, dass hochbegabte Kinder Schwierigkeiten in sozialer und emotionaler Anpassung haben. Sie kommen im allgemeinen besser zurecht als andere Gleichaltrige und haben z.B. weniger Ängstlichkeit

  • IQ gilt als guter Prädikator für beruflichen Status und Einkommenshöhe, weshalb Hochbegabte beruflich erfolgreich sind --> Besondere Aufmerksamkeit benötigt deshalb eine ausreichende schulische Unterstützung um individuelle Begabungen voll zu entwickeln.

    9.3. Intelligenztheorien (Was ist mit dem Wort Intelligenz gemeint?)

    9.3.1 Psychometrische Intelligenztheorien

  • Diese Theorien entstanden zur gleichen Zeit, wie die ersten IQ-Tests

  • Psychometrie ist das Gebiet der Psychologie, das sich mit dem Testen mentaler Fähigkeiten befasst. Dazu gehören Persönlichkeitsdiagnostik, Intelligenzdiagnostik und Eignungsprüfungen.

  • Diese Theorien untersuchen statistische Beziehungen zwischen den verschiedenen Maßen geistiger Fähigkeit, wie z.B. den 14 Untertests des WISC. Auf der Basis dieser Beziehungen werden Schlussfolgerungen über die Beschaffenheit der menschlichen Intelligenz gezogen.


    Faktorenanalyse (am häufigsten verwendete Technik)

  • ein statistisches Verfahren,das eine Zahl von Faktoren aus einer größeren Menge unabhängiger Variablen extrahiert.
    Ziel: die grundlegenden psychologischen Dimensionen des untersuchten Konstrukts zu identifizieren.

  • Ein statistisches Verfahren kann jedoch nur statistische Regelmäßigkeit identifizieren ; es ist die Aufgabe des Psychologen diese Regelmäßigkeiten zu interpretieren und belegen

  • Charles Spearman: einflussreichste Anwendung der Faktorenanalyse auf Intelligenz-forschung. Er fand heraus, dass die Leistungen von Personen in jeweils verschiedenen Intelligenztests hoch miteinander korrelieren

  • Schlussfolgerung, dass es den sogenannten Generalfaktor der Intelligenz oder g-Faktor gibt, der jeder Intelligenzleistung zugrunde liegt.

  • Mit jedem einzelnen Bereich sind spezielle Fähigkeiten verbunden, die s-Faktoren. Beispiel: Die Leistung in einem Wortschatztest hängt nicht nur von allgemeiner Intelligenz (g-Faktor), sondern auch von bereichsspezifischen Fähigkeiten ab (s-Faktor)

  • Raymond Cattel (1963) stellte durch Verwendung fortschrittlicher faktorenanalytischer Techniken fest, dass sich allgemeine Intelligenz in zwei relativ unabhängige Komponenten zerlegen lässt.

  • Kristalline Intelligenz: das Wissen, das eine Person erworben hat, sowie die Fähigkeit, komplexe, Zusammenhänge zu erkennen und Probleme zu lösen. Man misst sie durch Wortschatztests, Rechentests, Tests zum Allgemeinwissen
    --> Sie befähigt Menschen dazu, gut mit den wiederkehrenden und konkreten Herausforderungen des Lebens umzugehen

  • Fluide Intelligenz: die Fähigkeit, komplexe Zusammenhänge zu erkennen und Probleme zu lösen. Man misst sie durch Matrizenaufgaben und räumliche Anordnungen, die logische Schlussfolgerungen erfordern (Für die Lösung erforderliche Infos sind in Aufgabenstellung oder leicht erschließbarem Wissen enthalten)

    --> Sie befähigt den Menschen dazu, neue und abstrakte Probleme in Angriff zu nehmen

  • Durch Cattel wurde das Verständnis des Intelligenzbegriffs erweitert, sodass er weitaus mehr als die Leistung in traditionellen IQ-Tests umfasst


    9.3.2 Sternbergs triarchische Intelligenztheorie

  • Robert Sternberg (1999) betont im Rahmen seiner allgemeineren Intelligenztheorie die Bedeutung von kognitiven Prozessen, die an der Lösung von Problemen beteiligt sind

  • Triarchische (dreiteilige) Theorie: Die analytische, kreative und praktische Intelligenz repräsentieren unterschiedliche Wege zur Charakterisierung effizienter Leistung
    --> Erfolgreiche Intelligenz, ist aus diesen 3 Arten zusammengesetzt


    Analytische Intelligenz

  • Sie liefert die grundlegenden informationsverarbeitenden Fähigkeiten, mit denen man die Aufgaben des Alltags bewältigt. Sie ist durch die geistigen Prozesse/Komponenten defniniert, die dem Denken und Problemlösen zugrunde liegen.
    (1) Wissenserwerbskomponenten, um neue Fakten zu lernen
    (2) Ausführungskomponenten (Performanzkomponenten) für Strategien und Techniken des Problemlösens
    (3) metakognitive Komponenten zur Auswahl von Strategien und Überwachung von Fortschritten auf die Lösung hin

  • Beispiel: Wortanagramme lösen: die Performanz-Komponenten erlauben die Buchstaben im Geist zu manipulieren, die metakognitiven Komponenten erlauben anhand von Lösungsstrategien vorzugehen. Jedoch können auch gute Strategien manchmal versagen

  • Dadurch, dass man die Aufgaben in ihre Bestandteile zerlegen kann, können Forscher die Prozesse genau identifizieren, die bei Personen mit unterschiedlichem IQ für die Leistungsunterschiede verantwortlich sind. Beispiel: Personen mit höherem IQ wählen andere Strategie durch ihre metakognitive Komponenten zur Problemlösung (als Personen mit niedrigerem IQ), die in größerem Erfolg resultiert.

    Kreative Intelligenz

  • Sie erfasst die Fähigkeit mit neuen Problemen zumzugehen.

  • Außerdem schließt sie Fähigkeiten ein, kreativ zu sein, Neues zu erfinden, zu entdecken, sich vorzustellen, Vorschläge & Hypothesen zu entwickeln

    Praktische Intelligenz

  • Sie spiegelt sich in der Koordination von Alltagsanforderungen wieder und umfasst die Fähigkeit, sich an neue und veränderte Umstände (Kontexte) anzupassen, geeignete Umstände zu identifizieren und die Umwelt bedürfnisgerecht zu gestalten Umganssprachlich/Abfällig: Bauernschläue

  • Um praktische Intelligenz messen zu können, muss man daher diese Kontexte vertiefen. Beispiel: Praktische Intelligenz bei Führungskräften: höhere Praktische Intelligenz der Führunskräfte steht in Zusammenhang mit höherem Wachstums des Unternehmens

  • Daraus folgt, dass praktische Intelligenz in verschiedenen Zusammenhängen unterschiedliche Messweisen erfordert. Jedoch bleibt die allgemeine Idee bestehen: Man kann über mehr oder weniger praktische Intelligenz für die Lösung von Alltagsaufgaben verfügen.

  • Zweifel an Sternbergs Theorien, ob Maße für kreative & praktische Intelligenz auf sinnvolle Weise von klassischeren Konzepten wie dem g-Faktor getrennt werden können. Dahinter steckt die Frage, ob Sternbergs Analyse erfolgreicher Intelligenz den Erfolg besser vorhersagen kann als klassiche Maße für den IQ.

  • Um dieser Kritik entgegenzusetzten, entwarf er Anwendungen seiner Theorie für den praktischen Alltag: Messen der weitgefassteren intellektuellen Fähigkeiten seiner Theorie mt dem Ziel, College-Zulassungsverfahren zu verbessern. --> Er versichert, dass die kombinierten Maße erfolgreicher Intelligenz bessere Vorhersagen der Leistung ermöglichen als klassische Intelligenzmaße


    9.3.3 Gardners multiple Intelligenzen und emotionale Intelligenz

  • Howard Gardner (1999, 2006) hatte auch eine Theorie, welche die Definition von Intelligenz über den IQ Test erweitert. Er identifizierte 8 Intelligenzen, die einen großen Bereich menschlicher Erfahrung abdecken

  • Logisch-Mathematisch (Wissenschaftler/Mathematiker): Fähigkeit mit abstrakten Symbolen zu hantieren

  • Linguistisch (Jurist/Journalist): Fähigkeit, mit Sprache gut umzugehen

  • Naturalistisch (Förster) Fähigkeit, Aspekte der Natur sorgsam zu beobachten

  • Musikalisch (Komponist/Tontechniker): Fähigkeit zum Komponieren & Verstehen von Musik

  • Räumlich (Architekt/Chirurg): Fähigkeit, räumliche Verhältnisse gut abschätzen zu können

  • Körperlich-kinästhetisch (Tänzer/Athlet): Fähigkeit, Bewegungssequenzen zu planen und zu verstehen

  • Interpersonal (Politiker/Lehrer): Fähigkeit, andere Menschen & Interaktionen zu verstehen

  • Intrapersonal (Klerus): Fähigkeit, sich selbst zu verstehen

  • Existenziell (Philosophieprofessor): Fähigkeit die "großen Lebensfragen" zu stellen

  • Gardener nimmt an, dass logisch-mathematischer und lingusitischer Intelligenz in westlichen Gesellschaften ein großer Wert zukommt, während nichtwestliche Gesellshaften oft andere Arten von Intelligenz wertschätzen.
    (1) Beispiel: Karolinen (Inselgruppe im Westpazifik), dort wird die räumliche und kinästhetische Intelligenz (z.B. zum Navigieren auf hoher See ohne Karte) mehr geschätzt

    (2) Beispiel: Bali: dort wird die musikalische und körperlich-kinästhetische Intelligenz hoch geschätzt (künstlerische Darbietungen als Teil des täglichen Lebens)
    (3) Interpersonale Intelligenz ist in kollektivistischen Gesellschaften wie z.B. in Japan (kooperatives Verhalten als sehr wichtig) wichtiger als in individualistischen Gesellschaften wie in unserer

  • Viele Menschen stehen hinter Gardners Theorie, weil sie davon ausgeht, dass Menschen sich in Bereichen hervortun können, die vom traditionellen Intelligenzverständnis nicht berücksichtigt werden.

  • Kritik: (1) Studien legen nahe, dass die laut Gardner unabhängigen Intelligenzarten sich überlappen - Maße für lingusitische, logisch-mathematische, räumliche, naturalistische und interpersonale Intelligenz weisen starke Korrelation mit g auf. Diese deutet darauf hin, dass Gardner lediglich neue Bezeichnungen für verschiedene Aspekte gefunden hat, die auch in traditionellen Intelligenzkonzeptionen berücksichtigt wurden
    (2) Kritik an bestimmten Intelligenzen - z.B. spricht die Befundlage gegen die Idee, dass die Fähigkeit zum Sprachenlernen ein angeborenes Talent darstellt.

  • Emotionale Intelligenz (verwandt mit Gardner Konzepten der inter- und intrapersonalen Intelligenz) besteht aus vier Hauptkomponenten

    (1) Die Fähigkeit, Emotionenen genau und angemessen wahrzunehmen, einzuschätzen und auszudrücken
    (2) Die Fähigkeit, Emotionen zur Unterstützung von Denkvorgängen einzusetzen
    (3) Die Fähigkeit, Emotionen zu verstehen und zu analysieren und emotionales Wissen effektiv einzusetzen
    (4) Die Fähigkeit, die eigenen Emotionen zu regulieren, um emotionales sowie intellektuelles Wachstum zu fördern

  • Diese Definition spiegelt ein neues Verständnis der positiven Rolle von Emotionen in Bezug auf intellektuelle Leistung wieder: Emotionen können das Denken intelligenter machen und Menschen können intelligent über ihre Emotionen und die anderer nachdenken

  • Emotionale Intelligenz hat wichtige Auswirkungen auf den Alltag. Aus der Forschung: Eine größere emotionale Intelligenz kann Sportlern helfen, Stressoren zu bewältigen - Spieler mit hoher emotionaler Intelligenz reagierten auf stressige Erfahrungen kaum mit einer veränderten Herzrate, im Gegensatz zu Spielern mit niedriger emotionaler Intelligenz --> Diese Spieler nutzen ihre Fähigkeit, Emotionen zu verstehen und zu regulieren, um mit Stressoren einen Umgang zu finden.



    10.1 Erforschung und Erklärung der Entwicklung

  • Entwicklung wird man anhand von Veränderungen begreifen. Veränderungen bringen meist eine Abwägung von Vor- und Nachteilen, Gewinn & Verlust mit sich. --> Möglichkeiten und somit Zugewinne und auch Verluste sind Merkmale jeder Entwicklungs-phase.

  • Entwicklung ist kein passiver Prozess, denn viele entwicklungsbedingte Veränderungen erfordern die aktive Auseinandersetztung einer Person mit ihrer Umwelt.

  • Erster Schritt zur Erfassung von Entwicklungsveränderungen ist die Bestimmung der Eigenschaften (körperlich, geistig etc) einer durchschnittlichen Person in einem bestimmten Alter.

  • Normative Untersuchungen: versuchen das jeweils Charakteristische eines bestimmten Alters oder einer Entwicklungsstufe zu beschreiben.

  • Durch die systematische Untersuchung von Individuen unterschiedlichen Alters werden Eckdaten über die Entwicklung bestimmt. Diese Daten liefern Normen & Standardmuster der Entwicklung bzw. Leistungsfähigkeit, die auf der Beobachtung vieler Personen beruht.

  • Normative Standards erlauben die Unterscheidung zwischen Lebensalter und Entwicklungsalter: jenes Lebensalter, in dem die meisten Menschen eine gegebene Stufe körperlicher oder geistiger Entwicklung aufweisen --> Normen liefern Standards auf deren Basis Individuen oder Gruppen verglichen werden können

  • Erfassung von altersbedingten Veränderungen in verschiedenen Entwicklungsbereichen


    Längsschnittplan

  • ein Forschungsdesign, um mögliche Veränderungsmechanismen zu verstehen: dieselben Personen werden im Laufe der Zeit wiederholt beobachtet und untersucht, oftmals viele Jahre lang.

  • Durch Längsschnittdaten kann man Schlussfolgerungen hinsichtlich des Einflusses der früheren Umgebungen auf die Entwicklung von Kindern zu ziehen. Großer Nutzen auch in der Untersuchung von individuellen Unterschieden.

  • Um die Entwicklungsergebnisse im Laufe des Lebens zu verstehen, werden in einem frühen Lebenssabschnitt potenzielle Kausalfaktoren erfasst und man beobachtet, wie diese Faktoren den Lebenslauf beeinflussen.

  • Ein Vorteil besteht darin, dass altersbedingte Veränderungen nicht mit sich wandelnden sozialen Umständen vermischt werden können, weil alle Probanden dieselbe sozioökonomische Zeitspanne durchlebt haben

  • Ein Nachteil ist, dass bestimmte Verallgemeinerungen nur in Bezug auf dieselbe Kohorte (Personen, die in derselben historischen Zeitspanne geboren wurden wie die Probanden) getroffen werden können. Außerdem sind sie kostenintensiv und schwierig, da Daten durch das Aussteigen von Personen verloren gehen können.


    Querschnittplän

  • ein Großteil der Entwicklunsforschung erfolgt unter Verwendung dieses Forschungsdesigns

  • Hierbei werden Gruppen von Probanden unterschiedlichen chronologischen Alters zur gleichen Zeit untersucht und verglichen.

  • Vorteil: So können Forscher Schlussfolgerungen über Verhaltensunterschiede ziehen, die mit Altersunterschieden in Zusammenhang stehen könnten

  • Nachteil: entsteht durch den Vergleich zwischen Personen, die sich sowohl hinsichtlich des Geburtsjahres als auch des Lebensalters unterscheiden --> Altersbedingte Veränderungen sind konfundiert mit sozialen und politischen Veränderungen, denen unterschiedliche Geburtskohorten ausgesetzt sind.

  • So können die untersuchten Unterschiede sowohl in Beziehung mit dem geschichtlichen Kontext als auch in Beziehung mit den Entwicklunsstufen der Probanden stehen

    Phasen der Entwicklung im Laufe des Lebens:

  • Pränatal: Empfängnis bis Geburt / Säuglingsalter: Geburt bis 12 Monate

  • Frühe Kindheit: 12 Monate bis 3 Jahre / Mittlere Kindheit: 3 Jahre bis 6 Jahre

  • Späte Kindheit: 6 Jahre bis 11 Jahre / Adoleszenz: 11 Jahre bis 20 Jahre

  • Frühes Erwachsenenalter: 20 bis 40 Jahre/ Mittleres Erwachsenenalter: 40 bis 65

  • Spätes Erwachsenenalter: 65 und älter

    10.2 Körperliche Entwicklung im Laufe des Lebens

  • Die Körperliche Entwicklung ist der Bereich, in dem Veränderungen sehr offenkundig und leicht zu beobachten sind

    10.2.1 Pränatale Entwicklung und Entwicklung während der Kindheit

  • Durch Empfängnis (männliches Spermium befruchtet weibliche Eizelle) bildet sich eine einzellige Zygote

  • Die 46 Chromosomen setzten sich zur Hälfte durch die Mutter und zur Hälfte durch den Vater zusammen - ein einzigartiges genetisches Potenzial

    Körperliche Entwicklung im Mutterleib

    Germinales Stadium

  • ersten zwei Wochen nach Bildung der Zygote: hier fangen die Zellen an sich sehr schnell zu teilen ; es entsteht eine Ansammlung mikosropischer Zellen

    Embryonisches Stadium (3. bis 8. Woche)

  • die rasante Zellteilung hält an und die Zellen sind nun so spezialisiert, dass daraus verschiedene Organe hervorgehen können. Es folgt der 1. Herzschlag.

  • Reaktionen auf Stimulationen wurden ab 6. Woche beobachtet (Embryo 2,5cm groß) ; spontane Bewegungen ab 7./8. Woche.
    Das fetale Stadium (8.Woche - Geburt)

  • Die Mutter spürt die Bewegungen des Fetus ab 16. Woche (Fetus 18cm groß)

  • Die meisten der 100 Milliarden Neurone eines Erwachsenen sind bereits im Mutterleib entstanden ; auch ein Großteil der Zellvermehrung & Wanderung der Neurone an korrekten Platz findet vor der Geburt statt ; Entwicklung des Verzweigungsvorgangs von Dendriten & Axonen findet hauptsächlich nach der Geburt statt

  • Teratogene: Umweltfaktoren (z.B. Infektionen, Strahlung oder Drogen), die zu strukturellen Anomalitäten des Fetus führen

  • Beispiel: Wenn sich Mutter nach Empfängis mit Röteln infiziert, leidet das Kind oft an geistiger Behinderung, Sehschäden, Taubheit oder Herzschäden (die Wahrscheinlichkeit der negativen Auswirkungen sinkt mit der fortgeschrittenen Schwangerschaft)

  • Beispiel: Fetales Alkoholsyndrom als schwerwiegendste Folge des mütterlichen Alkoholkonsums. Diese Kinder haben oft kleine Köpfe/Körper, Gesichtsanomalitäten und Störungen des zentralen Nervensystems (verantowrtlich für kognitive & verhaltens-bezogene Problemen)

  • Beispiel: Rauchen & Passivrauchen erhöht das Risiko für Fehlgeburten, Frühgeburten und Babys mit niedrigem Geburtsgewicht.

  • Beispiel Kokainkonsum: Kokain gelangt durch Plazentaschranke und kann Entwicklung unmittelbar beeinflussen durch schlechte Versorgung mit Blut & Sauerstoff ; Durch Sauerstoffmangel kommt es zu pränatalen Schlaganfällen kommen, die zu geistiger Behinderung führt; Gehirnbereiche für die Kontrolle der Aufmerksamkeit, werden am stärksten durch Kokainkonsum geschädigt.

    Kinder sind auf das Überleben programmiert

  • Säuglinge sind für das Überleben vorbereitet und darauf eingerichtet auf elterliche Fürsorge zu reagieren und ihre soziale Umgebung zu beeinflussen

  • Sie verfügen über ein Repertoire an Reflexen, die erste Verhaltensreaktionen auf die Umwelt ermöglichen

  • Suchreflex: er hilft die Brustwarze der Mutter oder andere Nahrungsquellen zu finden

  • Saugreflex: Er sichert die Nahrungsaufnahme

  • Säuglinge können schon vor der Geburt hören und sind darauf vorbereitet auf bestimmte Geräusche zu reagieren --> Erkennen der Stimme ihrer Mutter schon vor der Geburt und durch diese Assoziation fällt es leicht, später das Gesicht der Mutter zu erkennen

  • Aber Säuglinge haben nicht genug akustische Erfahrung mit der Stimme des Vaters, weshalb sie keine Präferenz zu ihr entwicken

  • Erste visuelle Erfahrungen (Wahrnehmen ihrer eigenen Bewegungen) erhalten Kinder in den letzten beiden Monaten im Mutterleib; Deshalb setzten Neugeborene sie auch direkt durch aufmerksame Augenbewegungen ein ; Im Vergleich mit anderen Sinnen ist das visuelle System jedoch weniger gut entwickelt (die Sehschärfe ist beim Erwachsenen 40 mal größer) sie verbessert sich jedoch schnell in den ersten 6 Monaten.

  • Neugeborene sind jedoch schlecht in der dreidimensionalen Wahrnehmung, da sie die Hinweisreize nicht interpretieren können, jedoch ist diese Fähigkeit ab 4 Monaten wahrscheinlicher.

  • Robert Fantz (1963) untersuchte visuelle Präferenzen der Babys: Bevorzugen von komplexen Objekten und nicht leichten mit 4 Monaten ; Schon im Alter von 3 Tagen bevorzugen sie toplastige Anordnungen (z.B. menschliche Gesichter) gegenüber anderen visuellen Mustern.

  • Mit dem Beginn der Bewegung in der Umgebung erwerben Kinder schnell andere perzeptuelle Fähigkeiten.

  • Eleanor Gibson und Richard Walk (1960) untersuchten wie Kinder auf Informationen über räumliche Tiefe reagieren: Nutzen der visuellen Klippe (visual cliff) mit der Beobachtung, dass Kinder zögern, die tiefe Seite zu überqueren (Krabbelerfahrung) ; Somit ist die Angst vor der Höhe nicht vorprogrammiert, sondern entsteht durch eigene Erfahrungen

    Wachstum und Reifung während der Kindheit

  • Neugeborene Kinder verändern sich mit erstaunlicher Geschwindigkeit, jedoch wachsen nicht alle Körperstrukturen gleich schnell.

  • Der Kopf eine Babys hat fast 60% seiner Größe im Erwachsenenalter und macht 1/4 der Körpergröpe aus.

  • Das Körpergewicht verdreifacht sich bis zum 1. Geburtstag und der Rumpf hat im Alter von 2 Jahren schon die Hälfte der Größe von Erwachsenen.

  • Das genitale Gewebe weist bis zum Teenageralter nur geringe Veränderungen auf und erreicht dann schnell die Proportionen eines Erwachsenen

  • Das Körperliche Wachstum wird von der Reifung der motorischen Fähigkeiten begleitet

  • Reifung: Wachstumsprozesse, die typisch für alle Mitglieder einer Spezies eines bestimmten Lebensraums sind. Die charakteristischen Reifungsprozesse bei Säuglingen werden durch die Interaktion zwischen ererbten biologischen Begrenzungen und Einflüssen der Umwelt gesteuert. Die Einflüsse der Umwelt sind gegliedert:

  • Sensitive Periode: die optimale Altersspanne für bestimmte Umwelterfahrungen, die einer normalen Entwicklung zuträglich sind. D.h. für die Entwicklung ist es ideal, wenn Kinder die entsprechenden Erfahrungen in dieser Periode machen

  • Kritische Periode: ein Altersabschnitt, in dem bestimmte Umwelterfahrungen unabdingbar sind. Ohne angemessene Erfahrungen in dieser Periode kann ein Kind bestimmte Fähigkeiten nicht ausbilden.

  • Beispiel der motorischen Entwicklung: Kinder lernen viele der motorischen Meilensteine, z.B. aufrechter Gang ohne spezielles Training; hierbei ist es wichtig, die Umweltbedingungen besser zu verstehen: Kinder mit denen motorisch geübt wird, erreichen die Meilensteine schneller, als langsamer entwickelte Kinder.

  • Jedoch haben alle nichtbehinderten Kinder dasselbe Potenzial für körperliche Reifung.

  • Die phyische Entwicklung folgt zwei allgemeinen Prinzipien
    Das cephalokaudale Prinzip sagt aus, dass die Entwicklung sich vom Kopf aus in Richtung der Füße vollzieht.
    Das proximodistale Prinzip sagt aus, dass sich nahe an der Mitte gelgene Körperteile eher entwickeln als die Extremitäten.

  • Entwicklung vollzieht sich in der Regel von grob-zu feinmotorischen Fähigkeiten ; Grobmotorisch: größere Muskeln ; Feinmotorisch: präzisere Koordination kleiner Muskelpartien

    10.2.2 Körperliche Entwicklung in der Adoleszenz

    Pubertät

  • Erster Indikator für das Ende der Kindheit: pubertärer Wachstumsschub von etwa 8-15cm pro Jahr (Mädchen Beginn mit 10 und Jungen mit 12 Jahren)

  • Schnelle Zunahme des Körpergewichts

  • Die Körperform (Proportionen) während der Adoleszenz verändert sich mehrmals (Zuerst wachsen Hände und Füße, danach Arme und Beine und zum Schluss der Rumpf)

  • Wichtiger Prozess während der Adoleszenz: Die Pubertät, die zur sexuellen Reife führt.

  • Bei Männern beginnt sie mit der Produktion von fruchtbaren Spermien im Alter von 12-14 Jahren, bei Mädchen mit der Menarche (erste Menstruation), meist im Alter von 11-15 Jahren --> Die körperlichen Veränderungen führen oft zu einem Bewusstsein sexueller Regungen


    Veränderungen im Gerhirn

  • Auch wenn ein Großteil des Hinwachstums bereits in den ersten Lebensjahren abgeschlossen ist, schreitet die Hirnentwicklung auch in der Adoleszenz fort.

  • Wichtige Veränderungen beim limbischen System (Regulierung von emotionalen Prozessen) und Frontallappen (vorausplanendes Denken und Kontrolle von Emotionen)

  • Die Reifung des limbischen Systems geht der Reifung des Frontallappens voraus. Durch diese zeitliche Abfolge kann ein wichtiger Aspekt der sozialen Entwicklung erklärt werden: Die Neigung Heranwachsender zu riskantem Verhalten

  • Annahme, dass die Reifung des limbischen Systems Heranwachsende darauf vorbereitet, in die Welt hinauszugehen und die Fähigkeiten zur Unabhängigkeit erlernt werden, um den Erfolg der Trennung vom Schutz der Familie zu erhöhen.

  • In diesem evolutionärem Kontext ist es sinnvoll, dass die mit dem Hemmen und Kontrollieren des Unabhängigkeitdrangs in Zusammenhang stehenden Regionen des Frontalcortex erst später heranreifen (Großes Risiko für Adoleszenten, wenn sie Familie verlassen würden)

  • Heute erfüllt dieser evolutionäre Impuls zur Suche nach Neuem und zum Eingehen von Risiken keine adaptive Funktion mehr.

  • Bei der Reifung der Frontallappen entstehen neue Verbindungen mit dem limbischen System, die es ermöglichen Menschen, ihren emotionalen Impulsen mittels kognitiver Kontrolle länger Einhalt zu gebieten.

    Veränderungen im Alter

  • Nach der Adoleszenz kommt eine Phase des Körpers mt relativ geringen biologischen Veränderungen. Entscheidende Veränderungen treten im mittleren bzw späten Erwachsenenleben wieder auf.

  • Altersbedingte Veränderungen treten graduell auf und beginnen, sobald das Erwachsenenalter erreicht wurde, jedoch entstehen viele davon nicht durch das Altern, sondern durch mangelnde Übung (Wer rastet der rostet). Beispielweise haben ältere Erwachsene weniger Beschwerden, wenn sie ein Fitnessprogramm durchführen


    Sehen

  • Im Alter von 40-50 merkt man, dass das visuelle System nachlässt:

  • Die Linsen sind weniger flexibel und die Muskeln, durch die sich die Dicke der Linse verändert, arbeiten weniger effektiv.

  • Auswirkungen: Schwierigkeiten, Gegenstände im Nahbereich scharf zu sehen, Schwierigkeiten bei der Dunkeladaption (Nachtsehen) - mögliche Lösung Korrekturgläser

  • Trübung der Linse: verschlechtertes Farbensehen (besonders die mit niedriger Wellenlänge: Violett, Blau und Grün sind schwerer zu unterscheiden)

  • Amerikanische Stichprobe: 26 % der 75 Jährigen haben visuelle Beeinträchtigungen

    Hören

  • Verlust an Hörfähigkeit ist vorallem für die über 65 Jährigen üblich, vorallem beim Hören von hochfrequenten Schallen --> Schwierigkeiten gesprochene Sprache zu verstehen (besonders in hohen Tonlagen)

  • Die Veränderungen treten graduell auf und sind kaum zu bemerken oder werden verleugnet, bis sie extrem sind

  • Hörgeräte, eine tiefe Stimmlage, deutliche Aussprache und Reduktion von Hintergrundgeräuschen können die Situation erleichtern


    Fortpflanzungsfähigkeit & Sexualtität

  • Gegen Ende des Erwachsenenalters schwindet die Fortpflanzungsfähigkeit

  • Frauen mit etwa 50 treten in die Menopause ein (Menstruation & Ovulation endet)

  • Weniger aprupte Veränderungen bei Männern (Menge an zeugungsfähigen Spermien sinkt jenseits der 40 und die Menge an Samenflüssigkeit jenseits der 60)

  • Zunehmendes Alter bedeutet nicht zwingend Einschränkung in der Sexualtiät, im Gegenteil sie kann Fantasie anregen und eine zentrale Form der sozialen Interaktion darstellen.

    Kognitive Entwicklung im Laufe des Lebensalter

  • Kognitive Entwicklungspsychologie befasst sich mit der Entstehung und Veränderung der Prozesse und Produkte des Denkens.

  • Pionier in dieser Hinsicht war der Schweizer Forscher Jean Piaget

    10.3.1 Piagets Erkenntnisse über die geistige Entwicklung

  • Jean Piaget (1929,1954,1977) hat fast 50 Jahre lang Theorien über das Denken, Schlussfolgern und Problemlösen von Kindern etnwickelt und begann damit schon in seiner intellektuellen Jugend

  • Zur Schaffung seiner komplexen Theorien über die frühe geistige Entwicklung nutzte er einfache Demonstrationen und Interviews mit seinen eigenen und anderen Kindern mit dem Ziel: mehr über die Art und Weise wie sich ihr Denken (mentale Repräsetationen) der physikalischen Realität im Laufe der verschiedenen Entwicklungsstufen verändert, herauszufinden.


    Bausteine der entwicklungsbedingten Veränderung

  • Begriff Schema für die geistigen Strukturen, mit deren Hilfe Menschen die Welt interpretieren. Schemata sind die Bausteine der entwicklungsbedingten Veränderung

  • 1. Schemata von Säuglingen: sensumotorische Intelligenz, d.h. mentale Strukturen, die sensumotorische Sequenzen wie Saugen oder Greifen steuern.

  • Durch Übung werden elementare Schemata zu immer komplexeren Handlungsmustern kombiniert, integriert und differenziert (Beispiel am Verhalten eines Kindes: Wegschieben eines ungeliebten Objektes, um das dahinter liegende begehrende Objekt zu greifen)

  • Zwei grundlegende Prozesse arbeiten zusammen, um kognitives Wachstum zu erreichen

  • Assimilation: Hierbei wird Information aus der Umwelt modifiziert, um sie an vorhandenes Wissen anzupassen: Das Kind greift auf vorhandene Schemata zurück, um eintreffende sensorische Informationen zu strukturieren

  • Akkomodation: Hierbei werden die vorhandenen Schemata des Kindes umstrukturiert oder modifiziert, sodass neue Informationen umfassender aufgenommen werden.

  • Erklärung am Beispiel Saugreaktion: Der Saugreflex ist ein bei der Geburt vorhandenes Reflexverhalten, das modifiziert werden muss, um den Mund an die mütterliche Brustwarze anzupassen. Bei anschließender Anpassung an die Flasche benutzt der Säugling viele Teile des Verhaltens in unveränderter Form (Assimilation), muss aber anders saugen (Akkomodation)

  • Kognitive Entwicklung als Ergebnis vom Ineinandergreifen von Assimilation und Akkomodation - Diese Anwendung ermöglicht, dass das Verhalten/Wissen eines Kindes unabhängiger von der externen Realität wird und sich stärkter auf abstraktes Denken stützt


    Stadien der kognitiven Entwicklung

  • Unterteilung der kognitiven Entwicklung in 4 diskontinuierliche Stadien, die in derselben Reihenfolge durchlaufen werden

    Das sensumotorische Stadium (0-2 Jahre)

  • In den ersten Monaten beruht das Verhalten auf einer begrenzten Reihe von angeborenen Reflexen (Schemata wie Saugen, Schlucken, Greifen, Schreien)

  • Im 1. Jahr werden sensumotorische Sequenzen verbessert, kombiniert, koordiniert und integriert. Sie werden vielfältiger, wenn Kleinkinder entdecken, dass ihre Handlungen Auswirkungen auf ihr Umwelt haben.

  • Wichtige Entwicklung der Objektpermanenz: das Wissen eines Kindes darum, dass Objekte unabhängig von seinen Handlungen oder seinem Bewusstsein existieren. - Fähigkeit mentale Repräsentationen von Objekten, die nicht in direktem sensumotorischem Kontakt stehen, zu bilden.

  • Zwischen 8 und 12 Monaten beginnen Kinder nach verschwundenen Objekten zu suchen und mit 2 Jahren, besteht keine Unsicherheit mehr, dass das nicht sichtbare Objekt existiert

    Das präoperatorische Studium (2-7 Jahre)

  • Großer Kognitiver Fortschritt: Verbesserte Fähigkeit zur mentalen Repräsentation von physikalisch nicht vorhandenen Objekten.

  • Präoperatorisches Denken geprägt von Egozentrismus: eine Unfähigkeit, die Perspektive einer anderen Person einzunehmen.

  • Zentrierung: Neigung dazu, die Aufmerksamkeit lediglich auf einen Aspekt einer Situation zu richten und andere relevante Aspekte zu vernachlässigen.

  • Aus der Forschung: Limonade wird in ein höheres, dünneres Glas umgeschüttet mit der Frage, ob es nun mehr Limonade ist, als im vorherigen Glas. - Jüngere Kinder zentrieren sich auf eine einzige, perzeptuell wahnehmbare Dimension.

    Das konkret-operatorische Stadium (7-11 Jahre)

  • Das Kind ist nun zu mentalen Operationen in der Lage, das sind Handlungen, die im Geist ausgeführt werden und zur Entwicklung des logischen Denken führen

  • Durch konkrete Operationen, können sie eine physikalische Handlung durch eine geistige zu ersetzen. So können Kinder Problemstellungen mit abstraktem Denken auflösen

  • Prinzip der Erhaltung / Invarianzprinzip: Kinder wissen, dass sich die physikalischen Eigenschaften von Objekten nicht ändern, wenn nichts hinzugefügt oder weggenommen wird, obwohl sich das Aussehen verändert (Limonadenstudie)

  • Anwendung der Reversibilität: das Verständnis des Kindes dafür, dass sowohl gegenständliche Handlungen als auch geistige Operationen umgekerht werden können (Wenn Limonade zurückgeschüttet wird, kann das Volumen wieder gleich aussehen)

    Das formal-operatorische Stadium (Beginn im 11. Lebensjahr)

  • In diesem letzten Stadium wird das Denken abstrakt.

  • Adoleszenten können erkennen, dass ihre Realität nur eine von merheren vorstellbaren Realitäten ist und sie fangen an, sich über die großen Fragen der Welt (Gerechtigkeit, Dasein) Gedanken zu machen.

  • Es folgt die systematische Suche nach Antworten (Wissenschaftler spielen) und sie können fortgeschrittene deduktive Logik anwenden

    Aktuelle Perspektiven auf die frühe kognitive Entwicklung

  • Piagets Theorie als klassischer Bezugspunkt für die Verständnis der kognitiven Entwicklung. Heutzutage gibt es jedoch flexiblere Wege zur Untersuchung.

    Kognition bei Kleinkindern

  • Entwicklung innovativer Techniken zur neuen Bewertung von Piagets Ergebnissen, z.B. im Hinblick auf die Objektpermanenz, denn neue Aspekte legen nahe, dass Kinder schon mit 3 Monaten Teilaspekte dieses Konzeptes entwickelt haben --> Entwicklung verschiedener Aufgaben von Renée Baillargeon

  • Aufgabe zur Objektpermanenz: Es wurde gemessen, inwieweit 4 Monate alte Kleinkinder überrascht waren, als ein Objekt verschwunden war, bzw. dass ein breites Objekt, hinter einem schmalen verborgen sein kann. Nach Annahme von Piaget, sollten sie Gleichgültigkeit zeigen, da sie noch keine Erinnerungen an das Objekt haben.

  • Dies lässt vermuten, dass sogar schon sehr kleine Kinder wichtiges Wissen über die physikalische Welt erworben haben (dennoch kein Beleg für die frühe Objektpermanenz)

  • Veränderung von Wahnehmungsprozessen: Bewiesen ist, dass Kinder mit einer Vernetzung geboren werden, die das Überleben sichert. Erfahrungen dehnen ihre perzeptuellen und konzeptuellen Fähigkeiten weiter aus.

  • Beispiel: Zweidimensionale Zeichnung repräsentiert dreidimensionalen Gegenstand - Messen der Fixationszeit, um zu demonstrieren, dass 9 Monate alte Säuglinge erkennen können, dass die Zeichnung des Stofftieres einem dreidimensionalen Stofftier entsprach

  • Beispiel: Sehen eines Videoclips, indem ein lebendiges Wesen oder ein sich bewegender Ball Ordnung in einem Durcheinander von Blöcken bringt --> Messung der Fixation ergab, dass 12 Monate alte Kinder gleichermaßen überrascht reagieren, anders als bei 7 Monaten alten Kindern (nachlesen!) --> Somit entwickelt sich ein Verständnis der kausalen Eigenschaften von Lebendem und Nicht-Lebendem nach der 6 Monaten

    Theory of Mind (ToM) Tabelle 10.3 beachten (S.384)

  • Mit der Entwicklung der eigenen kognitiven Fähigkeiten beginnen Kinder zu verstehen, dass andere Menschen die Welt kognitiv erleben & dass diese abweichen können

  • Theory of Mind (Theorie des Bewusstseins): die Fähigkeit, das Verhalten anderer Menschen basierend auf einem Verständnis ihrer mentalen Zustände bzw. Bewusstseins-vorgänge zu erklären und vorherzusagen.

  • Aufgaben bezüglich unterschiedlicher Wünsche & Ansichten, Wissenszugang, Irrtümliche Einschätzung von Inhalten und versteckte Emtionen, prüfen in welchem Maße Kinder verstehen, dass das, was sie wünschen, glauben, wissen oder fühlen abweichen kann von dem was andere Menschen fühlen etc.

  • Die Aneingung der verschiedenen Aspekte der ToM erfolgt zu unterschiedlichen Zeitpunken im Alter von 2-6 Jahren (meistens die Top-down-Reihenfolge der o.g. Aufgaben)

  • Einige der Aspekte machen sich bereits in frühester Kindheit bemerkbar, z.B. beim Verhältnis zwischen den Handlungen und Zielen von Menschen--> Bereits siebenmonatige Säuglinge beginnen (nicht) zielgerichtete Handlungen zu unterscheiden.

  • Beispiel Zeigegesten: Mit dem Zeigen wird eine Intention verbunden (Versteck des Spielzeuges) --> Säuglinge nehmen sorgfältig Anteil an ihrer Umgebung und entwickeln ein Verständnis dafür, welche mentalen Zustände dem menschlichen Verhalten zugrunde liegen

    Soziale & kulturelle Einflüsse auf die kognitive Entwicklung

  • Großteil der Forschung zur Roller sozialer Interatktionen bei der Entwicklung beruht auf den Theorien des russischen Psychologen Lew Wygotsky.

  • Annahme, dass sich Kinder durch einen Prozess der Internalisierung entwickeln: Sie absorbieren Wissen aus ihrem sozialen Kontext, der einen wichtigen Einfluss auf den Verlauf der kognitiven Entwicklung hat.

  • Stützung der sozialen Theorie durch kultuvergleichende Studien zu Entwicklung.

  • Es bestand ein großes Interesse daran, anhand von Piagets Theorien, die kognitven Errungenschaften von Kindern aus unterschiedlichen Kulturen zu untersuchen --> Infragestellen der Universialität von Piagets Behauptungen, weil z.B viele Kinder aus anderen Kulturen kein formal-operatorisches Denken zeigten.

  • Annahme, dass formale Operationen eher auf einer bestimmten Art von Ausbildung in den Naturwissenschaften berhuhen, als auf der Entfaltung von biologisch vorgegebenen Entwicklungsstufen.

  • Konzept der Internalisierung ist hilfreich, den Einfluss von Kulturen auf die kognitve Entwicklung zu erklären: Das Denken von Kindern entwickelt sich, um kulturell wertgeschätzte Funktionen zu erfüllen.

  • Beispiel: Piaget entwickelte seine Aufgaben anhand von Vorannahmen über seiner Meinung nach, wertvolle kognitve Tätigkeiten. Andere Kulturen ziehen es vor, wenn Kinder sich in anderer Weise auszeichnen (z.B. Verständnis der kognitiven Feinheiten des Webens, Guatemala)

  • Kulturvergleichende Studien zeigen, dass die Art der Beschulung eine große Rolle spielt, wenn es um die Leistung von Kindern in Piagets Aufgaben geht --> Nutzen dieser Ergebnisse, um die Rolle von Anlage und Umwelt bei der kognitiven Entwicklung voneinander zu trennen.

    10.3.3 Kognitive Entwicklung im Erwachsenenalter

  • Altern bedeut nicht nur "Verfall", es gibt es auch bestimmte Gewinne in späten Lebensphasen

    Intelligenz

  • Nur ungefähr 5% der Menschen erleiden Einbußen ihrer geistigen Leistungsfähigkeit

  • Die fluide Intelligenz, (Komponenten, die Teil der Fähigkeit zu schnellem und glündlichem Lernen sind) nimmt im Alter stärker ab als die kristalline Intelligenz (verbale Fähigkeiten) --> Dies liegt an der Verlangsamung der Verarbeitungsgeschwindigigkeit

  • Möglichkeit des geringen Leistungsabfalls: Grundsatz: "Gebrauche es oder du verlierst es"

  • Beispiel Studie: hohes Maß an sozialer, physischer und intellektueller Aktivitäten im Alter führt zu schneller Verarbeitungsgeschwindigigkeit bei kognitiven Aufgaben ; Einwand: Korrelation geht nicht zwangsläufig mit kausaler Verursachung einher.

  • Beispiel Studie: positive Korrelation zwischen Computernutzung und kognitven Fähigkeiten - Computernutzung kann vor kognitiven Abbau schützen.

  • Zugewinn an Weisheit, der mit dem Alter bzw. gesammelten Erfahrungen in Beziehung steht - damit ist die Expertise bei den wesentlichen Verrichtungen des Lebens gemeint


    Merkmale von Weisheit

  • Reichhaltiges Faktenwissen. Allgemeines und spezifisches Wissen über die Umstände des Lebens und seine Variationen

  • Reichhaltiges prozurales Wissen. Allgemeines und spezifisches Wissen über Strategien zur Berurteilung & Ratschläge in Dingen des Leben

  • Kontextualiät über die Lebensspanne. Wissen über die Begleitumstände des Lebens und deren zeitliche Beziehung zueinander

  • Unsicherheit. Wissen über die relative Unbestimmtheit und Unvorhersehbarkeit des Lebens & Wege damit umzugehen.

    Gedächtnis

  • Über 60 Jährige zeigen schechtere Leistungen in Gedächtnistests als junge Erwachsene.

  • Fähigkeit, das Allgemeinwissen oder persönliches Wissen über lange zurückliegende Ereigenisse abzurufen wird nicht verringert.

  • Das Älterwerden beeinflusst die Prozessen mit deren Hilfe neue Informationen effektiv strukturiert, gespeichert & abgerufen werden

  • Mögliche Erklärungen: (1) Theorien zu Unterschieden zwischen Älteren und Jüngeren bei der Strukturierung oder Verarbeitung von Informationen (2) Theorien zur Untersuchung neurobiologischer Veränderungen (jedoch andere Veränderungen als bei Alzheimer) (3) Der Glaube der Senioren ihre Gedächtnisleistung wird geringer sein


    10.4 Spracherwerb

  • Bemerkenswerte Sprachleistungen von Kindern: Annahme, dass die grundlegende Fähigkeit, Sprache zu erlernen, biologisch angelegt ist und Kinder mit einem angeborenen Sprachpotenzial zur Welt kommen.

  • Babys sind in der Lage 4000 Sprachen zu lernen --> Die angeborene Prädisposition zum Spracherwerb muss gleichermaßen stark und flexibel sein

    Die Struktur der Sprache (Wissensbereiche, die ein Kind für die jeweilige Sprache lernen muss, gleich ob gesprochene oder Gebärdensprache)

  • Phonologie: Untersuchung der Laute, die zu Wörtern verbunden werden und der Rolle von Lautklassen im Sprachsystem

  • Phonem: die kleinste bedeutungsunterscheidende Einheit, die zwischen zwei Äußerungen unterscheidet

  • Phonetik: Untersuchung und Klassifikation der Sprachlaute. Sie richtet sich auf die physikalischen Aspekte der Laute

  • Grammatik: beschäftigt sich mit der Struktur von Wörtern und der Art und Weise wie sich Wörter zu Sätzen kombinieren lassen: Morphologie und Syntax

  • Syntax: die Art und Weise, in der Wörter aneinandergereiht werden, um Sätze zu bilden. Subjekt, Prädikat, Objekt ist Standardwortfolge für deutsche Sätze

  • Morphem: die kleinste bedeutungstragende, grammatische Einheit, die nicht weiter geteilt werden kann, ohne ihre Bedeutung zu verlieren.

  • Semantik: die Bedeutung von Wörtern und deren Veränderung im Laufe der Zeit

  • Die lexikalische Bedeutung eines Wortes ist die, die im Wörterbuch angegeben ist. Bedeutung wird manchmal durch den Kontext vermittelt, in dem ein Wort im Satz steht oder durch die Betonung, mit der es gesprochen wird

  • Pragmatik: Regeln für die Beteiligung an Gesprächen - soziale Konventionen für die Kommunikation ( Aneinanderreihung von Sätzen, angemessene Reaktionen auf andere)

    10.4.1 Lautwahrnehmung und Wortwahrnehmung

  • 1. Schritt beim Erwerb einer Sprache: jene Unterschiede von Schallereignissen zu bemerken, die in der jeweiligen Sprache Bedeutung transportieren

  • Jede gesprochene Sprache nutzt einen Teil der Menge an möglichen Unterscheidungen

  • Die kleinste bedeutungsunterscheidenden Einheiten heißen Phoneme (Im Deutschen ca. 40 distinkte Phoneme) --> Beispiel: r/l im Deutschen unterschiedliche Phoneme, im Japanischen keine distinkten Phoneme

  • Forschung bei Säuglingen, um den Erwerb/Verlust von distinkten Phonemen zu untersuchen: Technik des operanten Konditionieren, um Kinder dazu zu bringen ihren Kopf in die Richtung veränderter Sprachlaute zu drehen.

  • Janet Werker und Kollgegen (1991/1988) nutzten diese Technik, um die angeborene Basis der Fähigkeit zur Sprachwahrnehmung zu untersuchen (Lautunerschiede die in Hindi benutzt werden, aber nicht im Englischen) - Ergebnis: Säuglinge, ungeachtet der Sprache, die sie lernten, konnten bis zum Alter von 8 Monaten die Unterschiede hören. Über 8 Monate war dies nicht möglich.

  • Solche Forschungen belegen, dass es eine angeborene Fähigkeit zur Wahrnehmung von Lautunterschieden gibt, jedoch verliert man diese schnell, wenn sie in der Sprache, die man spricht nicht vorkommt.

  • Vorsprung bei der Sprachwahrnehmung durch die Umwelt der Kinder, z.B durch Säuglingsorientierte Sprache oder Kindheitsorientierte Sprache (Drosseln der Sprechgeschwindigkeit, Betonungen, hohe Stimmlagen, einfache Struktur)

  • Diese Merkmale gibt es in vielen, aber nicht in allen Kulturen; diese besonderen Sprachformen enthalten Informationen, mit deren Hilfe Kinder sich Phoneme und Wörter von der umgebenden Sprache aneignen können.

  • Beginn der Wahrnehmung von Wörtern zwischen 6 & 7 Monaten; Präferenz für ihren eigenen Namen entsteht mit 4 Monaten, d.h. sie erkennen ihren Namen wieder.

    10.4.2 Lernen von Wortbedeutungen

  • Nach Bemerken des gemeinsamen Auftretens von Lauten und Erfahrungen kann man die Bedeutung von Wörtern zu lernen.

  • Mit 18 Monaten: Phase der Wortschatzexplosion insbesondere bei Objektbezeichnungen. Mit 6 Jahren kennen Kinder etwa 14.000 Wörter.

  • Kinder können die Bedeutung neuer Wörter unmittelbar lernen, manchmal braucht es nur eine einzige Begegnung mit einem Wort und seinem Bezugspunkt

  • Annahme, dass Kinder Hypothesen darüber entwickeln, was neue Wörter bedeuten könnten ; mögliche Überdehnung von Wörtern (Anwendung fälschlicherweise auf eine Vielzahl von Objekten) oder Überspezifizierung (nur eigener Hund ist ein "Hund")

  • Kindliche Hypothesen sind von dem Kontrastprinzip bestimmt: Es besagt, dass Unterschiede in der Form auch Unterschiede in der Bedeutung bezeichnen: Wenn Kinder neue Wörter hören, suchen sie nach einer Bedeutung, die mit schon bekannten Wörtern kontrastiert

  • "Wissenschaftler" beim Lernen von Regeln der Grammatik ; Kinder müssen herausfinden, welche Reihenfolge in der sie umgebenden Sprache vorliergt.

  • Linguist Noam Chomsky war der Annahme, dass Kinder mit mentalen Strukturen geboren werden, die Verständnis und Produktion von Sprache erleichtern ; Die besten Belege für eine solche biologische Basis der Grammatik stammen von Kindern, die vollständige grammatische Strukturen entwickeln, ohne die Aufnahme von wohlgeformten Informationen

  • Untersuchung von schwerhörigen Kindern, die keine vollwertige Gebärdensprache beherrschten: Entwicklung eigener Zeichensysteme mit regelhafter grammatischer Struktur - Mit oder ohne Führung, durch eine bekannte Sprache sind Kinder bereit, eine Struktur anzustreben, wenn sie Systeme zur Kommunikation entwickeln

  • Zur Untersuchung von angeborenen mentale Strukturen werden sprachübergreifende und sprachvergleichende Untersuchungen durchgeführt (Welche Elemtente der vielen Sprachen der Welt sind leicht und welche schwer zu lernen?) - Rückschluss auf angeborene Prädispositionen

  • Kinder verfügen über Lernmechanismen (constraints), die in die Aufgabe, eine bestimmte Sprache zu lernen, einfließen --> Dan Slobin (19859): Definierung dieser Mechanismen als eine Reihe von Operationsprinzipien, die zusammen die Spracherwerbsfähigkeit eines Kindes ausmachen.

  • Diese Operationsprinzpien funktionieren wie Handlungsanweisungen: Beispielsweise ein Arbeitsprinzip, das Kindern den Zusammenhang zwischen der Reihenfolge, in der Wörter vorkommen, und der Bedeutung der Wörter, aufzeigt; Slobin entwicklete diese Prinzipien durch Datenzusammenfassungen, die bei vielen Sprachen erhoben wurden.

  • Beispiel: Das Stadium der Zwei-Wort-Sätze (Telegrammstil), ohne Funktionswörter, die helfen einen Zusammenhang auszudrücken. Selbst in diesem Stadium verfügen Kinder schon über ein gewisses Wissen über die Grammatik --> Sie entdecken, dass die Wortreihenfolge im Deutschen wichtig ist: Handelnder-Handlung-Objekt. Erst später folgt das Lernen von Ausnahmen dieser Regel

  • Extension, als weiteres Operationsprinzip: sie verlanlasst Kinder zu dem Versuch, dieselbe Bedeutungseinheit (Morphem) zu verwenden, um ein bestimmtes Konzept zu bezeichnen. (z.B. Zahlen, Teil-Ganzes-Relation oder Vergangenheitsformen)

  • Die Konzepte , z.B. in Sprachen: Numerus, Genitiv, Perfekt werden durch Hinzufügung eines grammatischen Morphems an das Inhaltswort gebildet. Dadurch wird dessen Bedeutung verändert.

  • Kinder verwenden Operationsprinzipien, z.B die Extension, um Hypothesen über die Funktionsweise von Morphemen zu generieren ; da dieses Prinzip jedoch verlangt, dass alle Wörter gleich behandelt werden, kommt es oft zu fehlerhafter Übergeneralisierung (z.B. bei den Vergangenheitsformen)

  • Übergeneralisierung tritt normalerweise auf, nachdem die Kinder die richtigen Formen gelernt und gebraucht haben. Sie verwenden sie, da sie als eigenständige Teile des Wortschatzes gelernt wurden. Wenn sie jedoch z.B. die allgemeinen Regeln der Vergangenheiten in der Schule lernen, wenden sie diese Regeln fälschlicherweise auch auf Worte an, die sie zuvor schon richtig gebraucht haben. --> Übergeneralisierung wird mit der Zeit mithilfe von anderen Operationsprinzipien überwunden

  • Spracherwerb hat einen großen Einfluss auf die Fähigkeit von Kindern an sozialen Interaktionen teilzunehmen

    Die Konstruktion der sozialen Realität

  • Allgemein: Umstände, unter denen Überzeugungen Menschen dazu bringen, dieselbe Situation aus unterschiedlichen Blickwinkeln zu betrachten und zu verschiedenen Schlussfolgerungen kommen, was "wirklich" passiert ist

  • Ideale Untersuchunsanlässe dieser Theorie sind Sportereignisse --> Aus der Forschung: Olympische Spiele: Zwei Eiskunstlaufpaare bekommen den 1. Platz --> Unterschiedliche Zeitungsartikel aus USA und Russland berichten darüber, wer besser war

  • Def, Konstruktion der sozialen Realiät: Soziale Situationen werden bedeutsam, wenn die Beobachter das Geschehene selektiv enkodieren im Hinblick auf das, was sie zu sehen erwarten / sehen wollen

  • Allgemein Wahrnehmung: Man muss oft Vorwissen einsetzten, um mehrdeutige Wahrnehmungsobjekte zu interpretieren. Wahrnehmung in der Konstruktion der sozialen Realität: Menschen nutzen ihr Vorwissen zur Interpretation aktueller Ereignisse, aber die Objekte der perzptuellen Verarbeitung sind Menschen & Situationen

  • Soziale Wahrnehmung: der Prozess, durch den Menschen das Verhalten anderer verstehen und kategorisieren

  • Kausalattributionen: Die Kräfte, die das Verhalten anderer beeinflussen

    16.1.1 Die Ursprünge der Attributionstheorie

  • Eine der größten Schlussfolgerungsaufgaben der Menschen, ist die Bestimmung der Ursachen von Ereignissen (Beantwortung der Warum-Fragen des Lebens)

  • Alle Warum-Fragen führen zu einer Analyse der möglichen kausalen Determinanten für eine bestimmte Handlung, ein Ereignis oder Ergebnis

  • Attributionstheorie: ein allgemeiner Ansatz zur Beschreibung der Art und Weise, in der ein sozial Wahrnehmender Informationen nutzt, um kausale Erklärungen zu generieren.

  • Ursprünge von Fritz Heider (1958): Argumentation, dass Menschen ständig kausale Analysen erstellen, um zu versuchen die soziale Welt zu verstehen --> Menschen als intuitivie Psychologen, die versuchen herauszufinden was das Menschliche Verhalten verursacht

  • Annahme, dass zwei Fragen die Attributionsanalysen beherrschen: (1)Ob die Ursache des Verhaltens der Person (internale oder dispositionale Kausalität) oder der Situation (externale oder situative Kausalität) zuzuschreiben ist (2) wer verantwortlich für das Ergebnis ist.

  • Harold Kelley (1967): formalisierte Heiders Gedanken durch die Spezifikation der Variablen, die Menschen für ihre Attributionen verwenden.

  • Kovariationsprinzip: ein Verhalten wird auf einen Kausalfaktor zurückgeführt wird, wenn dieser Faktor immer beim Auftreten des Verhaltens gegeben war, nicht aber wenn das Verhalten nicht aufgetreten ist.

  • Annahme, dass Menschen Urteile fällen, indem sie die Kovariation dreier Dimensionen erfassen. Das zu erklärende Verhalten wird derjenigen Dimension zugeschrieben, mit der das Verhalten am stärksten kovariiert:
    --> Distinktheit bezieht sich darauf, ob das Verhalten spezifisch für eine bestimmte Situation ist
    --> Konsistenz bezieht sich darauf, ob das Verhalten wiederholt als Reaktion auf diese Situation auftritt
    --> Konsens bezieht sich darauf, ob andere Menschen in der gleichen Situation das gleiche Verhalten zeigen

  • Jede der drei Dimensionen spielt eine Rolle für spezifische Schlussfolgerungen, jedoch gibt es auch Umstände, in welchen Verzerrungen (bias) bei Zuschreibungen entstehen.

    16.1.2 der fundamentale Attributionsfehler

  • Lee Ross (1977): Der fundamentale Attributionsfehler steht für die menschliche Tendenz, dispositionale Faktoren überzubewerten (Menschen verantwortlich machen) und situative Faktoren unterzubewerten (die Umwelt verantwortlich machen), wenn sie nach der Ursache für ein Verhalten oder Ergebnis suchen.

  • Studie: Vor einem Quiz zum Allgemeinwissen werden Probanden durch Münzwurf entweder zu Fragestellern oder zu Kandidaten. Die Fragestellenden bewerteten sowohl sich selbst als auch die Kandidaten als durchschnittlich. Die Kandidaten und die Beobachter meinten,die Fragestellenden hätten ein besseres Allgemeinwissen als die Kandidaten. Die Kandidaten bewerteten sich als unter-durchschnittlich --> Erklärung: Die Bewertungen der Kandidaten und Beobachter ignorierten die Umstände, in der die Situation eine Person klug und eine andere weniger klug erscheinen lassen (Fragestellender wirkt klüger)

  • Situative Kräfte sind unsichtbar: Man kann die verzerrten Ansichten, aus denen sich die soziale Realität konstruiert, nicht sehen: Man sieht nur die hervorgebrachte Verhaltens-weisen.

  • Vermeidung des fundamentalen Attributionsfehlers: Besonders in den Momenten, in denen man eine negative dispositionale Attribution vornimmt (Was für ein Depp) sollte man einen Moment innehalten und sich fragen, ob nicht die Situation das Verhalten auslöst. --> besonders in der westlicher Kultur relevant, da der fundamentale Attributionsfehler teilweise kulturelle Quellen hat.

  • In den meisten westlichen Kulturen herrscht ein independentes Verständnis des Selbst & in östlichen Kulturen dominiert ein interpendentes Verständnis des Selbst.

  • Forschungen zeigen, dass Mitglieder nicht westlicher Kulturen sich infolge der Kultur der Interpendenz weniger wahrscheinlich auf einzelne Handelnde in Situationen konzentrieren

  • Aus der Forschung: Analyse von Medienberichten um herauszufinden, welche Mittel genutzt wurden, das Abschneiden von Kandidaten in den olympischen Spielen zu erklären. US-Medien verweilten fast vollständig bei positiven Charakteristika, wohingegen japanische auf Positives sowie Negatives eingingen.

  • Die Studie zeigt, wie kulturelle Attributionsstile bei allen weitergegeben und aufrechterhalten werden, die innerhalb einer bestimmten Kultur mit den Medien in Berührung kommen (über mehrere Generationen hinweg)

    16.1.3 Self-Serving Bias

  • Viele Menschen begehen den fundamentalen Attributionsfehler zu ihrem eigenen Nachteil, wie zum Beispiel die Kandidaten des Münzwurf-Quiz.; Theorien, dass dies zu den Ursprüngen der Depression gehören könnte.

  • Gegenteil: Self-serving Bias (Verzerrung zugunsten der eigenen Person) bringt Menschen dazu, Anerkennung für ihre Erfolge anzunehmen und gleichzeitig die Verantwortung für Misserfolge zu leugnen, oder den Misserfolg anders zu erklären --> Die Neigung dazu, dispositionale Attributionen für Erfolge und situative Attributionen für Misserfolge vorzunehmen.

  • Beispiel: Die Neigung Studierender, gute Noten ihren eigenen Anstrengungen und schlechte Noten externen Faktoren zuzuschreiben. (großer Einfluss auf Notendurchschnitt!)

  • Weil Angehörige östlicher Kulturen mit interpendentem Selbstverständnis sich der Situation bewusster sind, kommt es seltener zum Self-Serving Bias -- > Studie: US-Studierende und Studierende aus Japan sollten die Ursachen für Erfolge und Misserfolge der Vergangenheit attribuieren --> Bei US-Studierenden war der Self-Serving Bias ausgeprägter.


    16.1.4 Erwartungen und Selffulfilling Prophecies

  • Die Beschaffenheit mancher Situationen kann beträchtlich durch die Überzeugungen und Erwartungen verändert werden kann, die Menschen bezüglich dieser Situtation haben.

  • Selffulfilling Phophecies (Selbsterfüllende Prophezeiungen) sind Vorhersagen über ein zukünftiges Verhalten oder Ereignis, welche die Interaktionen auf Verhaltensebene so verändern, dass sie das Erwartete hervorbringen.

  • Beispiel, an Experiment in einer Grundschule in Boston: Zufällige Schüler wurden bei ihren Lehrern als "intellektuelle Schnellstarter" bezeichnet, die ungewöhnliche Fortschritte binnen eines Schuljahres zeigen würden. Am Ende des Schuljahres, hatten 30 Prozent dieser Schüler mehr deutlich mehr IQ Punkte. Ergebnis: Die falschen Erwartungen der Lehrer wurden in eine positive Leistung der Schüle transferiert (z.B. durch Schaffen von mehr Möglichkeiten zur Beteiligung am Unterricht)

  • In den meisten Situationen basieren Erwartungen aber auf genauen sozialen Wahrnehmungen. Beispielsweise gehen Lehrer davon aus, dass bestimmte Schüler bessere Leistung zeigen, weil sie eine bessere Qualifikation haben --> Üblicherweise zeigen diese Schüler dann auch bessere Leistung

  • Wirkmächtigsten Selffulfilling Prophecies stammen von Eltern --> Aus der Forschung: Verfolgung des schulischen Abschneidens von Jugendlichen über 6 Jahre hinweg. Zu Beginn machten Mütter Angaben über erwartete Schulleistungen. Ergebnis: Jugendliche entwickelten ein Selbstbild auf der Basis der mütterlichen Erwartungen & die Schulleistung wurde an dieses Selbstbild angepasst

  • Annahme, dass eine Überschätzung des zukünftigen Alkoholkonsums ihrer minderjährigen Kinder durch die Mütter zur Selffulfilling Prophecy werden kann.

    16.2 Die Macht der Situation

  • Sozialpsychologen: Hauptdeterminante des Verhaltens ist die Beschaffenheit der sozialen Situation, in der das Verhalten auftritt --> Die soziale Situation kontrolliert das individuelle Verhalten, die Persönlichkeit, Lernerfahrungen, Werte und Überzeugungen aus der Vergangenheit.

    16.2.1 Rollen und Regeln

  • Soziale Rolle: ein sozial definiertes Verhaltensmuster, das von einer Person erwartet wird, wenn sie in einer bestimmten Umgebung oder Gruppe funktioniert. Unterschiedliche soziale Situationen stellen unterschiedliche Rollen bereit ("Kind", "Student")

  • Diese Rollen machen unterschiedliche Arten von Verhalten angemessener oder unangemessener und ermöglichen Verhaltensweisen

  • Soziale Situationen werden auch durch die Gültigkeit von Regeln charakterisiert, d.h. Verhaltensrichtlinien für bestimmte Umgebungen

  • (1) Regeln werden explizit auf Schilder geschrieben oder Kindern explizit gelernt
    (2) Implizite Regeln - sie werden durch Transaktionen mit anderen in bestimmten Umgebungen gelernt (z.B. Lehrer nicht beim Vornamen nennen, in Japan ein Geschenk nicht vor dem Schenkenden öffnen, Nicht Sprechen in Aufzügen etc)

    Das Standford Gefängnisexperiment (1971)

  • Normalerweise sind die Einflüsse von Rollen und Regeln nicht sehr bewusst, das Experiment brachte diese Kräfte zum Einsatz

  • Ablauf: Freiwillige Studenten (gesetzestreu, emotional stabil, normal durchschnittlich) nehmen an einem zweiwöchigen Experiment zum Gefängnisleben teil. Durch Münzwurf wurde einigen die Rolle der Wärter, oder den Gefangenen zugeteilt. Ablauf, wie im echten Gefängnisleben.

  • Die Wärter (zuvor Pazifisten) verhielten sich aggressiv (sogar sadistisch) und bestanden darauf, dass alle Gefangenen die Regeln strikt befolgen. Falls nicht, folgte der Verlust von Priviliegien, bis hin zu niederen Arbeiten und Einzelhaft. Entwicklung immer wieder neuer Strategien, um den Gefangenen das Gefühl zu geben, sie seien wertlos. (Entzug der Kleidung, Anlegen von Ketten, Verweigern von Essen)

  • Die Gefangenen (zuvor psychisch stabil) verhielten sich pathologisch und ergaben sich passiv dem Schicksal. Nach missglückter Gefangenenenrebellion kam es bei einzelnen zu unkontrolliertem Weinen, Wutausbrüche, desorganisiertem Denken, Anzeichen einer Depression und psychosomatischen Hautausschlägen.

  • Zusammenfassung: Die Beobachtung der sechstägigen Interaktion zeigten, dass die Gefangenen zunehmend mehr passiven Widerstand leisteten, während die Wärter immer dominanter, kontrollierender und feindseliger wurden. --> Das Verhalten der Wärter unterschied sich von dem der Gefangenen in jeder beobachtbaren Weise

  • Dieses Experiment hiflt dabei Licht auf Skandale wie die Verhaltensweisen der Wachen im Gefängnis Abu Ghuraib 2003 im Irak zu werfen: Die Macht der Situation kann normale Menschen dazu bringen, sich grausam zu verhalten.

  • Vor Beginn gab es eine gründliche Bewertung der menschlichen Implikationen (z.B. Ethik). Obwohl die Forscher an die Macht der Situation geglaubt hatten, waren sie vom Ausmaß der Situation und der Dynamik der negativen psychologischen Prozesse überrascht (Experiment vorzeitig nach 6 Tagen beendet)

  • Nachfolgeuntersuchungen: keine langfristigen negativen Effekte bei den Freiwilligen

  • Bei ethischen Erwägungen, muss man auch die Gewinne für die Teilnehmer berücksichtigen --> Nachdenken über die langfristigen Auswirkungen ihrer Teilnahme (Proband,der als 1. das Experiment abbrach wurde z.B. klinischer Psychologe, mit dem Ziel die Erfahrungen des Experiments einzusetzen)

  • Entscheidendes Merkmal des Experiments ist, dass einzig der Zufall über die Rollen der Teilnehmer etnschied. Diese Rollen haben Status-und Machtunterschiede geschaffen, die in der Gefängnissituation bekräftigt wurden. Den Studenten wurde nicht gelehrt, wie sie die Rollen zu spielen haben.

  • Sie haben auch schon in früheren sozialen Interaktionen solche Machtunerschiede erlebt (Eltern-Kind, Schüler-Lehrer). Die Studenten haben für diese spezielle Umgebung lediglich ihre früheren Verhaltensmuster verfeinert und intensiviert.


    16.2.2 Soziale Normen

  • Gruppen entwickeln Erwartungen bezüglich der Art und Weise, in der sich ihre Mitglieder verhalten sollten

  • Soziale Normen: die spezifischen Erwartungen bezüglich sozial akzeptierter Einstellungen und Verhaltensweisen, die in den expliziten oder impliziten Regeln einer Gruppe verankert sind. Soziale Normen können grobe Richtlinien sein oder spezifische Verhaltenstandards beinhalten

  • Teil der Zugehörigkeit zu einer Gruppe ist üblicherweise, dass man die Menge sozialer Normen herausfindet, die das gewünschte Verhalten in der Gruppenumgebung regeln.

  • Anpassung auf zwei Weisen: Man bemerkt die Uniformität bestimmter Verhaltensweisen, die alle oder die meisten Gruppenmitglieder zeigen und man beobachtet die Konsequenzen, wenn jemand die soziale Norm verletzt.

  • Wichtige Funktionen: Ein Bewusstsein für die Normen, die in einer bestimmten Gruppenumgebung gültig sind, hilft sich zu orientieren und soziale Interaktionen zu regulieren. Es ist klar, welche Art von Verhalten erwartet wird, um Anerkennung zu finden. Eine gewisse Toleranz gegenüber Abweichungen vom Standard ist auch Teil der Norm.

  • Gruppenmitglieder können abschätzen, wie weit sie gehen können, bevor die sie auf Zwang basierende Macht der Gruppe zu spüren bekommen (Lächerlichmachen, Umerziehung oder Zurückweisung

    16.2.3 Konformität

  • Wenn man eine soziale Rolle einnimmt oder sich einer sozialen Norm beugt, verhält man sich konform mit sozialen Erwartungen --> Konformität ist die Tendenz von Menschen, das Verhalten und die Meinungen anderer Gruppenmitglieder zu übernehmen. Zwei Arten von Kräften können zu Konformität führen

  • Prozesse des Informationseinflusses - Das Bedürfnis, sich in einer bestimmten Situtation richtig zu verhalten und die richtige Handlungsweise zu verstehen

  • Prozesse des Normeneinflusses - Das Bedürfnis, von anderen gemocht, akzeptiert und geschätzt zu werden

    Informationseinfluss: Sherifs autokinetischer Effekt

  • Informationseinfluss: Andere Mitglieder der Gesellschaft werden beobachtet, um eine angemessene Wahl des Verhaltens zu treffen

  • Ein klassisches Experiment von Muzafer Sherif (1935) zeigte, wie Informationseinfluss zur Normenkristallisierung (Normbildung und Verfestigung) führen kann

  • Teilnehmende sollen das Ausmaß an Bewegung eines Lichtpunkts abschätzen, der sich in Wirklichkeit nicht bewegte. (Wahrnehmungstäuschung: Autokinetischer Effekt). Sobald die Teilnehmenden in eine fremde Gruppe kamen und ihre Schätzungen abgaben, begannen diese zu konvergieren. Sie fingen an zu sehen, dass sich das Licht in die gleiche Richtung und im gleichen Ausmaß bewegte. Im letzten Teil des Experiments sollten die Probanden wieder allein ihre Schätzungen abgeben und folgten weiterhin der Gruppennorm, die zuvor entstanden war.

  • Sobald innerhalb einer Gruppe Normen etabliert wurden, neigen diese dazu, sich selbst aufrechzuerhalten. Sie können über einen langen Zeitraum bestehen bleiben und sogar über Generationen von Mitgliedern in weitergegeben werden. So wird das Verhalten von Personen noch beeinflusst, nachdem die ursprüngliche Gruppe nicht mehr existiert.

  • Studie zum autokinetischen Effekt: Forscher ersetzten nach jedem Satz von Durchgängen ein Gruppenmitglied durch ein neues, bis alle Mitglieder der Gruppe neu in der Situation waren. Die ursprüngliche Norm blieb im Verlauf mehrerer sukzessiver Generationen erhalten.


    Normeneinfluss: Der Asch-Effekt

  • Manchmal handeln Menschen aufgrund von Normeneinfluss konform- dem Bedürfnis, von anderen gemocht, akzeptiert und geschätzt zu werden

  • Salomon Asch (1940,1956) schuf Situationen in welchen die Teilnehmenden über Bedingungen urteilten, in denen die physikalische Realität klar war, der Rest der Gruppe jedoch angab, diese Realität anders wahrzunehmen.Die Einschätzungen von eingeweihten Personen wurden geäußert, welche falsche Informationen gaben. Dadurch kam es bei den Uneingeweihten zu einem Dilemma und Unbehagen, wenn sie einer Mehrheit gegenüberstanden, die anderer Meinung waren --> Ergebnis: Ein Viertel blieb vollständig unabhängig. Zwischen 50 und 80 % gingen jedoch mindestens einmal mit der falschen Mehrheit konform --> Diejenigen die nachgaben, unterschätzten den Einfluss des sozialen Drucks und die Häufigkeit ihrer Konformität.

  • Variation dreier Faktoren in anderen Studien von Asch: (1) Erkenntnis, dass starke Konformitätseffekte durch eine einstimmige Mehrheit von nur 3 oder 4 Personen hervorgerufen wurden. (2) Mit nur einem Verbündeten verringerte sich die Konformität merklich. (3) Mit Partner konnten sie dem Druck der Mehrheit widerstehen.

  • Interpretation: Asch selbst bezeichnete seine Forschung als Studie zur Unabhängigkeit. Tatsächlich gaben die Probanden in 2/3 der Fälle die nichtkonforme Antwort, insgesamt ergibt sich in den meisten Beschreibungen die Zahl 1/3 -- > Menschen werden nicht vollständig durch Normen beeinflusst - meistens behaupten sie ihre Unabhängigkeit. Andererseits gehen Menschen manchmal mit der Gruppe konform, selbst in unzweideutigen Situationen.

  • Dieses Potenzial der Konformität ist ein wichtiges Element des menschlichen Daseins

    Konformität im Alltag

  • Beispiele: "modische" Kleidung und Trends, Anpassung Jugendlicher hinsichtlich riskanten Verhaltens an Gleichaltrige, z.B. Drogenmissbrauch

  • Frage, inwiefern sich die Ergebnisse des Asch-Experiments auf das Verhalten einer Jury übertragen lassen. Studie: Auswertung von Jury-Entscheidungen in strafrechtlichen Prozessen. Augenmerk lag auf mehrheitlich getroffenen Entscheidungen, bei denen die Juroren letztlich zum selben Urteil gelangt waren. Die Juroren sollten angeben, zu welchem Urteil sie gelangt wären, wenn sie alleine die Jury gewesen wären. Ergebnis: Ca 40% der privaten Urteile wichen vom öffentlich bekundeten ab. Dieses Ergebnis kann jedoch nur zum Teil auf normative Einflüsse zurückgehen, da ein Teil der Konformität auf informationale Einflüsse zurückgeht.

  • Die starke Neigung sich normativen Einflüssen zu unterwerfen kann viele negative Konsequenzen hervorrufen - Beispiel: suizidale Kulturen, also Umstände, unter denen Mitglieder einer Kultur Gruppennormen internalisierten, was letztlich dazu führte, dass sie sich ihr Leben nahmen. Ein Beispiel hierfür ist die Gruppe Heavens Gate, die 1997 in San Diego Massenselbstmord aufgrund ihres Glaubenssystem begangen

  • Auch das Internet stellt Mittel bereit, Menschen auf besonders effektive Art und Weise für Kulte und andere Glaubenssysteme zu rekrutieren

    Einfluss von Minderheiten und Nonkonformität

  • Die Macht der Mehrheit beeinflusst auch, wie lange Menschen brauchen, bevor sie ihre wahren Ansichten in einem nicht öffentlichen Kontext offenaren

  • Die Forschung beschäftigt die Frage, wie es möglich ist, dass Menschen der Beherrschung durch die Gruppe entkommen und etwas Neues (gegen die Norm gerichtetes) entsteht.

  • Serge Moscovici: Einfluss von Minderheiten - Experiment: Identifizierung von Farb-Flecken war bei den meisten Versuchsteilnehmern korrekt, nur zwei Eingeweihte waren anderer Meinung. Der übereinstimmende Widerstand als Minderheit hatte zwar keinen unmittelbaren Einfluss auf die Mehrheit, aber beeinflusste einzelne Teilnehmende bei einer späteren Einzelbefragung --> Mit der Zeit kann die Macht der Vielen von der hartnäckigen Überzeugung einiger weniger unterhöhlt werden.

  • Minderheiten besitzen relativ wenig Normeneinfluss: Mitglieder der Mehrheit machen sich normalerweise wenig daraus, ob sie von der Minderheit gemocht/aktzepiert werden

  • Minderhieten besitzen jedoch Informationseinfluss: Sie können Gruppenmitglieder dazu ermutigen, Sachverhalte aus verschiedenen Perspektiven zu betrachten. Dieses Potenzial erlaubt nur unregelmäßig den normativen Wunsch der Mehrheit zu überwinden, sich vonabweichenden/ nicht konsensfähirgen Ansichten zu distanzieren

    16.2.4 Eintscheidungsfindung in der Gruppe

  • Zwei spezifische Kräfte, die wirksam sind, wenn Gruppen Entscheidungen treffen: Gruppenpolarisierung und Groupthink

  • Gruppenpolarisierung: Gruppen weisen eine Tendenz zu Entscheidungen auf, die extremer als die Entscheidungen sind, welche die Mitglieder allein getroffen hätten. Man einigt sich auf einen Wert, der die Gruppeneinstellung wiedergibt und wenn die Bewertung der Gruppe extremer ist, als der Durchschnitt der Einzelbewertungen, ist das ein Fall von Polarisierung.

  • Abhängig von der anfänglichen Gruppentendenz wird die Gruppenpolarisierung eine Gruppe tendenziell vorsichtiger oder risikofreudiger machen.

  • (1) Modell des Informationseinflusses - Mitglieder tragen unterschiedliche Informationen zur Entscheidungsfindung bei (2) Modell des sozialen Vergleichs - Mitglieder versuchen die Achtung der anderen zu erringern, indem sie ein Gruppenideal repräsentieren, das etwas extremer, als die wahre Gruppennorm ist.

  • Gruppenpolarisierung als Folge des Denkmusters Groupthink

  • Irving Janis (1982): Groupthink ist die Tendenz einer Gruppe, die eine Entscheidung treffen muss, unerwünschten Input auszufiltern. Durch das Ausfiltern kann ein Konsens erreicht werden, besonders dann, wenn dieser Konsens mit dem Standpunkt des Anführers übereinstimmt.

  • Entstehen dieser Theorie durch die historische Analyse der Schweinebucht-Invasion auf Kuba 1960, die Präsident Kennedy aufgrund von zurückgehaltenen Informationen seiner Berater absegnete, die für die Invasion waren.

  • Merkmale, die eine Gruppe anfällig für Groupthink machen (1) sehr kohäsive Gruppen, die von Experten abgeschnitten sind und unter Führungsvorgaben arbeiten (2) Wenn Gruppen ein kollektives Bedürfnis nach Aufrechterhaltung des gemeinsamen positiven Eindrucks der Gruppe haben.

  • Gruppenmitglieder müssen verstehen, dass Dissens oft die Qualtität der Entscheidung verbessert, selbst wenn das oberflächlich das gute Gefühl in der Gruppe gemindert wird.

    16.2.5 Gehorsam gegenüber Autoriät

  • Stanley Milgram (1956,1974) ein Student Salomon Aschs, zeigte mit seinen Forschungen, dass der blinde Gehorsam weniger ein Resultat dispositionaler Charakteristika als ein Ergebnis der situativen Kräfte ist.

  • Sehr kontroverse Forschung, da sie bedeutsame Implikationen für Phänomene in der realen Welt hat und ethische Fragen aufwirft

    Das Gehorsamkeitsparadigma

  • Milgram verwendete sorgfältig kontrollierte Laborexperimente, um die Variablen Persönlichkeit und Situation zu trennen

  • Auswahl einer breit aufgestellten, repräsentativen Stichprobe (unterschiedliches Alter, Beruf, Geschlecht, Schulbildung) für sein Gehorsamkeitslabor in Conneticut

  • Freiwillige wurden in die soziale Rolle des Lehrers gesteckt, die die Fehler der Person, die in der Schülerrolle war, mithilfe von Elektroschocks bestrafen sollten.

  • Die wichtigste Regel war, die Stärke des Elektroschocks jedes Mal zu erhöhen, wenn ein Fehler auftrat. Der Versuchsleiter im weißen Kittel spielte die Rolle der legitimierten Autoritätsperson und wies die Lehrer an, ihre Aufgabe (Elektroschock) zu erfüllen, wenn sie zögerten/ Widerstand leisteten.

    Die Test-Situation

  • Die Teilnehmenden sollten denken, dass durch das Befolgen von Befehlen einer unschuldigen Person Schmerz zuzufügen und sie vielleicht sogar zu töten

  • Wenn der Lehrer zögerte oder protestierte, spielte der Versuchsleiter seine Autorität aus ("Das Experiment erfordert, dass Sie fortfahren", Sie müssen weitermachen!")

  • Die Situtation verursachte bei den Teilnehmenden beträchtlichen Stress. Die meisten protestierten und bestanden darauf, nicht weiter machen zu können. Aber auch wenn es ihnen sichtlich schwer fiel, machten viele Teilnehmer weiter, um zu gehorchen

    Warum gehorchen Menschen einer Autorität?

  • Einschätzungen von Psychatern: Nur 0,1 Prozent würden bis zum Ende, 450 Volt fortfahren. Sie gingen davon aus, dass nur anormale Personen (z.B. Sadisten) blind gehorchen und fortfahren würden.

  • Sie gründeten ihre Bewertungen auf vermutete dispositionale Qualitäten von Menschen, die solch anormales Verhalten zeigen würden --> sie übersahen jedoch die Macht der Situation, das Denken und Handeln der Personen zu beeinflussen, die in ihrem sozialen Kontext verstrickt waren.

  • Fazit: Die Mehrheit der Teilnehmer gehorchte der Autoriät bis in Letzte. Kein Teilnehmer beendete den Versuch unter 300 Volt (56% bis 450 Volt). Trotz verbalem Widerstands verhielten sich die meisten gehorsam. Aus Sicht der Opfer ist es jedoch ein entscheidender Unterschied zwischem verbalen und richtigen Widerstand.

  • Milgrams Studie legt nahe, dass man die in einer Situation wirksamen psychologischen Kräfte genau betrachten muss, um zu verstehen, warum Menschen Autoritäten gehorchen.

  • Milgram und andere Forscher manipulierten eine Vielzahl von Aspekten der Umstände, um zu zeigen, dass der Effekt des Gehorsams überwiegend durch situative Variablen zustande kommt, nicht durch Personölichkeitsvariablen.

  • Die veränderten Umstände waren, Entfernte Rückmeldung, Stimmliche Rückmeldung, Nähe, Berührungskontakt. Fiel die Distanz geringer aus, war auch der Gehorsam geringer.

  • Alle Befunde deuten darauf hin, dass die Situation und nicht die Unterschiede zwischen einzelnen Teilnehmenden das Verhalten zu großen Teilen steuert

  • Behauptung, dass Menschen heutzutage aufgrund der kulturellen Veränderungen nicht länger gehorchen. Jerry Burger untersuchte diese Behauptung durch eine teilweise Replikation des Experiments. Er argumentierte, dass Menschen, die nach 150 Volt weitermachten, mit hoher Wahrscheinlichkeit auch darüber hinausgehen würden. (Bei Milgram 82% und bei Burger 70%) Schlussfolgerung: dieselben situationalen Faktoren, die bei Milgram Gehorsam auslösten sind auch heute wirksam.

  • Die Gründe für das Gehorsam liegen in den Effekten des Informationseinflusses und Normeneinflusses - Menschen wollen gemocht werden (Normeneinfluss) und sie wollen sich korrekt verhalten (Informations-einfluss).

  • (1)Menschen tun das, wozu sie aufgeforder werden, um sozial akzeptiert bzw geschätzt zu werden. (2) Menschen verlassen sich in mehrdeutigen, neuen Situationen auf andere um Hinweise zu erhalten, wie man sich angemessen verhält. Mit hoher Wahrscheinlichkeit, wenn Menschen mit Expertenstatus anwesend sind (3) die Teilnehmenden waren unsicher, wie sie nicht gehorchen sollten ; nichts was sie als Widerspruch vorbrachten, stellte die Autorität zufrieden. (4) Gehorsam gegenüber Autoritäten ist in experimentellen SituationenTeil einer tief verwurzelten Gewohnheit, die schon von Kindern gelernt wird - einer Autoriät gehorchen, ohne Fragen zu stellen. Dies ist nützlich für die Gesellschaft, sofern die Autoritäten legitimiert sind und die Gehorsam verdienen. Problem: Die Regel wird zu oft angewendet - Blinder Gehorsam gegenüber Autoriäten heißt Gehorsam gegenüber jeder/allen Autoriätspersonen, aufgrund des zugeschriebenen Status, unabhängig davon ob die Befehle gerechtfertigt sind.

  • Diese Forschungen stellen den Mythos infrage, demzufolge das Böse nur im Geist böser Menschen lauert--> Ziel der Forschung: Klarstellung, dass sogar normale, wohlgesinnge Personen dem Potenzial zur Schwäche angesichts von starken situativen und sozialen Kräften unterliegen.

    16.3 Einstellungen, Einstellungsänderungen und Handlungen

  • Einstellung: eine positive oder negative Bewertung von Menschen, Objekten und Vorstellungen. Viele Einstellungen sind nicht offen sichtbar.

  • Einstellungen sind wichtig, weil sie das Verhalten und die Art und Weise in der die soziale Realität konstruiert wird, beeinflussen--> Beispiel Eiskunstlauf: Die Menschen "sahen" verschiedene Darbietungen; die Attributionen von Ereignissen wurden in Übereinstimmung mit den jeweiligen Einstellungen vorgenommen.

    16.3.1 Einstellungen und Verhalten

  • Drei Arten von Informationen, die zu Einstellungen führen - kognitiv (Gedanken), affektiv (Gefühle) und Behavioral (Verhalten). Einstellungen generieren auch Reaktionen dieser drei Kategorien

  • Es ist nicht schwer, eine Einstellung zu messen, die Frage ist vielmehr ob diese Einstellung immer einen richtigen Hinweis darauf gibt, wie sich Menschen tatsächlich verhalten --> Gleichzeitig folgen die Verhaltensweisen manchmal den Einstellungen

  • Ein Merkmal von Einstellugen, das Verhalten vorhersagt, ist die Verfügbarkeit - die Stärke der Assoziation zwischen einem Einstellungsobjekt und der Bewertung dieses Objektes durch eine Person

  • Einstellungen werden leichter verfügbar, wenn sie auf unmittelbaren Erfahrungen beruhen oder wiederholt wurden: Sie ist desto verfügbarer, je öfter sie bereits ausformuliert wurde.

  • Aus der Forschung: Frage, was Menschen dazu bewegt, Blut zu spenden. Annahme, dass Spender positive Einstellungen bzgl des Themas haben --> Hypothese, dass die Wahrscheinlichkeit eines erneuten Spendens erhöht werden kann, wenn man diese Einstellungen zugänglich macht --> Fragebogen als Mail versendet errinnert Menschen an ihre positive Einstellung --> Mehr Blutspenden

  • Einstellungen sind auch dann bessere Prädiktoren für das Verhalten, wenn sie über die Zeit hinweg stabil bleiben. Nur wenn der "Beleg" für die Einstellung stabil bleibt, kann es eine enge Beziehung zwischen der Bewertung (Gedanken) und den ausgeführten Handlungen geben

  • Eine Möglichkeit Einstellungen und Verhalten einander anzugleichen: Verbesserung der Einstellungsmaße - Entwicklung einer Reihe neuer Verhaltensmaße, die versuchen automatische oder implizite Einstellungen bei Menschen zu erfassen, also Einstellungen die nicht ins Bewusstsein gelangen. Diese impliziten Einstellungen sagen das Verhalten präziser vorher (z.B. Vorurteile, die dem Menschen nicht bewusst sind)


    16.3.2 Persuasionsprozesse

  • Persuasion/Beeinflussung: die bewussten Anstrengungen, Einstellungen zu ändern. Damit es zur Beeinflussung kommen kann, müssen bestimmte Bedingungen erfüllt sein.

  • Elaboration-Likelihood-Modell - eine Theorie der Beeinflussung, die definiert, wie wahrscheinlich es ist, dass Menschen ihre kognitiven Prozesse fokussieren, um eine persuasive Botschaft zu elaborieren. Unterscheidung in zentrale und periphere Routen der Beeinflussung

  • Zentrale Route: Umstände, unter denen Menschen sorgfältig über persuasive Kommunikation nachdenken, sodass eine Einstellungsänderung von der Stärke der Argumente abhängt. Dieses sorgfältige Nachdenken heißt high elaboration

  • Periphere Route: Umstände, unter denen Menschen sich nicht kritisch mit der Botschaft auseinandersetzten, sondern auf oberflächliche Hinweisreize in der Situation reagieren. Der Verzicht auf kritisches Nachdenken heißt low elaboration

  • Ob die zentrale oder periphere Route einschlägen wird, hängt von den eigenen Motiven bezüglich der Botschaft ab: Ist man bereit oder in der Lage dazu, über den persuasiven Inhalt nachzudenken

  • Beispiel: Werbetreibende verlassen sich oft darauf, dass man die periphere Route einschlägt (Bekannter Schauspieler soll von eigentlichen Argumenten des Produkts ablenken - Hoffnung, dass man sich von der allgmeinen Sympathie für den Schauspieler überzeugen lässt, das Produkt zu kaufen)

  • Unter welchen Umständen man am wahrscheinlichsten motiviert ist, die zentrale Route der Beeinflussung einzuschlagen werden anhand des Phishing-Phänomens erklärt: Phishing dreht sich um Überzeugung, dass es um eine wirkliche Informationsanfrage handelt. Analysen fanden heraus, dass Studierende die der Experimental-Nachricht mehr persönliche Relevanz zusprachen, einen tiefgreifenden Verarbeitunsstil wählten. Menschen die auf oberflächliche Hinweisreize (Großbuchstaben) konzentrieren, gingen dem Phishing eher auf den Leim -->

  • Das Elaboration-Likelihood-Modell legt nahe, dass man große Bemühung aufbringen muss, um nicht überredet zu werden. Studie: Studierenden wurde explizit gesagt, nicht an einen weißen Bären zu denken, bevor sie einen Essay lasen - Diese Anstrengung, nicht daran zu denken hat mentale Ressourcen aufgebraucht, sich wirklich mit dem Inhalt des Essays auseinander zu setzen.


    16.3.3 Persuasion durch eigene Handlungen

  • Zwei Ansätze zur Selbstbeeinflussung: kognitive Dissonanztheorie und Selbstwahrnehmungstheorie


    Kognitve Dissonanztheorie

  • Das Streben nach Konsistenz der Einstellungen untersuchte Leon Festinger (1957) anhand der kognitiven Dissonanztheorie

  • Kognitive Dissonanz: Ein Konfliktzustand, den eine Person erlebt, nachdem sie eine Entscheidung getroffen hat, eine Handlng vorgenommen hat oder im Kontakt mit Informationen gekommen ist, die im Widerspruch zu ihren Überzeugungen, Gefühlen und Werten stehen.

  • Annahme, dass wenn die Kognition einer Person bezüglich ihres Verhaltens und relevanter Einstellungen dissonant ist - eine nicht aus der anderen folgt - , ein unangenehmer Zustand entsteht, den die Person reduzieren möchte. Aktivitäten, die Dissonanz reduzieren, modifizieren den unangenehmen Zustand. --> Dissonanz besitzt motivierende Kraft - sie treibt an, etwas gegend das unangenehme Gefühl zu unternehmen. Die Motivation zur Reduktion der Dissonanz steigt mit der Stärke der Dissonanz, die durch die koginitve Inkonsitenz geschaffen wird.

  • Klassisches Experiment: Studierende erzählen anderen eine Lüge und begannen an ihre Lüge zu glauben, wenn sie eine kleine statt der erwarteten großen Belohnung für das Lügen erhielten - Das Experiment zeigt, dass Menschen unter der Bedingung starker Dissonanz ihr Verhalten im Nachhinein rechtfertigen und sich selbst überzeugen.

  • Zweifel daran, dass sich die Dissonanzeffekte auf andere Kulturen verallgemeinern lassen. Dies liegt an der Art und Weise in der sich das Konzept des Selbst von Kultur zu Kultur verändert. Beispiel: Menschen aus Nordamerika unabhängig (independent) und von anderen in ihrer Umgebung verschieden; Mitglieder asiatischer Kulturen sehen sich als wechselseitig abhängig (interpendent) und eng mit anderen verbunden

  • Erleben von Dissonanz nur bei (Versuch Konsistenz innerhalb ihres Selbstkonzeptes aufrechzuerhalten) bei einem independenten Konzept des Selbst.

  • Aus der Forschung: Kanadische und japanische Probanden untersuchen eine Liste von Vorspeisen. Auswahl der Lieblingsgerichte für sich selbt und für einen Freund. Gutschein für eins der Gerichte. Kanadische Teilnehmer erleben eine stärkere Dissonanz in Bezug auf ihre eigene Auswahl (independetes Konzept des Selbst), während japanische Teilnehmende mehr Dissonanz bei der Auswahl für ihren Freund erleben (interpendentes Konzept des Selbt)

    Selbstwahrehmungstheorie

  • Daryl Bem (1972) entwickelte die Selbstwahrnehmungstheorie, die die Umstände identifiziert, unter denen Verhaltensweisen Einstellungen beeinflussen

  • Selbstwahrehmungstheorie: man erschließt innere Zustände (Überzeugungen, Einstellungen, Motive und Gefühle) oder den inneren Sollzustand, indem man wahrnimmt wie man in der Vergangenheit in einer bestimmten Situation gehandelt hat. Menschen nutzen dieses Wissen über sich selbst, um auf die wahrscheinlichsten Ursachen und Determinanten des Verhaltens zurückzuschließen

  • Beispiel: Man beantwortet eine Frage zu persönlichen Präferenzen ("Mögen Sie Psychologie?"), indem man eine behaviorale Beschreibung der relevanten Handlungen und situativen Faktoren abgibt - statt eigene Gedanken und Gefühle zu hinterfragen

  • Fehler im Prozess des Wissenserwerbs über sich selbst anhand der Selbstwahrnehmung: Menschen sind oft unempfänglich für das Ausmaß, in dem ihr Verhalten durch situative Kräfte beeinflusst wird - Der Prozess der Selbstwahrnemung kann zu einer negativen Selbstbewertung führen --> Vermeidung:Man kann das eigene Verhalten beobachten und daraus die eigene Einstellung ableiten


    16.3.4 Compliance

  • Menschen wollen oft, dass Andere ihr Verhalten ändern - Sie wollen Compliance (Folgsamkeit) herbeiführen - eine Verhaltensänderung, die zu ihrem Ansinnen passt

  • Beispiele: Werbetreibende wollen, dass man das Produkt auch wirklich kauft ; Ärzte wollen, dass man dem medizinischen Rat folgt


    Reziprozität

  • Reziprozitätsnorm: Eine der dominierenden Regeln menschlicher Erfahrung - Eine Person tut etwas für einen, man selbst tut auch etwas für diese Person

  • Forschungen zeigten, dass sogar ein sehr kleiner Gefallen dazu führt, im Gegenzug einen weitaus größeren Gefallen zu tun - Beispiel Verkaufsstrategien: Verkäufer geben einen Preisnachlass (kleiner Gefallen) und man selbst kommt in Bedgrängnis, wenn man den Gefallen nicht erwidert und das Produkt kauft.

  • Mit-der-Tür-ins-Hauss-fall-Technik: Wenn Menschen zu einergroßen Bitte "Nein" sagen, bejahen sie oft eine kleinere Bitte --> Im Bezug auf Reziprozitätsnorm: Wenn jemand eine Bitte an eine Person richtet, von einer großen Bitte auf eine gemäßigtere umschwenkt, dann hat diese Person etwas für die Andere getan: Jetzt muss etwas für diese Person getan werden, sonst wird die Norm verletzt (die kleine Bitte wird erfüllt)


    Verbindlichkeit

  • Verkäufer wissen, dass Menschen gerne in ihrem Verhalten konsistent scheinen. Wenn etwas kleines schmackhaft gemacht wurde, wollen sie es schaffen etwas Größeres zu verkaufen.

  • "Fuß-in-der-Tür-Technik": Sobald jemand einen Fuß in der Tür hat, kann diese Person das Gefühl der Verbindlichkeit nutzen umd die spätere Compliance zu vergrößern. Diese Technik funktioniert, da das ursprüngliche Verhalten dazu führt, dass auch das nachfolgende Verhalten zum Selbstbild passen soll.

  • "Fuß-in-den-Mund-Technik": Indem man Menschen dazu bringt, eine einfache erste Frage zu beantworten kann man die Wahrscheinlichkeit erhöhen, dass sie im Anschluss einer Bitte entsprechen werden --> Aus der Forschung: Werbung für Umfrage am Telefon beginnt mit einfacher Frage, die die Wahrscheinlichkeit für die Teilnahme an der Umfrage erhöhte --> Compliance wird gesteigert

  • Diese Compliance Techniken werden in den meisten Fällen dazu verwendet, Menschen zu etwas zu bewegen, dass sie nicht tun wollen (Verkaufen!)

    16.6 Aggression, Altruismus und prosoziales Verhalten

  • Aggression: das Verhalten von Menschen, das bei anderen einen psychologischen oder physischen Schaden verursacht. Psychologen versuchen die Ursachen von Aggression zu verstehen, um dieses Wissen für ein Reduzieren des Gewaltmaßes auf allen gesellschaftlichen Ebenen nutzbar zu machen.

  • Prosoziale Verhaltensweisen sind Verhaltensweisen, denen Menschen nachgehen, um anderen Menschen zu helfen.

  • Altruismus: prosoziales Verhalten, das Menschen ausüben, ohne dass es dabei um die eigene Sicherheit oder eigene Interessen ginge.

  • Es gibt persönliche und situationale Faktoren, die beeinflussen mit welcher Wahrscheinlichkeit diese helfenden Verhaltensweisen auftreten


    16.6.1 Individuelle Unterschiede

  • Wichtiger Befund der Forschung: Manche Menschen sind konsistent aggressiver als andere

  • Studien belegen, dass genetische Komponenten einen starken Einfluss auf aggressive Verhaltensweisen haben. Zum Beispiel weisen eineiige Zwillinge durchweg höhere Korrelationen für Aggressivität auf als zweieiige Zwillinge

  • Aufmerksamkeit auf Unterschiede im Gehirn, die möglicherweise eine Prädisposition für aggressives Verhalten anzeigen. Wichtige Gehirnstrukturen, wie Amygdala und Teile des Cortex spielen eine Rolle im Ausdruck und der Regulation von Emotionen.
    Bei Aggression ist es entscheidend, dass Bahnen im Gehrin effektiv funktionieren, damit Menschen ihren Ausdruck negativer Emotionen kontrollieren können. Wenn Menschen z.B. einen unangemessenen Aktivationsgrad in der Amygdala erleben, dann können sie die negativen Emotionen nicht hemmen, die zu aggressivem Verhalten führen.

  • Aufmerksamkeit auf dem Neurotransmitter Serotonin: Ein unangemessener Serotoninspiegel kann die Fähigkeit des Gehirns beeinträchtigen, negative Emotionen und impulsives Verhalten zu regulieren --> Studie: Aggressive Männer haben eine verminderte Reaktion im Serotoninsystem auf ein Medikament (Fenfluramin), das normalerweise Einfluss auf dieses System ausübt. --> Eine bestimmte genetische Variation kann die Serotoninfunktion so beeinflussen, dass es ein hohes Risiko von aggressivem Verhalten zur Folge hat.

  • Es ist wichtig, zwischen Kategorien aggressiven Verhaltens zu unterscheiden: Menschen mit unterschiedlichen Persönlichkeitsprofilen werden verschiedene Arten der Aggression zeigen --> Trennung von impulsiver Aggression von instrumenteller Aggression

  • Impulsive Aggression entsteht als Reaktion auf Situationen und ist emotionsgeleitet: Im Eifer des Gefechts reagieren Menschen aggressiv

  • Instrumentelle Aggression ist zielgerichtet (die Aggression dient als Mittel zu einer Zielerreichung) und wissensbasiert: Menschen üben aggressive Handlungen mit vorausgegangenen Überlegungen aus, um bestimmte Ziele zu erreichen

  • Unterschiedliche Persönlichkeitsmerkmale sind relevant: z.B. sind Menschen mit einer Neigung zu impulsiver Aggression , häufig mit hohen Werten auf dem Faktor emotionale Reagibilität ausgestattet. Das heißt, starke emotionale Reaktionen auf eine Bandbreite von Situationen

  • Menschen mit einer Neigung zu instrumenteller Aggression zeigen hohe Werte auf dem Faktor positive Bewertung von Gewalt. Diese Menschen sind der Ansicht, dass viele Formen der Gewalt gerechtfertigt sind und akzeptieren auch keine moralische Verantwortung für aggressives Verhalten

  • Diese Befunde zeigen, dass nicht alle Arten der Aggression auf denselben zugrunde liegenden Persönlichkeitsfaktor hervorgehen.

  • Die meisten Personen bewegen sich nicht an den Extrempolen der Aggression. Dennoch verhalten sich sogar die sanftmütigsten Menschen in manchen Situationen aggressiv

    16.6.2 Situative Einflüssse

  • Frustrations-Aggressions-Hypothese: Frustration entsteht in Situationen, in welchen Menschen in ihrer Zielerreichung behindert oder von ihr abgehalten werden; Wachsende Frustration führt mit einer größeren Wahrscheinlichkeit zum Auftreten von Aggression. (Kind wird zeigt gegen zuvor begehrtes, jedoch verwährtes Spielzeug Aggressionen, wenn es endlich damit spielen darf)

  • Nutzen auf persönlicher und gesellschaftlicher Ebene - Beispiel: Arbeitslosenquote in San Francisco und Zahl der "gemeingefährlichen Verurteilten. Die Gewalttaten nahmen zu, wenn die Arbeitslosigkeit anstieg, jedoch nur bis zu einem bestimmten Punkt. Wenn die Arbeitslosigkeit zu groß wurde, gingen die Gewalttaten wieder zurück --> Die Angst der Menschen, auch noch ihre Arbeit zu verlieren half, frustrationsbedingte Tendenzen in Richtung Gewalt zu unterdrücken. Die Interaktion individueller und gesellschaftlicher Kräfte bestimmt die Ausgangslage des Gewaltpotenzials --> Man kann einen gewissen Grad der Aggression aufgrund der Frustration vorhersagen, die jeder in einer Gesellschaft mit steigender Arbeitslosigkeit erlebt. Wenn sie jedoch erkennen, dass Aggression ihre Arbeit gefährdet, wird Gewalt unterdrückt.

  • Direkte Provokation: Die Auswirkungen direkter Provokation unterstützen die Grundvorstellung, dass Situationen mit negativen Effekten zu Aggressionen führen. Die Absichtlichkeit der Handlung ist ausschlaggebend, weil es unwahrscheinlicher ist, dass man eine unbeabsichtigte Handlung negativ interpretiert. --> Es ist relevant, wie Menschen ihre soziale Realität konstruieren: Wenn Menschen ambivalente Situationen als provokativ interpretieren, werden sie mit wahrscheinlicher aggressiv reagieren.

  • Auch die weitergefassten sozialen Normen wirken sich auf die Wahrscheinlichkeit aus, ob jemand aggressiv reagiert - Aus der Forschung: Kinder können durch das Beobachten erwachsener Modelle aggressive Verhaltensweisen sehr leicht übernehmen - Die Präsentation von Gewalt fördert die Nachahmung

  • Entwicklung des allgemeinen Aggressionsmodells: Menschen legen einen allgmeinen Vorrat an aggressionsbezognen Wissensstrukturen durch ihre Erfahrungen mit medial vermittelter Gewalt an- Jede diser Erfahrungen ist ein weiterer Lernvorgang dafür, dass die Welt gefährlich ist, dass Aggression eine angemessene Reaktion auf Konflikte/Wut ist und dass Aggression wirkt

  • Studie zu gewalttätigen Videospielen: Normalerweise lässt sich bei Menschen, die gewalttätige Bilder ansehen, eine als P3 bekannte Hirnreaktion nachweisen. Versuschspersonen allerdings, die gewalttätige Videospiele gespielt hatten zeigten nur geringfügig eine P3 Reaktion --> Desensibilisierung im Bezug auf die gewalttätigen Bilder

  • Ergebnis: Gewalttätige Videospiele verändern die Neigung von Menschen in Bezug auf aggressive Verhaltensweisen schnell. Diese Menschen setzen sich einem Risiko aus, sich im Anschluss aggressiver und auch antisozial zu verhalten.

  • Viele Menschen sind auch ohne ihr Zutun Gewalt ausgesetzt - Kinder können z.B. in ihrem zu Hause aggressivem Verhalten ausgeliefert sein, oder sie wachsen in Innenstädten auf, wo die Gewalt alltäglich und chronisch ist

    16.6.3 Die Wurzeln des Altruismus

  • In vielen Krisen (Fukushima, Erdbeben in Sichuan) gibt es Heldentaten, in denen Menschen ihr eigenes Leben gefährden, um anderen zu helfen.

  • Daniel Batson (1994) - Es gibt vier Kräfte, die Menschen anhalten, zum Wohl der Gesellschaft zu handeln --> Dasselbe prosoziale Verhalten kann mehr als nur einem Motiv dienen.

  • Altruismus: Handeln aufgrund eines Motivs, anderen etwas Gutes zu tun.

  • Egoismus: Prosoziales Verhalten wird ausschließlich im eigenen Interesse gezeigt: Hilfe wird geleistet, um im Gegenzug eine ähnliche Gefälligkeit oder eine Belohnung zu erhalten

  • Kollektivismus: Prosoziales Verhalten wird gezeigt, um einer bestimmten Gruppe Gutes zu tun (Familie, Freunde, politische Parteien...)

  • Prinzipien: Prosoziales Verhalten wird gezeigt, um moralischen Prinzipien zu entsprechen oder aufgrund einer religiösen oder ethischen Richtlinie

  • Service learning an Universitäten: eine pädagogisch eingebundene Aufgabe, bei der Studierende die akademischen Lernziele durch ein ehrenamtliches Engagement erreichen, das anderen nützt. Beispiel: Studierende halfen in gerontologischem Einführungskurs einer städtischen Behörde. Man kann diese Beteiligung dem Egoismus zurechnen (Belohnung liegt im größeren Lerneffekt) oder dem Kollektivismus (Beteiligung war für die älteren Erwachsenen und die Behörden vorteilhaft) --> Pädagogen hoffen, dass die vermittelten Werte die Studenten motivieren, sich ihr Leben lang prosozial zu verhalten

  • Die Existenz von Altruismus war lange kontrovers, besonders im Bezug auf evolutionäre Kräfte: Das Hauptziel des Lebens besteht darin, sich zu reproduzieren, um die eigenen Gene weiterzugeben. Frage, inwieweit Altruismus in diesem Kontext Sinn macht, da dadurch oft das eigene Leben riskiert wird. --> Ausgeschlossen Familienmitglieder, weil hierdurch dem generellen Überleen des eigenen Genpools geholfen wird.

  • Aus der Forschung: Versuchspersonen sollten Schmerz aushalten, um ihren Verwandten (Entweder Brüder & Elternteile, Onkel & Nichten, Cousinen) Geld zukommen zu lassen --> Deutlicher Einfluss genetischer Überlappungen: Bei Überlappung stieg das Aushalten des Schmerzes an (In mehreren Kulturen nachgewiesen!)

  • Menschen eilen am ehesten den Personen zu Hilfe, mit denen sie sich emotional verbunden fühlen. Die engste emotionale Bindung ist eigenen Nachkommen vorbehalten.

  • Um Altruismus gegenüber Bekannten und Fremden zu erklären, wurde das Konzept des reziproken Altruismus entwickelt: Menschen verhalten sich altruistisch, weil sie auf gewisse Art und Weise erwarten, im Gegenzug altruistisches Verhalten von anderen zu erhalten. --> Das Konzept kann nicht alle Facetten der Kooperation bei sozialen Arten erklären (z.B. ältere Menschen die sich in Fukushima opferten, erwarteten keine ähnliche Handlung von anderen)

  • Indirekte Reziproziät: Menschen handlen altruistisch, weil sie glauben, dass sie in der Zukunft selbst Nutznießer altruistischer Akte werden.

  • Empathie-Altruismus-Hypothese: Wenn man einer anderen Person empathisch gegenübersteht, wecken diese Gefühle altruistische Motive, Hilfe zu leisten. --> Beispiel: Versuchspersonen sollen Lose aus einer Tombola verteilen. Wenn Versuchspersonen Empathie entwickelten, gaben sie der frisch-single Person ein paar mehr Lose zusätzlich --> Weitreichende Verbindungen zwischen Empathie und Altruismus sind nachgewiesen.

    16.6.4 Die Effekte der Situation auf prosoziales Verhaltens

  • Forschungsprogramm: Tragödie in New York - Viele Bürger hatten einen Mord beobachtet, doch nur eine Zeugin rief laut Berichten die Polizei. Erster Zeitungsbericht dramatisierte diesen Mord und hatte große Auswirkungen. Nachrichten berichten von vielen Fällen, in denen Bystanders/Anwesende ein Eingreifen unterließen

  • Beschäftigung mit der Frage, ob es fair ist, diese Menschen als apathisch oder kaltherzig abzustempeln - Untätigkeit kann auch im Rahmen situativer Kräfte erklärt werden.

  • Bibb Latané und John Darley (1970): das Eingreifen Umstehender (bystanders) - also die Bereitschaft, Fremden in Not zu helfen - hängt stark von den genauen Eigenschaften einer Situation ab.

  • Aus der Forschung: Teilnehmer saßen allein in einem Zimmer und glaubten sie würden über Gegensprechanlage mit anderen in angrenzendem Zimmer kommunizieren --> Eine Person hat einen asthmatischen Anfall --> Die Wahrscheinlichkeit des Eingreifens hing von der Anzahl der vermeintlich Beteiligten ab. Je mehr Menschen anwesend sind, desto weniger wahrscheinlich ist es, dass ein Umstehender eingreift. Umstehende handeln am schnellsten in Gruppen mit zwei Personen.

  • Verantwortungsdiffusion: Wenn mehr als eine Person in einer Notfallsituation helfen könnte, dann gehen Menschen oft davon aus, dass menad anders helfen wird/sollte- daher halten sie sich zurück.

  • Wichtige Variable: Ernsthaftigkeit des Notfalls: Die Anwesenheit anderer Zeugen wirkt sich in gefährlichen Situationen weit weniger aus. --> Studie, in der ein Mann eine Frau bedroht: In der niedrige physische Gefahr Bedingung war der Mann dünn & nicht furchteinflößend - Menschen halfen bei 50 % ,wenn sie allein waren nur 6 Prozent wenn noch ein weiterer Zeuge da war. In der hohe physische Gefahr Bedingung war der Mann groß & einschüchternd - Menschen intervenierten zu 50 % wenn sie allein waren und auch zu 40% wenn noch ein weiterer Zeuge anwesend war.

  • Weitere wichtige Variable: Wie genau der Notfall sich darstellt - Wenn ein Notfall offensichtlich ist, fällt es Augenzeugen schwer, sich abzuwenden. In vielen Alltagssituationen, bemerken solche Situationen viele Menschen nicht. --> Beispiel: Studierende der Priesterseminars halfen einem hilfsbedürftigen Mann am ehesten, wenn sie noch viel Zeit vor einer Predigt hatten, am wenigsten, wenn sei im Zeitstress waren.

  • Wie sollte man sich bei einem Notfall verhalten?
    Aufmerksamkeit Umstehender wecken und sie mit allen Mitteln dazu bewegen, sich verantwortlich zu fühlen. Beispiel: Tasche wird von einem Dieb in Restaurant gestohlen. Wenn vorher gefragt wird, ob ein Umstehender kurz auf die Tasche aufpasst, fühlt er sich verantwortlich und greift bei dem Diebstahl eher ein, als ohne Frage --> Durch das Bitten um einen konkreten Gefallen werden Menschen so eingebunden, dass sich die Situation substanziell verändert.

  • Die Soziale Situation hat einen großen Einfluss auf das Ausmaß in dem Menschen auf Grundlage von prosozialen Motiven handeln werden.


  • Swop your Documents