1.1
Was macht Psychologie einzigartig?
1.1.1 Definitionen
Was
ist das Wesen des Menschen? -Diese Frage wird beantwortet durch
die Betrachtung der Prozesse innerhalb eines Individuums und die
Kräfte in seiner physischen und sozialen Umwelt
Formale
Definition von Psychologie: Die wissenschaftliche
Untersuchung des Verhaltens
von Individuen
und ihren kognitiven Prozessen
Wissenschaftlich:
Psychologische
Schlussfolgerungen müssen auf Belege gründen, die durch die
wissenschaftlichen Methode gesammelt wurden
Wissenschaftliche
Methode:
Besteht aus einer Menge geordneter Schritte zur Analyse und Lösung
von Problemen –d.h. Objektiv erhobene Informationen als
Faktenbasis des Schlussfolgerns.
Verhalten:
Das
Mittel, durch welches sich der Organismus an Umwelt anpasst.
Verhalten bedeutet Aktivität. –l Gegenstand in Psychologie: Das
beobachtbare
Verhalten
von Mensch und Tier
---> Psychologen untersuchen, was
das Individuum tut und wie es dieses Tun in einer vorgegebenen
Situation und im größeren sozialen
& kulturellen Kontext
umsetzt.
Individuen
(Gruppen) : Gegenstand
psychologischer Untersuchungen (Mensch/Tier) – Individuum wird in
seinem natürlichem
Lebensraum oder unter kontrollierten Bedingungen eines
Forschungslabors
untersucht.
Kognitive
Prozesse: Arbeitsweise des menschl. Geistes.
Das Verstehen von kognitiven Prozessen ist für das spezifischere
Verständnis
des menschl. Verhaltens nötig.
Viele
menschl. Aktivitäten finden als private,
innere
Ereignisse statt (denken, planen) – dennoch sind in der
Psychologie Techniken vorhanden, die mentalen Prozesse zu
untersuchen
& offenzulegen
Die
Kombination
dieser Anliegen
macht die Psychologie zu einem einzigartigen Feld:
(1)
Psychologie in Sozialwissenschaften:
Konzentration auf das Verhalten der Menschen in verschiedenen
Umgebungen
(2) Psychologie in Soziologie:
Konzentration auf das Verhalten von Menschen in Gruppen oder
Institutionen
(3) Psychologie in Anthropologie:
Konzentration auf einen breiteren Kontext von Verhalten in
unterschiedlichen Kulturen.
Psychologie
profitiert auch von Erkenntnissen anderer
Disziplinen
(1) Biowissenschaften:
Prozesse
im Gehirn & biochemische Grundlagen des Verhaltens (2)
Kognitionswissenschaften:
Funktionieren kognitiver Prozesse in Beziehung zu Forschungen der
Informatik, Philosophie, Linguistik & Neurowissenschaft
(3)
Gesundheitswissenschaften
(auch Verbindung mit Medizin, Pädagogik, Rechts-wissenschaften):
Verbesserung der Lebensqualität
1.1.2
Ziele der Psychologie - Verhalten beschreiben, erklären, vorhersagen
und
kontrollieren
Beschreiben:
Erste Aufgabe ist es Verhalten genau beobachten (Daten) –
Verhaltensdaten:
Aufzeichnungen von Beobachtungen, wie sich Organismen verhalten und
den Bedingungen, unter denen das Verhalten auftritt – Auswahl
einer angemessenen Analyseebene
und Entwicklung von Verhaltensmaßnahme (Objektivität!)
Ebenen
der Analyse: Unterschiedliche
Ebenen der Beschreibung beziehen sich auf unterschiedliche Fragen.
Jede Ebene liefert Informationen zum Gesamtbild der menschl. Natur
(1)
Oberste Ebene: Untersuchung
des Verhaltens der gesamten Person im komplexen sozialen und
kulturellen Kontext (z.B Kulturelle Unterschiede, Ursache von
Vorurteilen)
(2) Spezifischere Ebene: Engere
kleinere Verhaltenseinheiten (z.B. Reaktionszeit auf Stoppsignal
hin)
(3) Noch spezifischere Ebene: z.B.
biologische Grundlagen des Verhaltens durch Identifikation der
Gehirnregionen, biochemische Veränderungen, sensorische Bahnen
In
jeder Beobachtung steckt ein subjektiver
Blickwinkel
(Verzerrungen, Vorurteile, Erwartungen) – Dennoch
muss Objektivität gewährleistet
sein!
Erklären:
Erklärungen
gehen über das Beobachtbare hinaus - Zentrales Ziel in vielen
Bereichen ist es, regelhafte Muster im Verhalten & in mentalen
Prozessen zu finden (wie
funktioniert
das Verhalten?)
Erklärungen
gehen davon aus, dass Verhalten durch eine Kombination
von Faktoren
beeinflusst wird (Meist Berücksichtigung zweier Faktoren)
(1)
Innere
Faktoren/Determinanten
(genetische Ausstattung, Intelligenz.) lassen auf Besonderheiten des
Organismus schließen
(2) Äußere
Faktoren
sind stark durch Einflüsse außerhalb der Person bestimmt.
Beispiel
Rauchen: Individuen sind anfällig für Risikoverhalten
(innerer
Faktor)
oder
einem starkem Gruppendruck
ausgesetzt (situationaler Auslöser) oder beides
Häufiges
Ziel von Psychologen: eine große
Bandbreite von Verhaltensweisen
auf der Grundlage einer einzigen
Ursachen zu
erklären (Beispiel: Schüchternheit)
Um
kausale
Erklärungen
zu finden, müssen Forscher kreativen Prozess durchlaufen &
viele verschiedene Daten sammeln
Einsetzen
von Sachwissen
fundierter Vorstellungskraft,
die in kreativer Weise eine Synthese aus Bekanntem und Unbekanntem
hervorbringt
Erklärung
durch menschl.
Erfahrung und Fakten:
Versuch zu erkennen, welche der verschiedenen möglichen Erklärungen
am genauesten zum Verhaltensmuster passt.
Vorhersagen:
Aussagen
über die Wahrscheinlichkeit
mit der ein bestimmtes Verhalten auftreten wird oder ein bestimmter
Zusammenhang nachgewiesen werden kann
Wissenschaftliche
Vorhersagen müssen hinreichend
exakt formuliert sein,
um getestet und gegebenenfalls zurückgewiesen werden zu können
Oftmals
gilt: zutreffende
Erklärung der Ursache führt
zu zutreffender
Vorsage
über zukünftiges Verhalten
Wenn
mehrere Erklärungen vorhanden sind, dann wird danach bewertet, wie
gut sie umfassende
zutreffende Vorhersagen
ermöglichen
Aus
der Forschung: Beobachtung
des Verhaltens eines
Babys
in Anwesenheit von Erwachsenen/Babys oder Affen/Babys im Bezug auf
Verbesserung von Vorhersagen: Es gibt systematisch variierende
Umweltbedingungen um den Einfluss dieser Änderungen auf die
Reaktionen des Babys beobachten
Kontrollieren:
Verhalten auftreten oder auch nicht auftreten zu lassen – es zu
starten, aufrechtzuerhalten, zu beenden, seine Form, Stärke und
Auftretenswahrscheinlichkeit zu beeinflussen.
Möglichkeit
der Verhaltenskontrolle sehr wichtig: Hilfe bei der Verbesserung
der Lebensqualität (Interventionen)
- Optimismus:
nahezu jedes unerwünschte Verhaltensmuster kann durch eine
angemessene Intervention modifiziert werden
1.2
Die Entwicklung der modernen Psychologie
1.2.1
Historische Grundlagen der Psychologie
Hermann
Ebbinghaus: Die
Psychologie besitzt eine lange Vergangenheit aber nur eine kurze
Geschichte
Wurzeln
liegen in den Schriften der klassischen griechischen Philosophen
Platon
(427- 347 v. Chr.) und Aristoteles (384-322 v. Chr)
(1)Beschäftigung
mit fundamentalen
Fragen:
Funktionsweise
des Geistes, Wesen der Willensfreiheit, Beziehung des Bürgers zu
Gemeinschaft/Staat
(2) Beide entwickelten gegensätzliche
Positionen
(Einfluss auch noch auf heutige Psychologie)
Empiristische
Sichtweise: Menschlicher
Geist ist zu Beginn des Lebens eine leere Tafel & durch
Erfahrungen in der Welt gelangt
der Mensch zu Informationen --> Verfechter John
Locke (1632-1704). Die
Wurzeln liegen bei Aristoteles
Nativistische
Sichtweise: Menschen
kommen bereits mit mentalen Strukturen zu Welt, die Grenzen
haben --> Durch Immanuel
Kant (1724-1804)
kam es zur Entfaltung im 18. Jahrhundert. Die Wurzeln liegen bei
Platon
René
Descartes (1596-1650) hatte
zu
seiner Zeit neue & radikale Idee: Menschlicher Körper als
„Tier-Maschine“,
die
wissenschaftlich
verstanden werden kann, indem man durch empirische
Beobachtung Naturgesetze
entdeckt.
Gegen
Ende des 19. Jhdts: Entwicklung der PS zu eigener Fachdisziplin
durch Labortechniken aus anderen Wissenschaften (z.B
Physiologie & Physik), zur Untersuchung der fundamentalen
Fragen aus Philosophie
Wilhelm
Wundt: 1879
Gründung des
ersten Labors für experimentelle Psychologie
in Leipzig (1) Trotz Ausbildung zum Physiologen interessierte er
sich für Fragen des Geistes mit Ziel: Verstehen
der elementaren Prozesse der Empfindung und Wahrnehmung und der
Geschwindigkeit einfacher mentaler Prozesse
(2)
Veröffentlichung
von „Physiologische
Psychologie“
und Ausbildung der ersten Doktoranden in Leipzig (oftmals Gründer
eigener psychologischen Labore)
Sobald
die PS als
eigenständige Disziplin etabliert
war, kam es zur Eröffnung psychologischer Labore auch an den
Universitäten Nordamerikas
(John Hopkins University 1883) mit großem
Einfluss von Wundts Ideen
Edward
Titchener (ehemaliger
Student Wundts) als einer der ersten Psychologen in USA: 1892
Gründung eines Labors an der Cornell University
William
James: Entwicklung
einer spezifisch
amerikanischen Perspektive. 1890
„The Principles of Psychology“ (eins der bedeutsamsten Werke der
Psychologie)
G.
Stanley Hall:
Gründung der American
Psychological Association,
die bis heute existierende nationale wissenschaftliche
Fachgesellschaft der USA
Bis
zum Jahre 1900: mehr als 40 psychologische Labore in Nordamerika
Entstehen
einer Debatte über den richtigen Gegenstand und die Methoden der
neuen Disziplin → Spannungsverhältnis
zwischen Strukturalismus und Funktionalismus
Strukturalismus:
die Elemente des Geistes
Strukturalismus:
Untersuchung der
Struktur des Geistes und des Verhaltens
Geschichte:
Potenzial der neuen Disziplin war erst durch die Laborwissenschaft
& Experimente
erkenntlich. Da Daten nun systematisch mit objektiven Methoden
erhoben wurden, gab es die Möglichkeit, dass unabhängige
Beobachtende die Ergebnisse der Experimente replizieren
Charakteristisch
für Tradition Wundts: Betonung der wissenschaftlichen
Methode,
Bemühen um exakte
Messung und statistische Analyse der Daten
Titchener
als Begründer des Strukturalismus hatte das
Ziel,
die
dem menschlichen Geist zugrunde liegende Struktur sichtbar zu
machen, indem er die wesentlichen Bestandteile geistigen Lebens
benannte
Forschung
als Analogie
zu Chemikern
„Der Psychologe ordnet die mentalen Elemente genau so, wie der
Chemiker die Elemente klassifiziert“
Verwendung
von Introspektion,
um wesentliche Elemente zu erkennen: Individuen untersuchen
systematisch
ihre eigenen Gedanken & Gefühle
im Hinblick auf spezifische
Wahrnehmungs- und Empfindungserlebnisse
(z.B Geschmacksempfindung)
Viel
Kritik: Unmöglich dass die Ergebnisse einer individuellen
Introspektion verallgemeinerbare Aspekte menschlicher
Psychologie darstellen
Alternative
zum Strukturalismus durch Max
Wertheimer:
Eine Erfahrung soll als Gestalt (organisiertes Ganzes) angesehen
werden und nicht als Summe einfacher Teile --> Vorstellungen der
Gestaltpsychologie
(noch immer Einfluss auf Untersuchung der
Wahrnehmung)
Funktionalismus:
Absichtsvoller Geist
Funktionalismus
als
Gegenposition: Schlüsselfrage, worin
die Funktion oder Absicht eines jeden Verhaltens besteht
William
James: Übereinstimmung mit Titchener, dass das Bewusstsein
zentral für die Wissenschaft der PS ist. Jedoch Aufmerksamkeit
nicht auf Elemente mentaler Prozesse sondern auf ihre Absicht
--> Ziel: Verstehen des Bewusstseins, um Menschen dabei zu
helfen, sich effektiv an Umwelt anzupassen
Beispiel
Reflexe: (1) Strukturalistisch: Versuch seine wesentlichen
Bestandteile
zu identifizieren. (2) Funktionalistisch gesehen von Theoretiker
John Dewey:
Konzentration auf die
Funktion der
Reflexe: Eine kontinuierlich
angeordnete Sequenz von Handlungen
im Bezug auf sich selbst und die Reihenfolge angepasst, um ein
bestimmtes Endziel zu erreichen: Die Reproduktion
der Spezies & den Erhalt des Lebens
Deweys
beschäftigte sich auch mit praktischer
Anwendung mentaler Prozesse,
die zu wichtigen Fortschritten in der Pädagogik
führte → Impulse für fortschrittliche Erziehung in den USA
(Handlungsorientiertes Lernen statt Auswendiglernen --> Förderung
der intellektuellen Neugier & erhöhtes Verständnis)
„Warmherzige“
Psychologie von William James:
Platz für Emotionen
& das Selbst,
für Wille, Werte und religiöse und mystische Erfahrungen. Betonung
der Einzigartigkeit jedes Individuums,
die nicht auf Formeln oder Zahlen aus Testergebnissen reduziert
werden konnten – Ziel lag eher im Erklären, statt in
experimenteller Kontrolle
Das
Vermächtnis von Strukturalismus & Funktionalismus
Trotz
vieler Unterschiede gibt es einen intellektuellen
Kontext
Heute:
Sowohl Untersuchung der
Struktur als auch der Funktion von Verhalten
Beispiel
Sprachproduktion: Wörter müssen sowohl
richtige Funktion erfüllen, als auch die richtige Struktur besitzen
– Forscher untersuchen Bedeutungen (Funktionen) und
grammatikalischen Strukturen
1.2.2
Frauen als Pionierinnen der Forschungen
Forschung
& Praxis wurde in den Anfängen von Männern
dominiert.Trotzdem trugen Frauen erheblich zur neuen
Disziplin bei
Margaret
Washburn hatte als erste Frau einen Doktorgrad in PS –
einflussreiches Lehrbuch „The Animal Mind“
Mary
Calkins (Harvard University) war die erste weibliche Präsidentin
der American Psychological Association
Anna
Freud: verantwortlich für wichtige Fortschritte in
Psychoanalyse (Therapieform, die auf psychodynamischen
Perspektive beruht)
Charlotte
Bühler: Bereits in den 20er Jahren Professorin und nach
Emigration aus Nazi-Deutschland Entwicklungspsychologin und
Therapeutin. Siewar Mitbegründerin der humanistischen
Psychologie
Heute:
Die Hälfte der Doktorgrade in Deutschland haben Frauen
1.2.3
Perspektiven der Psychologie
Perspektiven:
Herangehensweise der Art und Weise, wie
Psychologen Verhalten und Denkprozesse untersuchen.
Sie beeinflussen wonach
Forschende
suchen, wo
sie es suchen und
welche
Forschungsmethoden angewendet
werden.
Wichtig:
Beschreibung von Ursache
und Folge des
Verhaltens
Obwohl
es einen unterschiedlichen
Ansatz bei
jeder Perspektive gibt, kommt es zum Zurückgreifen bzw.
Verschmelzen von mehr als eine Perspektive in der Forschung. Jede
einzelne erweitert das Verständnis der Gesamtheit menschlicher
Erfahrung.
Die
Psychodynamische Perspektive
Verhalten
wird durch starke
innere Kräfte angetrieben und motiviert.
Handlungen rühren von ererbten Instinkten,
biologischen Trieben und dem Versuch her, Konflikte zwischen
persönlichen Bedürfnissen & sozialen Erfordernissen zu lösen.
Energie
für das Verhalten liefern
Deprivation, physiologische Erregung und Konflikte.
Reaktionen
des Organismus enden, wenn seine Bedürfnisse
befriedigt und
seine Triebe
zurückgegangen sind.
--> Hauptzweck von Handlungen:
Reduktion von Spannung.
Sigmund
Freud,
Wiener Arzt (1856-1939): Deutlichste Herausarbeitung der
psychodynamischen
Mechanismen der Motivation.
Seine Ideen kamen durch Arbeit mit psychisch gestörten Patienten
--> Zutreffen
der beobachteten Prinzipien auch auf
normales Verhalten
Theorie:
Eine
Person wird durch ein komplexes
Netzwerk innerer und äußerer Kräfte gezogen & geschoben.
Anerkennen der Tatsache, dass menschliche Natur nicht
immer rational ist
& Handlungen
durch Motivation gesteuert werden
können, die dem Bewusstsein
nicht zugänglich sind.
Betonung der frühen
Kindheit
als Phase,in der sich die Persönlichkeit
ausbildet.
Neo-Freudianer
hatten
neue Richtungen: Persönlichkeit entsteht nicht nur in der frühen
Kindheit, sondern auch durch soziale
Einflüsse und Interaktionen
Psychodynamische
Ideen haben großen
Einfluss
auf
viele Bereiche der Psychologie: z.B. Entwicklung von Kindern,
Träumen, Vergessen, unbewusste Motivation, Persönlichkeit &
psychoanalytische Therapie
Die
behavioristische Perspektive
Der
Versuch zu verstehen, wie
bestimmte Umweltstimuli bestimmte Arten des
Verhaltens hervorrufen.
(1) Untersuchung der
Antezendenzbedingungen
der
Umwelt → jene Bedingungen, die dem Verhalten zugrunde
liegen und den
Rahmen
für einen Organismus schaffen, eine Reaktion auszuführen
oder sie zurückzuhalten.
(2) Betrachtung der Reaktionen
(Hauptgegenstand
der -Untersuchungen), die Verhaltensweise,
die es zu verstehen, vorherzusagen und zu steuern gilt.
(3) Untersuchen der beobachtbaren
Konsequenzen,
die
auf Reaktion folgen.
John
Watson
(1878-1958), Entwickler der Perspektive: Forderung, dass
psychologische Forschung nach speziesübergreifenden,
beobachtbaren Verhaltensmustern suchen
solle.
B.F.
Skinner
(1904-1990): Weiterer Einfluss des Behaviorismus, indem er
Analysen auf Konsequenzen des Verhaltens
ausweitete.
Idee,
dass die
untersuchten grundlegenden Prozesse bei
Tieren
als allgemeine Prozesse angesehen
werden sollen,
die
auch auf den Menschen
übertragbar sind.
Obwohl
meist an Tieren geforscht wurde, wurden viele Prinzipien auch bei
menschlichen
Problemen
angewandt. (z.B. Humanerer Ansatz bei Kindererziehung durch positive
Verstärkung statt Bestrafung & neue Therapien zur Modifikation
von Verhaltensstörungen)
Besonderer
Wert: die exakte
Beschreibung der
beobachtbaren Phänomene und
strenge Standards für
die Überprüfung von Prinzipien.
Behaviorismus
hinterlässt bedeutsames Erbe in der Praxis: Betonung der
Notwendigkeit
für genaues Experimentieren und sorgfältig definierte Variablen
→
Beeinflussung der meisten psychologischen Bereiche
Die
humanistische Perspektive
Entwicklung
in den 50er
Jahren als Alternative zur
psychodynamischen & behavioristischen Perspektive
Idee:
Menschen werden nicht
durch
instinktive Kräfte getrieben oder durch Umgebung manipuliert.
Verhalten wird nicht
auf Komponenten, Elemente & Variablen aus Laborexperimenten
reduziert
Sondern:
Menschen werden als
aktive Geschöpfe gesehen, die von Grund auf gut sind und über die
Freiheit der Wahl verfügen.
Fokus auf Verhaltensmuster in der Lebensgeschichte
des
Menschen --> Hauptaufgabe des Menschen, das Streben
nach positiver Entwicklung.
Carl
Rogers
(1902-1987): Betonung der natürlichen
Tendenz
des Individuums zu
geistiger Weiterentwicklung und Gesundheit (Verstärkung
des Vorgangs durch positive Wertschätzung der Umgebung)
Abraham
Maslow (1908-1970):
Prinzip der self-actualization
(Selbstverwirklichung)
als Drang
jedes Individuums, sein Potenzial möglichst
umfassend zu verwirklichen.
Eine
Perspektive, die sich der ganzen
Person annimmt
(holistische
Herangehensweise)
→ Für wirkliches
Verständnis
über das Wissen über Psyche, Körper und Verhalten eines Menschen
muss der Hintergrund
sozialer und kultureller Faktoren miteinbezogen
werden.
Erweiterung
um wertvolle Erkenntnisse in Literatur, Geschichte, Kunst → PS als
vollständigere
Disziplin -->
Humanistischer
Blickwinkel als Enzym,
der Psychologie hilft, sich nicht nur auf negative
Kräfte
zu konzentrieren (Wichtig für Psychotherapie)
Die
kognitive Perspektive
Herausforderung
für Behaviorismus, durch Aufzeigen dessen Beschränkungen.
Zentraler
Fokus: menschliches
Denken und all seine wissensbasierten Prozesse, z.B.
Aufmerksamkeit,
Denken, Erinnern & Verstehen --> Annahme, dass Menschen
handeln,
weil
sie denken
& mit dieser Fähigkeit
ausgestattet sind.
Verhalten
wird nur
zum Teil durch
vorangehende Umweltereignisse
&
frühere
Verhaltenskonsequenzen
bestimmt → Verhaltensweisen treten auch durch
neue Wege des Denkens
auf
Noam
Chomsky
(1928): Kinder sind in der Lage, Äußerungen zu machen, die mit
vorherigen
Erfahrungen nicht zu erklären sind →
Gegenargumentation
zu
Skinners Position, dass
Kinder sich Sprache durch gewöhnliche Lernprozesse aneignen.
Schweizer
Forscher
Jean Piaget
(1896-1980) nutzte in seiner Studie mit Kindern eine Serie mentaler
Aufgaben, um qualitative
Entwicklungen
in kognitiver Entwicklung aufzuzeigen.
Konzentration
auf das Untersuchen von höheren
geistigen Prozessen
(Wahrnehmung, Gedächtnis, Sprache, Problemlösen und Entscheiden)
auf vielen
Ebenen →
Betrachtung von Ursache
und auch Ergebnis
der Handlung, z.B. Bedauern verspüren nach Verletzung
Ausrichten
der Reaktion des Individuums auf die Realität,
nicht
nur in der objektiven Welt,
sondern auch in der subjektiven
Realität in
seiner Innenwelt aus Gedanken und Bildern
Die
biologische Perspektive
Ursache
des Verhaltens liegt in der Funktionsweise
der Gene, des Gehirns, des Nervensystems und des endokrinen Systems.
Das
Funktionieren
des
Organismus wird anhand der zugrunde
liegenden körperlichen Strukturen und biochemischen Prozessen
erklärt. Erfahrungen & Verhalten werden als Ergebnis
chemischer und elektrischer Aktivitäten
erklärt, die zwischen
Nervenzellen
stattfinden.
Idee:
Psychische und soziale Phänomene können auf
biochemische Prozesse zurückgeführt
werden → Sogar die komplexesten
Phänomene können dadurch verstanden werden, dass man sie
analysiert
und auf immer kleinere, spezifischere Einheiten reduziert.
Verhalten
wird durch körperliche
Strukturen und Vererbungsprozesse
determiniert. Erfahrungen wirken auf Verhalten ein, indem sie diese
biologischen
Strukturen
und Prozesse verändern.
Forscher
dieser Perspektive arbeiten im interdisziplinären Feld der
(1) Verhaltensbezogenen Neurowissenschaften: Das
Verstehen der Vorgänge
im Gehirn,
denen Verhaltensweisheiten
(Sinneswahrnehmung, Lernen, Emotion) zugrunde liegen
(2)
Kognitive Neurowissenschaften:
Durchbruch durch Fortschritte der Hirnforschung in den bildgebenden
Verfahren
→ Ausdehnung
der
biologischen Perspektive auf breites
Spektrum menschlicher Erfahrung mit
dem
multidisziplinärer
Forschunsschwerpunkt
auf Grundlagen höherer
kognitiver Funktionen
im Gehirn (Sprache,Gedächtnis)
Die
evolutionäre Perspektive
Verknüpfung
der
zeitgenössischen PS mit der Evolutionstheorie
von Charles Darwin (1809-1882):
Evolution durch natürliche
Selektion →
Diejenigen Organismen, die besser
an ihre Umwelt angepasst sind,
tendieren dazu mehr
Nachkommen zu produzieren
& ihre Gene weiterzugeben, als Organismen mit schlechterer
Anpassung --> Veränderung einer Spezies über viele Generationen
in Richtung der bevorzugten
Anpassung.
Idee:
Entwicklung von kognitiven
& körperlichen Fähigkeiten
über
Millionen von Jahren, um spezifischen
Anpassungserfordernissen
gerecht zu werden.
→ Konzentration auf Umweltbedingungen,
unter denen sich das Gehirn
entwickelte.
Nutzen
des reichhaltigen theoretischen
Rahmengerüsts
der Evolutionsbiologie
um zentrale
Probleme adaptiven Verhaltens unserer Spezies
zu identifizieren. Beispiel: In Evolutionsgeschichte war der Mensch
zu 99% Jäger und Sammler während des Pleistozäns (2 Mill. Jahre)
Sobald
Anpassungsprobleme
der frühen Menschen identifiziert
waren→ Schlussfolgerungen im
Rahmen der evolutionären Ausrichtung,
welche durch
kognitive Mechanismen und psychischen Anpassungen
aus der Lösung solcher Probleme entstanden
Größte
Unterscheidung von anderen Perspektiven: Konzentration auf
zeitlich extrem lange Prozesse der Evolution (dienen
als zentrales Erklärungsprinzip).
Beispiele:
Unterschiedliche Geschlechterrollen als Produkt der
Evolution
& nicht
als aktueller gesellschaftlicher Bedingungen.
Man braucht viel Kreativität beim Nachweisen
solcher Theorien,
da keine
Durchführung
von Experimenten
möglich
ist.
Die
kulturvergleichende Perspektive
Wichtige
Reaktion auf die Kritik, dass psychologische Forschung häufig auf
einem westlichen
Konzept
des Menschen basiert
Untersuchung
interkultureller Unterschiede
der Ursachen
und Konsequenzen
von Verhalten.
Fokus:
Herauszufinden, ob psychologische Theorien auf alle
Menschen
zutreffen, oder nur
auf eine engere,
spezifischere Population
→ Anwendung bei nahezu jedem
Gegenstand psychologischer
Forschungen
Betrachtung
kultureller Kräfte
für
Vergleiche zwischen Gruppen innerhalb
nationaler Grenzen.
(Prävalenz von Essstörungen zwischen Frauen verschiedener Ethnien)
Untersuchung
Kultureller Einflüsse auch zwischen
Nationalitäten
(mediale Berichte)
Infrage
stellen
von Folgerungen aus anderen Perspektiven → Beispiel:
FreudsTheorien sind
nicht
auf Kulturen übertragbar, die sich stark von Freuds Wiener Kultur
unterscheiden.
Anthropologe
Bronislaw
Malinowski: Kritik
anhand von Familienpraktiken der Trobriander auf Neuginea an Freuds
vaterzentrierter Theorie (Familienautorität
liegt dort bei Mutter). Das heißt, einige der universellen
Behauptungen der psychodynamischen Perspektive treffen
nicht zu
Sie
hilft, Generalisierungen
zu relativieren,
die Unterschiedlichkeit und Reichhaltigkeit von Kulturen keine
Rechnung tragen
Perspektiven
vergleichen: Thema Aggression
Alle
Ansätze: Bemühen, das Wesen
von Aggression
und Gewalt zu
verstehen.
Psychodynamisch:
Aggression als Reaktion auf Frustration,
die durch Barrieren
auf dem Weg zur Freude (ungerechte Autoritäten) entstanden sind.
Beim Erwachsenen als Resultat der Verschiebung
von Feindseligkeit,
die ursprünglich als Kind gegenüber den
Eltern
empfunden wurde.
Behavioristisch:
Identifiziert Verstärker
vergangener aggressiver Reaktionen (Mehr
Aufmerksamkeit für andere Kinder) --> Kinder von körperlich
züchtigenden Eltern lernen, später mit ihren Kindern ähnlich zu
verfahren.
Humanistisch:
Suche nach persönlichen
Werten und sozialen Bedingungen,
die selbst einschränkende
und aggressive Perspektiven
anstelle von wachstumsfördernden
Erfahrungen nähren.
Kognitiv:
Erfasst unterschiedliche feindselige
Gedanken und Fantasien,
die Menschen bei Wahrnehmung
gewalttätiger
Handlungen erleben. Beachtet aggressive Vorstellungen
und Absichten,
andere zu verletzen. → Einfluss von Gewalt
in Filmen
Biologisch:
Untersucht die Rolle spezifischer
Gehirnareale für Aggression,
indem verschiedene Gehirnregionen
stimuliert & aufgezeichnet werden.
(Abnormalitäten bei Massenmördern)
Evolutionär:
Untersuchung
der Bedingungen, die Aggression zu Anpassungsverhalten
für Urmenschen
machten. Identifiziert psychologische Mechanismen, die unter diesen
Bedingungen selektiv
aggressives Verhalten
hervorrufen konnten.
Kulturvergleichend:
Betrachtet,
wie Mitglieder verschiedener
Kulturen,
Aggression zeigen und interpretieren. Herausfinden, wie kulturelle
Käfte die
Wahrscheinlichkeit
verschiedener
Arten aggressiven Verhaltens beeinflussen.
Man
kann erkennen, wie die verschiedenen Perspektiven zusammenwirken
/ sich ergänzen
→ umfassenderes Verständnis in spezifischen Feldern der Forschung
→ Großteil der Forschung nutzt
mehrere Perspektiven
Entstehen
neuer
Theorien aus
einer Kombination
verschiedener Perspektiven:
(1) In der Biologische
Perspektive
das Bildgebendes Verfahren für Sprachverarbeitung &
Persönlichkeitsunterschiede (2) Internet
als
Basis weltweit zu kooperieren. (3) Kultur-
vergleichend:
moralisches Argumentieren oder wahrgenommenes Körperbild.
2.1 Der
Psychologische Forschungsprozess
1.
Schritt, Erste Beobachtungen (Fragestellung)
Beobachtungen,
Überzeugungen, Informationen und Allgemeinwissen
führen zu einer neuen
Idee oder Sichtweise
auf ein Phänomen Die Fragestellungen entstehen durch direkte
Beobachtung , traditionelle Forschungsgegenstände, wie z.B. „große
ungelöste Fragen“ und
Kombinationen von
alten mit neuen Ideen
Zeichen
der wirklich kreativen Denker: Entdeckung einer neuen Wahrheit, die
der Wissenschaft eine neue, bessere Richtung gibt.
Entwicklung
von Theorien
(wichtiger Kontext für Forschungsfragen) – Eine geordnete Menge
von Begriffen und Aussagen, die ein Phänomen oder eine Gruppe von
Phänomenen erklärt
Gemeinsame
Grundlage von Theorien: Annahme des Determinismus
→
Alle Ereignisse (Physikalisch, kognitiv, behavioral) sind das
Ergebnis von
spezifischen Kausalfaktoren oder
werden von diesen bestimmt.
Die Kausalfaktoren sind auf das Individuum oder dessen Umgebung
begrenzt.
Verhalten
und mentale Prozesse folgen regeläßigen
Mustern von Zusammenhängen
und diese Muster können durch Forschung entdeckt/offengelegt
werden.
Annahme,
dass eine Theorie bekannte Fakten erklärt
und neue Hypothesen generiert
2.
Schritt, Hypothese:
Vorläufige und überprüfbare
Aussage
über den Zusammenhang zwischen Ursachen
und Folgen.
Oft
als Wenn-Dann-Vorhersagen
formuliert, in denen Ergebnisse aufgrund
spezifischer Bedingungen erwartet werden -->
Um
diese Beziehung zu bestätigen muss geforscht werden. Theorien von
grundlegender
Bedeutung für die Generierung neuer Hypothesen, denn
falls die wissenschaftliche Daten einer Hypothese nicht entsprechen,
müssen Aspekte der Theorie überdacht werden → Ständiger
Austausch zwischen Theorie
und Forschung.
3.
Schritt,Untersuchung entwerfen
–
wissenschaftliche Methodik,
um Hypothesen zu überprüfen.
Wissenschaftliche
Methodik: eine
allgemein gültige Sammlung von Vorgehensweisen um Ergebnisse so zu
gewinnen , dass Fehlerquellen
minimiert
und verlässliche
Schlussfolgerungen
gewonnen werden können → Psychologie in dem Maße als
Wissenschaft
angesehen, wie sie den Regeln
der
wissenschaftlichen Methodik folgt
4.
Schritt, Daten analysieren & Schlussfolgerungen
Ziel:
Publikation
der Ergebnisse
Voraussetzung:
Dokumentation der Analysen, sodass andere Forscher nachvollziehen
und bewerten
können. Sie haben Möglichkeit die Methoden zu inspizieren,
kritisieren, replizieren oder widerlegen→ Öffentliche
Überprüfbarkeit!
In
vielen Zeitschriften sind Forschungsarbeiten der American
Psychological Association/ Science (ASP/ASA) relevant→
In Deutschland: „Psychologische
Rundschau“
Organ der Gesellschaft für Psychologie und des Berufsverbandes
deutscher Psychologen.
Peer
review: Versand
an Experten → Bericht über Beweisführung, Methodik und
Ergebnisse. Wenn die Experten zufrieden sind, dann ist eine
Veröffentlichung möglich -->
Großteil aller
Forschungsarbeiten in Fachzeitschriften haben hohen
Qualitätsstandard
5.
Schritt, Ergebnisse einer größeren Öffentlichkeit
vorstellen
Pressemitteilungen
durch ASP/ASP mit Beispiel George Miller → Psychologie
für Allgemeinheit,
Psychologen weniger in Expertenrolle.
Auch
öffentliche Veranstaltungen, bei denen Forscher der Aufgabe,
Psychologie weiterzureichen,
nachkommen könnnen.
Einzelne
Forscher: Bücher veröffentlichen oder Vorträge halten
(Allgemeinheit!)
6.
Schritt, auf offene Fragen hinweisen
Diskussion
der Wissenschaftsgemeinde
(scientific
community)
über die vorgelegten Ergebnisse und Identifikation von offenen
Fragen.
In
meisten Arbeiten von Autor ein Abschnitt in dem
Implikationen und Grenzen ihrer Argumentation
aufgeführt werden. Auch wünschenswerte künftige
Forschung
wird genannt.
Wenn
Daten eine Hypothese nicht
widerspruchsfrei stützen,
müssen Aspekte
überdacht werden
→
Dauerhafte Wechselwirkung zwischen Theorie und Forschung.
7.
Schritt, offene Fragen in Angriff nehmen
Eventuell
Forschungsprozess erweitern
Forschungsprozess
basiert auf angemessener
Anwendung wissenschaftlicher Methodik -->
Ziel:
Schlussfolgerungen
mit möglichst großer
Objektivität (Objektiv,
wenn von Emotionen
und beobachterabhängigen Urteilsverzerrung
unbeeinflusst)
2.1.1
Beobachterabhängige Urteilsverzerrung und operationale Definitionen
Beobachterabhängige
Urteilsverzerrung (Observer bias): ein
Fehler,
der durch persönliche
Motive und Erwartungen
des Betrachters entsteht. Sehen und Hören von Dingen die erwartet
werden,
statt Tatsachen
Beispiel:
Rede zum Thema Frieden von Hugo
Münsterberg
vor vielen Journalisten (Unterschiedlichste
Beschreibungen seines
Verhaltens während des Vortrags in späteren Artikeln →
Zusammenhang mit
politischen Überzeugungen
Alltag:
Engere
Beziehungen
beeinflussen Motive und Erwartungen, wie das Verhalten der
vertrauten Person wahrgenommen
wird. Studie
an verheirateten Paaren demonstriert:
Erwartungen verschiedener Betrachter
führen zu verschiedenen
Schlussfolgerungen.
Voreingenommenheit
bzw.
resultierende Urteilsverzerrung
wirken als Filter
→ Manches bedeutsam,
andere Aspekte irrelevant
und bedeutungslos
Im
Psychologischen Experiment: Beispiel Beobachtungen --> Jeder
Betrachter hat unterschiedliche
Vorerfahrungen
(Glaube an best. Theorien) → Urteilsverzerrung wird zum Problem →
Harte
Arbeit für
Forscher, Beobachtungen ohne
Vorurteilen
zu begegnen
Gegenmaßnahme
Standardisierung:
Bei
allen Stufen der Datengewinnung werden
einheitliche und konsistente Verfahren genutzt.
Alle Merkmale eines Tests/ Experiments sollen hinreichend
standardisiert
sein,
sodass alle Probanden die gleichen
Bedingungen
erleben
Beispiel
Interview: Immer gleiche Fragen, Auswertung der Fragen nach
vorgegebenen
Regeln
--> Auch schriftliche
oder akustische
Dokumentation
führt zu besserer Vergleichbarkeit zu anderer Zeit/Ort
Auch
Standardisierung
von Beobachtungen.
Das zu lösende Problem ist die Übertragung
der Theorien
in Begriffe mit gleichbleibender
Bedeutung.
→
Operationale
Definition:
Standardisiert die Bedeutung
innerhalb
eines Experiments, indem ein Konzept
festgelegt wird, das
bestimmte Operationen oder Vorgänge
benennt Dienen als Grundlage, um das Konzept zu messen
oder zu konstatieren
Variablen:
jener Faktor, der sich in
Menge oder Art verändert
→ Müssen operational definiert sein.
Ziel
eines Experiments: Ursache-Wirkungs-Zusammenhang
zwischen zwei Arten von Variablen nachweisen.
Faktor
des Experiments, der verändert
wird:
Unabhängige
Variable,
fungiert als Ursache
Ziel
der Messung & Wirkungsteil ist die (von Ursache)
abhängige Variable → Wenn
eine Hypothese zum Ursache-Wirkungs-Zusammenhang richtig ist, dann
wird der Wert der abhängigen
Variablen von
dem
der unabhängigen Variablen
abhängen.
Im
Kontext eines Experiments:
Studie
beginnt mit großer Frage: Haben Menschen einen freien Willen oder
hängt Verhalten von Kräften ab, die durch Gene oder Umwelt
determiniert werden?
Ziel
der Forscher zu zeigen, wie sich die Art und Weise, in der Menschen
auf diese Frage eine Antwort zu finden (freier
Wille oder Determinismus),
auf das Verhalten auswirkt.
Argumentation:
Menschen mit deterministischem Weltbild fühlen sich weniger für
schlechtes Verhalten verantwortlich (außerhalb ihrer Kontrolle)
Testen
der Hypothese:
Gelegenheit zu täuschen für Probanden.
Unabhängige
Variable:
Glaube an freien Willen vs. Determinismus → Um diese Variablen zu
manipulieren: In Test für jede richtige Antwort einen Dollar
(abhängige
Variable)→
Eigenständige Auswertung des Tests in Abwesenheit des
Versuchsleiters (Versuchsleiter kann nicht wissen, wer sich mehr
Geld nahm als ihm zustand → Rahmen für Täuschung)
Wirkung
der unabhängigen Variablen entsprach Erwartungen/Hypothese
der Forscher → Determinismus-Probanden zahlten sich mehr Geld aus,
als Freier-Wille-Probanden
2.1.2
Experimente Methoden: Alternativerklärungen und die Notwendigkeit
von Kontrollbedingungen
Für
dasselbe
Ergebnis
können verschiedene
Ursachen
infrage kommen. Es gibt Experimentelle
Methoden,
um unklare
kausale Zusammenhänge aufzuklären:
Eine unabhängige
Variable
wird manipuliert,
um einen Einfluss auf eine abhängige
Variable zu überprüfen.
Ziel:
Sichere
Kausalaussagen über den
Einfluss einer Variable auf eine andere
machen zu können. Problem
: Alternativerklärungen!
Eine
Herausforderung an die Objektivität
Wenn
Hypothese getestet wird, hat man oft eine Erklärung parat, weshalb
eine Veränderung der unabhängigen Variable die abhängige Variable
in einer bestimmten Weise beeinflusst
Um
eine Hypothese möglichst überzeugend
zu stützen,
müssen Psychologen sehr auf mögliche Alternativerklärungen
achten: Je mehr
Alternativerklärungen,
desto weniger
sicher
die
Ausgangshypothese.
Konfundierende
Variable:
Etwas, das nicht
absichtlich vom
Versuchsleiter in Forschungssituation eingebracht wurde und das
Verhalten der Probanden verändert, bzw. Verwirrung
bei Interpretation der Daten stiftet.
→ Wenn wahre
Ursache
eines beobachteten Verhaltenseffekt konfundiert
ist,
stellt das die Interpretation der Daten infrage
→ Beispiel:
Gewaltszenen im Fernsehen lauter & mehr Bewegung als andere
Szenen →Thema „Gewalt“ & Oberflächliche Eigenschaften
(Bewegung/Lautstärke) sind konfundiert.
→ Forscher kann nicht sagen was
genau aggressives
Verhalten produziert.
Obwohl
in jedem Experiment eine Reihe von Alternativerklärungen sind, gibt
es zwei Arten konfundierender Variablen die in fast allen
Experimenten auftreten.
Ungewollte
Erwartungseffekte:
Treten auf, wenn Forschende/Betrachter dem Probanden auf subtile
Weise mitteilen,
welches Ergebnis sie erwarten
&
damit die gewünschte
Reaktion
hervorrufen → Es sind Erwartungen des Versuchsleiters & nicht
die unabhängige Variable,
die Reaktion auslösen. Erwartungseffekte verzerren
den Inhalt der Entdeckungen aus Experiment.
Placeboeffekt:
Tritt auf, wenn Probanden ihr Verhalten ohne
experimentelle Manipulation verändern.
Entwicklung des Konzeptes in der Medizin, bezieht sich auf eine
Verbesserung des Gesundheitszustandes/Wohlbefindens, die auf der
Überzeugung
des Individuums beruht, eine wirksame
Behandlung
erfahren zu haben
Für
einige Behandlungsmethoden ohne genuin medizinische Wirksamkeit
wurde nachgewiesen, dass sie bei 70%
der Patienten,
gute bis ausgezeichnete Ergebnisse erzielen (Colloca &Miller)
In
Psychologischer Forschung: Wenn Verhalten mehr
durch Erwartungen
eines Probanden, was er
fühlen oder tun sollte,
als durch
eine spezifische Intervention
beeinflusst wird.
Gefährdung
der Ergebnisse:
Forscher müssen bedenken, dass Probanden auch ihr Verhalten ändern,
weil sie wissen, dass sie beobachtet bzw. getestet werden.
(Hawthorne Efffekt) → Beispielsweise Gefühl der Auszeichnung, für
Versuch ausgewählt zu sein
Die
Abhilfe: Kontrollmaßnahmen
Weil
menschliches & tierisches Verhalten sehr
komplex ist
(und oft mehrere Ursachen hat) wird ein gutes Forschungsdesign
mögliche
konfundierende Variablen antizipieren
und Strategien enthalten, diese
auszuschließen.
Entwicklung
von Gegenmaßnahmen → Kontrollmaßnahmen:
Der Versuch, alle
Variablen
und Bedingungen konstant
zu halten, bis auf diejenigen, die in direktem
Zusammenhang
mit der zu testenden Hypothese stehen.
→ Alle
Details
(Instruktionen, Aufgaben, Zeit..) der Experimentalsituation müssen
für alle Probanden gleich
sein,
um sicherzustellen, dass die Erfahrungen
aller gleich
sind. Unterschiede im Verhalten sollten
allein durch
die unabhängige Variable bestimmt sein.
Gegenmaßnahme
zum Erwartungseffekt: Vorgehen der
Doppelblindtechnik:
Im
Idealfall kann Erwartungseffekt verhindert werden, indem weder
Proband,
noch
Versuchsleiter
weiß, welcher Proband welcher
Versuchsbedingung
zugeordnet wird.
Gegenmaßnahme
zum Placeboeffekt: Placebo-Kontrollgruppe:
Um sie aufzuspüren, wird eine Versuchsbedingung
hinzugefügt, in der keine Manipulation stattfindet.
Sie gehören der Kategorie von Kontrollbedingungen an, mit denen
vergewissert
wird,
dass Vergleiche
zwischen den einzelnen Versuchsgruppen angemessen
sind.
→ Beispiel Ginko biloba (Nahrungsergänzungsmittel für
besseres Gedächtnis) → Verbesserung bei allen Gruppen (mit &
ohne Inhaltsstoffe) → Placebokontrolle legt nahe, dass
Leistungsverbesserung Effekt von Übung und nicht Inhaltsstoffe
liegt
Solche
Kontrolldaten als wichtige
Bezugspunkte,
an dem der Wert
des
experimentellen Ergebnisses gemessen wird.
Weitere
Abhilfe: Das Forschungsdesign
Um
Kontrollbedingungen einzubauen,wird entschieden welches
Forschunsdesign
am besten zu den jeweiligen Zielen passt.
→
Between-subjects-Designs:
unterschiedliche
Probandengruppen werden zufällig
entweder
einer Experimentalbedingung
oder einer Kontrollbedingung
(keine experimentelle Intervention) zugewiesen.
Zufällige
Zuordnung
als einer der wesentlichen Schritte, um konfundiere Variablen
auszuschließen, die auf interindividuellen
Unterschieden
zwischen Probanden beruhen. Zufälligkeit
soll z.B Vorlieben von Probanden in jeder beiden Gruppen mischen
→ Wenn sich zwischen den Bedingungen Unterschiede ergeben, ist
sicherer, dass diese Unterschiede auf die Manipulation/Intervention
zurückzuführen sind
&
nicht auf
vorher bestehende Unterschiede
Auch
durch die Art, wie
Probanden rekrutiert
werden, kann zufällige Verteilung unterstützt werden
→
Schlussfolgerungen
aus Experimenten sollen für gesamte ausgewählte Population
(z.B.
4-6 Jährige Kinder) zutreffen. → Auswahl einer repräsentativen
Stichprobe,
die die Eigenschaften
der Population möglichst genau widerspiegelt, z.B. in Hinblick auf
Geschlechterverteilung, ethnische Gruppierungen oder
sozio-ökonomischen Status
Um
von Stichprobe
auf Population generalisieren
zu können → Zufällige
Stichprobenziehung.
Dadurch nimmt jedes Mitglied der Population mit einer identischen
Wahrscheinlichkeit
an dem Experiment teil.
Andere
Art von Experimentaldesign: Within-subjects-Design,
nutzt jeden Probanden gleichzeitig als die eigene
Referenz.
Beispielsweise kann ein Proband mehr
als nur einer
Bedingung der unabhängigen Variablen ausgesetzt werden. Oder
Vergleich des Verhaltens vor
und nach der Behandlung.
→ Beispiel Studie: Fitnessbesucher unterschätzen Genuss des
Trainings vor Beginn → Interpretationen: Fokus auf Beginn des
Trainings (oft schlimmster Teil) und nicht auf das gute Gefühl nach
dem Training
Bisherige
Forschungsmethoden beruhen auf Manipulation
einer unabhängigen Variable, um den Effekt auf die abhängige
Variable zu untersuchen.
Obwohl diese Arten oft die stärkste
Kausalzusammenhänge
erlauben, oft nicht optimale Bedingungen für experimentelle Methode
→
1. Untersuchung
des Verhaltens in künstlicher
Umgebung
(Komplexität
natürlicher Verhaltensmuster geht in kontrollierten Experimenten
verloren
; werden zugunsten der einfacheren
Handhabung einer oder weniger Variablen und Antworten geopfert)
→
2.
Wissen der Probanden, dass sie beobachtet/getestet
werden
(Möglichkeit, dass sie auf
das Wissen reagieren,
indem sie Forscher Gefallen tun oder Forschungszweck unterlaufen /
Auch
absichtliche Veränderung)
→
3.
Einige wichtige Forschungsfragen, die nicht
durch ethisch vertretbare experimentelle Forschung zu klären sind
(Beispiel: Wird die Neigung zu Kindesmissbrauch von Generation zu
Generation weitergegeben?)
Korrelationsmethoden
Fragestellungen
bezüglich, Optimisten gesünder als Pessimisten, Zusammenhang
zwischen Kindesmissbrauch & späteren seelischen Erkrankungen →
betreffen
Variablen die nicht leicht oder nicht in ethisch vertretbarer Weise
manipuliert werden können.
Beantwortung
solcher Fragen → Korrelationsmethoden:
werden genutzt, um herauszufinden in
welchem Ausmaß zwei Variablen, Eigenschaften oder Charakteristika
zusammenhängen.
Um
genaues Ausmaß der Korrelation zwischen zwei Variablen zu
bestimmen, berechnet man die statistische
Größe Korrelationskoeffizient ( r ).
Der Wert variiert zwischen +1,0
(perfekte Positive Korrelation) und -1,0 (perfekte negative
Korrelation). Wert von 0,00 entspricht überhaupt keiner
Korrelation.
Wenn
positiver
Korrelationskoeffizient, wird, wenn die Werte einer
von zwei Variablen steigen,
die Werte der anderen
Variable ebenfalls
steigen.
→ Für negative
Korrelation
gilt das Gegenteil: die Werte der zweiten Variable verändern sich
entgegengesetzt zu den Werten der ersten Variable.
Korrelationen
näher bei 0,
deuten auf schwachen/nicht
vorhandenen Zusammenhang
zwischen den Werten beider Variablen hin → Wenn r
steigt
und sich dem +/-
1,0 Maximum nähert,
kann die Veränderung einer Variablen auf der Basis der Veränderung
der anderen Variable immer besser
vorhergesagt werden.
Achtung:
Aussagen zu kausalen Zusammenhängen sind auf der Grundlage eines
Maßes – wie dem Korrelationskoeffizienten – jedoch nicht
zulässig!
.
Beispiel
aus Forschung mit Thema Schlaf: Studenten mit Schlafproblemen haben
niedrigeren Notendurchschnitt (Gaultney, 2010) Versuch,
Notendurchschnitt zu verbessern, indem Schlafprobleme gemindert
werden. → Einmischung vergeblich,
da starke Korrelation nur bedeutet, dass die beiden Datenwerte in
systematischer Weise zusammenhängen.
Korrelation
besagt nicht, dass ein Wert, den anderen verursacht. → Korrelation
impliziert keine Kausalität!
Korrelation
könnte irgendeine
Usache-Wirkungs-Möglichkeit darstellen
→ Viele der Möglichkeiten implizieren
dritte Variable,
die im Hintergrund
die
Korrelation bewirkt.
Beispiel
Studenten: Besserer Schlaf & bessere Noten durch
leichtere Seminare →
Korrelationen zwingen Forscher meist dazu, nach
tiefer gehenden Erklärungen zu
suchen. --> Studie: Ergebnis, dass Paare mit mehr
Sprachstilpassung mit höherer Wahrscheinlichkeit längere Beziehung
haben. Man konnte jedoch nicht mit Sicherheit sagen, ob nun mehr
Sprachstilpassung zu besseren Beziehungen führt oder andersherum.
Korrelationsstudien
lenken die Aufmerksamkeit auf faszinierende Aspekte der Welt
3.2
Das Nervensystem in Aktion
Allgemein:
Forscher der biologischen Systeme, die das gesamte Spektrum des
Denkens und Handelns möglich machen, heißen
Neurowissenschaftler.
Neurowissenschaft:
heute eines, der am
schnellsten wachsenden Forschungsgebiete
3.2.1
Das Neuron
Neuron:
Eine
Zelle, die darauf spezialisiert ist, Informationen zu empfangen, zu
verarbeiten und/oder an andere Zellen weiterzuleiten.
Sie besitzen unterschiedliche Formen, Größen, chemische
Zusammensetzungen & Funktionen, haben jedoch alle die gleiche
grundlegende Struktur. Anzahl im Gehirn: zwischen 100 Milliarden &
einer Billion.
Funktion:
Sie erhalten an einem Ende Informationen und senden am anderen Ende
Botschaften aus.
--> Übertragung
der Informationen in nur eine Richtung: von den Dendriten über das
Soma zum Axon bis hin zu den Endknöpfchen
Dendriten:
bestehen
aus einer Anzahl verästelter Fasern außerhalb
des
Zellkörpers und sind der Teil der Zelle, der ankommende
Signale erhält.
Hauptaufgabe: Erregung
von
Sinnesrezeptoren
oder Informationen von anderen Zellen zu empfangen.
Soma
(Zellkörper): Enthält den Zellkern (Nukleus) und das
Zytoplasma, das die Zelle am Leben erhält. Es integriert
Informationen über die Stimulation, die von den Dendriten empfangen
wird (oder manchmal direkt von anderem Neuron) & leitet sie über
das Axon weiter.
Axon:
Eine einzelne, ausgedehnte Faser (Länge im Rückenmark bis zu
1m & im Gehirn weniger als 1mm). Hauptaufgabe: Weiterleitung
der Informationen seiner Länge nach.
Endknöpfchen:
Die verdickten knollenähnlichen Strukturen befinden sich am
anderen Ende des Axons. Über die Endknöpfchen werden die an
das Neuron angrenzende Drüsen,Muskeln oder andere Neurone
stimuliert.
Drei
Hauptarten von Neuronen:
1. Sensorische Neuronen: Sie
übermitteln Botschaften von Sinnesrezeptoren an das
Zentralnevensystem – Rezeptorzellen sind hoch
spezialisierte Zellen (reagieren z.B auf Licht, Geräusche)
2.
Motorneurone: Sie leiten Botschaften weg vom
Zentralnervensystem hin zu den Muskeln und Drüsen.
3.
Interneurone: Bilden die Mehrzahl der Neuronen im Gehirn.
Sie leiten Botschaften von sensorischen Neuronen an andere
Interneurone oder Motorneurone weiter.
Zusamenarbeit
der drei Neuronen
--> Auf jedes Motorneuron
kommen
etwa 5000
Interneurone
im riesigen Schaltnetz, aus dem sich Verarbeitunssystems des Gehirns
zusammensetzt.
Beispiel
Schmerzrückzugsreflex:
Schmerzrezeptoren
nahe der Hautoberfläche werden mit scharfen Gegenstand stimuliert
--> sie senden Botschaften über
die sensorischen Neuronen zu einem Interneuron im
Rückenmark --> Interneuron reagiert, indem es Motorneurone
stimuliert -->
Motorneurone
veranlassen, dass sich Muskeln im entsprechenden Körperteil von
Gegenstand zurückziehen.
Erst
nach Abfolge
der neuronalen Ereignisse erhält das Gehirn Informationen über die
Situation. Ähnlich in Fällen, in denen es um das Überleben
geht: Schmerz wird erst
wahrgenommen, wenn bereits körperlich
auf Gefahr reagiert
wurde.
Spiegelneurone:
Zufällige Entdeckung in den 90er Jahren durch Giacomo Rizzolati
mit Arbeitsgruppe. Untersuchung der Funktion der Motorneurone von
Makaken --> Bestimte Neurone aktiv beim Ausführen
motorischer Handlungen. Überraschung: Einige Neurone feuerten auch
dann, wenn Affen beobachteten, wie Forscher dieselbe
Handlung aufüh
Name
Spiegelneurone enstand, weil sie aktiviert werden, sobald
jemand beobachtet, dass ein anderer eine Handlung ausführt.
Sie
erlauben es, die Absichten des Verhaltens anderer zu begreifen
und auch auf eigene Erfahrungen zurückzugreifen, um das
Verhalten anderer zu verstehen.
Durch
Spiegelneurone entstand Fähigkeit, durch Beobachtungen lernen zu
können, wodurch kulturelle Evolution entscheidend vorangebracht
wurde.
Gliazellen
(Stützzellen): “Glia” aus dem Griechischen &
bedeutet Klebstoff.
Hauptaufgabe -.Sie halten Neurone
an ihrem Platz.
1. Sie helfen neu gebildeten Neuronen
während der Entwicklung, den richtigen Ort im Gehirn zu finden
2. Bereich Körperhaushalt: Wenn geschädigte Neurone
absterben, vermehren sich Gliazellen in diesem Bereich und entsorgen
das übbriggebliebene zelluläre Abfallmaterial. Auch können sie
überschüssige Neurotransmitter und andere Substanzen aus
synaptischen Spalt aufnehmen.
3. Isolierung - Myelinscheide:
besteht aus Gliazellen, die eine Hülle um einige Arten von Axonen
bilden. Diese Isolierung aus Fett ehöht die Geschwindigkeit der
Übertragung von Nervensignalen enorm.
4. Aufgabe, zu
verhindern, dass giftige Substanzen im Blut die empfindlichen
Zellen im Gehirn erreichen. Spezialisierte Gliazellen: Astrozyten
– Bilden die Blut-Hirn-Schranke, indem Blutgefäße im
Gehirn mit beständigen Hülle aus Fett umgeben werden.
Fettlösliche Substanzen können Barriere nicht überwinden (Viele
Gifte nicht fettlöslich)
5. Mutmaßung, dass Gliazellen auch bei
neuronaler Kommunikation eine aktive Rolle spielen
(Beeinflussung von Ionenkonzentration) und elektrochemische
Signale generieren.
3.2.2
Aktionspotenziale
Allgemein:
Die elektro-chemischen Signale, die vom Nevensystem zu
Verarbeitung und Übertragung von Informationen eingesetztwerden,
stellen die Basis all dessen dar, was Menschen wissen, fühlen,
wünschen und tun.
Grundlgegende
Frage, jedes Neurons: Soll es zu einem bestimmten Zeitpunkt feuern
(Reaktion erzeugen) oder nicht. Jedes Neuron erhält eine Bilanz
aus exzitatorischen Inputs (Freuern!) und inhibitorischen Inputs
(nicht feuern!)
--> Das richtige Muster von
exzitatorischen Inputs zur rechten Zeit am rechten Ort führt
zur Erzeugung eines Aktionspotenzials (Neuron Feuert!)
Die
Biochemische Basis der Aktionspotenziale
Jegliche
neuronale Kommunikation wird durch den Fluss elektrisch geladener
Teilchen (Ionen), durch die Membran des Neurons (dünne
“Haut”, die das Zellinnere von äußerer Umgebung trennt),
erzeugt.
Flüssigkeit
der äußeren Umgebung und die Flüssigkeit des
Zellinneren enthalten Ionen Natriumatome (Na+), Chloratome
(Cl-) und Kaliumatome (K+), die entweder positiv oder negativ
geladen sind.
Membran
der Zelle spielt wichtige Rolle, beim Halten des
Gleichgewichts der Bestandteile der beiden Flüssigkeiten. --> Im
Ruhezustand: größere Konzentration an Kalium-Ionen
innerhalb und größere Konzentration an Natrium-Ionen
außerhalb des Axons. Doch Membran ist keine perfekte
Barriere --> Einige Natrium-Ionen schlüpfen in die Zelle und
Kalium-Ionen heraus
Lösung:
Transportmechanismen (Pumpen) innerhalb der Membran, die
Natrium hinaus und Kalium hineinpumpen --> die
Flüssigkeit innerhalb des Neurons ist im Vergleich zur
Flüssigkeit außerhalb des Neurons leicht negativ geladen
(70 mV) --> Die Flüssigkeit innerhalb ist hinsichtlich der
Flüssigkeit außerhalb polarisiert.
Diese
leichte Polarisierung nennt man Ruhepotenzial: Es stellt den
elektrochemischen Kontext bereit, in dem eine Nervenzelle ein
Aktionspotenzial erzeugen kann.
Übergang
eines Ruhepotenzials in ein Aktionspotenzial ist die Reaktion auf
das Muster inhibitorischer und exzitatorischen Inputs -->
Diese Inputs beeinflussen die Wahrscheinlichkeit, dass sich
Bilanz der Ionen innerhalb und außerhalb ändern wird, denn sie
verändern Funktionen der Ionenkanäle (die erregbaren Teile
der Zellmembran, die bestimmte Ionen selektiv hinaus-und
hineinströmen lassen)
Inhibitorische
Inputs sorgen dafür, dass Ionenkanäle die negative Ladung
im Zellinneren beibehalten (hält die Zelle vom Feuern ab)
Exzitatorische
Inputs verursachen, dass Ionenkanäle Natrium einströmen
lassen (Zelle kann feuern) --> Weil Natrium-Ionen positiv
geladen, kann ihr Einströmen die relative Bilanz
positiver und negativer Ladung über die Zellmembran hinweg
verändern.
Depolarisierung:
Ein Aktionspotenzial beginnt, wenn genügend Natrium in
die Zelle eingedrungen ist (das heißt, wenn die exzitatorischen
stärker sind als die inhibitorischen Inputs, um Zelle
zunächst von -70 mV auf -55mV zu depolarisieren.)
Wenn
Natrium in das Neuron eingedrungen ist, wird das Innere des
Neurons im Vergleich zur Umgebung positiv geladen
--> Neuron ist vollständig depolarisiert.
Der
Nervenimpuls wird entlang des Axons weitergeleitet, indem ein
Segment nach dem anderen auf diese Weise depolarisiert wird
(sukzessive Depolarisation entlang des Axons)
Erneute
Herstellung des Ruhepotenzials: Wenn das Innere des Neurons
positiv ist, schließen sich Natrium-Kanäle und Kalium-Kanäle
öffnen sich --> Stellen negative Ladung wieder
her --> Sobald das Ruhepotenzial wiederhergestellt ist, ist
dieses Segment des Axons bereit für den nächsten
Impuls.
Eigenschaften des Aktionspotenzials
Alles-oder-nichts-Gesetz:
Das Außmaß des Aktionspotenzials hängt nicht
von der steigenden Intensität der Stimulationen über einen
Schwellenwert hinaus ab. Erreicht die Summe der exzitatorischen
Inputs einmal die Schwelle, wird ein gleichförmiges
Aktionspotenzial generiert. Wird die Schwelle nicht erreicht,
ereignet sich kein Aktionspotenzial
Die Größe des
Aktionspotenzials verringert sich nicht über die länge des Axons
hinweg. --> Aktionspotenzial als selbst-propagierend (sich
selbst forpflanzend), das heißt einmal gestartet, bedarf es
keiner Stimulation mehr von außen, um es in Bewegung zu
halten.
Unterschiedliche
Neurone haben unterschiedliche Geschwindigkeit (schnellsten:
200m pro Sekunde, die langsamsten: 10cm pro Sekunde)
Die
Axone der schnelleren Neurone sind mit einer eng umwickelten
Myelinscheide umgeben (bestehend aus Gliazellen). -->
Schmale Unterbrechungen zwischen den Isolierungen: Ranvier`sche
Schnürringe --> Das Aktionspotenzial hüpft von einem
Schnürring zum anderen. Das spart Zeit und Energie, die zum
Öffnen/Schließen der Ionenkanäle gebraucht wird
Schädigung
der Myelinscheide wirft zeitliche Planung des
Aktionspotenzials durcheinander und verursacht schwerwiegende
Probleme (Krankheit Multiple Sklerose mit Doppelsichtigkeit,
Zittern und schließlich Lähmung, entsteht durch die Degeneration
der Myelinscheide. Spezialisierte Zellen des Immunsystems greifen,
myelenisierte Neurone an, und stören normale synaptische
Übertragung)
Refraktärphase:
Diese Phase entsteht, nachdem ein Aktionspotenzial ein
Segment des Axons passiert hat. Sie garantiert, dass sich ein
Aktionspotenzial nur in eine Richtung entlang des Axons
bewegt --> Eine Ausbreitung rückwärts funktioniert nicht,
da sich die vorherigen Segmente des Axons in Refraktärphase
befinden.
Absolute
Refraktärphase: Eine neue Stimulation, gleich wie intensiv,
kann kein weiteres Aktionspotenzial hervorrufen.
Relative
Refraktärphase: Neuron wird nur auf eine Stimulation
reagieren, die stärker ist als üblicherweise nötig.
(Überschwellige Stimulation)
3.2.2
Synaptische Übertragung
Synapsen
als biologisches Medium, in dem sich jegliches Verhalten
ereignet. Eine Veränderung der normalen Aktivität, würde
Veränderung im Verhalten des Menschen mit sich ziehen.
Vorgang:
Gelangt das Aktionspotenzial zum Endknöpfchen, muss es seine
Informationen dem nächsten Neuron übermitteln
Zwei
Neurone berühren sich niemals. Sie treffen sich an einer
Synapse, bestehend aus einem Schmalen Spalt zwischen der
präsynaptischen Membran (Endknöpfchen des sendenden
Neurons) und postsynaptischen Membran (Oberfläche
eines Dendriten/Somas des empfangenden Neurons.
Synaptische
Übertragung: die Übermittlung von Informationen von einem
Neuron zum anderen über den synaptischen Spalt hinweg. Sie beginnt,
wenn Aktionspotenzial am Endknöpfchen synaptische Vesikel dazu
anregt, zur inneren Membran des Endknöpfchens zu wandern und sich
daran anzuheften. --> Inhalt der Vesikel: Neurotransmitter
(biochemische Substanzen), die andere Neurone stimulieren.
Ankommendes
Aktionspotenzial führt dazu, dass sich die Ionenkanäle öffnen und
Kalzium-Ionen in Endknöpfchen einströmen --> Verursacht
das Platzen der synaptischen Vesikel und die Freisetzung
der Neurotransmitter --> Ausbreitung im synaptischen Spalt
--> Anbindung der Neurotransmitter an Rezeptormoleküle
(sind in postsynaptischer Membran eingebettet)
Anbindung
der Neurotransmitter möglich, wenn keine anderen
Neurotransmitter vorhanden und wenn sie zur Form der
Rezeptormoleküle passen (Schlüssel-Schloss-Prinzip) -->
Wenn Anbindung erfolgreich war, dann kann es diesem nächsten
Neuron Informationen zum "feuern" oder "nicht feuern"
liefern. --> Wenn Aufgabe des Neurotransmitters erfüllt,
löst er sich von Rezeptormolekül und wandert zurück in
synaptischen Spalt (hier entweder Aufspaltung durch Enzyme oder
Wiederaufnahme durch Endknöpfchen)
In
Abhängigkeit von Rezeptormolekül hat Neurotransmitter einen
exzitatorischen oder inhibitorischen Effekt (Derselbe
Neurotransmitter kann exzitatorisch /inhibitorisch wirken),
entscheidet, ob ein weiteres Aktionsptenzial initiiert wird
3.2.4
Neurotransmitter und ihre Funktionen
Allgemein:
Es gibt mehr als 60 Neurotransmitter im Gehirn.
Gemeinsamkeiten: Jeder wird im präsynaptischen Endknöpfchen
erzeugt und freigesetzt. Durch Vorhandensein des
Neurotransmitters wird eine biologische Reaktion erzeugt.
Wenn die Ausschüttung verhindert wird folgt keine Reaktion.
Azetylcholin
findet
man im zentralen und im peripheren Nervensystem.
Abbau
von Neuronen, die Azetylcholin absondern, führt z.B. zu
Gedächtnisverlust bei Alzeimer-Patienten.
Es
wirkt auch an Verbindungen zwischen Nerven
und Muskeln exzitatorisch,
wo es Muskelkontraktionen verursacht. --> Eine Reihe von Giften
beeinflusst synaptische Tätigkeit des Azetylcholins: 1.
Botulinumtoxin (z.B.in
falsch aufbewahrten Lebensmitteln) vergiftet den Menschen, indem
Freisetzung
des Azetylcholins im Atmungssystem verhindert wird.
Botulismus kann zu Ersticken führen. 2.
Curare
(Gift,genutzt von Amazonasinidanern) lähmt
die Atemmuskeln, weil es die Azetylcholinrezeptoren besetzt.
GABA
Gammaaminobuttersäure
ist der bekannteste inhibitorische Neurotransmitter im Gehirn.
Es kann als Botenstoff in etwa einem Drittel aller Synapsen
eingesetzt werden. Neurone, die auf GABA ansprechen befinden
sich in Hirnregionen wie dem Thamalus, Hypothalamus und im
Okzipitallappen
Wichtig
bei Psychopathologie, da es neuronale
Aktivität hemmt.
Wird Konzentration von GABA
gesenkt, empfinden Menschen Angst/Depressoin.
Angststörungen werden oft mit Benzodiazepinen
(Valium, Xanax),
die GABA Aktivität steigern. Sie bewirken, dass sich GABA selbst
auf effektivere Weise an Rezeptormoleküle binden kann.
Glutamat
Es
ist der häufigste exzitatorische Neurotransmitter im Gehirn.
Da er dazu beiträgt, Informationen innerhalb des Gehirns zu
übertragen, ist er wichtig bei emotionalen Reaktionen, Lernen
und Gedächtnis. --> Lernen funktioniert langsamer, wenn
Glutamatrezeptoren nicht richtig funktionieren.
Störungen
der Glutamatkonzentration wurden in Verbindung mit verschiedenen
psychischen Störungen (Schizophrenie) oder
Abhängigkeitserkrankungen gebracht.
Dopamin,
Norepinephrin & Serotonin
Katecholamine
als Klasse von chemischen Substanzen zu denen Neurotransmitter
Norepinephrin und Dopamin gehören.
Beide
haben entscheidende Rolle psychischen Störungen -->
Substanzen, die Konzentration von Norepinephrin erhöhen, lindern
Depressionen.
--> Umgekehrt fand man bei Schizophrenen
einen erhöhrten Dopaminspiegel (Behandlung durch
Medikamente,die Dopaminspiegel senken) Auch bei Parkinson hat
Dopamin zu besserem Verständnis der Krankheit geführt
Neurone,
die Serotonin produzieren befinden sich im Hirnstamm
(wichtig für Erregungsniveau und viele autonome Prozesse -->
Beispiel LSD: Droge erreicht Wirkung, indem sie Wirkweise der
Serotonin-Neurone unterdrückt (Serotonin-Neurone hemmen
normalerweise andere Neurone) --> Mangel an Hemmung: bizarre
Sinneseindrücke
Abweichende
Serotoninkonzentration im Zusammenhang mit Stimmungsschwankungen -->
Reduziertes
Serotoninlevel: Depressionen (Erhöhrung
des Serotoninspiegels durch Antidepressiva wie Prozac -
Wiederaufnahme aus synapt. Spalt wird verhindert)
Endorphine
(endogene Morphine)
sind
als Neuromodulatoren klassifiziert: jegliche Substanz, die
Aktivität des postsynaptischen Neurons modifiziert/moduliert.
Wichtig
bei der Kontrolle von emotionalem Verhalten und Schmerzempfinden,
deshalb "Schlüssel zum Paradies" - Stoffe wie
Opium/Morphin binden an denselben Rezeptoren an
Endorphine
teilweise verantwortlich für Schmerzreduzierende Effekte wie
Akkupunktur und Placebos --> Tests aus Forschung beziehen sich
auf Naloxon (Abhalten der Anbindung an Rezeptoren) --> Jede
Behandlunsmethode zur Schmerzlinderung ist wirkunslos, wenn Naloxon
vorhanden --> Endorphine am Werk!
3.3.1 Ein Blick ins
Gehirn
Allgemein:
Versuch der Neurowissenschaftler die Arbeitsweise des
Gehirns auf unterschiedlichen Ebenen zu verstehen. (Angefangen bei
großen Strukuren, bis hin zu Eigenschaften von einzelnen
Nervenzelle) Die Untersuchungsebene bestimmt die Methoden der
Wissenschaftler
Eingriffe in das Gehirn
Verschiedene
Forschungsmethoden führen zu einem direkten Eingriff in die
Hirnstrukturen
Historisch
wurzeln sie in Fällen wie von Phineas Cage 1848: Durch
Arbeitsunfall stieß Eistenstange durch seinen Schädel. Seine
körperlichen Beeinträchtigungen waren jedoch relativ gering.
Psychisch war er jedoch ein ganz neuer Mensch -->
Veranlassung von Cages Arzt zur Hypothese, dass Aspekte der
Persönlichkeit und des rationalen Verhaltens in Gehirn verankert
seien --> Damals standen Wissenschaftler noch am Anfang,
Hypothesen über Beziehung von Hirnfunktionen und komplexen
Verhalten zu bilden.
Beispiel
Paul Broca: Untersuchung der Rolle des Gehirns bei der
Sprache. Beginn seiner Forschung mit Autopsie eines Mannes
(konnte nur ein Wort aussprechen "tan"). Feststellung,
dass der linke vordere Bereich seines Gehirns schwer geschädigt
war --> Untersuchung ähnlicher Fälle, alle mit derselben
Schädigung im sogenannten Broca-Areal
Auch
heute noch Versuch der Forscher, Verhaltensänderungen mit Regionen
von Hirnschädigungen in Zusammenhang zu bringen. Problem bei
der Untersuchung unfallgeschädigter Gehirne: Keine Kontrolle über
Ort / Ausmaß der Schädigung -
Entwicklung
einiger Techniken um Läsionen (eng umgrenzte Verletzungen
des Gehirns) hervorzurufen. Experimente: Durchtrennen von
Hirnarealen, Durchtrennen neuronaler Verbindungen bei Tieren -->
radikale Wandlung des Wissens über das Gehirn durch Abgleichung
der Ergebnisse aus Läsionsstudien an Tieren mit Menschen.
Repetitive
transkraniale Magnetstimulation (rTMS): durch magnetische
Stimulationspulse werden temporäre, vorübergehende "Läsionen"
beim Menschen hervorgerufen (Kurzzeitige Abschaltung einzelner
Regionen)
Beispiel:
Studie zu Formulierung von Verben und Substantiven. Testen der
Reaktionen, nach Lädierung von Gehirnregionen -->
Schlechtere Leistung beim Thema Verben, nicht bei Substantiven -->
Treffen von Unterscheidungen des Gehirns bei Verben /
Substantiven.
Anwendung
von direkten Stimulationen.Walter Hess
(1881-1973):
in den 50er Jahren ein Pionier im Einsatz elektrischer
Stimulation zur Erforschung tief liegender Hirnstrukturen
--> Elektrodenimplantate bei Katzen: Entdeckung, dass Gefühle
wie Angst, Wut, Müdigkeit in Abhängigkeit von Ort der Implantate
erzeugt / abgeschaltet werden konnte
Aufzeichnung
und Bildgebung der Gehirnaktivität
Allgemein:
Lokalisierung von Gehirnfunktionen, indem mit
Elektroden die elektrische Aktivität des Gehirns, in Reaktion auf
einen äußeren Reiz aufgezeichnet wird --> Betrachtung mit
unterschiedlicher Genauigkeit, z.B einführen von Mikroelektroden
für die Aufzeichnung elektrischer Aktivität eines einzelnen
Neurons
Elektroenzephalogramm
(EEG): Platzieren von Elektroden außen auf den Schädel, um
größere, zusammenhängende Muster elektrischer Aktivität
aufzuzeichnen --> Verstärkte Darstellung der Gehirnaktivität
Funktionen: Untersuchung der Beziehung zwischen psychischer
Aktivität & Reaktion des Gehirns. --> Beispiel:
Nutzen in einem Experiment, dass die unterschiedliche Reaktion des
Gehirns beim Betrachten emotionaler Bilder untersucht -->
Unterschiedliche Muster bei neutralen, angenehmen &
unangenehmen Bildern.
Computertomografien
(CT / CAT): liefert dreidimensionales Bild vom Gehirn ohne
invasive Verfahren, die das Risiko einer Gewebeschädigung mit sich
bringen. --> Untersuchung mithilfe von Röntgenstrahlung,
die später vom Computer in ein zusammenhängendes Bild des
Gehirns verwandelt werden. Häufiger Nutzen bei der genauen
Lokalisierung der Stelle und des Ausmaßes von Gehirnschädigung
oder Abnormaliät.
Positronen-Emissions-Tomografie
(PET): Probanden werden ungefährliche radioaktive
Substanzen injiziert (wandern über das Blut in
Gehirnzellen). Aufzeichnungsgeräte außerhalb des Schädels können
Radioaktivität erfassen, die von Zellen ausgeht, die bei
geistigen/verhaltensbezogenen Aufgaben aktiv sind. Der Computer
erstellt aus den Daten ein dynamisches Bild (PET-Scan), das
zeigt, wo psychische Aktivität stattfindet. Liefert genauere
Informationen über Funktionen als das MRT.
Magnetresonanztomographie
(MRT / MRI): nutzt Magnetfelder / Radiowellen zur
Erzeugung von Energieimpulsen im Gehirn. Magnetimpuls wird
auf verschiedene Frequenzen eingestellt --> Ausrichtung der
Atome im Magnetfeld. Nach Abschaltung des Impulses vibrieren
die Atome (erzeugen Resonanz), während dem Weg zurück zur
Ursprungslage --> spezielle Wellenempfänger orten Resonanz
und leiten sie an Computer weiter, der Bilder der Positionen
unterschiedlicher Atome in den Hirnarealen generiert. Führt zum
Erkennen der Verbindungen zwischen Hirnstrukturen und psychischen
Prozessen --> Entstehen der deutlichsten Bilder anatomischer
Details
Funktionale
Magnetresonanztomographie (fMRT, fMRI): Neues Verfahren, dass
Vorteile aus PET und MRT vereint, indem magnetische
Veränderungen im Blutfluss zu den Gehirnzellen gemessen werden
können --> fMRT erlaubt präzisere Aussagen über
Struktur und Funktion des Gehirns und wird genutzt, um die
Hirnregionen zu entdecken, für viele der wichtigsten kognitiven
Fähigkeiten (Aufmerksamkeit, Wahrnehmung) verantwortlich sind.
6.1.1
Was ist Lernen?
Grundlage
Kognition: Höhere Geistige Prozesse, die sich auf
Lernvorgänge auswirken
Def. Lernen: Ein
erfahrungsbasierter Prozess, der in einer relativ konsistenten
Änderung des Verhaltens oder des Verhaltenspotenzial resultiert.
Lernen
- ein Prozess der auf Erfahrung beruht
Lernen
findet ausschließlich durch Erfahrung statt.
Erfahrung: Informationen aufzunehmen (diese zu bewerten
und zu transformieren), sowie Reaktionenzu zeigen, welche die Umwelt
beeinflussen --> Lernen besteht darin, dass diese
Reaktionen durch Erfahrungen, die im Gedächtnis abgespeichert
sind, beeinflusst werden.
Einige
überdauernde
Verhaltensänderungen
erfordern eine Kombination
aus
Erfahrung und reifungsbedingter
Bereitschaft -->
Interesse, welche Verhaltensaspekte durch Erfahrung verändert
werden können und wie die Änderungen vonstattengehen.
Eine
Veränderung im Verhalten oder Verhaltenspotenzial
Lernen
hat dann stattgefunden, wenn ein Ergebnis vorgewiesen werden
kann. Lernen selbst kann nicht beobachtet werden (Keine
Veränderung im Gehirn zu sehen), vielmehr zeigt es sich in
einer Leistung.
Im
Gegensatz zur Leistung können auch Haltungen wie Wertschätzung
oder Verständnis erworben werden, die sich nicht in
messbaren Verhalten zeigen. In diesen Fällen wurde ein
Verhaltenspotenzial erworben, dass sich durch bestimmte
Haltungen und Werte zeigt.
Dieser
Gegensatz als Beispiel für die Unterscheidung von Lernen und
Leistung- Unterschied
zwischen dem, was gelernt wurde, und was man im beobachtbaren
Verhalten zum Ausdruck kommt
Eine
relativ nachhaltige Veränderung
Um
als gelernt zu gelten, muss eine Änderung des
Verhaltens/Verhaltenspotenzials über verschiedene Gelegenheiten
hinweg relativ nachhaltig und konsistent auftreten.
Nachhaltige
Veränderung bedeutet nicht immer eine permanente Veränderung
--> Beispiel Dartwerfen als Laie: Nach Aufgeben des Sportes,
wieder Ausgansniveau / Dartwerfen als Profi: Nach Aufgabe des
Sportes, fällt es leichter es wieder neu zu erlernen
--> Ein
Teil der früheren Erfahrung wurde "gerettet" -->
permanente Veränderung des Verhaltenspotenzials
Habitutation
und Sensibilisierung
Habitutation:
Verhaltensreaktion lässt nach, wenn ein Stimulus wiederholt
wird. Sie trägt dazu bei, die Aufmerksamkeit auf neuartige
Ereignisse in der Umgebung zu konzentrieren
In
Bezug auf Definition von Lernen: Es gibt eine Verhaltensänderung,
die auf Erfahrung basiert und diese Verhaltensänderung ist
nachhaltig.
Sensibilisierung:
Eine Reaktion auf einen Stimulus wird eher
stärker als schwächer,
wenn sie
wiederholt auftritt -->
Beispiel: Man ist mehrere Male in kurzer Zeit, demselben
schmerzhaften Stimulus ausgesetzt --> Selbst wenn Intensität
gleichbleibend ist, fühlt sich der letzte Stimulus schmerzhafter an
als der erste.
Sensibiliserung
entspricht den Kriterien für Lernprozesse, da eine Erfahrung
einen konsistenten Wandel der Verhaltensreaktion herbeiführt.
Organismus
tendiert eher zur Sensibilisierung, wenn ein Stimulus
intensiv / irritierend ist.
6.1.2
Behaviorismus & Verhaltensanalyse
John
Watson (1878-1958) als Begründer des Behaviorismus -->
Amerikanische Psychologie 50 Jahre lang durch behavioristische
Tradition dominiert ("Psychology from the Standpoint of a
Behaviorist" 1919)
Seiner
Theorie nach, galt Introspektion als kein akzeptables Mittel zur
Untersuchung von Verhalten (nicht objektiv, Fehlen
wissenschaftlicher Daten) --> Beobachtbares Verhalten als
Grundlage der Psychologie mit dem Hauptziel, Verhalten vorherzusagen
& zu kontrollieren.
B.F.Skinner
(1904-1990) Radikaler Behaviorismus:Seine Kritik bezog sich
nicht auf die fehlende Legitimität der Introspektion
(wissenschaftl. Daten); vielmehr sie als Ursache von Verhalten zu
sehen. --> Geistige Ereignisse wie Denken nicht als
Ursache, sondern als Beispiele von Verhalten zu verstehen, die durch
Umweltstimuli hervorgerufen werden
Beispiel
Nahrunsentzug (Deprivation) bei Taube: Argumentation, dass
sich Verhalten vollständig durch Umweltreize erklären lasse
(Deprivation & Futter als Verstärker)
--> Das Subjektive
Gefühl "Hunger" ist nicht Ursache, sondern Ergebnis
der Deprivation
--> Es genügt die Lernprinzipien der
Assoziation zu verstehen unter Nichtbeachtung der inneren
psychischen Zustände
Behaviorismus
diente als philosophische Grundlage der Verhaltensanalyse:
Beschäftigt sich vorwiegend mit der Entdeckung von
Umweltdeterminanten für das Lernen & das Verhalten.
Aufgabe
von Verhaltensanalytikern: Universelle Regularitäten im
Lernen zu entdecken, die in vergleichbaren Situationen bei allen
Spezies vorkommen. Untersuchungen an Tieren führten zu
entscheidendem Fortschritt, da die komplexen Formen des Lernen
Kombinationen und Elaborationen einfacher Prozesse darstellen
und nicht qualtitativ andersartige Phänomene sind.
6.2
Klassisches Konditionieren: Lernen vorhersagbarer Signale
Allgemein:
Klassisches Konditionieren als eine Grundform des Lernens, wobei ein
Stimulus oder ein Ereignis das Auftreten eines anderen Stimulus oder
Ereignisses vorhersagt
--> Der Organismus lernt eine
neue Assoziation (Verknüpfung) zwischen zwei Stimuli -
Einem Stimulus, der zuvor die Reaktion nicht hervorrief und
einem Stimulus, der die Reaktion natürlicherweise hervorrief.
--> Gravierende Folgen für das Verhalten
6.2.1 Pawlows
überraschende Beobachtung
Iwan
Pawlow (1849-1936) war ein russischer Physiologe, der
Forschungen zur Verdauung an Hunden durchführte (Nobelpreis 1904)
und durch Zufall auf klassische Konditionierung stieß. Zu
Untersuchungszwecken bekamen die Hunde Fleischpulver in den Mund
gegeben --> Beobachtung, dass Hunde speichelten, bevor das Pulver
im Mund war
--> Mit der Zeit konnte jeder Stimulus, der
regelhaft dem Futter vorausging den Speichelfluss in Gang bringen.
Pawlow`sche
Konditionierung: Stimulus (Ton, der keine Bedeutung für Hund
hat) wird in regelmäßigen Abständen präsentiert und
danach wird dem Hund Futter gegeben --> Erst einmal
Orientierungsreaktion des Hundes, die jedoch mit
wiederholten Durchläufen abnahm & Speichelfluss ihren Platz
einnahm
Pawlows
Entdeckung war kein Zufall, sondern konnte unter
kontrollierten Bedingungen repliziert werden -
Generalisierbarkeit durch Verwendung anderer Reize
Kern
des Klassischen Konditioniern bilden
Reflexe: eine
ungelernte
Reaktion
(Speichelfluss, Lidschlagreflex,Pupillenkontraktion,
Kniesehnenreflex) , die
in natürlicher Weise durch spezifische Stimuli hervorgerufen wird,
die für den Organismus biologisch relevant sind.
Unkonditionierter
Stimulus (UCS): Jeder Stimulus, der natürlicherweise ein
Reflexverhalten hervorruft, da der Stimulus ohne Lernen
(also Konditionierung) Kontrolle über Verhalten hat -->
Futter
Unkonditionierte
Reaktion (UCR): Das auf den unkonditionierten Stimulus hin
gezeigte Verhalten --> Speichelfluss
Neutraler
Stimulus (NS) bzw der Ton führt zu keiner bzw irrelevanter
Reaktion
Im
Verlauf des Experiments wurde der NS jedoch wiederholt mit UCS
gepaart
Ein
solcher ehemals neutraler Stimulus wird im Zuge des
Konditionierungsprozesses zum Konditionierten Stimulus (CS):
Er besitzt nun die Möglichkeit, ähnliches Verhalten wie die UCR
auszulösen und ist konditioniert auf seine Assoziation mit
dem UCS.
Nach
mehreren Durchgängen wird der CS die konditionierte
Reaktion (CR) auslösen: Jede Reaktion, die der
konditionierte Stimulus als Ergebnis des Lernens hervorruft.
Zusammenfassend:
die Natur gibt uns eine Assoziation UCS-UCR vor, lernen nach
dem klassischen Konditionieren hingegen produziert die
Assoziation CS-CR --> Der CS erlangt einen Teil des
Einflusses auf das Verhalten, der ursprünglich auf den UCS
beschränkt war
6.2.2
Prozesse des Konditionierens
Ursprüngliche
Experimente Pawlows zogen Studien über das Entstehen und
Verschwinden klassisch konditionierter Reaktionen nach
sich.
Ewerb und Löschung
Ewerb:
Jener Prozess in dem die CR erstmalig auftaucht und ihre
Häufigkeit mit zunehmenden wiederholten Paarungen ansteigt. CS
und UCS müssen mehrfach gepaart werden, bevor der CS
zuverlässig eine CR auslöst. So wird die CR mit
steigender Häufigkeit ausgelöst --> Organismus hat
konditionierte Reaktion erlernt
Entscheidende
Eigenschaft: Das Timing: CS und UCS müssen zeitlich eng
bei einander liegen, damit der Organismus sie als zeitlich verbunden
wahrnimmt.
Verzögerte
Konditionierung: Die am meisten verbreitete Art der
Konditionierung. Hierbei wird der CS vor dem UCS präsentiert und
hält mindestens so lange an bis der UCS einsetzt.
Spurenkonditionierung:
CS wird unterbrochen oder entfernt, bevor der UCS präsentiert
wird. Begriff "Spur" bezieht sich auf das
Gedächtnis bzw die Erinnerung an den CS
Simultane
Konditionierung: CS und UCS werden gleichzeitig dargeboten.
Rückwärtskonditionierung:
CS wird nach dem UCS präsentiert.
Konditionierung
am Effektivsten bei verzögerter Konditionierung mit kurzem
Zeitintervall zwischen CS und UCS --> Zeitintervall
hängt von verschiedenen Faktoren ab: Intensität des CS und der
Reaktion die konditioniert werden soll. Für muskuläre
Reaktionen wie den Lidschlag: Intervalle von 1s oder weniger
; Für viszerale Reaktionen wie Pulsschlag/ Speichelfluss:
Intervalle von 5-15 s
Schlechte
Ergebnisse bei simultaner Konditionierung und besonders schlecht
bei Rückwärtskonditionierung. Die Konditionierung ist dort sehr
schwach, weil der CS nicht wirklich den Beginn eines UCS
vorhersagt.
Wenn
CS nicht länger den UCS ankündigt, wird die CR mit der Zeit
schwächer und tritt überhaupt nicht mehr auf --> Löschung
(Extinktion): Die CR tritt in Anwesenheit des CS (und in
Abwesenheit des UCS) nicht mehr auf. --> Konditionierte
Reaktionen kein überdauernder Teil des
Verhaltensrepertoieres.
Allerdings
kann CR in schwacher Ausprägung erneut auftreten, wenn der
CS wieder allein präsentiert wird --> Spontanremission:
Das plötzliche Wiederauftreten der CR nach einer Pause, in
welcher der UCS nicht dargeboten wurde.
Ersparnis:
Nach dem ersten Lernen nimmt das Wiedererlernen weniger Zeit in
Anspruch. Beim Organismus kann etwas der ursprünglichen
Konditionierung behalten worden sein, trotz experimenteller Löschung
--> Löschung hat die Leistung vermindert, das
ursprünglich Gelernte nicht völlig aufgehoben. -->
Unterschied zwischen Lernen und Leistung!
Reizgeneralisierung
Wenn
eine CR auf einen spezifischen CS hin konditioniert wurde,
dann können auch ähnliche Stimuli die Reaktion auslösen -->
Beispiel: Ursprünglicher Ton mit hoher Frequenz, jedoch wird die CR
auch durch tieferen Ton ausgelöst.
Reizgeneralisierung:
Automatische Erweiterung der Reaktion auf Stimuli, die nie
mit dem Ursprünglichen UCS gepaart wurden. Je ähnlicher der neue
Reiz dem ursprünglichen CS ist, desto stärker wird die Reaktion
ausfallen.
Wenn
die Reaktionsstärken für Serien von Reizen bestimmt, die
entlang einer Dimension unähnlicher werden, so erhält man
Generalisierungsgradienten
Da
wichtige Stimuli in der Natur selten in exakt der gleichen
Form auftreten baut die Reizgeneralisierung einen
Sicherunsfaktor für Ähnliches ein, indem hierdurch der
Bereich des Lernens über die ursprüngliche spezifische Erfahrung
hinaus ausgedehnt wird --> Neue, jedoch vergleichbare
Ereignisse können als bedeutungsgleich erkannt werden.
Reizdiskrimination
Unter
manchen Umständen ist es wichtig, dass eine Reaktion ausschließlich
auf eine kleine Bandbreite von Reizen erfolgt (Tiere).
Reizdiskrimination: Ein Organismus lernt, auf verschiedene
Reize, die sich von dem CS entlang einer Dimension unterscheiden,
unterschiedlich zu reagieren. (Beispiel: Farbstufen, oder
Tonhöhen)
Reizdiskrimination
kann durch Diskriminationstraining geschärft werden, indem
nur einer der Reize den UCS ankündigt. Im Laufe des
Trainings werden die Reaktionen auf andere, unähnliche Reize
schwächer.
Damit
ein Organismus optimal in seiner Umwelt funktioniert, müssen die
Prozesse der Generalisierung und der Diskrimination sehr gut
ausbalanciert sein. Der Organismus sollte weder überselektiv,
noch überreaktiv sein.
Klassisches
Konditionieren stellt Mechanismus dar, der es Lebewesen
ermöglicht, effizient auf die Strukturen der Umwelt zu reagieren.
6.2.3
Erwerb unter der Lupe
Pawlow:
CS und UCS müssen in enger zeitlicher Beziehung stehen -->
Diese zeitliche Beziehung wird zeitliche Kontiguität gentannt
Robert
Rescorla modifizierte Klassisches Konditionieren in den 60er
Jahren: Experimentaldesign für Hunde, mit zwei Bedingungen: Zum
einen waren Ton (CS) und elektrischer Schock (UCS) lediglich
durch Kontiguität verbunden, was Pawlows Annahmen entsprach.
Zum Anderen, sagte der Ton zuverlässig das Auftreten des Schocks
voraus.
Es
reicht also nicht aus, ass CS und UCS eine zeitliche Kontiguität
aufweisen, der CS muss zusätzlich eine zuverlässige Vorhersage
(Kontigenz) für das Auftreten des UCS erlauben, damit klassisches
Konditionien stattfindet.
Diese
Annahme ist sinnvoll, denn in natürlichen Situationen in denen
Lernen zur Anpassung an die Umwelt führt, treten Reize in
Clustern auf und nicht in klar abgegrenzten, einfachen
Einheiten wie in Laborexperimenten.
Bedingung,
die ein Reiz erfüllen muss, um als Grundlage für eine klassische
Konditionierung zu dienen: Er muss in der Umwelt informativ
sein. Das Erfordernis der Information erklärt, warum Konditonierung
dann am schnellsten erfolgt, wenn der CS sich deutlich von
allen anderen Reizen abhebt. --> Stimulus wird eher bemerkt,
wenn er intensiver ist und sich mehr von anderen Stimuli abhebt.
Ein
neutraler Stimulus wird nur dann ein effektiver CS,
wenn er sowohl angemessen kontingent, wie auch
informativ ist.
6.2.4
Klassisches Konditionieren: Anwendungen
Emotionen und
Vorlieben
Starke
emotionale Reaktion oder starke Vorliebe als ein Ergebnis
klassischer Konditionierung?
Da
klassisch konditionierte Reatkionen nicht durch bewusstes Denken
aufgebaut werden, sind sie auch sehr schwer durch bewusstes
Denken zu eliminieren.
Das
am besten untersuchte Alltagsergebnis des klassischen
Konditionierens ist die Furchtkonditionierung. John
Watsons Annahme, dass viele Furchreaktionen als eine Paarung eines
neutralen Stimulus mit etwas natürlicherweise Furchtauslösendem
verstanden werden können.
Experiment:
Der kleine Albert:Training, Angst vor einer weißen Ratte zu
haben, die er ursprünglich gerne mochte, inem sie das Erscheinen
der Ratte mit aversiven UCS paarten (lautes Geräusch) -->
Die unkonditionierte Schreckreaktion und der emotionale Stress,
bildeten die Basis für das Lernen der Furchtreaktion. Albert
lernte vor gefürchtetem Stimulus zu fliehen --> emotionale
Konditionierung wird zur Verhaltenskonditionierung (heute nicht
mehr ethisch vertretbar)
Angstkonditionierung
hat einen starken Einfluss. Einziges traumatisches Ereignis
kann dazu führen, dass man stark körperlich, emotional und
kognitiv reagiert (vielleicht ein ganzes Leben lang)
Auch
Reaktionen der Freude sind Beispiele von klassischer
Konditionierung
--> Beispiel: Die Werbebranche will im
Denken potenzieller Käufer Assoziationen zwischen ihren Produkten
und Leidenschaft herzustellen --> Die Erwartung, dass Elemente
der Werbung als UCS dienen, um die UCR auszulösen
(Gefühl/Leidenschaft) --> Hoffnung besteht darin, dass das
Produkt zum CS wird.
Drogenabhängigkeit
und Lernen
Beispiel:
Drogenabhängiger wird leblos aufgefunden. Vermutung Überdosis.
Jedoch ist die Dosis geringer, als die alltägliche Dosis des
Mannes. Wie kann ein Drogenabhängiger mit hoher Drogentoleranz in
diesem Falle an Überdosis sterben?
Pawlow
1927 und später Kollege Bykov 1957: es kann sich eine
Toleranz gegenüber Opiaten herausbilden kann, wenn die
pharmakologische Wirkung antizipiert wird.
Herausarbeitung
dieser Idee von Shepard Siegel mit der Annahme, dass das
Setting, in dem der Konsum stattfindet, als
konditionierter Stimulus für eine Situation dient, in
welcher der Körper sich zu schützen lernt, indem er
verhindert, dass die Droge ihre übliche Wirkung entwickelt.
Droge (UCS) erzeugt bestimmte physiologische Reaktion auf
die der Körper mit Gegenmaßnahmen reagiert, um wieder
Homöostase herzustellen. Die Gegenmaßnahmen bilden die
UCR.
Die
sogenannte kompensatorische Reaktion wird mit der Zeit zu der
CR.
Das
heißt, dass sich der Körper in Settings, die gewohnheitsmäßig
mit Drogenkonsum (CS) assoziiert sind, physiologisch auf die
erwarteten Effekte der Droge vorbereitet (CR)
Toleranz
entsteht nun dadurch, dass der Konsument in diesem Setting
jene Menge konsumieren muss, die die kompensatorische Reaktion
übersteigt. Nur so entsteht der "positive" Effekt.
--> Die Dosis muss immer mehr gesteigert werden, da die
konditionierte kompensatorische Reaktion selbst anwächst.
Experiment:
Ablauf der Konditionierung: Ratten erwarten in bestimmtem Setting
(CS) eine Heroininjektion (UCS) oder eine Zuckerlösunginjektion
(UCS) --> Toleranzentwicklung bei Heroin. --> Bei
Veränderung des Settings starben doppelt so viele Ratten.
-->
Jene Ratten waren im üblichen Setting besser auf die potenziell
gefährliche Situation vorbereitet, da der Kontext (CS) eine
physiologische Reaktion (CR) hervorrief, die der typischen Wirkung
der Drogen entgegenlief.
Befragung
bei Heroinabhängigen: Kritischer Schuss der zu Überdosis führte
in neuem Setting, einer nicht vertrauten Umgebung/Situation.
Eine
Dosis, für die ein Abhängiger in einem bestimmten Setting eine
Toleranz entwickelt hat, kann zu einer Überdosis in einem nicht
vertrauten Setting werden.
Das
klassische Konditionieren gilt als wichtige Komponente für viele
Drogen (inkl. Alkohol) --> Hilfe bei der Erklärung der
Mechanismen von Drogenabhängigkeit.
6.2.5 Biologische
Einschränkungen
Lernen
von Geschmacksaversionen: die genetische Möglichkeit,
Nahrung nur zu probieren und zu lernen, welche Nahrung sicher und
welche giftig ist. Ein sehr wichtiger Mechanismus, der einen großen
Wert für das Überleben erbringen kann.
Sie
wird durch eine einzige Paarung eines CS (der neue Geschmack)
und seiner Konsequenzen (Ergebnis des zugrunde liegenden UCS,
das Element, das die Erkrankung auslöst) erlernt. Dies gilt sogar
für große Intervalle,etwa 12 Stunden & mehr zwischen
Substanzaufnahme und Erkrankung. Die Assoziation bleibt schon
nach einer enzigen Erfahrung enthalten, da dieser Mechanismus zum
Überleben beiträgt.
John
Garcia (Psychologe, der das Lernen von Geschmacksaversionen
nachwies) & Kollege Robert Koelling zeigten, dass Tiere
eine biologische Pädisposition zum Lernen bestimmter
Assoziationen besitzen
-->Einige CS-UCS-Kombinationen
können bei bestimmten Tierspezies klassisch konditioniert
werden, andere Kombinationen jedoch nicht.
Resultat
eines Experiments an Ratten & Trinkverhalten: Starke Reduktion
des Trinkens, bei der Assoziation Geschmack mit Krankheit / Lärm
und Licht mit Schmerzen --> Geschmack sowie Lärm und Licht sind
nun als konditionierte Stimuli wirksam - Ergebnis: Angeborene
Neigung der Ratten, bestimmte Stimuli mit gewissen Folgen zu
assoziieren.
Geschmacksaversionen
in der Anwendung --> Beispiel: Der Versuch Kojoten davon
abzubringen, Schafe zu reißen, indem man die Schafe vergiftete -->
Erfolg nach einmaliger Krankheitserfahrung
Klassische
Studie: Das Paaren neuer Geschmacksrichtungen mit Substanzen,
durch die sich Ratten krank fühlten. Miteinbeziehen auch andere
Aspekte wie die Temperatur der Nahrung, die konditionierte
Aversionen herveiführen --> Nahrung verfügt sowohl über
Geschmack als auch Temperatur. Wenn eine Krankheit mit einer der
beiden Dimensionen in Verbindung gebracht wird, erlernen Ratten
schnell konditionierte Aversionen
6.3
Operantes Konditionieren: Lernen von Konsequenzen
6.3.1
Das Gesetz des Effektes
Edward
L. Thorndike: (1847-1949) Beobachtung von Katzen beim Versuch
aus einer Puzzlebox herauszukommen. Art des Lernens: Durch
impulsive Handlung, wird eine Tür geöffnet. Der erfolgreiche
Impuls wurde durch die resultierende Freude eingeprägt.
Annahme
der Reiz-Reaktions-Verbindung (S-R-Verbindung / stimulus-response
connection) --> Lernen sei eine Verbindung zwischen
Reizen der Situation und Reaktionen, die erlernt wurden. Das Lernen
einer angemessenen Reaktion, die in einer bestimmten
Stimulusumgebung zu dem gewünschten Ergebnis führt
Das
Lernen der S-R-Verbindung erfolgte allmählich und automatisch
auf mechanistische Weise, da das Tier die Konsequenzen seiner
Handlungen auf der Grundlage von Versuch und Irrtum erfuhr -->
Zunehmen der Verhaltensweisen, die befriedigende Konsequenzen
zeigten --> Entwicklung zu dominanten Verhaltensweisen
Dieses
Verhältnis von Verhalten und Konsequenzen als Gesetz des
Effektes: Folgt auf eine Reakton eine befriedigende
Konsequenz, so erhöhrt sich die Auftretenswahrscheinlichkeit dieser
Reaktion. Folgt eine nicht zufriedenstellende Konsequenz, so
vermindertsich die Auftretenswahrscheinlichkeit dieser
Reaktion.
6.3.2 Experimentelle Verhaltensanalyse
Forschungsprogramm
von B.F. Skinner mit der Zielsetztung, durch systematische
Variation der Reizbedingungen den Einfluss von Umweltbedingungen auf
die Auftretenswahrscheinlichkeit von Reaktionen zu untersuchen
--> Aufgabe der experimentellen Analyse liegt in der
Entdeckung jener Variablen, die auf die Wahrscheinlichkeit
einer Reaktion einwirken.
Die
Analyse des Empirikers Skinner war eher experimentell als
theoretisch, denn er bevorzugte den Bottom-up-Ansatz. Beginnt
mit der Sammlung von Daten, Beurteilung im Kontext eines Experiments
und wird nicht durch Theorien geleitet.
Zur
experimentellen Untersuchung von Verhalten, entwickelte Skinner
Methoden zum operanten Konditionieren (instrumentelles
Konditionieren): Man manipuliert die Konsequenzen des
Verhaltens, um den Effekt der Konsequenzen auf das Folgeverhalten
abzuschätzen. Als operant gilt jedes Verhalten, das von einem
Organismus gezeigt wird und das anhand seiner beobachtbaren Effekte
auf die Umwelt des Organismus beschrieben werden kann -->
Bezeichnung für die Beeinflussung der Umwelt, d.h. die
Ausführung von Operationen an der Umwelt.
Operante
Reaktionen, werden nicht durch spezifische Reize ausgelöst,
wie beim Klassischen Konditionieren
Die
Auftretenswahrscheinlichkeit von Verhaltensweisen kann durch
eine Manipulation der Effekte, die sie auf die Umwelt haben, erhöht
oder gesenkt werden --> Operantes Konditionieren verändert
somit die Wahrscheinlichkeit unterschiedlicher Arten operanten
Verhaltens als Funktion der Umweltkonsequenzen, die das
jeweilige Verhalten produziert.
Skinner-Box:
in der speziell für Ratten hergestellten Vorrichtung kann auf
einen Hebeldruck die Freigabe einer Futterpille folgen. Sie
erlaubt dem Experimentatoren, die Variablen zu untersuchen,
von denen es abhängt, ob Ratten das Verhalten, das die
Versuchsleiter definieren, lernen - oder auch nicht.
In
vielen Experimenten besteht de interessierende Messgröße darin,
in welchem Ausmaß ein Tier dieses spezielle Verhalten in einer
bestimmten Zeitspanne zeigt. Hierzu werden das Muster und die
Gesamtmenge des Verhaltens während des Verlaufs aufgezeichnet.
Durch diese Methode konnte Skinner den Effekt von Kontingenzen
bei der Verstärkung auf das Verhalten von Tieren untersuchen.
6.3.3
Kontingenzen bei der Verstärkung
Kontingenz
bei der Verstärkung: eine zuverlässige Beziehung zwischen
einer Reaktion und den dadurch hervorgerufenen Änderungen in der
Umwelt.
Beispiel:
Auf das Picken einer Taube auf eine Scheibe (Reaktion) folgt
generell die Gabe von Körnern (entsprechende Veränerung in Umwelt)
--> Diese zuverlässige Beziehung (Kontingenz) bei der
Verstärkung, wird von Zuwachs der Pickrate begleitet -->
Damit die Körnergabe ausschließlich die Wahrscheinlichkeit
des Pickens erhöht, muss diese ausschließlich kontingent zu
Pickreaktion sein --> Sie muss relgemäßig nach dieser
Reaktion erfolgen, nicht aber nach anderen
Reaktionen.
Positive Verstärker
Verstärker:
Jeder Stimulus, der - wird er kontingen zum Verhalten
dargeboten - die Wahrscheinlichkeit deses Verhaltens im Lauf der
Zeit erhöht. Als Verstärkung wird die Gabe von Verstärkern in der
Folge von gezeigten Reaktionen bezeichnet.
Verstärker
sind empirisch definiert und zwar durch den Effekt,
mit dem sich die Wahrscheinlichkeit einer Reaktion verändert
Erkennen
von 3 Klassen von Reizen im Alltag: neutrale, angenehme
und aversive (man möchte diese meiden) Reize --> Was als
angenehm oder aversiv wahrgenommen wird, ist durch das
Verhalten jedes individuellen Organismus definiert.
Positive
Verstärkung: Auf ein Verhalten erfolgt ein positiver Reiz
(Tier zeigt Reaktion, wenn Futtergabe folgt)
Negative
Verstärkung: Auf ein Verhalten folgt die Entfernung eines
aversiven Reizes. --> Wahrscheinlichkeit eines Verhaltens wird
höher, wenn dadurch etwas unangenehmes vermieden werden kann.
Es gibt zwei Arten von Lernumständen:
Fluchtkonditionierung:
Lernen, dass eine Reaktion es möglich macht, einem aversiven
Stimulus zu entkommen (Regenschirm aufspannen bei Regen)
Vermeidungskonditionierung:
Lernen von jenen Reaktionen, die es ermöglichen, aversiven
Stimuli zu entkommen, bevor diese einsetzen. (Summer, bei
fehlendem Anschnallen in Auto - man lernt sich anzugurten, um den
aversiven Lärm zu vermeiden)
Unterscheidung
zwischen positiver & negativer Verstärkung: Beide
Verstärkungen erhöhen die Wahrscheinlichkeit der Reaktion,
die zuvor erfolge. Positive Verstärkung erhöht die
Reaktionswahrscheinlichkeit durch das Auftreten eines angenehmen
Reizes in der Folge der Reaktion ; negative Verstärkung erzielt
das Gleiche, allerdings auf umgekehrte Weise. Hier wird ein
aversiver Stimulus in der Folge einer Reaktion entfernt,
reduziert & verhindert
Wenn
die Verstärkung ausbleibt, tritt operante Löschung
ein: Wenn ein Verhalten keine verhersagbaren Konsequenzen mehr
zeigt, geht es auf das Ausgangsniveau (Vor operanter
Konditionierung) zurück
Spontanremission
Das plötzliche Auftreten der konditionierten Reaktion, wenn
eine gewisse Zeit nach der anfänglichen Verhaltenslöschung
vergangen ist.
Positive
und negative Bestrafung
Bestrafungsreiz:
Jeder Stimulus, der - wird er kontingent zu einer Reaktion
dargeboten - die Wahrscheinlichkeit dieser Reaktion im Laufe der
Zeit senkt. Bestrafung ist die Gabe eines Bestrafungsreizes in der
Folge einer gezeigten Reaktion.
Bestrafung
1. Art - positive Bestrafung ("positiv" weil etwas
hinzugefügt wird): Nach dem Verhalten folgt die Verabreichung
eines aversiven Reizes - Die Reaktion wird eliminiert oder
unterdrückt.
Bestrafung
2. Art - negative Bestrafung ("negativ" weil
etwas entfernt wird) Auf das Verhalten folgt der Wegfall eines
angenehmen Reizes - Die Reaktion wird eliminiert oder
unterdrückt
Bestrafung
senkt immer die Wahrscheinlichkeit des Wiederauftretens einer
Reaktion, während Verstärkung die Wahrscheinlichkeit
des Wiederauftretens einer Reaktion erhöht
Diskriminative
Reize und Generalisierung
Manchmal
möchte man die Wahrscheinlichkeit einer Reaktion nur in einem
bestimmten Kontext ändern --> Im Zuge der Assoziation mit
Verstärkung oder Bestrafung erlangen bestimmte Reize, die einer
spezifischen Reaktion vorausgehen, die Eigenschaft den
Kontext des Verhaltens festzulegen.
Diese
Stimuli heißen diskriminative Hinweisreize: Organismen
lernen, dass ihr Verhalten in Anwesenheit bestimmter Reize,
nicht aber in Anwesenheit anderer, mit großer
Wahrscheinlichkeit einen bestimmten Effekt auf die Umwelt
zeigt.
Beispiel: Eine grüne Ampel verstärkt das Verhalten,
eine Kreuzung zu passieren. Ist die Ampel rot, wird dieses
Verhalten bestraft (Unfall, Strafzettel)
Folge
von diskriminativem Reiz,Verhalten und Konsequenz als
Dreifach-Kontingenz, die die meisten menschlichen
Verhaltensweisen erklären kann.
Unter
Laborbedingungen kann die Manipulation der Konsequenzen in
Anwesenheit diskriminativer Stimuli eine wirksame Kontrolle
auf das Verhalten ausüben (Beispiel Taube: Körner werden nach
Picken nur bei grünem Licht, dem disrkiminativem Hinweiszreiz,
gegeben, jedoch nicht bei rotem)
Organismen
lernen schnell zwischen diesen Bedingungen zu unterscheiden
und reagieren regelmäßig bei Vorliegen des einen Stimulus,
jedoch nicht bei Anwesenheit des anderen. Durch
Manipulation der Komponenten der Dreifach-Kontingenz kann
man das Verhalten auf einen bestimmten Kontext festlegen.
Generalisierung:
Organismen generalisieren auch ihre Reaktionen auf andere Reize,
die dem diskriminativem Stimulus ähnlich sind. Wurde erst
einmal eine Reaktion bei Vorliegen eines diskriminativen Reizes
verstärkt, dann kann ein ähnlicher Reiz zu einem
diskriminativem Hinweis für die gleiche Reaktion
werden
6.3.4 Nutzung von Kontingenzen bei der Verstärkung
Wie
kann man das Verhalten definieren, das man verstärken oder löschen
will?
Genaue Kenntnis des Zielverhaltens, dessen
Wahrscheinlichkeit man ändern möchte. Verstärkung muss genau
zu diesem Verhalten kontingent sein. Wenn Verstärker nicht
kontingent eingesetzt werden, haben sie nur einen geringen
Einfluss auf das Verhalten
Wie
kann man den Kontext definieren, in dem ein Verhalten angemessen
oder ungangemessen ist?
Man möchte selten eine Ausprägung von
Verhalten komplett erlauben oder verbieten. Man muss die
diskriminativen Reize definieren und
herausfinden, inwiefern, sich die gewünschte Reaktion auf ähnliche
Reize überträgt. Beispiel: Wenn ein Kind in der Schule sitzt,
wird es vielleicht auch auf andere "ernste"
Situationen übergreifen.
Unbeabsichtigte
Verstärkung: Nimmt man an, man möchte ein bestimmtes Verhalten
löschen, muss man die Verstärker für dieses Verhalten
ausmachen und diese entfernen, um das Verhalten zu
reduzieren. Beispiel: Junge hat Wutanfälle und bekommt dadurch
Aufmerksamkeit (Sekundärgewinn des ungewünschten
Verhaltens) --> Man versucht das Verhalten zu eliminieren,
indem der Verstärker entzogen wird. Besser noch: Kombination
aus Löschung und einer positiven Verstärkung sozial
erwünschter Verhaltensweisen.
Verstärker
bei der Erziehung
Elternforschung:
Unwissentliche Verstärkung als eine Ursache ernsthafter
Verhaltensprobleme bei Kindern.
Gerald
Patterson: Modell der Nötigung (coercionmodel) für
antisoziales bestraflich oder hartes Verhalten --> Kinder gelten
als gefährdend, wenn Eltern als Reaktion auf kleinere
Fehlverhaltensweisen Drohungen aussprechen, ohne sie wahr
zu machen. Dann werden Kinder allerdings plötzlich stark bestraft.
Modell
der Nötigung geht davon aus, dass der Versuch von Eltern, mit
Bestrafung auf das Verhalten der Kinder einzuwirken, zumeist
ineffektiv ist
Die
Kinder lernen, dass relativ starkes aggressives und nötigendes
Verhalten notwendig und angemessen ist, um ein Ziel zu
erreichen (Zyklus steigender Intensität des antisozialen
Verhaltens der Kinder)
Es
wird von Bestrafung abgeraten: Physische Bestrafung hat
negative Folgen - Beispiel: Studie zum Zusammenhang von
phyisischer Bestrafung und Verhaltensproblemen mit dem Ergebnis:
je mehr physische Gewalt, desto aggressiver das spätere Verhalten.
Positive
Verstärkung besser als Bestrafung, denn unerwünschte
Verhaltensweisen können vollständig unterdrückt werden,
wenn man alternatives und inkompatibles Verhalten verstärkt.
- Kinder darin zu verstärken, positives Verhalten zu zeigen,
ist auf lange Sicht dem Bestrafen von unerwünschtem Verhalten weit
überlegen
"Timeouts"
als andere Strategie, das Verhalten von Kindern zu ändern
Es
gibt oft aus einer Kombination von Verstärkung und Bestrafung
- Beispiel: Eltern wenden Bestrafung 2. Art an: Hausarrest -
Teenager wendet "Strafabmilderungsverfahren"
(Hilfsbereitschaft) und Hausarrest wird verkürzt - Hilfsbereites
Verhalten wurde negativ verstärkt, weil die Hilfe zur Entfernung
des aversiven Stimulus "Hausarrest" geführt hat. Bei
erneutem Hausarrest (diskriminativer Hinweisreiz) wird das
hilfsbereite Verhalten wahrscheinlicher einsetzen
6.3.5
Verstärkereigenschaften
Verstärker
verändern Verhalten, halten es aufrecht und besitzten
komplexe Eigenschaften. Sie können auch durch Erfahrung
gelernt werden, statt biologisch determiniert zu sein und sie können
aus Aktivitäten statt aus Objekten bestehen.
Konditionierte
Verstärker
Primäre
Verstärker: beispielsweise Nahrung
oder Wasser, deren Verstärkereigenschaften biologisch
determiniert sind
Konditionierte
Verstärker (sekundäre Verstärker): neutrale Stimuli wurden
mit der Zeit durch Assoziation mit primären Verstärkern zu
konditionierten Verstärkern, die nun für die Verstärkung
operanter Reaktionen zur Verfügung stehen.
Jeder
Reiz kann durch Assoziation mit einem primären Verstärker
zu einem konditionierten Verstärker werden.
Ein
großer Teil des menschlichen Verhaltens ist durch eine Vielzahl
konditionierter Verstärker bestimmt (Geld, Noten,Statussymbole)
Aus
der Forschung: Schimpansen wurden mithilfe von Rosinen als
primäre Verstärker trainiert, Probleme zu lösen -->
Anschließend wurden Tokens zusammen mit Rosinen gegeben -->
Als dann ausschließlich Tokens gegeben wurden, arbeiteten die
Schimpansen weiter für "ihr Geld", da sie diese
später in einem Automaten gegen Rosinen tauschten
Konditionierte
Verstärker sind wirksamer und leichter zu handhaben
als primäre Verstärker. Beispiel Schule: (1) Nur
wenige Primäre Verstärker sind während des Unterrichts
verfügbar, während jeder Stimulus, der sich unter Kontrolle
des Lehrers befindet, ein konditionierter Verstärker sein kann
(2) Man kann sie schnell geben (3) Sie sind
transportabel (4) der Verstärkereffekt kann
schneller zum Tragen kommen, da Wirkung nur von der Wahrnehmung
abhängt, den Verstärker bekommen zu haben
Beispiel:
Nutzung des Tokensystems in psychatrischen Kliniken oder
Entzugseinrichtungen --> Explizit erwünschtes Verhalten
(Körperpflege) wird definiert und die Patienten bekommen
Tokens, wenn das Verhalten gezeigt wird (Späterer Tausch
gegen Priviliegien) - --> Besonders effektiv, um die Häufigkeit
positiver sozialer Interaktionen zu erhöhen.
Reaktionsentzug
und positive Verstärker
Theorie
des Reaktionsentzugs (response deprivation theory): Verhaltensweisen
werden dann bevorzugt und daher verstärkend, wenn ein Organismus
daran gehindert wird, sie auszuüben. Beispiel: Kind wird
Videospiel weggenommen, weil er Hausaufgaben machen muss - Um die
Deprivation zu überwinden,wird das Kind Hausaufgaben machen.
Dieselbe
Aktivität kann nicht für jeden Organismus immer als Verstärker
funktionieren. Man muss z.B. wissen, ob dem Organismus die
Nahrung entzogen wurde, bevor man versucht, Futter als Verstärker
einzusetzen.
Praktisch
jede Aktivitität kann als Verstärker wirken, denn
Deprivation kann man bei allem erfahren.
6.3.6
Verstärkerpläne
Geschichte
von B.F.Skinner: Zu wenig Futter für Rattenexperimente - Sparen des
Futters dadurch, dass Ratten nur nach einem gewissen Zeitintervall
Futterpillen bekamen, ganz egal wie oft sie den Hebel drückten.
Trotz
dieses Verfahrens partieller Verstärkung, reagierten die
Ratten genau so wie bei kontinuierlicher Verstärkung - Reaktion
in einer Extinktionsphase ohne jegliches Futter: Ratten mit
partieller Verstärkung reagierten länger, als die unter
kontinuierlicher.
Effekt
partieller Verstärkung: Reaktionen, die unter Plänen
partieller Verstärkung erworben wurden, sind löschungsresistenter
als Reaktionen,die unterkontinuierlichen Verstärkerplänen erworben
wurden
Entdeckung
der Wirksamkeit partieller Verstärkung führte zur Forschung der
Verstärkerpläne: Im Alltag/Labor werden Verstärker entweder nach
einem Quotenplan (ratio schedule) oder nach einem
Intervallplan (interval schedule) gegeben. Beim Quotenlan
erfolgt die Verstärkung nach einer bestimmten Anzahl von
Reaktionen, bei einem Intervallplan nach einem
bestimmten Zeitintervall auf die erste Reaktion hin.
In
beiden Fällen kann das Muster der Verstärkung entweder konstant
und somit fixiert oder unregelmäßig und somit variabel
sein.
Fixierte Quotenpläne (FR - fixed ratio
schedules)
Die
Verstärkung erfolgt, nachdem der Organismus eine festgelegte
Zahl von Reaktionen zeigte. FR-1-Plan: auf jede Reaktion
erfolgt eine Verstärkung (das ist der ursprüngliche Plan
kontinuierlicher Verstärkung), Bei FR-25-Plan: bei jeder 25.
Reaktion
Sie
produzieren eine hohe Auftretenswahrscheinlichkeit von
Reaktionen, da eine unmittelbare Korrelation zwischen
Reaktionen und Verstärkung besteht.
Auf
jeden Verstärker erfolgt eine Pause: Je größer der
Quotient ist, desto länger die Pause
Wenn
das Verhältnis der Verstärkung allerdings zu mager ist,
ohne dass das Tier darauf trainiert wurde, so viele Reaktionen zu
prodzieren, kann das in Löschung münden.
Variable
Quotenpläne (VR - variable ration schedule)
Die
mittlere Anzahl von Reaktionen zwischen den Verstärkern ist im
Vornhinein festgelegt. Ein VR-10-Plan bedeutet, dass im
Mittelwert eine Verstärkung auf jede 10. Reaktion erfolgt
(sie kann daher manchmal auf die 1. Reaktion aber auch erst auf die
20. Reaktion erfolgen.
VR-Pläne
lassen die Menschen im Unklaren, wann die Belohnung gegeben
wird.
VR-Pläne
produzieren die höchste Reaktionsrate und den größten
Löschungswiderstand, insbesondere wenn der VR-Wert groß ist.
Beispiel:
Glücksspiel unter Kontrolle von VR-Plänen: Reaktion (Münzen
einzahlen) wird auf einem hohen konstanten Niveau durch die
Gewinnauszahlungen aufrechterhalten, die nur nach einer variablen
Anzahl von Reaktionen (Münzeinwürfen) erfolgen.
Fixierte Intervallpläne (FI - fixed interval schedule)
Verstärkung
erfolgt auf die erste Reaktion nach einem bestimmten
Zeitintervall. Unter einem FI-10-Plan muss der Proband
nach einer Verstärkung 10 Sekunden warten, bevor eine
weitere Reaktion verstärkt werden kann - unabhängig von der
Anzahl dazwischenligender Reaktionen.
Unmittelbar
nach der Verstärkung zeigt das Tier nur wenige Reaktionen, wenn
die Zeit der Belohnung näher rückt, nimmt die Reaktionsrate immer
mehr zu.
Reaktionsraten
unter FI-Plänen formen ein Bogenmuster
Variable
Intervallpläne (VI- variable interval Schedule)
Ein
mittleres Zeitinervall wird festgelegt. In einem VI-20-Plan
wird im Mittelwert ein Verstärker pro 20 Sekunden gegeben.
Ein
VR-Plan produziert eine mäßige, aber sehr stabile
Verhaltensrate
Löschung
erfolgt allmählich und langsamer als unter fixierten
Intervallplänen
6.3.7 Shaping
Beispiel
Skinner-Box: Auch das Verhalten einen Hebel zu drücken ist ein
gelerntes Verhalten der Ratte
Shaping
durch schrittweise Annäherung: Eine Methode um neues oder
komplexes Verhalten zu trainieren - Alle Reaktionen werden
verstärkt, die sich der gewünschten Reaktion schrittweise
annähern und schließlich mit ihr übereinstimmen
Anwendung:
Futterentzug der Ratten für einen Tag (Ohne Deprivation ist Futter
kein Verstärker) - Darstellung des Futters in Spender (Ratte lernt
dort nach Futter zu suchen) - Nun wird die Futtergabe kontingent auf
bestimmte Aspekte des Verhaltens festgelegt (Ausrichtung zum Hebel -
Futter) - Jede Annäherung wird belohnt.
Damit
Shaping erfolgreich wird, muss definiert werden, werlches
Verhalten als Fortschritt in Richtung Zielverhalten gilt. Es
muss differenzielle Verstärkung eingesetzt werden, um jeden
Schritt zu verbessern.
Aus
der Forschung: Stabhochspringer strebte die Höhe an, die seinem
physisches Potenzial entsprach an. Schrittweise wurde durch
Lichtschranke & Signalton (konditionierter Verstärker) die
Höhe erreicht - Durch die Shaping-Prozedur konnt er dieses
Ziel durch allmähliche Annäherung erreichen
6.3.8
Biologische Einschränkungen
Annahme,
dass Lernprozesse bei allen Tieren übereinstimmend sind
(Übereinstimmungen bei verschiedenen Spezies) --> Forscher
kamen jedoch zum Verständnis, dass Lernen durch die biologischen
und kognitiven Fähigkeiten individueller Spezies modifiziert wird.
Keller
& Marion Breland: Untersuchung von Tieren unterschiedlicher
Spezies mithilfe der operanten Konditionierung - Annahme, dass
in der Laborforschung entwickelte allgemeine
Lernprinzipien im Hinblick auf jede Art von Reaktion und
Belohnung dirket auch zur Kontrolle von Verhalten bei Tieren
außerhalb des Labors angewendet werden kann.
Beobachtung:
Schlechtes Benehmen nahm mit der Zeit zu - Überzeugung, dass
auch wenn Tiere gelernt hatten operante Reaktionen perfekt
auszuführen, sich mit der Zeit das gelernte Verhalten in Richtung
instinktives verhalten verschiebt - Instinktverschiebung!
Durch
Instinktverschiebung wurde belegt, dass sich nicht alle Aspekte
des Lernens unter der Kontrolle von Verstärkern des Experimentators
befinden - Verhaltensweisen können in Abhängigkeit von den
normalen, genetisch programmierten Reaktionen des Tieres in seiner
Umwelt mehr oder weniger leicht verändert werden.
Konditionierung
ist dann besonders effektiv, wenn man das Zielverhalten als
biologisch relevant einbetten kann.
7.1.1
Funktionen des Gedächtnisses
Allgemein:
Das Gedächtnis ermöglicht es uns, Informationen zu
entschlüsseln, zu speichern und abzurufen - Eine Form der
Informationsverarbeitung
Wichte
Funktion des Gedächtnisses: Einen bewussten Zugang zur eigenen
und zur kollektiven Vergangenheit zu ermöglichen. Es erlaubt
mühelos Kontinuität der Erfahrungen von einem Tag zum nächsten
herzustellen - dies geschieht oft außerhalb der bewussten
Wahrnehmung
Implizites und explizites Gedächtnis
Sobald
man eine bewusste Anstrengung vollbringt, um eine Information
zu entschlüsseln oder abzurufen, handelt es sich um einen
expliziten Zugriff auf das Gedächtnis (Information wird ohne
bewusste Anstrengung verfügbar)
Wenn
man Informationen entschlüsselt oder abruft, ohne bewusste
Bemühung, wird das als impliziter Zugriff auf das Gedächtnis
bezeichnet (bewusste Anstrengung, um Information wieder
herzustellen)
Bei
der erstmaligen Aneignung von Gedächtnisinhalten: Ein
Großteil des Wissens wird ohne bewusste Anstrengung erworben.
Im Gegensatz werden dazu beispielsweise Bezeichnungen von Objekten
als Kind durch explizite Gedächtnisprozesse gelernt.
Die
meisten Umstände, unter denen man Informationen enkodiert oder
abruft ist eine Mischung
aus implizitem und explizitem Gebrauch des
Gedächtnisses
Deklaratives und prozedurales Gedächtnis
Deklaratives
Gedächtnis: Das Erinnern von Fakten und Ereignissen
Prozedurales
Gedächtnis: das Erinnern, wie Dinge getan werden. Durch
Übung ist man in der Lage, prozedurale Erinnerungen zu
erlernen, zu behalten und anzuwenden, um perzeptuelle,
kognitive und motorische Fertigkeiten zu entwickeln.
Theorien
zum prozeduralen Gedächtnis: Beschäftigt sich damit, wie viel
Übung und Zeit man braucht mit der Frage, wie man von einer
bewussten Liste von Fakten über eine Tätigkeit ,zu einer
unbewussten, automatischen Ausführung der Tätigkeit gelangt.
Schwierigkeit, über die beteiligten deklarativen Fakten zu
sprechen, nachdem eine Fertigkeit erlernt wurde
Beispiel:
Das Lernen einer Telefonnummer, die zuerst aus einer Menge
deklarativer Fakten bestand und letztendlich als Einheit
ausgeführt werden kann
production
compliation: die mentalen Anweisungen, aus denen eigene
Handlungen hervorgehen, werden zusammengefügt - Durch Übung
kann man längere Handlungssequenzen ausführen, ohne
dass das Bewusstsein eingreift oder sich man anstrengen muss.
Man
hat keinen bewussten Zugang zum Inhalt dieser
zusammengefügten Einheiten - die production compilation
macht es schwierig, das prozedurale Wissen mit anderen zu teilen.
Außerdem kann sie zu Fehlern führen (sch, auf dem Computer)
Ohne
prozedurales Gedächtnis wäre das Leben extrem anstrengend -
jede Tätigkeit müsste Schritt für Schritt durchgegangen
werden.
7.1.2 Überblick über Gedächtnisprozesse
Um
Wissen später nutzen zu können, sind drei mentale Prozesse
vonnöten:
Enkodierung:
Der erste Informationsverarbeitungsprozess, der zu einer
Repräsentation im Gedächtnis führt. Speicherung: das
Aufrechterhalten von enkodierter Information über eine gewisse
Zeitspanne hinweg. Abruf: die Wiedergewinnung
gespeicherter Informationen zu einem späteren Zeitpunkt.
Enkodierung:
Sie erfordert die Bildung mentaler Repräsentationen der
Information aus der externen Welt. Sie bewahren die wichtigsten
Eigenschaften vergangener Erfahrungen, um es möglich zu machen,
diese sich selbst zu repräsentieren.
Speicherung:
Wenn Informationen korrekt enkodiert wurden, werden sie im
Speicher über eine gewisse Zeitspanne hinweg aufrechterhalten.
Speicherung erfordert sowohl kurzzeitige als auch langzeitige
Veränderungen in Gehirnstrukturen.
Abruf:
Gelingt der Abruf, so hat man - oftmals im Bruchteil einer Sekunde -
Zugang zu Informationen, die zovor gespeichert waren.
Herausforderung
für die Forschung: Herauszufinden, wie man in der Lage dazu ist,
aus der riesigen Informationsmenge eine ganz spezielle
Informationseinheit abzurufen.
Die
Interaktion der drei Gedächtnisprozesse ist sehr komplex: Um
beispielsweise die Information zu enkodieren, dass man einen
Tiger gesehen hat, muss man zunächst die Informationen über das
Konzept Tiger aus dem Gedächtnis abrufen /
-->
Enkodierung der Bedeutung von Sätzen: Bedeutungen jedes
einzelnen Wortes müssen abgerufen werden, genauso wie grammatische
Regeln, sowie Informationen zum Inhalt des Satzes, z.B Kultur.
7.2.1
Ikonisches Gedächtnis
Beim
Versuch sich an ein Bild zu erinnern, bekommt man einen kurzen
"Extrablick" auf das zuvor Gesehene
Dies
wird durch das ikonische Gedächtnis ermöglicht: einem
Gedächtnissystem im visuellen Bereich, das große
Informationsmengen für sehr kurze Zeiträume speichern kann.
Ein
visueller Gedächtnisinhalt besitzt eine Lebensdauer von etwa
einer halben Sekunde.
Sensorische
Erinnerungen: Annahme von Forschern, dass jedes Sinnessystem
über einen Gedächtnisspeicher verfügt, der
Repräsentationen physischer Merkmale von Stimuli in der Umgebung
für einen sehr kurzen Zeitraum(höchstens einige Sekunden)
abspeichert.
Aus
der Forschung (Sperling) :Durch die Methode des
Ganzberichts/Teilberichts wurde das Erinnern von Items
untersucht - Die Probanden der Teilberichtsmethode konnten
durch einen Ton als Hinweisreiz & "Extrablick" des
ikonischen Gedächtnisses alle Items korrekt widergeben --> alle
Informationen mussten in das ikonische Gedächtnis gelangt sein
(Beleg für die große Kapazität des ikonischen
Gedächtnisses)
Der
Unterschied zwischen der Ganzberichtsmethode und der
Teilberichtsmethode legt nahe, dass Informationen rasch
verblassen: Ganzberichtsmethode liefert schlechtere Ergebnisse.
Dies wird auch durch Experimente erhärtet, in denen das
Identifikationssignal verzögert dargeboten wurde -->
zunehmendes Verzögerungsintervall - Stetiger Fall der Anzahl
korrekt berichteter Items.
Um
vonn dem "Extrablick" auf die visuelle Welt profitieren zu
können, müssen die Gedächtnisprozesse sehr schnell
Informationen in haltbare Speicher übertragen.
Das
ikonische Gedächtnis entspricht nicht dem "fotografischen
Gedächtnis" bzw, der eiditischen Vorstellungskraft:
Menschen können sich an Details aus Bildern über eine sehr viel
längere Zeitspanne hinweg erinnnern, als es durch das ikonische
Gedächtnis möglich wäre. Kinder haben diese Vorstellungskraft
viel eher, als Erwachsene - Sie nimmt mit dem Alter ab.
7.2.2
Kurzzeitgedächtnis
das
Kurzzeitgedächtnis (KZG / STM - short term-memory)
ist ein eingebatuer Mechanismus, der die kognitiven Ressourcen
auf eine kleine Menge mentaler Repräsetnationen hin bündelt.
Diese Ressourcen sind allerdings flüchtig - man muss deshalb
Sorgfalt walten lassen, um sicherzustellen, dass die
Gedächtnisinhalte in einer stärker überdauernden Form
enkodiert werden.
Kapazitätsbeschränkungen
des Kurzzeitgedächtnisses
Es
gibt Beschränkungen der Fähigkeit, mehr als eine kleine
Auswahl von Informationen im Kurzzeitgedächtnis aktiv zu halten.
Die beschränkte Kapazität zwingt zu einer scharfen Bündelung
der Aufmerksamkeit.
Um
die Kapazität des KZG zu schätzen, wurde zuerst die
Gedächtnisspanne bestimmt.
Beispiel:
Zufallslisten - George Miller (1956) schlug die Zahl 7
(plus minus zwei) als "magische Zahl" für die
Gedächtnisleistung von Menschen vor, wenn sie sich Zufallsfolgen
merken sollten (bestehend aus bedeutungshaltigen und vertrauten
Material: Zahlen, Buchstaben, Wörtern)
Diese
Tests zur Gedächtnisspanne überschätzen jedoch die wahre
Gedächtnisspanne, da die Probanden andere Informationsquellen
nutzen können, um die Aufgabe auszuführen. - Das KZG trägt
nicht mehr als drei bis 5 Items zu den etwas 7 ihrer
Gedächtnisspanne bei.
Trotz
der Kapazitätsgrenzen des KZG erinnert man sich effizient: durch
Rehearsal und Chunking kann das Enkodieren von Information im KZG
verbessert werden
Rehearsal
Eine
Mnemotechnik, die als erhaltende Wiederholung bezeichnet
wird
Erhaltende
Wiederholung hilft, die Informationen vor einem Verblassen im
Kurzzeitgedächtnis zu bewahren.
Aus
der Forschung: Wiedergeben von Konsonanten - Um erhaltende
Wiederholung zu verhindern wurde eine Distraktoraufgabe zwischen
dem Reizinput und dem Abrufsignal eingefügt - Die
Abrufleistung sank mit zunehmender Zeitspanne, für welche die
Informationen behalten werden sollten.
Abrufleistung
ist durch die fehlende Wiederholung aber auch durch
konkurierrende Informationen aus der Distraktoraufgabe gesunken.
(Beispiel Namen merken)
Chunking
Chunk:
Eine bedeutungsvolle Informationseinheit. (einzelner
Buchstabe, Zahl, Buchstabenfolge, Folge von Items, Folge von
Wörtern, Sätze)
Chunking:
ein Prozess der Rekonfiguration von Items, indem sie auf der
Basis von Ähnlichkeit oder anderen Organisationsprinzipien
gruppiert werden. Oder sie werden zu größeren Mustern kombiniert
auf der Basis von Informationen, die Im Langzeitgedächtnis
gespeichert sind
Beispiel:
Folge 1-9-8-4 besteht aus 4 Ziffern, welche die Kapazität des KZG
aufbrauchen könnten - Wenn man die Folge jedoch als Jahreszahl
ansieht, bildet sich lediglich ein Chunk --> Es bleibt
mehr Kapazität für andere Chunks von Informationen
Die
Gedächtnisspanne kann immer deutlich vergrößert werden,
wenn eine große Informationsmenge in Chunks geringerer Zahl
organisiert
Möglichkeiten
des Chunkings: Strukturierung der Informationen, indem ihnen
persönliche Bedeutung zugeordnet wird, oder die Verbindung
neuer Stimuli mit Kodes, die im Langzeitgedächtnis gespeichert
sind, Verbindung mit Regeln, oder das Bilden von
rythmischen Mustern oder zeitliche Gruppierung
7.2.3
Arbeitsgedächtnis
Die
Gedächtnisressourcen zum Faktenlernen reichen nicht aus, um
von Augenblick zu Augenblick ein Gefühl von Kontinuität zu
erzeugen - man muss auch in der Lage sein, bereits bestehende
Gedächtnisinhalte wiederzufinden --> Entwicklung von
Theorien des Arbeitsgedächtnisses, die benötigten
Gedächtnisfunktionen, um sich im Leben zurecht zu finden
Das
Arbeitsgedächtnis als jene Gedächtnisressource, die wir
für Aufgaben wie Schlussfolgern und Sprachverstehen nutzen - Es
stellt eine Grundlage für den Fluss der Gedanken und Handlungen von
Moment zu Moment bereit.
Das
AG hilft, die psychologische Gegenwart aufrechtzuerhalten und
gibt den Kontext für neue Ereignisse vor und verbindet getrennte
Episoden zu einer zusammenhängenden Geschichte, auch hilft es
Repräsentationen einer wechselnden Situation ständig zu
aktualisieren, um somit z.B einem Gespräch zu folgen.
Das
AG dient als Pipeline für Informationen von und zum
Langzeitdedächtnis
Alan
Baddeley (2002/2003) - Nachweis von 4 Komponenten des
Arbeitsgedächtnisses
Eine
phonologische Schleife (phonological loop) - Diese Ressource
speichert und manipuliert sprachbasierte Informationen. Sie
weist große Überschneidungen mit dem Kurzzeitgedächtnis
auf (Beispiel Telefonnummer merken durch "Hören" der
Ziffern)
Einen
visuell-räumlichen Notizblock (visuospatial scetchpad ) - Diese
Ressource führt die gleichen Funktionen aus wie die phonolgische
Schleife, allerdings für visuelle und räumliche
Informationen
Die
zentrale Exekutive: (central executive) - Diese Ressource ist
für die Kontrolle der Aufmerksamkeit verantwortlich sowie für
die Koordination von Informationen aus der phonologischen Schleife
und dem visuell-räumlichen Notizblock - Immer wenn man eine
Aufgabe ausführen soll, die eine Kombination mentaler Prozesse
erfordert, dann verteilt die zentrale Exekutive die mentalen
Ressourcen auf die verschiedenen Aspekte der Aufgabe
Der
episodische Puffer, ist ein von der zentralen Exekutive
kontrolliertes System mit begrenzter Kapazität. Er ermöglicht es,
Informationen aus dem Langzeitgedächtnis abzurufen und diese mit
gegenwärtigen Informationen zu kombinieren. ( Beispiel:
Verbindung von Ereignissen mit best. Geräuschen) Der episodische
Puffer stellt Ressourcen zur Verfügung, um diese verschiedenen
Arten perzeptueller Stimuliereung mit zurückliegenden Erfahrungen
abzugleichen. Somit gelangt er zu einer integrierten
Interpretation einer jeden Situation.
Um
Aufgaben der Kognition (Sprachverarbeitung/Problemlösen)
gerecht zu werden, müssen verschiedene Elemente in schneller
Abfolge zusammengebracht werden --> AG wird gebraucht!
Denn
das AG gilt als kurzfristige, spezifische Fokussierung auf
die benötigten Elemente - Es richtet ein helleres mentales Licht
auf die Gedächtnisrepräsentationen. Das AG koordiniert die
notwendigen Aktivitäten, um mit den Gedächtnisrepräsentationen
umzugehen.
Aus
der Forschung: Gruppe, die vor einer Prüfung ihre Ängste
niederschreibt, hat besseres Ergebnis, als Gruppe ohne Niederschrift
- es wird mehr Kapazität im AG geschaffen
Menschen
unterscheiden sich im Hinblick auf ihre Kapazität des AG -
Entwicklung verschiedener Verfahren um Unterschiede zu messen
Operationsspanne:
Menschen führen eine Aufgabe aus (Lösen einer Rechnung),
während sie gleichzeitig einer zweiten Aufgabe nachgehen (Einprägen
von Wörtern) - Sie gibt einen guten Index für den Unterschied
im Bezug auf die Effezienz der zentralen Exekutive ab.
Nutzen
der Arbeitsgedächtniskapazität (working memory capacity- WMC),
um die Leistung bei einer großen Bandbreite an Aufgaben
vorherzusagen.
Menschen
mit höherer WMC sind eher in der Lage dazu ihre Aufmerksamkeit
zu fokussieren. Auch negative Emotionen sorgen dafür,
dass für akkurate Entscheidungen nicht genügend Ressourcen in
der WMC zur Verfügung stehen
7.3
Langzeitgedächtnis (LZG): Enkodierung und Abruf
Wenn
man vom Langzeitgedächtnis spricht, bezeichnet man
Gedächtnisinhalte, die oftmals ein Leben lang bestehen -->
Jede Theorie, die erklärt wie diese Inhalte ins LZG kommen, muss
auch erklären, wie sie auf Dauer zugänglich bleiben können
Langzeitgedächtnis:
ist der Ablageort aller Erfahrungen, Ereignisse, Informationen,
Emotionen, Fertigkeiten, Wörter, Kategoerien, Regeln und
Berurteilungen, die über das Sensorische Gedächtnis und das
Kurzzeitgedächtnis angeeignet wurden. - Es bestimmt beim
Menschen das gesamte Wissen von der Welt und sich selbst.
Die
Erinnerungsfähigkeit wird dann am besten sein, wenn
die Umstände, unter denen man Informationen enkodiert hat,
möglichst gut zu jenen Umständen passen, unter denen man die
Informationen wieder abrufen möchte.
7.3.1
Hinweisreize beim Abruf
Wie
findet man einen Gedächtnisinhalt? - Nutzen von Hinweisreizen
beim Abruf
Hinweisreize
beim Abruf (retrieval cues): Stimuli, die bei der Suche nach
einem bestimmten Gedächtnisinhalt verfügbar sind. Sie können
von außen kommen (Fragen bei Quiz) oder sie können
intern generiert werden (Frage an sich selbst)
Immer
wenn man sich an einen epliziten Gedächtnisinhalt erinnert,
passiert das mit einer bestimmten Zielsetzung, die häufig
den Hinweireiz liefert. - Je nach Qualität des Hinweisreizes,
fällt es leichter oder schwerer einen Gedächtnisinhalt
wiederzuerlangen.
Behaltensintervall:
eine Zeitspanne, über die man Informationen im Gedächtnis
behält
Abruf und Wiedererkennen
Abruf
(recall): hierbei reproduziert man eine Information, die man
bereits kennt (Beispiel: Wiederholungen beim Lernen)
Wiedererkennen
(recognition): bezieht sich auf den Umstand, etwas als zuvor
Gesehenes oder Gehörtes zu beurteilen (Beispiel: Multiple
Choice Aufgaben)
Eine
Verbindung zwische Abruf und Wiedererkennen kann durch die
täglichen Erfahrungen mit dem expliziten Gedächtnis hergestellt
werden - Beispiel Polizei: Zur Identifikation eines Verdächtigen
soll das Opfer Merkmale beschreiben - Abrufmethode / Zeigen
von Fotos zur Identifikation - Wiedererkennensmethode
Rolle
von Hinweisreizen: Sowohl, Abruf als auch Wiedererkennen
erfordern eine Suche anhand von Hinweisreizen; Beim Abruf
muss man darauf hoffen, dass allein der Hinweisreiz hilft,
die Information zu finden ; Für das Wiedererkennen sind sie
allerdings viel nützlicher, denn andere haben einen Teil der
Arbeit erledigt -- > Leistung in der Regel höher beim
Wiedererkennen als beim Abruf, da Hinweisreize
hilfreicher
Episodisches und semantisches Gedächtnis
Unterscheidung
zwischen deklarativem und prozeduralem Gedächtnis bei
Gedächtnisfunktionen - Weitere Unterscheidung bei deklarativen
Gedächtnis im Bezug auf Hinweisreize, die zur
Wiedergewinnung von Gedächtnisinhalten benötigt werden.
Endel
Tulving (1972): Der erste Psychologe, der die Unterscheidung
in episodische und semantische Formen des deklarativen Wissens
einführte.
Episodische
Gedächtnisinhalte: sie bewahren die individuellen und
spezifischen Ereignisse auf, die man persönlich erlebt hat. Um
diese wiederzufinden, benötigt man Hinweisreize, die etwas
über den Zeitpunkt und den Inhalt des gesuchten Ereignisses
aussagen. - Abhängig von der Art & Weise der Enkodierung
wird eine spezifische Gedächtnisrepräsentation produziert
Jegliches
Wissen, hat man sich anfänglich in einem spezifischen Kontext
angeeignet - Es gibt jedoch auch Informationen, die in vielen
Kontexten auftauchten - Diese Informationsklassen sind verfügbar
ohne das Zurückgreifen auf einen spezifischen Kontext
Diese
Informationsklassen sind semantische Gedächtnisinhalte:
generische kategoriale Gedächtnisinhalte, wie beispielsweise
die Bedeutung von Wörtern & Konzepten - Man braucht keine
Hinweisreize beim Abruf, die auf den Kontext verweisen
Abruf
jedoch nicht immer fehlerfrei: Umstand, dass man viele
Fakten vergisst, wenn sie vom zugehörigen Lernkontext
getrennt wurden
--> Strategie: den Gedächtnisinhalt
wieder als episodischen Gedächtnisinhalt zu sehen, so können
zusätzliche Hinweisreize für einen erfolgreichen Abruf
geliefert werden.
7.3.2 Kontext und Enkodieren
"Kontextschock":
man trifft eine Person in einem Kontext, in dem sie einem noch nie
begegnet ist, weshalb man sie nicht zuordnen kann (Briefträger bei
Geburtstagsparty) -->
Erklärung
durch das Prinzip der Enkodierspezifität: Gedächtnisinhalte
kommen am leichtesten wieder, wenn der Kontext des Abrufs mit dem
Kontext der Enkodierung übereinstimmt.
Enkodierspezifität
Endel
Tulving und Donald Thomson als erste Psychologen, die die Kraft
der Enkodierspezifität untersuchten, indem sie die übliche
Beziehung der Leistungen zwischen Abruf und Wiedererkennen
umkehrten.
Aus
der Forschung: Merken von Wortpaaren - Abrufleistung besser als
Wiedererkennen ; Annahme, dass das Entscheidende im Wechsel
des Kontexts lag --> Beispiel: Taucher lernt Wörter unter
Wasser und zu Land, bei Wechsel der Umgebung, schlechtere Ergebnisse
Kontextabhängigkeit
des Gedächtnisses: das Enkodieren von Erinnerungen findet im
Zusammenhang mit einem bestimmten Kontext, der externen Umgebung
statt (Testraum)
Zustandsabhängiges
Gedächtnis: internale Zustände legen die Basis für
die Enkodierspezifität ; Beispiel: Alkoholisierter Zustand bei
Enkodieren & bei Abruf resultiert in sehr guter Leistung - Das
zustandsabhängige Gedächtnis kommt auch bei anderen Drogen
(Marihuana, Amphetamine) zum Tragen
Der
serielle Positionseffekt:
Primacy-Effekt
und Recency-Effekt: Beispiel, Lernen einer Wortliste -->
Ergebnis: Man kann sich ohne Probleme an die ersten Wörter
(Primacy-Effekt) und auch an die letzten Wörter
(Recency-Effekt), aber kaum an den mittleren Teil der
Liste erinnern (Bild der Bahngleise)
Studie:
Studenten sollten die Wörter entweder in der richtigen
Reihenfolge (serial recall) oder frei abrufen (free
recall). Auch hier ließ sich der Primacy- und der
Recency Effekt nachweisen Diese Muster ist allgemein gültig.
Die
Rolle, die der Kontext für den seriellen Positionseffekt spielt,
hat mit der zeitlichen Unterscheidbarkeit verschiedener
Items, Erfahrungen etc zu tun.
Zeitliche
Unterscheidbarkeit: das Ausmaß, in dem ein Item sich in der
Zeitspanne vom nächsten Item unterscheidet -->
Recency-Effekt & Primacy-Effekt ragen zeitlich am
meisten heraus
Es
folgt eine bessere Gedächtnisleistung bei den "mittleren"
Informationen, bei besserer Unterscheidbarkeit -
Studie: Das Lernen von Items wurde so manipuliert, dass die früheren
Items stärker unterscheidbar waren --> bessere
Gedächtnisleistung
Der
Recency Effekt entsteht dadurch, dass die zuletzt gelernten Items
nahezu automatisch unterscheidbar sind. Ebenso wird ein neuer
zeitlicher Kontext hergestellt, wenn man etwas Neues beginnt,
wodurch die ersten Erfahrungen unterscheidbarer sind -->
Primacy-Effekt
7.3.3 Die Prozesse des Enkodierens und des
Abrufes
Die
Perspektive der transfer-adäquaten Verarbeitung
(transfer-appropriate processing - TAP) geht davon aus, dass
das Gedächtnis am besten funktioniert, wenn die Prozessart beim
Enkodieren sich auf den für den Abruf notwendigen Prozess überträgt
--> Genauerere Betrachtung der Forschungen, die diese
Perspektive illustrieren
Ebenen der Verarbeitunstiefe
Theorie
der Verarbeitunstiefe (Levels-of-Processing Theory) nimmt an,
dass je tiefer die Informationen verarbeitet wurden,desto
wahrscheinlicher sie dem Gedächtnis überstellt werden. Das
heißt, wenn die Verarbeitung mehr Analyse, Interpretation,
Vergleich und Elaboration umfasst, dann sollte sie in einer
besseren Gedächtnisleistung resultieren.
Die
Tiefe der Verarbeitung ist oft definiert durch die Art von
Urteilen, die Probanden im Hinblick auf Experimentalmaterial abgeben
sollen - Je tiefer sie z.B. Worte ursprünglich verarbeiten, an
umso mehr erinnern sie sich.
Warum
hat die Verarbeitunstiefe einen Einfluss? - Tiefere Verarbeitung
entspricht eher den Prozessen, bei denen es beim Abruf ankommt. Wenn
man auf explizite Gedächtnisprozesse zurückgreift, um sich
an ein Wort zu erinnern, nutzt man Informationen über seine
Bedeutung (und nicht z.B. physische Erscheinung).
Dementsprechend passt die Beurteilung der Bedeutung beim
Enkodieren besser zum späteren Abrufen. --> Diese
Erklärung macht aus dem Effekt der Verarbeitungstiefe eine Art
transfer-adäquater Verarbeitung.
Die
Verarbeitunstiefe ist ein Beleg dafür, dass die Art wie
Informationen dem Gedächtnis übergeben werden, einen Effekt
darauf hat, ob man die Informationen später wiederfindet.
Prozesse
und das implizite Gedächtnis
Die
Unterscheidung zwischen der expliziten und impliziten
Dimension trifft sowohl für die Enkodierung als auch Abruf zu
--> Oftmals müssen jedoch implizite Gedächtnisinhalte
abgerufen werden, die man ursprünglich explizit enkodiert hatte.
Implizite
Gedächtnisinhalte zeigen die Bedeutung der Übereinstimmung
zwischen den Prozessen beim implizitem Enkodieren und implizitem
Abruf auf.
Jedoch
können dieselben Umstände beim Enkodieren sich auf
explizite und implizite Gedächtnisaufgaben ganz unterschiedlich
auswirken.
Implizite
Gedächtnisaufgaben beruhen lediglich auf einer physischen
Passung zwischen dem urpsprünglichen Stimulus und der
Information im Test - Dieselben perzeptuellen Prozesse,
anhand derer Menschen Worte als physische Stimuli enkodieren, sollen
ein physisches Abbild abrufbar machen (z.B. bei
Wortstammergänzungen)
Studie
zum Vergleich von impliziter und expliziter Gedächtnisleistung:
Post-Marathongruppe und Prä-Marathongruppe machen einen impliziten
und expliziten Gedächtnistest: Resultat: Post-Marathongruppe
schneidet durch den Stress beim Rennen (Beeinträchtigung der
Kodierung von expliziten Informationen) beim expliziten
Gedächtnistest schlechter ab, jedoch bei der impliziten
Gedächtnisleistung besser: Der Stress nach dem Lauf veranlasst
dazu,die Aufmerksamkeit eher auf die physischen Eigenschaften des
Wortes, als auf seine Bedeutung zu richten.
Maß
für das explizite Gedächtnis: "Anteil des
Erinnerten"
Maß
für implizites Gedächtnis: Priming - die
Erste Erfahrung mit einem Wort bereitet das Gedächtnis für spätere
Erfahrungen vor
Bei
beiden Gruppen gab es ein Priming, jedoch war es bei der
Post-Marathongruppe ausgeprägter. - Diese Experiment steht für ein
Priming, das auf pezeptuellen Prozessen basiert, die physische
Aspekte eines Wortes enkodieren. - Man macht auch während
der konzeptuellen Prozesse beim Enkodieren und Abrufen die Erfahrung
eines Primings
Langlebigkeit
impliziter Gedächtnisinhalte: Das konzeptuelle Priming der
entsprechenden Erinnerung (z.B. erwähnter US-Bundesstaat in
einer Vorlesung) kann 1-2 Monate anhalten.
7.3.4
Warum wir vergessen
Ebbinghaus quantifiziert das
Vergessen
Psychologe
Hermann Ebbinghaus (1850-1909) war seine eigene Versuchsperson -
Untersuchung, wie viele Durchgänge er braucht, um eine bereits
gelernte Items nach Ablenkung wiederzuerlerenen. Benötigte er
weniger Durchgänge als beim urpsrünglichen Lernen, wurde
Lernaufwand gespart.
Indem
Ebbinghaus ein Ersparnismaß verwendete, bildete er den Grad
des Behaltens in Abhängigkeit unterschiedlicher Zeitintervalle ab -
Es entsteht die Vergessenskurve nach Ebbinghaus: die
Behaltensleistung fällt zunächst sehr stark ab. Die Periode
des sprunghaften Verlusts flacht danach allmählich
ab
Interferenz
Interferenz:
Gedächtnisinhalte konkurrieren miteinander
Proaktive
Interferenz (wirkt nach vorne): Umstände, wo Informationen,
die in der Vergangenheit erworben wurden, den Erwerb neuer
Informationen erschweren.
Retroaktive
Interferenz (wirkt zurück) tritt auf, wenn der Erwerb neuer
Informationen das Behalten früher erworbener Informationen
erschwert.
Beispiel:
Ändern der Telefonnummer - Erst erinnert man sich an die alte
Nummer (proaktive Interferenz) und später fällt es schwer, sich an
die alte Nummer zu erinnern (retroaktive Hemmung)
Ebbinghaus
als erster Forscher, der die Interferenz in Experimenten nachwies
- Beispiel Listen lernen: Nach vielen Durchgängen mit vielen
Listen interferierte das zuvor Gelernte Proaktiv mit dem Abruf der
aktuellen Listen.
7.3.5 Verbesserung der
Gedächtnisleistung bei unstrukturierten Informationen
Größter
Vorteil beim Wiederfinden von Informationen: Vorliegen des gleichen
Kontexts beim Lösen der
Aufgabe, wie beim Erwerb des Gedächtnisinhaltes
Lösung
beim Enkodieren unstrukturierter/zufälliger Informationen:
Man muss die Assoziationen weniger zufällig erscheinen lassen
Elaborierendes
Wiederholen:
Def:
Eine allgemeine Strategie, um das Enkodieren zu verbessern.
Grundidee: Während des Wiederholens der Information - beim
erstmaligen Einprägen in das Gedächtnis - diese zu
erlaborieren, um das Material für das Enkodieren reichhaltiger zu
gestalten.
Eine
Möglichkeit ist eine Beziehung herstellen, die die
Assoziation weniger zufällig erscheinen zu lässt, z.B durch
Miniaturgeschichten, in die die Informationen enkodiert werden -
oder durch visuelle Vorstellungskraft (mentales Bild) , die
die Abrufleistung verbessert, indem sie Kodes für verbale als
auch visuelle Gedächtnisinhalte liefert.
Der-Nächste-in-der
Reihe-Effekt: Verschiebung der Aufmerksamkeit (z.B. bei
Vorstellungsrunde, erinnert man sich nicht an die Person, die vor
einem selbst dran war, da man sich selbst auf die Vorstellung
vorbereitet) - Dieser Effekt kann verhindert werdern, durch das
konzentrierte Halten der Aufmerksamkeit
Mnemotechniken
Mithilfe
von Mnemotechniken werden lange Folgen von Fakten mit
vertrauten, bereits enkodierten Informationen assoziiert. Sie
arbeiten mit vorgefertigten Hinweisreizen für den Abruf, die
helfen zufälliges Material zu organsieren oder mit visueller
Vorstellungskraft (effektive Verarbeitung während dem Erwerb)
Methode
der Orte (method of loci) dient dazu, sich eine Folge von
Namen/Objekten einzuprägen, indem man diese mit einer Folge
von Orten assoziiert, die einem vertraut sind.
Ähnlich
funktioniert die Wäscheleinemethode (peg-word-method),
allerdings werden die Items einer Liste mit einer Folge
von Hinweisreizen , statt mit vertrauten Orten assoziiert
-Hinweisreize bestehen aus einer Folge von Reimen, die Zahlen mit
Wörtern assoziiert ("Eins ist Heinz")
7.3.6
Das Metagedächtnis
Das
Metagedächtnis beschäftigt sich mit den Fragen, wie das
Gedächtnis arbeitet, oder wie man weiß, welche Informationen man
bestitzt.
Eine
der wichtigsten Fragen ist, wann und warum das Gefühl, etwas zu
wissen - der subjektive Eindruck, dass man die gesuchten
Informationen im Gedächtnis hat-, zutreffend ist.
J.T.
Hart (1965) als Pionier der Forschung zum "Gefühl, etwas
zu wissen"
Experiment:
Schüler sollten sich selbst einschätzen, ob sie sich sicher sind,
dass sie bei einem Multiple Choice Test nicht die richtige Antwort
geben können oder ob sie sich sicher sind, dass sie die richtige
Antwort finden - Resultat: letztere Einschätzung brachte Erfolg -
Beleg dafür, dass das Gefühl etwas zu wissen zutreffend sein
kann.
Beurteilung
des Lernens (judgement-of-learning, JOL): Das Empfinden, den
Lernstoff bereits zu meistern. Funktionen: Lernzeit planen
oder das Wiederholen von Lernstoff, der nach eigener
Einschätzung noch nicht beherrscht wird
Konzentration
der Forschung auf die Frage, wann eigene Einschätzungen das
künftige Abschneiden in einem Test vorhersagen wird und wann nicht.
Wichtige Frage: inwieweit Aktivitäten beim Enkodieren die
Beurteilungen beeinflussen und "Warum glaube ich, dass ich
den Stoff kenne (oder nicht)?
9.
Diagnostik
9.1 Was ist Diagnostik?
Psychologische
Diagnostik ist der Einsatz festgelegter Testverfahren zur
Bewertung der Fähigkeiten, Verhaltensweien und
Persönlichkeitseigenschaften von Personen.
Sie
wird oft als die Messung interindividueller Unterschiede
bezeichnet, weil die Beurteilungen angeben, inwiefern sich
Personen im Bezug auf bestimmte Dimensionen unterscheiden
9.1.1
Die Geschichte der Diagnostik
Entwicklung
der Diagnostik in der westlichen Psychologie erst zu Beginn des 20.
Jhdts.
Ursprünge
in China vor 4000 Jahren: hochentwickeltes Programm zum Testen
von Beamten (mündliche Prüfung); vor 2000 Jahren (Han-Dynastie):
Schriftliche Tests für Beamte in Bereichen Recht, Militär,
Landwirtschaft, Geographie;
Ming-Dynastie (1368-1644): Auswahl
Beamter anhand der Leistung in dreistufigen, objektiven
Selektionsprozess
Anfang
des 19. Jhdts: Beobachtung und modifzierter Einsatz der
chinesischen Selektionsverfahren in Großbrittanien (später
auch in Amerika)
Schlüsselfigur
der Westlichen Intelligenztestung war Sir Francis Galton
(1822-1911) mit dem Buch Hereditary Genius (Genie und
Vererbung 1869)
Galton,
ein Cousin von Charles Darwin, versuchte dessen
Evolutionstheorie auf die Untersuchung menschlicher Fähigkeiten
anzuwenden --> Großes Interesse an der Frage, wie und warum
sich Menschen in ihren Fähigkeiten unterscheiden.
Vier
wichtige Postulate zur Intelligenzdiagnostik:
(1)
Intelligenzunterschiede sind quantifizierbar als unterschiedliche
Grade von Intelligenz; Zum Vergleich können
Intelligenzstufen verschiedener Personen,Zahlenwerte zugewiesen
werden
(2) Die Unterschiede folgen einer
glockenfürmigen Kurve, der Normalverteilung. Hier gruppieren
sich die meisten Werte in der Mitte und nur wenige gehören zu den
Extremen, Genialität und Minderbegabung.
(3)
Intelligenz kann durch objektive Testverfahren gemessen
werden, bei denen es nur eine richtige Antwort auf jede Frage
gibt.
(4) Das exakte Ausmaß, in dem zwei
Mengen von Testergebnissen zueinander in Beziehung stehen
kann durch ein statistisches Verfahren bestimmt werden, die
Korrelation.
Galtons
Arbeiten bilden den Rahmen für die heutige Intelligenzdiagnostik
Kontroverse
Ideen Galtons: (1) Annahme, dass Genialität erblich
sei und so Talent und gesellschaftliches Ansehen innerhalb von
Familien weitergegeben wird. (2) Annahme, dass Intelligenz
mit Darwins Überlebensstärke der Arten in Beziehung steht.
(3)
Galton als Vater der Eugenik-Bewegung, die die eine
Verbesserung der menschlichen Rasse durch die Anwendung
der Evolutionstheorie propagierte.
9.1.2
Grundeigenschaften formaler Diagnostik
Um
für die Klassifikation von Menschen mit bestimmten Eigenschaften
brauchbar zu sein, muss ein Verfahren der formalen Diagnostik
drei Anforderungen genügen. Das Diagnose-instrument muss
reliabel, valide und standardisiert sein.
Trifft
das nicht zu, sind die diagnostischen Schlussfolgerungen
daraus nicht verlässlich
Die
Verfahren zur formalen Diagnostik gelten für alle Arten
psychologischer Testung (nicht nur Intelligenzdiagnostik)
Reliabilität
Def:
Das Ausmaß, in dem man sich darauf verlassen kann, dass ein
diagnostisches Instrument konsistente Ergebnisse liefert.
(Waage: unterschiedliche Ergebnisse /unreliabel)
Ein
Messinstrument kann nur insoweit als reliabel oder unreliabel
bezeichnet werden, als der zugrunde liegende Sachverhalt, den es
messen soll, stabil bleibt. (z.B. Gewicht)
Einfache
Möglichkeit, um die Reliabilität eines Tests zu ermitteln ist die
Berechnung der Retest-Reliabilität: ein Maß der
Korrelation zwischen den Testwerten derselben Personen im selben
Test, der zu unterschiedlichen Zeitpunkten durchgeführt wurde.
Bei
einem vollständig reliablen Test, gibt es einen
Korrelationkoeffizienten von +1; d.h es entsteht beide Male
in identisches Muster von Testergebnissen. Ein vollständig
unreliabler Test würde einen Korrelationskoeffizienten von 0
ergeben (es gibt keinen Zusammenhang zwischen den ersten und
zweiten Messergebnissen)
Die
Reliabilität eines Tests steigt in dem Maße, in dem sich
der Korrelationskoeffizient dem Idealwert +1 annähert.
Ein
weiteres Maß für Reliabilität ist die interne Konsistenz
der Antworten in einem einzigen Test. (z.B Vergleich der
Testwerte bei geraden und ungeraden Itemnummern) - Ein reliabler
Test liefert das gleiche Ergebnis für seine beiden Hälften.
Beispiel:
SAT-l-Examen vor Zulassung zum College. Ein Abschnitt des Tests
hat keinen Einfluss auf die Bewertung, dieser Teil wird für
zukünftige Tests geprüft. (Vergleich der Leistungen in
zukünftigen und gegenwärtigen Examen)
Validität
Def:
Das Ausmaß eines Testes, in dem er misst, was ein Diagnostiker
zu messen beabsichtigt. Ein valider Intelligenztest misst die diese
Eigenschaft und erlaubt Vorhersagen über die Leistung in
Situtationen, in denen Intelligenz wichtig ist.
Das
Testergebnis in einem validen Kreativtest, spiegelt hingegen
die tatsächliche Kreativität wieder (und nicht die
Intelligenz)
Validität
spiegelt die Fähigkeit eines Tests wieder, korrekte Vorhersagen
über Verhaltensweisen und Leistungsresultate zu treffen, die in
Beziehung zum Testzweck oder Testdesign stehen.
Vorraussetzungen
für Validität können sehr unterschiedlich sein, deshalb
ist die Frage, zu welchem Zweck ist der Test valide, am
wichtigsten. Es gibt 3 Wichtige Validitätsarten
Inhaltsvalidität:
Ein
Test besitzt Inhaltsvalidität, wenn er die gesamte
Bandbreite des zu erforschenden Gebiets abdeckt. -->
Beispiel: Tests zur Lebenszufriedenheit - Um ein inhaltsvalides
Maß zu entwickeln, würde man Stichproben aus verschiedenen
Teilen des Lebens einbeziehen
Kriteriumsvalidität:
um
die Kriteriumsvalidität eines Tests zu ermitteln,
vergleichen Psychologen die Testergebnisse einer Person
mit ihrem Abschneiden bei einer anderen Vergleichsgröße oder
einem Kriterium, das mit dem testrelevantem Merkmal in
Beziehung steht --> eine der Hauptaufgaben von
Testentwicklern: das Finden von angemessenen und messbaren
Kriterien
Sobald
Kriteriumsvalidität eines Messinstruments nachgewiesen wurde,
vertrauen Forscher darauf, dass sie auch in der Zukunft
Vorhersagen auf der Basis des Instruments machen.
Beispiele:
Kriteriumsvalidität als Maß für die Voreingenommenheit von
Juroren oder das NC-System (festgestelte positive Korrelation
zwischen Abschlussnoten & Studiumleistung)
Konstruktvalidität
Für
viele Persönlichkeitsvariablen, gibt es kein ideales
Kriterium. (kein einzelnes Verhaltensmuster kann z.B. anzeigen
wie ängstlich oder aggressiv ein Mensch insgesamt ist) -->
Entwerfen von Theorien / Konstrukte bezüglich der
Persönlichkeitsvariablen (was sie verursacht, wie sie Verhalten
beeinflussen und wie sie sich zu anderen Variablen verhalten)
Konstruktvalidität
eines Testes ist der Grad, in dem er das zugrunde liegende
Konstrukt adäquat misst. Beispiel: Ein neues Maß für
Depression hat dann eine Konstruktvalidität, wenn die
Werte, die sich daraus ergeben hochgradig mit den validen
Merkmalen korrelieren, die das Konstrukt der Depression
definieren. Dieses neue Maß soll keinen Bezug zu Merkmalen
haben, die NICHT zm Konstrukt der Depression gehören
Beziehung
zwischen Realibilität und Validität
Während
Reliabilität anhand der Korrelation des Tests mit sich selbst
gemessen wird (durch Vorgabe des Tests zu unterschiedlichen
Zeitpunkten oder mit unterschiedlichen Items), wird Validität
durch die Korrelation des Tests mit etwas Externem (ein anderer
Test, ein Verhaltenskriterium,eine Beurteilung durch Beobachter)
gemessen
Für
gewöhnlich ist ein nicht reliabler Test auch nicht valide,
weil ein Test der sein eigenes Ergebnis nicht vorhersagen kann,
auch nicht in der Lage sein wird, etwas anderes vorherzusagen.
Andererseits
ist es möglich, dass ein Test hoch reliabel ist und
gleichzeitig nicht valide.
Beispiel: Die momentane
Körpergröße als Maß der Intelligenz --> Diese Messung wäre
reliabel, aber nicht valide
Normen und
Standardisierung
Man
hat nun einen reliablen und validen Test, aber man braucht Normen,
um einen Bezugsrahmen für die Interpretation der Testergebnisse
zu schaffen.
Um
herauszufinden, was ein indviduelles Ergebnis besagt, muss es
mit typischen Ergebnissen oder statistischen Normen anderer
Teilnehmer verglichen werden.
Anhand
von Normen wird festgestellt, wie ähnlich ein Individuelles
Ergebnis den Ergebnissen anderer ist und wie gut man im Vergleich zu
dieser Normstichprobe abgeschnitten hat.
Gruppennormen
sind bei der Interpretation individueller Ergebnisse sehr nützlich,
wenn die Vergleichsgruppe in wichtigen Bereichen wie Alter,
sozioökonimischem Status und kulturellem Hintergrund mit den
getesteten Individuen übereinstimmt.
Damit
Normen sinnvoll sind, bedarf es Standardisierung: ein
Testinstrumennt muss bei allen Personen in gleicher Weise und unter
den selben Bedingungen angewendet werden.
Ist
ein Test nicht standardisiert, ist es schwierig, die
Bedeutung eines Testresultats einzuschätzen oder einen Vergleich zu
einer anderen Gruppe herzustellen
Abschließend:
Forscher müssen sicherstellen, dass der Test reliabel und valide
ist. Auch müssen sie die Standardbedingungen spezifizieren, unter
denen der Test stattfindet, damit die daraus resultierenden Normen
bedeutunsvoll sind.
9.2 Intelligenzdiagnostik
Def:
Intelligenz ist eine sehr allgemeine geistige Fähigkeit,
die unter anderem die Fähigkeit zum schlussfolgernden Denken, zum
Planen, zum Problemlösen, zum abstrakten Denken, zum Verstehen
komplexer Ideen, zum raschen Auffassen und zum Lernen aus Erfahrung,
einschließt.
Angesichts
dieser Bandbreite gibt es Kontroversen darüber, wie
Intelligenz gemessen wird.
Die
Art und Weise, in der Theoretiker Intelligenz und höhere
kognitive Funktionen kozeptualisieren, beeinflusst die Art und
Weise sie zu messen. Vielleicht nochmal
nachlesen, letzter Absatz S. 341
9.2.1
Die Ursprünge der Intelligenzmessung
1905:
Erster funktionierender Intelligenztest
Alfred
Binet (1857-1911): Auftrag des französischen Bildungsministers,
effektivere Lehrmethoden für Kinder mit Entwicklungsstörungen
zu entwickeln. Binet und Kollege Theodore Simon (1873-1961)
nahmen an, dass man erst die geistigen Fähigkeiten von Kindern
messen muss.
Entwicklung
eines objektiven Tests der geistigen Leistungsfähigkeit, der
geeignet war, normale Kinder und Kinder mit
Entwicklunsstörungen zu klassifizieren (Hoffnung, dass sich
Schulen nicht auf Subjektivität der Lehrer verlassen würden)
Entwicklung
von altersgerechte Aufgaben (Testitems), anhand derer sich die
Antworten vieler Kinder vergleichen ließen.
Wahl der
Aufgaben: konnten objektiv klassifiziert werden,
unbeeinflusst vom sozialen Hintergrund der Kinder und
Erfassung der Fähigkeit zu schlussfolgerndem Denken
Testen
von Kindern verschiedener Altersgruppen und Berechnung des
Durchschnittsalters für normal entwickelte Kinder. Darauf
folgte der Vergleich der Leistung jedes einzelnen Kindes mit dem
Durchschnitt gleichaltriger Kinder.
Diese
Testergebnisse wurden in Form des Durchschnittsalters
ausgedrückt, in dem ein normales Kind einen bestimmten Wert
erreichte. Dieses Maß ist das Intelligenzalter.
Beispiel:
Ergebnis eines Kindes entspricht dem Durchschnittswert einer Gruppe
von Fünfjährigen, so hat es das Intelligenzalter von 5 Jahren.
Intelligenzalter
ist unabhängig vom Lebensalter, der seit der Geburt
verstrichenen Zeit
Große
Auswirkungen auf die USA
Zu
Beginn des 20. Jhdts ein Land im Umbruch --> Große Zahl an
Einwanderern, die hinsichtlich ihrer Fähigkeiten
klassifiziert werden sollten
Ausbruch
des 1. Weltkrieges machte die Erfassung von geistigen Fähigkeit
nötig, um die Rekruten zu beurteilen.
Einsatz
von Intelligenztests im Hinblick auf Führunsstärke und andere
sozial wichtige Eigenschaften in Schulen, Industrie oder Militär ;
Diagnostik als Weg Ordnung in eine chaotische Gesellschaft zu
bringen --> Um den großflächigen Einsatz zu erleichtern,
Entwicklung von Verfahren mit breitem Anwendungsbereich
9.2.2
IQ-Tests
Amerikanische
Psychologen übernahmen die Führung und verbesserten
problematischen Vergleich mit Intelligenzalter und Lebensalter
durch die Verwendung des Intelligenzquotienten (IQ)
Der
IQ ist ein numerisches, standardisiertes Maß der
Intelligenz
Die Stanford-Binet-Intelligenzskala
Lewis
Terman (Universität Stanford) passte Binets Testfragen für
amerikanische Schulkinder an, standardisierte die Vorgaben
des Tests und entwickelte Normen für verschiedene
Altersstufen
1916
die Veröffentlichung der Stanford-Binet-Intelligenzskala,
mit der Terman die Grundlage für das Konzept des IQ in seiner
heutigen Verwendung als Abweichungsquotient schuf
IQ
= Intelligenzalter/Lebensalter x 100
und
der Durchschnitts
IQ = 100
Der
Standford-Binet-Test wurde zum Standardinstrument in der
klinischen Psychologie, in der Psychatrie und Schulberatung. Er
enthält eine Reihe von Untertests, die jeweils auf ein
bestimmtes Alter zugeschnitten sind. (Kleinkindalter,
Erwachsenenalter)
Die
neueste 5. Ausgabe
liefert
IQ-Schätzungen für durschschnittlich Intelligente,
Intelligenzgeminderte
und hochbegabte
Menschen
Die
Wechsler-Intelligenzskalen
David
Wechsler versuchte bei der Diagnostik der Intelligenz
Erwachsener die Abhängigkeit von verbalen Items zu verringern.
1939
die Veröffentlichung der Wechsler-Bellevue-Intelligenzskala,
die verbale Untertests mit nichtverbalen, handlungsbezogenen
Untertests kombinierte. Dadurch wurde nicht nur der
Gesamtintelligenz IQ, sondern auch der Verbal-IQ und
der Handlungs-IQ festgestellt
1955
unbenannt in Wechsler Adult Intelligence Scale (WAIS) bzw
Hamburg-Wechsler-Intelligenztest für Erwachsene (HAWIE) -
Heute gilt die Version WAIS-lV (ab 18 Jahren) bzw. HAWIE-R (ab 16
Jahren)
Der
HAWIE-R hat 14 Untertests, die verbale (Bereiche wie
Wortschatz & Verständnis) und Handlungsaspekte
(Handhabung von Gegenständen) des IQ abdecken - Ergebnis:
verbalen IQ, Handluns-IQ und Gesamt-IQ
Wechsler
Intelligence Scale for Children (WISC-lV) bzw
Hamburg-Wechsler-Intelligenztest für Kinder (HAWIK-lV)
eignet sich für Kinder von 6 bis 16 Jahren
Wechsler
Preschool and Primary Scale of Intelligence (WPPSI-III) bzw
Hannover-Wechsler-Intelligenztest für das Vorschulalter
(HAWIVA-III) für 4-6 Jährige
Der
HAWIE-R, der HAWIK-lll und der HAWIVA-lll machen die
Intelligenzdiagnostik für alle Altersgruppen möglich und
haben sich als reliabel und valide erwiesen.
Die
Untertests (Verbal & Handlung) erlauben Beobachtung der
Entwicklung spezifischer intellektueller Fähigkeit über einen
längeren Zeitraum hinweg und sind besonders nützlich bei
Personen, die immer wieder untersucht werden - Beobachtung
des Entwicklungs-forschritts bei Kindern
9.2.3
Außergewöhnlich hohe oder niedrige Intelligenz
IQ
von 100 gilt als Mittelwert und besagt dass 50% der Menschen
des selben Alters niedrigere Punktzahlen erreicht haben
(insgesamt sind Werte zwischen 85 und 115 normal)
Intelligenzminderung
und Lernschwächen
TABELLE
9.2 BEACHTEN (S.345)
Wenn
Menschen unter 18 valide IQ-Werte erzielen, die ungefähr 2
Standardabweichungen unter dem Mittelwert eines Intelligenztests
liegen, gilt die Diagnose einer geistigen Behinderung.
Für dein WAIS liegt dieser Wert bei 70.
Wichtig
für die Diagnose: Einschränkungen in angepasstem Verhalten sind
notwendig,die als Ansammlung gedanklicher sozialer und praktischer
erlernter Fähigkeiten, die Menschen im Alltag einsetzten definiert
wurde.
Früher:
geistige Zurückgebliebenheit, da diese Definition aber
auch adaptive Fähigkeiten meint, ist dies kein angemessener
Begriff mehr.
Konzentration
bei Diagnose darauf, welche Einschränkungen der Betroffen in
Bezug auf seine adaptiven Fähigkeiten hat. Ziel: Ein
soziales Umfeld zu schaffen, das den Bedürfnissen des Betroffenen
entspricht.
Genetische
Faktoren bzw Erbkrankheiten (verantwortlich für IQ von 55-70)
:
Down-Syndrom, Phenylketonurie (PKU, wird sie jedoch in Kindheit
diagnostiziert, kann negativer Effekt durch Diät kontrolliert
werden)
Schwere
Formen geistiger Behinderung werden durch das Auftreten
spontaner genetischer Veränderngen in der Entwicklung
verursacht, die nicht erblich sind. Hierbei sind die
pränatalen Umstände ausschlaggebend (Röteln oder Syphilis,
Konsum von Alkohol oder anderen Drogen)
Sozialer
Umgang: Früher wurden Betroffene in seperaten
Einrichtungen erzogen, heute sollen behinderte Schüler
so weit wie möglich die Regelschule besuchen (US Gesetz
1975)
IQ
gibt allgemein Informationen darüber, welche Leistungen
jemand (unter Berück-sichtigung altersbezogener Normen) bei
verschiedenen
verbalen/nichtverbalen Aufgaben
erbringen kann. --> Verdacht auf Lernbehinderung,
wenn
der ermittelte IQ und die tatsächlichen Leistungen sich stark
unterscheiden.
Bevor sie jedoch klinisch diagnostiziert wird, müssen
Faktoren wie fehlende Motivation, schlechte Unterrichtsqualität und
physische Probleme ausgeschlossen werden.
Hochbegabung
Bezeichnung
"hochbegabt" für Menschen mit einem IQ über
130, jedoch kann der Begriff Hochbegabung nicht
ausschließlich über den IQ definiert werden
Joseph
Renzulli (2005): "Drei-Ringe"-Konzeption der
Hochbegabung, in der Hochbegabung über Fähigkeit,
Kreativität und Zielstrebigkeit (task commitment) definiert
wird. Hochbegabte finden sich in der Schnittfläche von
überdurchschnittlichen Fähigkeiten, herausragender Kreativität
und einem hohen Maß an Zielstrebigkeit.
Somit
gelten auch Menschen, die überdurchschnittlich, aber nicht
überragend intelligent sind, als hochbegabt, wenn sie
große Kreativität und Beharrlichkeit in best. Bereichen
beweisen. Diese Erweiterung erklärt auch, warum Menschen oft
nicht im gesamten akademischen Spektrum gleiche Begabung zeigen.
Eigenschaften
hochbegabter Kinder (Langzeitstudie von Lewis Terman 1925):
Widerlegung der allgemeinen Annahme, dass hochbegabte Kinder
Schwierigkeiten in sozialer und emotionaler Anpassung haben. Sie
kommen im allgemeinen besser zurecht als andere Gleichaltrige
und haben z.B. weniger Ängstlichkeit
IQ
gilt als guter Prädikator für beruflichen Status und
Einkommenshöhe, weshalb Hochbegabte beruflich erfolgreich
sind --> Besondere Aufmerksamkeit benötigt deshalb eine
ausreichende schulische Unterstützung um individuelle
Begabungen voll zu entwickeln.
9.3.
Intelligenztheorien (Was ist mit dem Wort Intelligenz
gemeint?)
9.3.1 Psychometrische
Intelligenztheorien
Diese
Theorien entstanden zur gleichen Zeit, wie die ersten IQ-Tests
Psychometrie
ist das Gebiet der Psychologie, das sich mit dem Testen mentaler
Fähigkeiten befasst. Dazu gehören Persönlichkeitsdiagnostik,
Intelligenzdiagnostik und Eignungsprüfungen.
Diese
Theorien untersuchen statistische Beziehungen zwischen den
verschiedenen Maßen geistiger Fähigkeit, wie z.B. den 14
Untertests des WISC. Auf der Basis dieser Beziehungen werden
Schlussfolgerungen über die Beschaffenheit der menschlichen
Intelligenz gezogen.
Faktorenanalyse
(am häufigsten verwendete Technik)
ein
statistisches Verfahren,das eine Zahl von Faktoren aus
einer größeren Menge unabhängiger Variablen extrahiert.
Ziel:
die grundlegenden psychologischen Dimensionen des untersuchten
Konstrukts zu identifizieren.
Ein
statistisches Verfahren kann jedoch nur statistische
Regelmäßigkeit identifizieren ; es ist die Aufgabe des
Psychologen diese Regelmäßigkeiten zu interpretieren und
belegen
Charles
Spearman: einflussreichste Anwendung der Faktorenanalyse auf
Intelligenz-forschung. Er fand heraus, dass die Leistungen von
Personen in jeweils verschiedenen Intelligenztests hoch miteinander
korrelieren
Schlussfolgerung,
dass es den sogenannten Generalfaktor der Intelligenz oder
g-Faktor gibt, der jeder Intelligenzleistung zugrunde
liegt.
Mit
jedem einzelnen Bereich sind spezielle Fähigkeiten
verbunden, die s-Faktoren. Beispiel: Die Leistung in einem
Wortschatztest hängt nicht nur von allgemeiner Intelligenz
(g-Faktor), sondern auch von bereichsspezifischen Fähigkeiten
ab (s-Faktor)
Raymond
Cattel (1963) stellte durch Verwendung fortschrittlicher
faktorenanalytischer Techniken fest, dass sich allgemeine
Intelligenz in zwei relativ unabhängige Komponenten zerlegen lässt.
Kristalline
Intelligenz: das Wissen, das eine Person erworben hat, sowie
die Fähigkeit, komplexe, Zusammenhänge zu erkennen und Probleme zu
lösen. Man misst sie durch Wortschatztests, Rechentests,
Tests zum Allgemeinwissen
--> Sie befähigt Menschen dazu,
gut mit den wiederkehrenden und konkreten Herausforderungen des
Lebens umzugehen
Fluide
Intelligenz: die Fähigkeit, komplexe Zusammenhänge zu erkennen
und Probleme zu lösen. Man misst sie durch Matrizenaufgaben und
räumliche Anordnungen, die logische Schlussfolgerungen
erfordern (Für die Lösung erforderliche Infos sind in
Aufgabenstellung oder leicht erschließbarem Wissen enthalten)
-->
Sie befähigt den Menschen dazu, neue und abstrakte Probleme in
Angriff zu nehmen
Durch
Cattel wurde das Verständnis des Intelligenzbegriffs erweitert,
sodass er weitaus mehr als die Leistung in traditionellen
IQ-Tests umfasst
9.3.2
Sternbergs triarchische Intelligenztheorie
Robert
Sternberg (1999) betont im Rahmen seiner allgemeineren
Intelligenztheorie die Bedeutung von kognitiven Prozessen, die an
der Lösung von Problemen beteiligt sind
Triarchische
(dreiteilige) Theorie: Die analytische, kreative und
praktische Intelligenz repräsentieren unterschiedliche Wege
zur Charakterisierung effizienter Leistung
-->
Erfolgreiche Intelligenz, ist aus diesen 3 Arten
zusammengesetzt
Analytische
Intelligenz
Sie
liefert die grundlegenden informationsverarbeitenden Fähigkeiten,
mit denen man die Aufgaben des Alltags bewältigt. Sie ist
durch die geistigen Prozesse/Komponenten defniniert, die dem
Denken und Problemlösen zugrunde liegen.
(1)
Wissenserwerbskomponenten, um neue Fakten zu lernen
(2)
Ausführungskomponenten (Performanzkomponenten) für Strategien
und Techniken des Problemlösens
(3) metakognitive Komponenten
zur Auswahl von Strategien und Überwachung von Fortschritten
auf die Lösung hin
Beispiel:
Wortanagramme lösen: die Performanz-Komponenten erlauben die
Buchstaben im Geist zu manipulieren, die metakognitiven
Komponenten erlauben anhand von Lösungsstrategien vorzugehen.
Jedoch können auch gute Strategien manchmal versagen
Dadurch,
dass man die Aufgaben in ihre Bestandteile zerlegen kann,
können Forscher die Prozesse genau identifizieren, die bei
Personen mit unterschiedlichem IQ für die Leistungsunterschiede
verantwortlich sind. Beispiel: Personen mit höherem IQ
wählen andere Strategie durch ihre metakognitive Komponenten zur
Problemlösung (als Personen mit niedrigerem IQ), die in
größerem Erfolg resultiert.
Kreative Intelligenz
Sie
erfasst die Fähigkeit mit neuen Problemen zumzugehen.
Außerdem
schließt sie Fähigkeiten ein, kreativ zu sein, Neues zu
erfinden, zu entdecken, sich vorzustellen, Vorschläge &
Hypothesen zu entwickeln
Praktische Intelligenz
Sie
spiegelt sich in der Koordination von Alltagsanforderungen
wieder und umfasst die Fähigkeit, sich an neue und veränderte
Umstände (Kontexte) anzupassen, geeignete Umstände zu
identifizieren und die Umwelt bedürfnisgerecht zu gestalten
Umganssprachlich/Abfällig: Bauernschläue
Um
praktische Intelligenz messen zu können, muss man daher diese
Kontexte vertiefen. Beispiel: Praktische Intelligenz bei
Führungskräften: höhere Praktische Intelligenz der
Führunskräfte steht in Zusammenhang mit höherem Wachstums des
Unternehmens
Daraus
folgt, dass praktische Intelligenz in verschiedenen
Zusammenhängen unterschiedliche Messweisen erfordert. Jedoch
bleibt die allgemeine Idee bestehen: Man kann über mehr oder
weniger praktische Intelligenz für die Lösung von Alltagsaufgaben
verfügen.
Zweifel
an Sternbergs Theorien, ob Maße für kreative & praktische
Intelligenz auf sinnvolle Weise von klassischeren Konzepten wie
dem g-Faktor getrennt werden können. Dahinter steckt die Frage,
ob Sternbergs Analyse erfolgreicher Intelligenz
den Erfolg besser vorhersagen kann als klassiche Maße für den IQ.
Um
dieser Kritik
entgegenzusetzten,
entwarf er
Anwendungen seiner Theorie für den praktischen Alltag:
Messen der weitgefassteren
intellektuellen Fähigkeiten seiner Theorie mt dem Ziel,
College-Zulassungsverfahren zu verbessern.
--> Er versichert, dass die kombinierten
Maße erfolgreicher Intelligenz bessere Vorhersagen der Leistung
ermöglichen
als
klassische Intelligenzmaße
9.3.3
Gardners multiple Intelligenzen und emotionale Intelligenz
Howard
Gardner (1999, 2006) hatte auch eine Theorie, welche die
Definition von Intelligenz über den IQ Test erweitert. Er
identifizierte 8 Intelligenzen, die einen großen Bereich
menschlicher Erfahrung abdecken
Logisch-Mathematisch
(Wissenschaftler/Mathematiker): Fähigkeit mit abstrakten
Symbolen zu hantieren
Linguistisch
(Jurist/Journalist): Fähigkeit, mit Sprache gut umzugehen
Naturalistisch
(Förster) Fähigkeit, Aspekte der Natur sorgsam zu
beobachten
Musikalisch
(Komponist/Tontechniker): Fähigkeit zum Komponieren &
Verstehen von Musik
Räumlich
(Architekt/Chirurg): Fähigkeit, räumliche Verhältnisse gut
abschätzen zu können
Körperlich-kinästhetisch
(Tänzer/Athlet): Fähigkeit, Bewegungssequenzen zu planen und zu
verstehen
Interpersonal
(Politiker/Lehrer): Fähigkeit, andere Menschen &
Interaktionen zu verstehen
Intrapersonal
(Klerus): Fähigkeit, sich selbst zu verstehen
Existenziell
(Philosophieprofessor): Fähigkeit die "großen
Lebensfragen" zu stellen
Gardener
nimmt an, dass logisch-mathematischer und lingusitischer
Intelligenz in westlichen Gesellschaften ein großer
Wert zukommt, während nichtwestliche Gesellshaften oft
andere Arten von Intelligenz wertschätzen.
(1)
Beispiel: Karolinen (Inselgruppe im Westpazifik), dort wird die
räumliche und kinästhetische Intelligenz (z.B. zum
Navigieren auf hoher See ohne Karte) mehr geschätzt
(2)
Beispiel: Bali: dort wird die musikalische und
körperlich-kinästhetische Intelligenz hoch geschätzt
(künstlerische Darbietungen als Teil des täglichen Lebens)
(3)
Interpersonale Intelligenz ist in kollektivistischen
Gesellschaften wie z.B. in Japan (kooperatives Verhalten als
sehr wichtig) wichtiger als in individualistischen Gesellschaften
wie in unserer
Viele
Menschen stehen hinter Gardners Theorie, weil sie davon ausgeht,
dass Menschen sich in Bereichen hervortun können, die vom
traditionellen Intelligenzverständnis nicht berücksichtigt werden.
Kritik:
(1) Studien legen nahe, dass die laut Gardner unabhängigen
Intelligenzarten sich überlappen - Maße
für lingusitische, logisch-mathematische, räumliche,
naturalistische und interpersonale Intelligenz weisen starke
Korrelation mit g auf. Diese deutet darauf hin, dass Gardner
lediglich neue Bezeichnungen für verschiedene Aspekte
gefunden hat, die auch in traditionellen Intelligenzkonzeptionen
berücksichtigt wurden
(2) Kritik an bestimmten
Intelligenzen - z.B. spricht die Befundlage gegen die Idee, dass
die Fähigkeit zum Sprachenlernen ein angeborenes Talent darstellt.
Emotionale
Intelligenz (verwandt mit Gardner Konzepten der inter- und
intrapersonalen Intelligenz) besteht aus vier Hauptkomponenten
(1)
Die Fähigkeit, Emotionenen genau und angemessen wahrzunehmen,
einzuschätzen und auszudrücken
(2) Die Fähigkeit,
Emotionen zur Unterstützung von Denkvorgängen einzusetzen
(3)
Die Fähigkeit, Emotionen zu verstehen und zu analysieren und
emotionales Wissen effektiv einzusetzen
(4) Die
Fähigkeit, die eigenen Emotionen zu regulieren, um emotionales
sowie intellektuelles Wachstum zu fördern
Diese
Definition spiegelt ein neues Verständnis der positiven Rolle
von Emotionen in Bezug auf intellektuelle Leistung wieder:
Emotionen können das Denken intelligenter machen und Menschen
können intelligent über ihre Emotionen und die anderer nachdenken
Emotionale
Intelligenz hat wichtige Auswirkungen auf den Alltag.
Aus der Forschung: Eine größere emotionale Intelligenz kann
Sportlern helfen, Stressoren zu bewältigen
- Spieler mit
hoher emotionaler Intelligenz
reagierten auf stressige
Erfahrungen kaum mit einer veränderten Herzrate,
im Gegensatz zu Spielern mit niedriger
emotionaler Intelligenz -->
Diese Spieler nutzen ihre Fähigkeit, Emotionen zu
verstehen und zu regulieren,
um mit Stressoren einen Umgang zu finden.
10.1
Erforschung und Erklärung der Entwicklung
Entwicklung
wird man anhand von Veränderungen begreifen. Veränderungen
bringen meist eine Abwägung von Vor- und Nachteilen, Gewinn &
Verlust mit sich. --> Möglichkeiten und somit Zugewinne
und auch Verluste sind Merkmale jeder Entwicklungs-phase.
Entwicklung
ist kein passiver Prozess, denn viele entwicklungsbedingte
Veränderungen erfordern die aktive Auseinandersetztung einer
Person mit ihrer Umwelt.
Erster
Schritt zur Erfassung von Entwicklungsveränderungen ist die
Bestimmung der Eigenschaften (körperlich, geistig etc) einer
durchschnittlichen Person in einem bestimmten Alter.
Normative
Untersuchungen: versuchen das jeweils
Charakteristische eines bestimmten Alters oder einer
Entwicklungsstufe zu beschreiben.
Durch
die systematische Untersuchung von Individuen unterschiedlichen
Alters werden Eckdaten über die Entwicklung bestimmt.
Diese Daten liefern Normen & Standardmuster der
Entwicklung bzw. Leistungsfähigkeit, die auf der Beobachtung
vieler Personen beruht.
Normative
Standards erlauben die Unterscheidung zwischen Lebensalter
und Entwicklungsalter: jenes Lebensalter, in dem die
meisten Menschen eine gegebene Stufe körperlicher oder geistiger
Entwicklung aufweisen --> Normen liefern Standards auf
deren Basis Individuen oder Gruppen verglichen werden können
Erfassung
von altersbedingten Veränderungen in verschiedenen
Entwicklungsbereichen
Längsschnittplan
ein
Forschungsdesign, um mögliche Veränderungsmechanismen zu
verstehen: dieselben Personen werden im Laufe der Zeit wiederholt
beobachtet und untersucht, oftmals viele Jahre lang.
Durch
Längsschnittdaten kann man Schlussfolgerungen hinsichtlich des
Einflusses der früheren Umgebungen auf die Entwicklung von
Kindern zu ziehen. Großer Nutzen auch in der Untersuchung von
individuellen Unterschieden.
Um
die Entwicklungsergebnisse im Laufe des Lebens zu verstehen, werden
in einem frühen Lebenssabschnitt potenzielle Kausalfaktoren
erfasst und man beobachtet, wie diese Faktoren den Lebenslauf
beeinflussen.
Ein
Vorteil besteht darin, dass altersbedingte Veränderungen
nicht mit sich wandelnden sozialen Umständen vermischt werden
können, weil alle Probanden dieselbe sozioökonomische
Zeitspanne durchlebt haben
Ein
Nachteil ist, dass bestimmte Verallgemeinerungen nur
in Bezug auf dieselbe Kohorte (Personen, die in derselben
historischen Zeitspanne geboren wurden wie die Probanden) getroffen
werden können. Außerdem sind sie kostenintensiv und
schwierig, da Daten durch das Aussteigen von Personen
verloren gehen können.
Querschnittplän
ein
Großteil der Entwicklunsforschung erfolgt unter Verwendung
dieses Forschungsdesigns
Hierbei
werden Gruppen von Probanden unterschiedlichen chronologischen
Alters zur gleichen Zeit untersucht und verglichen.
Vorteil:
So können Forscher Schlussfolgerungen über
Verhaltensunterschiede ziehen, die mit Altersunterschieden in
Zusammenhang stehen könnten
Nachteil:
entsteht durch den Vergleich zwischen Personen, die sich sowohl
hinsichtlich des Geburtsjahres als auch des Lebensalters
unterscheiden --> Altersbedingte Veränderungen sind
konfundiert mit sozialen und politischen Veränderungen,
denen unterschiedliche Geburtskohorten ausgesetzt sind.
So
können die untersuchten Unterschiede
sowohl in Beziehung mit dem geschichtlichen Kontext
als auch in
Beziehung mit den Entwicklunsstufen der Probanden stehen
Phasen
der Entwicklung im Laufe des Lebens:
Pränatal:
Empfängnis bis Geburt / Säuglingsalter: Geburt bis 12
Monate
Frühe
Kindheit: 12 Monate bis 3 Jahre / Mittlere Kindheit: 3
Jahre bis 6 Jahre
Späte
Kindheit: 6 Jahre bis 11 Jahre / Adoleszenz: 11 Jahre bis
20 Jahre
Frühes
Erwachsenenalter: 20 bis 40 Jahre/ Mittleres
Erwachsenenalter: 40 bis 65
Spätes
Erwachsenenalter: 65 und älter
10.2
Körperliche Entwicklung im Laufe des Lebens
Die
Körperliche Entwicklung ist der Bereich, in dem
Veränderungen sehr offenkundig und leicht zu beobachten
sind
10.2.1 Pränatale Entwicklung und Entwicklung
während der Kindheit
Durch
Empfängnis (männliches Spermium befruchtet weibliche
Eizelle) bildet sich eine einzellige Zygote
Die
46 Chromosomen setzten sich zur Hälfte durch die Mutter
und zur Hälfte durch den Vater zusammen - ein einzigartiges
genetisches Potenzial
Körperliche Entwicklung im
Mutterleib
Germinales
Stadium
ersten
zwei Wochen nach Bildung der Zygote: hier fangen die Zellen an
sich sehr schnell zu teilen ; es entsteht eine Ansammlung
mikosropischer Zellen
Embryonisches
Stadium (3. bis 8. Woche)
die
rasante Zellteilung hält an und die Zellen sind nun so
spezialisiert, dass daraus verschiedene Organe hervorgehen
können. Es folgt der 1. Herzschlag.
Reaktionen
auf Stimulationen wurden
ab 6.
Woche
beobachtet (Embryo 2,5cm groß) ; spontane Bewegungen ab 7./8.
Woche.
Das
fetale Stadium (8.Woche - Geburt)
Die
Mutter spürt die Bewegungen des Fetus ab 16. Woche (Fetus
18cm groß)
Die
meisten der 100 Milliarden Neurone eines Erwachsenen sind
bereits im Mutterleib entstanden ; auch ein Großteil der
Zellvermehrung & Wanderung der Neurone an korrekten Platz findet
vor der Geburt statt ; Entwicklung des Verzweigungsvorgangs
von Dendriten & Axonen findet hauptsächlich nach der
Geburt statt
Teratogene:
Umweltfaktoren (z.B. Infektionen, Strahlung oder Drogen), die
zu strukturellen Anomalitäten des Fetus führen
Beispiel:
Wenn sich Mutter nach Empfängis mit Röteln infiziert,
leidet das Kind oft an geistiger Behinderung, Sehschäden,
Taubheit oder Herzschäden (die Wahrscheinlichkeit der negativen
Auswirkungen sinkt mit der fortgeschrittenen Schwangerschaft)
Beispiel:
Fetales Alkoholsyndrom als schwerwiegendste Folge des
mütterlichen Alkoholkonsums. Diese Kinder haben oft kleine
Köpfe/Körper, Gesichtsanomalitäten und Störungen des zentralen
Nervensystems (verantowrtlich für kognitive &
verhaltens-bezogene Problemen)
Beispiel:
Rauchen & Passivrauchen erhöht das Risiko für
Fehlgeburten, Frühgeburten und Babys mit niedrigem Geburtsgewicht.
Beispiel
Kokainkonsum: Kokain gelangt durch Plazentaschranke
und kann Entwicklung unmittelbar beeinflussen durch schlechte
Versorgung mit Blut & Sauerstoff ; Durch Sauerstoffmangel
kommt es zu pränatalen Schlaganfällen kommen, die zu
geistiger Behinderung führt; Gehirnbereiche für die Kontrolle
der Aufmerksamkeit, werden am stärksten durch Kokainkonsum
geschädigt.
Kinder sind auf das Überleben
programmiert
Säuglinge
sind für das Überleben vorbereitet und darauf eingerichtet
auf elterliche Fürsorge zu reagieren und ihre soziale
Umgebung zu beeinflussen
Sie
verfügen über ein Repertoire an Reflexen, die erste
Verhaltensreaktionen auf die Umwelt ermöglichen
Suchreflex:
er hilft die Brustwarze der Mutter oder andere Nahrungsquellen
zu finden
Saugreflex:
Er sichert die Nahrungsaufnahme
Säuglinge
können schon vor der Geburt hören und sind darauf
vorbereitet auf bestimmte Geräusche zu reagieren --> Erkennen
der Stimme ihrer Mutter schon vor der Geburt und durch
diese Assoziation fällt es leicht, später das Gesicht der Mutter
zu erkennen
Aber
Säuglinge haben nicht genug akustische Erfahrung mit der Stimme
des Vaters, weshalb sie keine Präferenz zu ihr entwicken
Erste
visuelle Erfahrungen (Wahrnehmen ihrer eigenen Bewegungen)
erhalten Kinder in den letzten beiden Monaten im Mutterleib;
Deshalb setzten Neugeborene sie auch direkt durch aufmerksame
Augenbewegungen ein ; Im Vergleich mit anderen Sinnen ist das
visuelle System jedoch weniger gut entwickelt (die Sehschärfe
ist beim Erwachsenen 40 mal größer) sie verbessert sich jedoch
schnell in den ersten 6 Monaten.
Neugeborene
sind jedoch schlecht in der dreidimensionalen Wahrnehmung,
da sie die Hinweisreize nicht interpretieren können, jedoch
ist diese Fähigkeit ab 4 Monaten wahrscheinlicher.
Robert
Fantz (1963) untersuchte visuelle Präferenzen der Babys:
Bevorzugen von komplexen Objekten und nicht leichten mit 4
Monaten ; Schon im Alter von 3 Tagen bevorzugen sie
toplastige Anordnungen (z.B. menschliche Gesichter) gegenüber
anderen visuellen Mustern.
Mit
dem Beginn der Bewegung in der Umgebung erwerben Kinder
schnell andere perzeptuelle Fähigkeiten.
Eleanor
Gibson und Richard Walk (1960) untersuchten wie Kinder auf
Informationen über räumliche Tiefe reagieren: Nutzen der
visuellen Klippe (visual cliff) mit der Beobachtung, dass
Kinder zögern, die tiefe Seite zu überqueren (Krabbelerfahrung)
; Somit ist die Angst vor der Höhe nicht
vorprogrammiert, sondern entsteht durch eigene
Erfahrungen
Wachstum und Reifung während der Kindheit
Neugeborene
Kinder verändern sich mit erstaunlicher Geschwindigkeit,
jedoch wachsen nicht alle Körperstrukturen gleich
schnell.
Der
Kopf eine Babys hat fast 60% seiner Größe im Erwachsenenalter
und macht 1/4 der Körpergröpe aus.
Das
Körpergewicht verdreifacht sich bis zum 1. Geburtstag und der
Rumpf hat im Alter von 2 Jahren schon die Hälfte der Größe von
Erwachsenen.
Das
genitale Gewebe weist bis zum Teenageralter nur geringe
Veränderungen auf und erreicht dann schnell die Proportionen
eines Erwachsenen
Das
Körperliche Wachstum wird von der Reifung der motorischen
Fähigkeiten begleitet
Reifung:
Wachstumsprozesse, die typisch für alle Mitglieder einer Spezies
eines bestimmten Lebensraums sind. Die charakteristischen
Reifungsprozesse bei Säuglingen werden durch die Interaktion
zwischen ererbten biologischen Begrenzungen und Einflüssen der
Umwelt gesteuert. Die Einflüsse der Umwelt sind gegliedert:
Sensitive
Periode: die optimale Altersspanne für bestimmte
Umwelterfahrungen, die einer normalen Entwicklung zuträglich
sind. D.h. für die Entwicklung ist es ideal, wenn Kinder die
entsprechenden Erfahrungen in dieser Periode machen
Kritische
Periode: ein Altersabschnitt, in dem bestimmte
Umwelterfahrungen unabdingbar sind. Ohne angemessene
Erfahrungen in dieser Periode kann ein Kind bestimmte
Fähigkeiten nicht ausbilden.
Beispiel
der motorischen Entwicklung: Kinder lernen viele der motorischen
Meilensteine, z.B. aufrechter Gang ohne
spezielles Training; hierbei ist es wichtig, die
Umweltbedingungen besser zu verstehen: Kinder mit denen motorisch
geübt wird, erreichen die Meilensteine schneller, als langsamer
entwickelte Kinder.
Jedoch
haben alle nichtbehinderten Kinder dasselbe
Potenzial für körperliche Reifung.
Die
phyische Entwicklung folgt zwei allgemeinen Prinzipien
Das
cephalokaudale Prinzip
sagt aus, dass die Entwicklung sich vom Kopf aus in Richtung der
Füße vollzieht.
Das
proximodistale Prinzip
sagt aus, dass sich nahe an der Mitte gelgene Körperteile eher
entwickeln als die Extremitäten.
Entwicklung
vollzieht sich in der Regel von grob-zu feinmotorischen
Fähigkeiten ; Grobmotorisch: größere Muskeln ;
Feinmotorisch: präzisere Koordination kleiner Muskelpartien
10.2.2
Körperliche Entwicklung in der Adoleszenz
Pubertät
Erster
Indikator für das Ende der Kindheit: pubertärer
Wachstumsschub von etwa 8-15cm pro Jahr (Mädchen Beginn mit 10
und Jungen mit 12 Jahren)
Schnelle
Zunahme des Körpergewichts
Die
Körperform (Proportionen) während der Adoleszenz verändert
sich mehrmals (Zuerst wachsen Hände und Füße, danach Arme und
Beine und zum Schluss der Rumpf)
Wichtiger
Prozess während der Adoleszenz: Die Pubertät, die zur
sexuellen Reife führt.
Bei
Männern beginnt sie mit der Produktion von fruchtbaren Spermien
im Alter von 12-14 Jahren, bei Mädchen mit der Menarche
(erste Menstruation), meist im Alter von 11-15 Jahren --> Die
körperlichen Veränderungen führen oft zu einem
Bewusstsein sexueller Regungen
Veränderungen
im Gerhirn
Auch
wenn ein Großteil des Hinwachstums bereits in den ersten
Lebensjahren abgeschlossen ist, schreitet die Hirnentwicklung
auch in der Adoleszenz fort.
Wichtige
Veränderungen beim limbischen System (Regulierung von
emotionalen Prozessen) und Frontallappen (vorausplanendes
Denken und Kontrolle von Emotionen)
Die
Reifung des limbischen Systems geht der Reifung des
Frontallappens voraus. Durch diese zeitliche Abfolge kann ein
wichtiger Aspekt der sozialen Entwicklung erklärt werden: Die
Neigung Heranwachsender zu riskantem Verhalten
Annahme,
dass die Reifung des limbischen Systems Heranwachsende darauf
vorbereitet, in die Welt hinauszugehen und die Fähigkeiten zur
Unabhängigkeit erlernt werden, um den Erfolg der Trennung
vom Schutz der Familie zu erhöhen.
In
diesem evolutionärem Kontext ist es sinnvoll, dass die mit
dem Hemmen und Kontrollieren des Unabhängigkeitdrangs in
Zusammenhang stehenden Regionen des Frontalcortex erst später
heranreifen (Großes Risiko für Adoleszenten, wenn sie Familie
verlassen würden)
Heute
erfüllt dieser evolutionäre Impuls zur Suche nach Neuem und zum
Eingehen von Risiken keine adaptive Funktion mehr.
Bei
der Reifung der Frontallappen entstehen neue Verbindungen
mit dem limbischen System, die es ermöglichen Menschen,
ihren emotionalen Impulsen mittels kognitiver Kontrolle länger
Einhalt zu gebieten.
Veränderungen im Alter
Nach
der Adoleszenz kommt eine Phase des Körpers mt relativ geringen
biologischen Veränderungen. Entscheidende Veränderungen treten
im mittleren bzw späten Erwachsenenleben wieder auf.
Altersbedingte
Veränderungen treten graduell auf und beginnen, sobald
das Erwachsenenalter erreicht wurde, jedoch entstehen viele
davon nicht durch das Altern, sondern durch mangelnde
Übung (Wer rastet der rostet). Beispielweise haben ältere
Erwachsene weniger Beschwerden, wenn sie ein Fitnessprogramm
durchführen
Sehen
Im
Alter von 40-50 merkt man, dass das visuelle System
nachlässt:
Die
Linsen sind weniger flexibel und die Muskeln, durch die
sich die Dicke der Linse verändert, arbeiten weniger effektiv.
Auswirkungen:
Schwierigkeiten, Gegenstände im Nahbereich scharf zu sehen,
Schwierigkeiten bei der Dunkeladaption (Nachtsehen) -
mögliche Lösung Korrekturgläser
Trübung
der Linse: verschlechtertes Farbensehen (besonders die
mit niedriger Wellenlänge: Violett, Blau und Grün sind schwerer zu
unterscheiden)
Amerikanische
Stichprobe: 26 % der 75 Jährigen haben visuelle
Beeinträchtigungen
Hören
Verlust
an Hörfähigkeit ist vorallem für die über 65 Jährigen
üblich, vorallem beim Hören von hochfrequenten Schallen -->
Schwierigkeiten gesprochene Sprache zu verstehen
(besonders in hohen Tonlagen)
Die
Veränderungen treten graduell auf und sind kaum zu bemerken
oder werden verleugnet, bis sie extrem sind
Hörgeräte,
eine tiefe Stimmlage, deutliche Aussprache und Reduktion von
Hintergrundgeräuschen können die Situation erleichtern
Fortpflanzungsfähigkeit
& Sexualtität
Gegen
Ende des Erwachsenenalters schwindet die Fortpflanzungsfähigkeit
Frauen
mit etwa 50 treten in die Menopause ein (Menstruation &
Ovulation endet)
Weniger
aprupte Veränderungen bei Männern (Menge an zeugungsfähigen
Spermien sinkt jenseits der 40 und die Menge an
Samenflüssigkeit jenseits der 60)
Zunehmendes
Alter bedeutet nicht zwingend Einschränkung in der Sexualtiät,
im Gegenteil sie kann Fantasie anregen und eine zentrale Form der
sozialen Interaktion darstellen.
Kognitive Entwicklung
im Laufe des Lebensalter
Kognitive
Entwicklungspsychologie befasst sich mit der Entstehung und
Veränderung der Prozesse und Produkte des Denkens.
Pionier
in dieser Hinsicht war der Schweizer Forscher Jean Piaget
10.3.1
Piagets Erkenntnisse über die geistige Entwicklung
Jean
Piaget (1929,1954,1977) hat fast 50 Jahre lang Theorien über
das Denken, Schlussfolgern und Problemlösen von Kindern etnwickelt
und begann damit schon in seiner intellektuellen Jugend
Zur
Schaffung seiner komplexen Theorien über die frühe geistige
Entwicklung nutzte er einfache Demonstrationen und Interviews
mit seinen eigenen und anderen Kindern mit dem Ziel: mehr
über die Art und Weise wie sich ihr Denken (mentale
Repräsetationen) der physikalischen Realität im Laufe der
verschiedenen Entwicklungsstufen verändert, herauszufinden.
Bausteine
der entwicklungsbedingten Veränderung
Begriff
Schema für die geistigen Strukturen, mit deren Hilfe
Menschen die Welt interpretieren. Schemata sind die
Bausteine der entwicklungsbedingten Veränderung
1.
Schemata von Säuglingen: sensumotorische Intelligenz, d.h.
mentale Strukturen, die sensumotorische Sequenzen wie Saugen oder
Greifen steuern.
Durch
Übung werden elementare Schemata zu immer komplexeren
Handlungsmustern kombiniert, integriert und differenziert (Beispiel
am Verhalten eines Kindes: Wegschieben eines ungeliebten Objektes,
um das dahinter liegende begehrende Objekt zu greifen)
Zwei
grundlegende Prozesse arbeiten zusammen, um kognitives Wachstum zu
erreichen
Assimilation:
Hierbei wird Information aus der Umwelt modifiziert, um sie
an vorhandenes Wissen anzupassen: Das Kind greift auf vorhandene
Schemata zurück, um eintreffende sensorische Informationen
zu strukturieren
Akkomodation:
Hierbei werden die vorhandenen Schemata des Kindes
umstrukturiert oder modifiziert, sodass neue Informationen
umfassender aufgenommen werden.
Erklärung
am Beispiel Saugreaktion: Der Saugreflex ist ein bei der
Geburt vorhandenes Reflexverhalten, das modifiziert werden
muss, um den Mund an die mütterliche Brustwarze anzupassen. Bei
anschließender Anpassung an die Flasche benutzt der Säugling viele
Teile des Verhaltens in unveränderter Form (Assimilation),
muss aber anders saugen (Akkomodation)
Kognitive
Entwicklung als Ergebnis vom Ineinandergreifen von Assimilation und
Akkomodation - Diese Anwendung ermöglicht, dass das
Verhalten/Wissen eines Kindes unabhängiger von der externen
Realität wird und sich stärkter auf abstraktes Denken stützt
Stadien
der kognitiven Entwicklung
Unterteilung
der kognitiven Entwicklung in 4 diskontinuierliche Stadien, die in
derselben Reihenfolge durchlaufen werden
Das
sensumotorische Stadium (0-2 Jahre)
In
den ersten Monaten beruht das Verhalten auf einer begrenzten
Reihe von angeborenen Reflexen (Schemata wie Saugen, Schlucken,
Greifen, Schreien)
Im
1. Jahr werden sensumotorische Sequenzen verbessert,
kombiniert, koordiniert und integriert. Sie werden vielfältiger,
wenn Kleinkinder entdecken, dass ihre Handlungen Auswirkungen auf
ihr Umwelt haben.
Wichtige
Entwicklung der Objektpermanenz: das Wissen eines Kindes
darum, dass Objekte unabhängig von seinen Handlungen oder seinem
Bewusstsein existieren. - Fähigkeit mentale
Repräsentationen von Objekten, die nicht in direktem
sensumotorischem Kontakt stehen, zu bilden.
Zwischen
8 und 12 Monaten beginnen Kinder nach verschwundenen Objekten zu
suchen und mit 2 Jahren, besteht keine Unsicherheit mehr,
dass das nicht sichtbare Objekt existiert
Das
präoperatorische Studium (2-7 Jahre)
Großer
Kognitiver Fortschritt: Verbesserte
Fähigkeit zur mentalen Repräsentation von physikalisch nicht
vorhandenen Objekten.
Präoperatorisches
Denken geprägt von Egozentrismus: eine Unfähigkeit, die
Perspektive einer anderen Person einzunehmen.
Zentrierung:
Neigung dazu, die Aufmerksamkeit lediglich auf einen Aspekt
einer Situation zu richten und andere relevante Aspekte zu
vernachlässigen.
Aus
der Forschung: Limonade wird in ein höheres, dünneres Glas
umgeschüttet mit der Frage, ob es nun mehr Limonade ist, als im
vorherigen Glas. - Jüngere Kinder zentrieren sich auf eine
einzige, perzeptuell wahnehmbare Dimension.
Das
konkret-operatorische Stadium (7-11 Jahre)
Das
Kind ist nun zu mentalen Operationen in der Lage, das sind
Handlungen, die im Geist ausgeführt werden und zur Entwicklung des
logischen Denken führen
Durch
konkrete Operationen, können sie eine physikalische
Handlung durch eine geistige zu ersetzen. So können Kinder
Problemstellungen mit abstraktem Denken auflösen
Prinzip
der Erhaltung / Invarianzprinzip: Kinder wissen, dass sich
die physikalischen Eigenschaften von Objekten nicht ändern, wenn
nichts hinzugefügt oder weggenommen wird, obwohl sich das Aussehen
verändert (Limonadenstudie)
Anwendung
der Reversibilität: das Verständnis des
Kindes dafür, dass sowohl gegenständliche Handlungen als auch
geistige Operationen umgekerht werden können (Wenn Limonade
zurückgeschüttet wird, kann das Volumen wieder gleich
aussehen)
Das formal-operatorische Stadium (Beginn im 11.
Lebensjahr)
In
diesem letzten Stadium wird das Denken abstrakt.
Adoleszenten
können erkennen, dass ihre Realität nur eine von merheren
vorstellbaren Realitäten ist und sie fangen an, sich über die
großen Fragen der Welt (Gerechtigkeit, Dasein) Gedanken
zu machen.
Es
folgt die systematische Suche nach Antworten (Wissenschaftler
spielen) und sie können fortgeschrittene deduktive Logik
anwenden
Aktuelle Perspektiven auf die frühe
kognitive Entwicklung
Piagets
Theorie als klassischer Bezugspunkt für die Verständnis der
kognitiven Entwicklung. Heutzutage gibt es jedoch flexiblere
Wege zur Untersuchung.
Kognition bei Kleinkindern
Entwicklung
innovativer Techniken zur neuen Bewertung von Piagets
Ergebnissen, z.B. im Hinblick auf die Objektpermanenz, denn
neue Aspekte legen nahe, dass Kinder schon mit 3 Monaten
Teilaspekte dieses Konzeptes entwickelt haben --> Entwicklung
verschiedener Aufgaben von Renée Baillargeon
Aufgabe
zur Objektpermanenz: Es wurde gemessen, inwieweit 4 Monate alte
Kleinkinder überrascht waren, als ein Objekt verschwunden
war, bzw. dass ein breites Objekt, hinter einem schmalen
verborgen sein kann. Nach Annahme von Piaget, sollten sie
Gleichgültigkeit zeigen, da sie noch keine Erinnerungen an
das Objekt haben.
Dies
lässt vermuten, dass sogar schon sehr kleine Kinder wichtiges
Wissen über die physikalische Welt erworben haben (dennoch kein
Beleg für die frühe Objektpermanenz)
Veränderung
von Wahnehmungsprozessen: Bewiesen ist, dass Kinder mit einer
Vernetzung geboren werden, die das Überleben sichert.
Erfahrungen dehnen ihre perzeptuellen und
konzeptuellen Fähigkeiten weiter aus.
Beispiel:
Zweidimensionale Zeichnung repräsentiert dreidimensionalen
Gegenstand - Messen der Fixationszeit, um zu demonstrieren,
dass 9 Monate alte Säuglinge erkennen können, dass die Zeichnung
des Stofftieres einem dreidimensionalen Stofftier entsprach
Beispiel:
Sehen eines Videoclips, indem ein lebendiges Wesen oder ein sich
bewegender Ball Ordnung in einem Durcheinander von Blöcken bringt
--> Messung der Fixation ergab, dass 12 Monate alte Kinder
gleichermaßen überrascht reagieren, anders
als bei 7 Monaten alten Kindern (nachlesen!) --> Somit
entwickelt sich ein Verständnis der kausalen Eigenschaften von
Lebendem und Nicht-Lebendem nach der 6 Monaten
Theory
of Mind (ToM) Tabelle 10.3 beachten
(S.384)
Mit
der Entwicklung der eigenen kognitiven Fähigkeiten beginnen
Kinder zu verstehen, dass andere Menschen die Welt kognitiv
erleben & dass diese abweichen können
Theory
of Mind (Theorie des Bewusstseins): die Fähigkeit, das
Verhalten anderer Menschen basierend auf einem Verständnis ihrer
mentalen Zustände bzw. Bewusstseins-vorgänge zu erklären und
vorherzusagen.
Aufgaben
bezüglich unterschiedlicher Wünsche & Ansichten,
Wissenszugang, Irrtümliche Einschätzung von Inhalten und
versteckte Emtionen, prüfen in welchem Maße Kinder verstehen,
dass das, was sie wünschen, glauben, wissen oder fühlen abweichen
kann von dem was andere Menschen fühlen etc.
Die
Aneingung der verschiedenen Aspekte der ToM erfolgt zu
unterschiedlichen Zeitpunken im Alter von 2-6 Jahren (meistens
die Top-down-Reihenfolge der o.g. Aufgaben)
Einige
der Aspekte machen sich bereits in frühester Kindheit bemerkbar,
z.B. beim Verhältnis zwischen den Handlungen und Zielen von
Menschen--> Bereits siebenmonatige Säuglinge beginnen
(nicht) zielgerichtete Handlungen zu unterscheiden.
Beispiel
Zeigegesten: Mit dem Zeigen wird eine Intention verbunden
(Versteck des Spielzeuges) --> Säuglinge nehmen sorgfältig
Anteil an ihrer Umgebung und entwickeln ein Verständnis
dafür, welche mentalen Zustände dem menschlichen Verhalten
zugrunde liegen
Soziale & kulturelle Einflüsse auf
die kognitive Entwicklung
Großteil
der Forschung zur Roller sozialer Interatktionen bei der Entwicklung
beruht auf den Theorien des russischen Psychologen Lew Wygotsky.
Annahme,
dass sich Kinder durch einen Prozess der Internalisierung
entwickeln: Sie absorbieren Wissen aus ihrem sozialen
Kontext, der einen wichtigen Einfluss auf den Verlauf der kognitiven
Entwicklung hat.
Stützung
der sozialen Theorie durch kultuvergleichende Studien zu
Entwicklung.
Es
bestand ein großes Interesse daran, anhand von Piagets Theorien,
die kognitven Errungenschaften von Kindern aus unterschiedlichen
Kulturen zu untersuchen --> Infragestellen der
Universialität von Piagets Behauptungen, weil z.B viele Kinder
aus anderen Kulturen kein formal-operatorisches Denken
zeigten.
Annahme,
dass formale Operationen eher auf einer bestimmten Art von
Ausbildung in den Naturwissenschaften berhuhen, als auf der
Entfaltung von biologisch vorgegebenen Entwicklungsstufen.
Konzept
der Internalisierung ist hilfreich, den Einfluss von Kulturen
auf die kognitve Entwicklung zu erklären: Das Denken von
Kindern entwickelt sich, um kulturell wertgeschätzte
Funktionen zu erfüllen.
Beispiel:
Piaget entwickelte seine Aufgaben anhand von Vorannahmen über
seiner Meinung nach, wertvolle kognitve Tätigkeiten. Andere
Kulturen ziehen es vor, wenn Kinder sich in anderer Weise
auszeichnen (z.B. Verständnis der kognitiven Feinheiten des
Webens, Guatemala)
Kulturvergleichende
Studien zeigen, dass die Art der Beschulung eine große Rolle
spielt, wenn es um die Leistung von Kindern in Piagets Aufgaben geht
--> Nutzen dieser Ergebnisse, um die Rolle von Anlage und
Umwelt bei der kognitiven Entwicklung voneinander zu
trennen.
10.3.3 Kognitive Entwicklung im
Erwachsenenalter
Altern
bedeut nicht nur "Verfall", es gibt es auch bestimmte
Gewinne in späten Lebensphasen
Intelligenz
Nur
ungefähr 5% der Menschen erleiden Einbußen ihrer
geistigen Leistungsfähigkeit
Die
fluide Intelligenz, (Komponenten, die Teil der Fähigkeit
zu schnellem und glündlichem Lernen sind) nimmt im Alter stärker
ab als die kristalline Intelligenz (verbale
Fähigkeiten) --> Dies liegt an der Verlangsamung der
Verarbeitungsgeschwindigigkeit
Möglichkeit
des geringen Leistungsabfalls: Grundsatz: "Gebrauche
es oder du verlierst es"
Beispiel
Studie: hohes Maß an sozialer, physischer und intellektueller
Aktivitäten im Alter führt zu schneller
Verarbeitungsgeschwindigigkeit bei kognitiven Aufgaben ;
Einwand: Korrelation geht nicht zwangsläufig mit kausaler
Verursachung einher.
Beispiel
Studie: positive Korrelation zwischen Computernutzung und
kognitven Fähigkeiten - Computernutzung kann vor kognitiven
Abbau schützen.
Zugewinn
an Weisheit, der mit dem Alter bzw. gesammelten Erfahrungen
in Beziehung steht - damit ist die Expertise bei den wesentlichen
Verrichtungen des Lebens gemeint
Merkmale
von Weisheit
Reichhaltiges
Faktenwissen. Allgemeines und spezifisches Wissen über die
Umstände des Lebens und seine Variationen
Reichhaltiges
prozurales Wissen. Allgemeines und spezifisches Wissen über
Strategien zur Berurteilung & Ratschläge in Dingen des Leben
Kontextualiät
über die Lebensspanne. Wissen über die Begleitumstände des
Lebens und deren zeitliche Beziehung zueinander
Unsicherheit.
Wissen über die relative Unbestimmtheit und Unvorhersehbarkeit
des Lebens & Wege damit umzugehen.
Gedächtnis
Über
60 Jährige zeigen schechtere Leistungen in Gedächtnistests
als junge Erwachsene.
Fähigkeit,
das Allgemeinwissen oder persönliches Wissen über lange
zurückliegende Ereigenisse abzurufen wird nicht verringert.
Das
Älterwerden beeinflusst die Prozessen mit deren Hilfe neue
Informationen effektiv strukturiert, gespeichert & abgerufen
werden
Mögliche
Erklärungen: (1) Theorien zu Unterschieden zwischen Älteren und
Jüngeren bei der Strukturierung oder Verarbeitung von Informationen
(2) Theorien zur Untersuchung neurobiologischer Veränderungen
(jedoch andere Veränderungen als bei Alzheimer) (3) Der
Glaube der Senioren ihre Gedächtnisleistung wird geringer
sein
10.4
Spracherwerb
Bemerkenswerte
Sprachleistungen von Kindern: Annahme, dass die grundlegende
Fähigkeit, Sprache zu erlernen, biologisch angelegt ist und
Kinder mit einem angeborenen Sprachpotenzial zur Welt kommen.
Babys
sind in der Lage 4000 Sprachen zu lernen --> Die
angeborene Prädisposition zum Spracherwerb muss
gleichermaßen stark und flexibel sein
Die
Struktur der Sprache (Wissensbereiche, die ein Kind für die
jeweilige Sprache lernen muss, gleich ob gesprochene oder
Gebärdensprache)
Phonologie:
Untersuchung der Laute, die zu Wörtern verbunden werden und der
Rolle von Lautklassen im Sprachsystem
Phonem:
die kleinste bedeutungsunterscheidende Einheit, die zwischen
zwei Äußerungen unterscheidet
Phonetik:
Untersuchung und Klassifikation der Sprachlaute. Sie
richtet sich auf die physikalischen Aspekte der Laute
Grammatik:
beschäftigt sich mit der Struktur von Wörtern und der
Art und Weise wie sich Wörter zu Sätzen kombinieren lassen:
Morphologie und Syntax
Syntax:
die Art und Weise, in der Wörter aneinandergereiht werden, um
Sätze zu bilden. Subjekt, Prädikat, Objekt ist
Standardwortfolge für deutsche Sätze
Morphem:
die kleinste bedeutungstragende, grammatische Einheit, die
nicht weiter geteilt werden kann, ohne ihre Bedeutung zu
verlieren.
Semantik:
die Bedeutung von Wörtern und deren Veränderung im Laufe
der Zeit
Die
lexikalische Bedeutung eines Wortes ist die, die im Wörterbuch
angegeben ist. Bedeutung wird manchmal durch den Kontext
vermittelt, in dem ein Wort im Satz steht oder durch die
Betonung, mit der es gesprochen wird
Pragmatik:
Regeln für die
Beteiligung an Gesprächen
- soziale
Konventionen für die Kommunikation (
Aneinanderreihung von Sätzen, angemessene Reaktionen auf
andere)
10.4.1
Lautwahrnehmung und Wortwahrnehmung
1.
Schritt beim Erwerb einer Sprache: jene Unterschiede
von Schallereignissen zu bemerken, die in der jeweiligen Sprache
Bedeutung transportieren
Jede
gesprochene Sprache nutzt einen Teil der Menge an
möglichen Unterscheidungen
Die
kleinste bedeutungsunterscheidenden Einheiten heißen Phoneme (Im
Deutschen ca. 40 distinkte Phoneme) --> Beispiel: r/l
im Deutschen unterschiedliche Phoneme, im Japanischen keine
distinkten Phoneme
Forschung
bei Säuglingen, um den Erwerb/Verlust von distinkten Phonemen zu
untersuchen: Technik des operanten Konditionieren, um Kinder
dazu zu bringen ihren Kopf in die Richtung veränderter
Sprachlaute zu drehen.
Janet
Werker und Kollgegen (1991/1988) nutzten diese Technik, um die
angeborene Basis der Fähigkeit zur Sprachwahrnehmung zu
untersuchen (Lautunerschiede die in Hindi benutzt werden, aber nicht
im Englischen) - Ergebnis: Säuglinge, ungeachtet der
Sprache, die sie lernten, konnten bis zum Alter von 8 Monaten die
Unterschiede hören. Über 8 Monate war dies nicht möglich.
Solche
Forschungen belegen, dass es eine angeborene Fähigkeit zur
Wahrnehmung von Lautunterschieden gibt, jedoch verliert
man diese schnell, wenn sie in der Sprache, die man spricht nicht
vorkommt.
Vorsprung
bei der Sprachwahrnehmung durch die Umwelt der Kinder, z.B durch
Säuglingsorientierte Sprache oder Kindheitsorientierte
Sprache (Drosseln der Sprechgeschwindigkeit, Betonungen, hohe
Stimmlagen, einfache Struktur)
Diese
Merkmale gibt es in vielen, aber nicht
in allen Kulturen;
diese besonderen Sprachformen enthalten
Informationen, mit
deren Hilfe Kinder
sich Phoneme und Wörter von der umgebenden Sprache aneignen können.
Beginn
der Wahrnehmung von Wörtern zwischen 6 & 7 Monaten;
Präferenz für ihren eigenen Namen entsteht mit 4
Monaten, d.h. sie erkennen ihren Namen wieder.
10.4.2
Lernen von Wortbedeutungen
Nach
Bemerken des gemeinsamen Auftretens von Lauten und Erfahrungen
kann man die Bedeutung von Wörtern zu lernen.
Mit
18 Monaten: Phase der Wortschatzexplosion insbesondere
bei Objektbezeichnungen. Mit 6 Jahren kennen Kinder etwa
14.000 Wörter.
Kinder
können die Bedeutung neuer Wörter unmittelbar lernen, manchmal
braucht es nur eine einzige Begegnung mit einem Wort und seinem
Bezugspunkt
Annahme,
dass Kinder Hypothesen darüber entwickeln,
was neue Wörter bedeuten könnten ; mögliche Überdehnung
von Wörtern (Anwendung fälschlicherweise auf eine Vielzahl von
Objekten) oder Überspezifizierung (nur eigener Hund ist ein
"Hund")
Kindliche
Hypothesen sind von dem Kontrastprinzip bestimmt: Es besagt,
dass Unterschiede in der Form auch Unterschiede in der Bedeutung
bezeichnen: Wenn Kinder neue Wörter hören, suchen sie nach
einer Bedeutung, die mit schon bekannten Wörtern kontrastiert
"Wissenschaftler"
beim Lernen von Regeln der Grammatik ; Kinder müssen herausfinden,
welche Reihenfolge in der sie umgebenden Sprache vorliergt.
Linguist
Noam Chomsky war der Annahme, dass Kinder mit mentalen
Strukturen geboren werden, die Verständnis und Produktion von
Sprache erleichtern ; Die besten Belege für eine solche
biologische Basis der Grammatik stammen von Kindern, die
vollständige grammatische Strukturen entwickeln, ohne die
Aufnahme von wohlgeformten Informationen
Untersuchung
von schwerhörigen Kindern, die keine vollwertige
Gebärdensprache beherrschten: Entwicklung eigener
Zeichensysteme mit regelhafter grammatischer Struktur - Mit
oder ohne Führung, durch eine bekannte Sprache sind Kinder bereit,
eine Struktur anzustreben, wenn sie Systeme zur
Kommunikation entwickeln
Zur
Untersuchung von angeborenen mentale Strukturen werden
sprachübergreifende und sprachvergleichende Untersuchungen
durchgeführt (Welche Elemtente der vielen Sprachen der Welt sind
leicht und welche schwer zu lernen?) - Rückschluss auf angeborene
Prädispositionen
Kinder
verfügen über Lernmechanismen (constraints), die in die
Aufgabe, eine bestimmte Sprache zu lernen, einfließen --> Dan
Slobin (19859): Definierung dieser Mechanismen als eine
Reihe von Operationsprinzipien, die zusammen die
Spracherwerbsfähigkeit eines Kindes ausmachen.
Diese
Operationsprinzpien funktionieren wie Handlungsanweisungen:
Beispielsweise ein Arbeitsprinzip, das Kindern den
Zusammenhang zwischen der Reihenfolge, in der Wörter vorkommen,
und der Bedeutung der Wörter, aufzeigt; Slobin entwicklete
diese Prinzipien durch Datenzusammenfassungen, die bei vielen
Sprachen erhoben wurden.
Beispiel:
Das Stadium der Zwei-Wort-Sätze (Telegrammstil), ohne
Funktionswörter, die helfen einen Zusammenhang
auszudrücken. Selbst in diesem Stadium verfügen Kinder schon über
ein gewisses Wissen über die Grammatik --> Sie entdecken, dass
die Wortreihenfolge im Deutschen wichtig ist:
Handelnder-Handlung-Objekt. Erst später folgt das Lernen von
Ausnahmen dieser Regel
Extension,
als weiteres Operationsprinzip: sie verlanlasst Kinder zu dem
Versuch, dieselbe Bedeutungseinheit (Morphem) zu verwenden,
um ein bestimmtes Konzept zu bezeichnen. (z.B. Zahlen,
Teil-Ganzes-Relation oder Vergangenheitsformen)
Die
Konzepte , z.B. in Sprachen: Numerus, Genitiv, Perfekt
werden durch Hinzufügung eines grammatischen Morphems an das
Inhaltswort gebildet. Dadurch wird dessen Bedeutung verändert.
Kinder
verwenden Operationsprinzipien,
z.B die Extension,
um Hypothesen über
die Funktionsweise von Morphemen zu generieren
; da dieses Prinzip jedoch verlangt, dass alle
Wörter gleich behandelt werden,
kommt es oft zu fehlerhafter Übergeneralisierung
(z.B. bei den Vergangenheitsformen)
Übergeneralisierung
tritt normalerweise auf, nachdem die Kinder die richtigen Formen
gelernt und gebraucht haben. Sie verwenden sie, da sie als
eigenständige Teile des Wortschatzes gelernt wurden. Wenn
sie jedoch z.B. die allgemeinen Regeln der Vergangenheiten in der
Schule lernen, wenden sie diese Regeln fälschlicherweise auch
auf Worte an, die sie zuvor schon richtig gebraucht haben. -->
Übergeneralisierung wird mit der Zeit mithilfe von anderen
Operationsprinzipien überwunden
Spracherwerb
hat einen großen Einfluss auf die Fähigkeit von Kindern an
sozialen Interaktionen teilzunehmen
Die
Konstruktion der sozialen Realität
Allgemein:
Umstände, unter denen Überzeugungen Menschen dazu bringen,
dieselbe Situation aus unterschiedlichen Blickwinkeln zu
betrachten und zu verschiedenen Schlussfolgerungen
kommen, was "wirklich" passiert ist
Ideale
Untersuchunsanlässe dieser Theorie sind Sportereignisse -->
Aus der Forschung: Olympische Spiele: Zwei Eiskunstlaufpaare
bekommen den 1. Platz --> Unterschiedliche
Zeitungsartikel aus USA und Russland berichten darüber, wer besser
war
Def,
Konstruktion der sozialen Realiät: Soziale Situationen
werden bedeutsam, wenn die Beobachter das Geschehene selektiv
enkodieren im Hinblick auf das, was sie zu sehen erwarten / sehen
wollen
Allgemein
Wahrnehmung: Man muss oft Vorwissen einsetzten, um
mehrdeutige Wahrnehmungsobjekte zu interpretieren. Wahrnehmung
in der Konstruktion der sozialen Realität: Menschen nutzen ihr
Vorwissen zur Interpretation aktueller Ereignisse, aber die
Objekte der perzptuellen Verarbeitung sind Menschen &
Situationen
Soziale
Wahrnehmung: der Prozess, durch den Menschen das Verhalten
anderer verstehen und kategorisieren
Kausalattributionen:
Die Kräfte, die das Verhalten anderer beeinflussen
16.1.1
Die Ursprünge der Attributionstheorie
Eine
der größten Schlussfolgerungsaufgaben der Menschen, ist die
Bestimmung der Ursachen von Ereignissen (Beantwortung der
Warum-Fragen des Lebens)
Alle
Warum-Fragen führen zu einer Analyse der möglichen
kausalen Determinanten für eine bestimmte Handlung, ein Ereignis
oder Ergebnis
Attributionstheorie:
ein allgemeiner Ansatz zur Beschreibung der Art und Weise, in der
ein sozial Wahrnehmender Informationen nutzt, um kausale Erklärungen
zu generieren.
Ursprünge
von Fritz Heider (1958): Argumentation, dass Menschen
ständig kausale Analysen erstellen, um zu versuchen die soziale
Welt zu verstehen --> Menschen als intuitivie Psychologen,
die versuchen herauszufinden was das Menschliche Verhalten
verursacht
Annahme,
dass zwei Fragen die Attributionsanalysen beherrschen:
(1)Ob die Ursache des Verhaltens der Person
(internale oder dispositionale Kausalität) oder der
Situation (externale oder situative Kausalität)
zuzuschreiben ist (2) wer verantwortlich
für das Ergebnis ist.
Harold
Kelley (1967): formalisierte Heiders Gedanken durch die
Spezifikation der Variablen, die Menschen
für ihre Attributionen verwenden.
Kovariationsprinzip:
ein Verhalten wird auf einen Kausalfaktor zurückgeführt wird,
wenn dieser Faktor immer beim Auftreten des Verhaltens gegeben war,
nicht aber wenn das Verhalten nicht aufgetreten ist.
Annahme,
dass Menschen Urteile fällen, indem sie die Kovariation
dreier Dimensionen erfassen. Das zu erklärende Verhalten
wird derjenigen Dimension zugeschrieben, mit der das
Verhalten am stärksten kovariiert:
-->
Distinktheit bezieht sich darauf, ob das Verhalten spezifisch
für eine bestimmte Situation ist
--> Konsistenz
bezieht sich darauf, ob das Verhalten wiederholt als Reaktion auf
diese Situation auftritt
--> Konsens bezieht
sich darauf, ob andere Menschen in der gleichen Situation das
gleiche Verhalten zeigen
Jede
der drei Dimensionen spielt eine Rolle für spezifische
Schlussfolgerungen, jedoch gibt es auch Umstände, in welchen
Verzerrungen (bias) bei Zuschreibungen entstehen.
16.1.2
der fundamentale Attributionsfehler
Lee
Ross (1977): Der fundamentale Attributionsfehler steht für
die menschliche Tendenz, dispositionale Faktoren überzubewerten
(Menschen verantwortlich machen) und situative Faktoren
unterzubewerten (die Umwelt verantwortlich machen), wenn sie nach
der Ursache für ein Verhalten oder Ergebnis suchen.
Studie:
Vor einem Quiz zum Allgemeinwissen werden Probanden durch Münzwurf
entweder zu Fragestellern oder zu Kandidaten. Die
Fragestellenden bewerteten sowohl sich selbst als auch die
Kandidaten als durchschnittlich. Die Kandidaten und die
Beobachter meinten,die Fragestellenden hätten ein besseres
Allgemeinwissen als die Kandidaten. Die Kandidaten
bewerteten sich als unter-durchschnittlich -->
Erklärung: Die Bewertungen der Kandidaten und
Beobachter ignorierten die Umstände, in der die Situation
eine Person klug und eine andere weniger klug erscheinen lassen
(Fragestellender wirkt klüger)
Situative
Kräfte sind unsichtbar: Man kann die verzerrten
Ansichten, aus denen sich die soziale Realität konstruiert,
nicht sehen: Man sieht nur die hervorgebrachte
Verhaltens-weisen.
Vermeidung
des fundamentalen Attributionsfehlers: Besonders in den
Momenten, in denen man eine negative dispositionale Attribution
vornimmt (Was für ein Depp) sollte man einen Moment
innehalten und sich fragen, ob nicht die Situation
das Verhalten auslöst. --> besonders in der
westlicher Kultur relevant, da der fundamentale
Attributionsfehler teilweise kulturelle Quellen hat.
In
den meisten westlichen Kulturen herrscht ein independentes
Verständnis des Selbst & in östlichen Kulturen
dominiert ein interpendentes Verständnis des Selbst.
Forschungen
zeigen, dass Mitglieder nicht westlicher Kulturen sich
infolge der Kultur der Interpendenz weniger wahrscheinlich auf
einzelne Handelnde in Situationen konzentrieren
Aus
der Forschung: Analyse von Medienberichten um herauszufinden, welche
Mittel genutzt wurden, das Abschneiden von Kandidaten in den
olympischen Spielen zu erklären. US-Medien verweilten fast
vollständig bei positiven Charakteristika, wohingegen
japanische auf Positives sowie Negatives eingingen.
Die
Studie zeigt, wie kulturelle Attributionsstile bei allen
weitergegeben und aufrechterhalten werden, die innerhalb
einer bestimmten Kultur mit den Medien in Berührung kommen (über
mehrere Generationen hinweg)
16.1.3 Self-Serving Bias
Viele
Menschen begehen den fundamentalen Attributionsfehler zu
ihrem eigenen Nachteil, wie zum Beispiel die Kandidaten des
Münzwurf-Quiz.; Theorien, dass dies zu den Ursprüngen der
Depression gehören könnte.
Gegenteil:
Self-serving Bias (Verzerrung zugunsten der eigenen Person)
bringt Menschen dazu, Anerkennung für ihre Erfolge anzunehmen und
gleichzeitig die Verantwortung für Misserfolge zu leugnen, oder den
Misserfolg anders zu erklären --> Die Neigung dazu,
dispositionale Attributionen für Erfolge und situative
Attributionen für Misserfolge vorzunehmen.
Beispiel:
Die Neigung Studierender, gute Noten ihren eigenen Anstrengungen
und schlechte Noten externen Faktoren zuzuschreiben. (großer
Einfluss auf Notendurchschnitt!)
Weil
Angehörige östlicher Kulturen mit interpendentem
Selbstverständnis sich der Situation bewusster sind,
kommt es seltener zum Self-Serving Bias -- > Studie:
US-Studierende und Studierende aus Japan sollten die
Ursachen für Erfolge und Misserfolge der Vergangenheit
attribuieren --> Bei US-Studierenden war der Self-Serving Bias
ausgeprägter.
16.1.4
Erwartungen und Selffulfilling Prophecies
Die
Beschaffenheit mancher Situationen kann beträchtlich durch
die Überzeugungen und Erwartungen verändert werden kann,
die Menschen bezüglich dieser Situtation haben.
Selffulfilling
Phophecies (Selbsterfüllende Prophezeiungen) sind
Vorhersagen über ein zukünftiges Verhalten oder Ereignis, welche
die Interaktionen auf Verhaltensebene so verändern, dass sie das
Erwartete hervorbringen.
Beispiel,
an Experiment in einer Grundschule in Boston: Zufällige Schüler
wurden bei ihren Lehrern als "intellektuelle Schnellstarter"
bezeichnet, die ungewöhnliche Fortschritte binnen eines
Schuljahres zeigen würden. Am Ende des Schuljahres, hatten 30
Prozent dieser Schüler mehr deutlich mehr IQ Punkte. Ergebnis:
Die falschen Erwartungen der Lehrer wurden in eine positive
Leistung der Schüle transferiert (z.B. durch Schaffen von mehr
Möglichkeiten zur Beteiligung am Unterricht)
In
den meisten Situationen basieren Erwartungen aber auf
genauen sozialen Wahrnehmungen. Beispielsweise gehen Lehrer
davon aus, dass bestimmte Schüler bessere Leistung zeigen,
weil sie eine bessere
Qualifikation haben --> Üblicherweise zeigen diese
Schüler dann auch bessere Leistung
Wirkmächtigsten
Selffulfilling Prophecies stammen von Eltern --> Aus
der Forschung: Verfolgung des schulischen Abschneidens von
Jugendlichen über 6 Jahre hinweg. Zu Beginn machten Mütter
Angaben über erwartete Schulleistungen. Ergebnis:
Jugendliche entwickelten ein Selbstbild auf der Basis der
mütterlichen Erwartungen & die Schulleistung wurde an
dieses Selbstbild angepasst
Annahme,
dass eine Überschätzung des zukünftigen Alkoholkonsums
ihrer minderjährigen Kinder durch die Mütter zur
Selffulfilling Prophecy werden kann.
16.2 Die Macht der
Situation
Sozialpsychologen:
Hauptdeterminante des Verhaltens ist die Beschaffenheit
der sozialen Situation, in der das Verhalten auftritt -->
Die soziale Situation kontrolliert das individuelle Verhalten, die
Persönlichkeit, Lernerfahrungen, Werte und Überzeugungen aus der
Vergangenheit.
16.2.1 Rollen und Regeln
Soziale
Rolle: ein sozial definiertes Verhaltensmuster, das
von einer Person erwartet wird, wenn sie in einer bestimmten
Umgebung oder Gruppe funktioniert. Unterschiedliche soziale
Situationen stellen unterschiedliche Rollen bereit
("Kind", "Student")
Diese
Rollen machen unterschiedliche Arten von Verhalten angemessener
oder unangemessener und ermöglichen Verhaltensweisen
Soziale
Situationen werden auch durch die Gültigkeit von Regeln
charakterisiert, d.h. Verhaltensrichtlinien für bestimmte
Umgebungen
(1)
Regeln werden explizit auf Schilder geschrieben oder
Kindern explizit gelernt
(2) Implizite Regeln -
sie werden durch Transaktionen mit anderen in bestimmten Umgebungen
gelernt (z.B. Lehrer nicht beim Vornamen nennen, in Japan ein
Geschenk nicht vor dem Schenkenden öffnen, Nicht Sprechen in
Aufzügen etc)
Das Standford Gefängnisexperiment (1971)
Normalerweise
sind die Einflüsse von Rollen und Regeln nicht sehr bewusst, das
Experiment brachte diese Kräfte zum Einsatz
Ablauf:
Freiwillige Studenten (gesetzestreu, emotional stabil, normal
durchschnittlich) nehmen an einem zweiwöchigen Experiment zum
Gefängnisleben teil. Durch Münzwurf wurde einigen die
Rolle der Wärter, oder den Gefangenen zugeteilt. Ablauf, wie im
echten Gefängnisleben.
Die
Wärter (zuvor Pazifisten) verhielten sich aggressiv (sogar
sadistisch) und bestanden darauf, dass alle Gefangenen die Regeln
strikt befolgen. Falls nicht, folgte der Verlust von
Priviliegien, bis hin zu niederen Arbeiten und Einzelhaft.
Entwicklung immer wieder neuer Strategien, um den Gefangenen das
Gefühl zu geben, sie seien wertlos. (Entzug der Kleidung,
Anlegen von Ketten, Verweigern von Essen)
Die
Gefangenen (zuvor psychisch stabil) verhielten sich pathologisch
und ergaben sich passiv dem Schicksal. Nach missglückter
Gefangenenenrebellion kam es bei einzelnen zu unkontrolliertem
Weinen, Wutausbrüche, desorganisiertem Denken, Anzeichen einer
Depression und psychosomatischen Hautausschlägen.
Zusammenfassung:
Die Beobachtung der
sechstägigen
Interaktion zeigten,
dass die Gefangenen zunehmend mehr passiven Widerstand
leisteten, während die
Wärter immer dominanter, kontrollierender und feindseliger wurden.
--> Das Verhalten der
Wärter unterschied
sich von dem der Gefangenen
in jeder beobachtbaren Weise
Dieses
Experiment hiflt dabei Licht auf Skandale wie die Verhaltensweisen
der Wachen im Gefängnis Abu Ghuraib 2003 im Irak zu werfen:
Die Macht der Situation kann normale Menschen dazu bringen, sich
grausam zu verhalten.
Vor
Beginn gab es eine gründliche Bewertung der menschlichen
Implikationen (z.B. Ethik). Obwohl die Forscher an die
Macht der Situation geglaubt hatten, waren sie vom Ausmaß der
Situation und der Dynamik der negativen psychologischen Prozesse
überrascht (Experiment vorzeitig nach 6 Tagen beendet)
Nachfolgeuntersuchungen:
keine langfristigen negativen Effekte bei den Freiwilligen
Bei
ethischen Erwägungen, muss man auch die Gewinne für die
Teilnehmer berücksichtigen --> Nachdenken über die
langfristigen Auswirkungen ihrer Teilnahme (Proband,der als
1. das Experiment abbrach wurde z.B. klinischer Psychologe, mit dem
Ziel die Erfahrungen des Experiments einzusetzen)
Entscheidendes
Merkmal des Experiments ist, dass einzig der Zufall über
die Rollen der Teilnehmer etnschied. Diese Rollen haben Status-und
Machtunterschiede geschaffen, die in der Gefängnissituation
bekräftigt wurden. Den Studenten wurde nicht gelehrt, wie
sie die Rollen zu spielen haben.
Sie
haben auch schon in früheren sozialen Interaktionen solche
Machtunerschiede erlebt (Eltern-Kind, Schüler-Lehrer). Die
Studenten haben für diese spezielle Umgebung lediglich ihre
früheren Verhaltensmuster verfeinert und intensiviert.
16.2.2
Soziale Normen
Gruppen
entwickeln Erwartungen bezüglich der Art und Weise, in der sich
ihre Mitglieder verhalten sollten
Soziale
Normen: die spezifischen Erwartungen bezüglich sozial
akzeptierter Einstellungen und Verhaltensweisen, die in den
expliziten oder impliziten Regeln einer Gruppe
verankert sind. Soziale Normen können grobe Richtlinien sein
oder spezifische Verhaltenstandards beinhalten
Teil
der Zugehörigkeit zu einer Gruppe ist üblicherweise, dass
man die Menge sozialer Normen herausfindet, die das gewünschte
Verhalten in der Gruppenumgebung regeln.
Anpassung
auf zwei Weisen: Man bemerkt die Uniformität bestimmter
Verhaltensweisen, die alle oder die meisten Gruppenmitglieder zeigen
und man beobachtet die Konsequenzen, wenn jemand die soziale
Norm verletzt.
Wichtige
Funktionen: Ein Bewusstsein für die Normen, die in einer
bestimmten Gruppenumgebung gültig sind, hilft sich zu
orientieren und soziale Interaktionen zu regulieren. Es ist
klar, welche Art von Verhalten erwartet wird, um Anerkennung
zu finden. Eine gewisse Toleranz gegenüber Abweichungen
vom Standard ist auch Teil der Norm.
Gruppenmitglieder
können abschätzen, wie weit sie gehen können, bevor die sie
auf Zwang basierende Macht der Gruppe zu spüren bekommen
(Lächerlichmachen, Umerziehung oder Zurückweisung
16.2.3
Konformität
Wenn
man eine soziale Rolle einnimmt oder sich einer sozialen Norm
beugt, verhält man sich konform mit sozialen
Erwartungen --> Konformität ist die Tendenz von
Menschen, das Verhalten und die Meinungen anderer Gruppenmitglieder
zu übernehmen. Zwei Arten von Kräften können zu Konformität
führen
Prozesse
des Informationseinflusses - Das Bedürfnis, sich in einer
bestimmten Situtation richtig zu verhalten und die richtige
Handlungsweise zu verstehen
Prozesse
des Normeneinflusses - Das Bedürfnis, von anderen gemocht,
akzeptiert und geschätzt zu werden
Informationseinfluss:
Sherifs autokinetischer Effekt
Informationseinfluss:
Andere Mitglieder der Gesellschaft werden beobachtet, um eine
angemessene Wahl des Verhaltens zu treffen
Ein
klassisches Experiment von Muzafer Sherif (1935) zeigte, wie
Informationseinfluss zur Normenkristallisierung (Normbildung und
Verfestigung) führen kann
Teilnehmende
sollen das Ausmaß an Bewegung eines Lichtpunkts abschätzen, der
sich in Wirklichkeit nicht bewegte. (Wahrnehmungstäuschung:
Autokinetischer Effekt). Sobald die Teilnehmenden in eine
fremde Gruppe kamen und ihre Schätzungen abgaben, begannen
diese zu konvergieren. Sie fingen an zu sehen, dass sich das
Licht in die gleiche Richtung und im gleichen Ausmaß bewegte.
Im letzten Teil des Experiments sollten die Probanden wieder allein
ihre Schätzungen abgeben und folgten weiterhin der
Gruppennorm, die zuvor entstanden war.
Sobald
innerhalb einer Gruppe Normen etabliert wurden, neigen diese
dazu, sich selbst aufrechzuerhalten. Sie können über einen
langen Zeitraum bestehen bleiben und sogar über Generationen von
Mitgliedern in weitergegeben werden. So wird das Verhalten von
Personen noch beeinflusst, nachdem die ursprüngliche Gruppe nicht
mehr existiert.
Studie
zum autokinetischen Effekt: Forscher ersetzten nach jedem
Satz von Durchgängen ein Gruppenmitglied durch ein neues, bis alle
Mitglieder der Gruppe neu in der Situation waren. Die
ursprüngliche Norm blieb im Verlauf mehrerer sukzessiver
Generationen erhalten.
Normeneinfluss:
Der Asch-Effekt
Manchmal
handeln Menschen aufgrund von Normeneinfluss konform- dem
Bedürfnis, von anderen gemocht, akzeptiert und geschätzt zu werden
Salomon
Asch (1940,1956) schuf Situationen in welchen die Teilnehmenden
über Bedingungen urteilten, in denen die physikalische Realität
klar war, der Rest der Gruppe jedoch angab, diese Realität
anders wahrzunehmen.Die Einschätzungen von eingeweihten
Personen wurden geäußert, welche falsche Informationen gaben.
Dadurch kam es bei den Uneingeweihten zu einem Dilemma und
Unbehagen, wenn sie einer Mehrheit gegenüberstanden, die
anderer Meinung waren --> Ergebnis: Ein Viertel blieb
vollständig unabhängig. Zwischen 50 und 80 % gingen jedoch
mindestens einmal mit der falschen Mehrheit konform -->
Diejenigen die nachgaben, unterschätzten den Einfluss
des sozialen Drucks und die Häufigkeit ihrer Konformität.
Variation
dreier Faktoren in anderen Studien von Asch: (1) Erkenntnis, dass
starke Konformitätseffekte durch eine einstimmige Mehrheit von nur
3 oder 4 Personen hervorgerufen wurden. (2) Mit nur einem
Verbündeten verringerte sich die Konformität merklich. (3) Mit
Partner konnten sie dem Druck der Mehrheit widerstehen.
Interpretation:
Asch selbst bezeichnete seine Forschung als Studie zur
Unabhängigkeit. Tatsächlich gaben die Probanden in 2/3 der
Fälle die nichtkonforme Antwort, insgesamt ergibt sich in den
meisten Beschreibungen die Zahl 1/3 -- > Menschen
werden nicht vollständig durch Normen beeinflusst -
meistens behaupten sie ihre Unabhängigkeit. Andererseits
gehen Menschen manchmal mit der Gruppe konform, selbst in
unzweideutigen Situationen.
Dieses
Potenzial der Konformität ist ein wichtiges Element des
menschlichen Daseins
Konformität im Alltag
Beispiele:
"modische" Kleidung und Trends, Anpassung Jugendlicher
hinsichtlich riskanten Verhaltens an Gleichaltrige, z.B.
Drogenmissbrauch
Frage,
inwiefern sich die Ergebnisse des Asch-Experiments auf das Verhalten
einer Jury übertragen lassen. Studie: Auswertung von
Jury-Entscheidungen in strafrechtlichen Prozessen. Augenmerk lag auf
mehrheitlich getroffenen Entscheidungen, bei denen die Juroren
letztlich zum selben Urteil gelangt waren. Die Juroren sollten
angeben, zu welchem Urteil sie gelangt wären, wenn sie alleine
die Jury gewesen wären. Ergebnis: Ca 40% der privaten
Urteile wichen vom öffentlich bekundeten ab. Dieses Ergebnis
kann jedoch nur zum Teil auf normative Einflüsse zurückgehen,
da ein Teil der Konformität auf informationale Einflüsse
zurückgeht.
Die
starke Neigung sich normativen Einflüssen zu unterwerfen
kann viele negative Konsequenzen hervorrufen - Beispiel:
suizidale Kulturen, also Umstände, unter denen Mitglieder
einer Kultur Gruppennormen internalisierten, was letztlich
dazu führte, dass sie sich ihr Leben nahmen. Ein Beispiel hierfür
ist die Gruppe Heavens Gate, die 1997 in San Diego
Massenselbstmord aufgrund ihres Glaubenssystem begangen
Auch
das Internet stellt Mittel bereit, Menschen auf besonders
effektive Art und Weise für Kulte und andere Glaubenssysteme zu
rekrutieren
Einfluss von Minderheiten und
Nonkonformität
Die
Macht der Mehrheit beeinflusst auch, wie lange Menschen
brauchen, bevor sie ihre wahren Ansichten in einem nicht
öffentlichen Kontext offenaren
Die
Forschung beschäftigt die Frage, wie es möglich ist, dass
Menschen der Beherrschung durch die Gruppe entkommen und etwas Neues
(gegen die Norm gerichtetes) entsteht.
Serge
Moscovici: Einfluss von Minderheiten - Experiment:
Identifizierung von Farb-Flecken war bei den meisten
Versuchsteilnehmern korrekt, nur zwei Eingeweihte waren
anderer Meinung. Der übereinstimmende Widerstand als Minderheit
hatte zwar keinen unmittelbaren Einfluss auf die Mehrheit,
aber beeinflusste einzelne Teilnehmende bei einer späteren
Einzelbefragung --> Mit der Zeit kann die Macht der Vielen
von der hartnäckigen Überzeugung einiger weniger unterhöhlt
werden.
Minderheiten
besitzen relativ wenig Normeneinfluss: Mitglieder der Mehrheit
machen sich normalerweise wenig daraus, ob sie von der Minderheit
gemocht/aktzepiert werden
Minderhieten
besitzen jedoch Informationseinfluss: Sie können
Gruppenmitglieder dazu ermutigen, Sachverhalte aus verschiedenen
Perspektiven zu betrachten. Dieses Potenzial erlaubt nur
unregelmäßig den normativen Wunsch der Mehrheit zu überwinden,
sich vonabweichenden/ nicht konsensfähirgen Ansichten zu
distanzieren
16.2.4 Eintscheidungsfindung in der Gruppe
Zwei
spezifische Kräfte, die wirksam sind, wenn Gruppen Entscheidungen
treffen: Gruppenpolarisierung und Groupthink
Gruppenpolarisierung:
Gruppen weisen eine Tendenz zu Entscheidungen auf, die
extremer als die Entscheidungen sind, welche die Mitglieder allein
getroffen hätten. Man einigt sich auf einen Wert, der die
Gruppeneinstellung wiedergibt und wenn die Bewertung der Gruppe
extremer ist, als der Durchschnitt der Einzelbewertungen,
ist das ein Fall von Polarisierung.
Abhängig
von der anfänglichen Gruppentendenz wird die
Gruppenpolarisierung eine Gruppe tendenziell vorsichtiger
oder risikofreudiger machen.
(1)
Modell des Informationseinflusses - Mitglieder tragen
unterschiedliche Informationen zur Entscheidungsfindung bei (2)
Modell des sozialen Vergleichs - Mitglieder versuchen die
Achtung der anderen zu erringern, indem sie ein Gruppenideal
repräsentieren, das etwas extremer, als die wahre Gruppennorm ist.
Gruppenpolarisierung
als Folge des Denkmusters Groupthink
Irving
Janis (1982): Groupthink ist die Tendenz einer Gruppe,
die eine Entscheidung treffen muss, unerwünschten Input
auszufiltern. Durch das Ausfiltern kann ein Konsens erreicht werden,
besonders dann, wenn dieser Konsens mit dem Standpunkt des Anführers
übereinstimmt.
Entstehen
dieser Theorie durch die historische Analyse der
Schweinebucht-Invasion auf Kuba 1960, die Präsident Kennedy
aufgrund von zurückgehaltenen Informationen seiner Berater
absegnete, die für die Invasion waren.
Merkmale,
die eine Gruppe anfällig für Groupthink machen (1) sehr
kohäsive Gruppen, die von Experten abgeschnitten sind und
unter Führungsvorgaben arbeiten (2) Wenn Gruppen ein kollektives
Bedürfnis nach Aufrechterhaltung des gemeinsamen positiven
Eindrucks der Gruppe haben.
Gruppenmitglieder
müssen verstehen, dass Dissens oft die Qualtität der
Entscheidung verbessert, selbst wenn das oberflächlich das
gute Gefühl in der Gruppe gemindert wird.
16.2.5
Gehorsam gegenüber Autoriät
Stanley
Milgram (1956,1974) ein Student Salomon Aschs, zeigte mit seinen
Forschungen, dass der blinde Gehorsam weniger ein Resultat
dispositionaler Charakteristika als ein Ergebnis der situativen
Kräfte ist.
Sehr
kontroverse Forschung, da sie bedeutsame Implikationen für
Phänomene in der realen Welt hat und ethische Fragen aufwirft
Das
Gehorsamkeitsparadigma
Milgram
verwendete sorgfältig kontrollierte Laborexperimente, um die
Variablen Persönlichkeit und Situation zu
trennen
Auswahl
einer breit aufgestellten, repräsentativen Stichprobe
(unterschiedliches Alter, Beruf, Geschlecht, Schulbildung) für
sein Gehorsamkeitslabor in Conneticut
Freiwillige
wurden in die soziale Rolle des Lehrers gesteckt, die die Fehler der
Person, die in der Schülerrolle war, mithilfe von Elektroschocks
bestrafen sollten.
Die
wichtigste Regel war, die Stärke des Elektroschocks jedes
Mal zu erhöhen, wenn ein Fehler auftrat. Der Versuchsleiter im
weißen Kittel spielte die Rolle der legitimierten
Autoritätsperson und wies die Lehrer an, ihre Aufgabe
(Elektroschock) zu erfüllen, wenn sie zögerten/ Widerstand
leisteten.
Die Test-Situation
Die
Teilnehmenden sollten denken, dass durch das Befolgen von
Befehlen einer unschuldigen Person Schmerz zuzufügen und
sie vielleicht sogar zu töten
Wenn
der Lehrer zögerte oder protestierte, spielte der
Versuchsleiter seine Autorität aus ("Das Experiment
erfordert, dass Sie fortfahren", Sie müssen weitermachen!")
Die
Situtation verursachte bei den Teilnehmenden beträchtlichen
Stress. Die meisten protestierten und bestanden darauf, nicht
weiter machen zu können. Aber auch wenn es ihnen sichtlich
schwer fiel, machten viele Teilnehmer weiter, um zu
gehorchen
Warum gehorchen Menschen einer
Autorität?
Einschätzungen
von Psychatern: Nur 0,1 Prozent würden bis zum Ende, 450
Volt fortfahren. Sie gingen davon aus, dass nur anormale Personen
(z.B. Sadisten) blind gehorchen und fortfahren würden.
Sie
gründeten ihre Bewertungen auf vermutete dispositionale
Qualitäten von Menschen, die solch anormales Verhalten zeigen
würden --> sie übersahen jedoch die Macht der Situation,
das Denken und Handeln der Personen zu beeinflussen, die in ihrem
sozialen Kontext verstrickt waren.
Fazit:
Die Mehrheit der Teilnehmer gehorchte der Autoriät bis in
Letzte. Kein Teilnehmer beendete den Versuch unter 300 Volt (56%
bis 450 Volt). Trotz verbalem Widerstands verhielten sich die
meisten gehorsam. Aus Sicht der Opfer ist es jedoch ein
entscheidender Unterschied zwischem verbalen und richtigen
Widerstand.
Milgrams
Studie legt nahe, dass man die in einer Situation wirksamen
psychologischen Kräfte genau betrachten muss, um zu verstehen,
warum Menschen Autoritäten gehorchen.
Milgram
und andere Forscher manipulierten eine Vielzahl von Aspekten der
Umstände, um zu zeigen, dass der Effekt des Gehorsams
überwiegend durch situative Variablen zustande kommt,
nicht durch Personölichkeitsvariablen.
Die
veränderten Umstände waren, Entfernte Rückmeldung, Stimmliche
Rückmeldung, Nähe, Berührungskontakt. Fiel die Distanz
geringer aus, war auch der Gehorsam geringer.
Alle
Befunde deuten darauf hin, dass die Situation und nicht die
Unterschiede zwischen einzelnen Teilnehmenden das Verhalten zu
großen Teilen steuert
Behauptung,
dass Menschen heutzutage aufgrund der kulturellen Veränderungen
nicht länger gehorchen. Jerry Burger
untersuchte diese Behauptung durch eine teilweise Replikation
des Experiments. Er argumentierte, dass Menschen, die nach 150 Volt
weitermachten, mit hoher Wahrscheinlichkeit auch darüber
hinausgehen würden. (Bei Milgram 82% und bei Burger 70%)
Schlussfolgerung: dieselben situationalen Faktoren, die
bei Milgram Gehorsam auslösten sind auch heute wirksam.
Die
Gründe für das Gehorsam liegen in den Effekten des
Informationseinflusses und Normeneinflusses - Menschen wollen
gemocht werden (Normeneinfluss) und sie wollen sich korrekt
verhalten (Informations-einfluss).
(1)Menschen
tun das, wozu sie aufgeforder werden, um sozial akzeptiert bzw
geschätzt zu werden. (2) Menschen verlassen sich in
mehrdeutigen, neuen Situationen auf andere um Hinweise zu
erhalten, wie man sich angemessen verhält. Mit hoher
Wahrscheinlichkeit, wenn Menschen mit Expertenstatus anwesend
sind (3) die Teilnehmenden waren unsicher, wie sie
nicht gehorchen sollten ; nichts was sie als Widerspruch
vorbrachten, stellte die Autorität zufrieden. (4) Gehorsam
gegenüber Autoritäten ist in experimentellen SituationenTeil einer
tief verwurzelten Gewohnheit, die schon von Kindern gelernt
wird - einer Autoriät gehorchen, ohne Fragen zu stellen.
Dies ist nützlich für die Gesellschaft, sofern die Autoritäten
legitimiert sind und die Gehorsam verdienen. Problem: Die
Regel wird zu oft angewendet - Blinder Gehorsam gegenüber
Autoriäten heißt Gehorsam gegenüber jeder/allen
Autoriätspersonen, aufgrund des zugeschriebenen Status, unabhängig
davon ob die Befehle gerechtfertigt sind.
Diese
Forschungen stellen den Mythos infrage, demzufolge das Böse nur
im Geist böser Menschen lauert--> Ziel der Forschung:
Klarstellung, dass sogar normale, wohlgesinnge Personen dem
Potenzial zur Schwäche angesichts von starken situativen und
sozialen Kräften unterliegen.
16.3
Einstellungen, Einstellungsänderungen und Handlungen
Einstellung:
eine positive oder negative Bewertung von Menschen,
Objekten und Vorstellungen. Viele Einstellungen sind nicht offen
sichtbar.
Einstellungen
sind wichtig, weil sie das Verhalten und die Art und Weise in der
die soziale Realität konstruiert wird, beeinflussen-->
Beispiel Eiskunstlauf: Die Menschen "sahen"
verschiedene Darbietungen; die Attributionen von Ereignissen
wurden in Übereinstimmung mit
den jeweiligen
Einstellungen
vorgenommen.
16.3.1 Einstellungen und Verhalten
Drei
Arten von Informationen, die zu Einstellungen führen -
kognitiv (Gedanken), affektiv (Gefühle) und Behavioral
(Verhalten). Einstellungen generieren auch Reaktionen dieser
drei Kategorien
Es
ist nicht schwer, eine Einstellung zu messen, die Frage ist
vielmehr ob diese Einstellung immer einen richtigen Hinweis
darauf gibt, wie sich Menschen tatsächlich
verhalten --> Gleichzeitig folgen die
Verhaltensweisen manchmal den Einstellungen
Ein
Merkmal von Einstellugen, das Verhalten vorhersagt, ist die
Verfügbarkeit - die Stärke der Assoziation zwischen
einem Einstellungsobjekt und der Bewertung dieses Objektes durch
eine Person
Einstellungen
werden leichter verfügbar, wenn sie auf unmittelbaren
Erfahrungen beruhen oder wiederholt wurden: Sie ist desto
verfügbarer, je öfter sie bereits ausformuliert wurde.
Aus
der Forschung: Frage, was Menschen dazu bewegt, Blut zu spenden.
Annahme, dass Spender positive Einstellungen bzgl des Themas
haben --> Hypothese, dass die Wahrscheinlichkeit eines
erneuten Spendens erhöht werden kann, wenn man diese
Einstellungen zugänglich macht --> Fragebogen als Mail
versendet errinnert Menschen an ihre positive Einstellung -->
Mehr Blutspenden
Einstellungen
sind auch dann bessere Prädiktoren für das Verhalten, wenn sie
über die Zeit hinweg stabil bleiben. Nur wenn der "Beleg"
für die Einstellung stabil bleibt, kann es eine enge
Beziehung zwischen der Bewertung (Gedanken) und den ausgeführten
Handlungen geben
Eine
Möglichkeit Einstellungen und Verhalten einander
anzugleichen: Verbesserung der Einstellungsmaße -
Entwicklung einer Reihe neuer Verhaltensmaße, die versuchen
automatische oder implizite Einstellungen bei
Menschen zu erfassen, also Einstellungen die nicht ins
Bewusstsein gelangen. Diese impliziten Einstellungen sagen
das Verhalten präziser vorher (z.B. Vorurteile, die dem
Menschen nicht bewusst sind)
16.3.2
Persuasionsprozesse
Persuasion/Beeinflussung:
die bewussten Anstrengungen, Einstellungen zu ändern.
Damit es zur Beeinflussung kommen kann, müssen bestimmte
Bedingungen erfüllt sein.
Elaboration-Likelihood-Modell
- eine Theorie der Beeinflussung, die definiert, wie
wahrscheinlich es ist, dass Menschen ihre kognitiven Prozesse
fokussieren, um eine persuasive Botschaft zu elaborieren.
Unterscheidung in zentrale und periphere Routen der
Beeinflussung
Zentrale
Route: Umstände, unter denen Menschen sorgfältig über
persuasive Kommunikation nachdenken, sodass eine
Einstellungsänderung von der Stärke der Argumente abhängt. Dieses
sorgfältige Nachdenken heißt high elaboration
Periphere
Route: Umstände, unter denen Menschen sich nicht kritisch
mit der Botschaft auseinandersetzten, sondern auf oberflächliche
Hinweisreize in der Situation reagieren. Der Verzicht auf kritisches
Nachdenken heißt low elaboration
Ob
die zentrale oder periphere Route einschlägen wird, hängt von den
eigenen Motiven bezüglich der Botschaft ab:
Ist man bereit oder in der Lage dazu, über den persuasiven Inhalt
nachzudenken
Beispiel:
Werbetreibende verlassen sich oft darauf, dass man die periphere
Route einschlägt (Bekannter Schauspieler soll von eigentlichen
Argumenten des Produkts ablenken - Hoffnung, dass man sich von der
allgmeinen Sympathie für den Schauspieler überzeugen lässt, das
Produkt zu kaufen)
Unter
welchen Umständen man am wahrscheinlichsten motiviert ist, die
zentrale Route der Beeinflussung einzuschlagen werden anhand des
Phishing-Phänomens erklärt: Phishing dreht sich um
Überzeugung, dass es um eine wirkliche Informationsanfrage
handelt. Analysen fanden heraus, dass Studierende die der
Experimental-Nachricht mehr persönliche Relevanz zusprachen, einen
tiefgreifenden Verarbeitunsstil wählten. Menschen die auf
oberflächliche Hinweisreize (Großbuchstaben) konzentrieren,
gingen dem Phishing eher auf den Leim -->
Das
Elaboration-Likelihood-Modell legt nahe, dass man große Bemühung
aufbringen muss, um nicht überredet zu werden. Studie:
Studierenden wurde explizit gesagt, nicht an einen weißen
Bären zu denken, bevor sie einen Essay lasen - Diese Anstrengung,
nicht daran zu denken hat mentale Ressourcen aufgebraucht, sich
wirklich mit dem Inhalt des Essays auseinander zu setzen.
16.3.3
Persuasion durch eigene Handlungen
Zwei
Ansätze zur Selbstbeeinflussung: kognitive Dissonanztheorie und
Selbstwahrnehmungstheorie
Kognitve
Dissonanztheorie
Das
Streben nach Konsistenz der Einstellungen untersuchte Leon
Festinger (1957) anhand der kognitiven Dissonanztheorie
Kognitive
Dissonanz: Ein Konfliktzustand, den eine Person
erlebt, nachdem sie eine Entscheidung getroffen hat, eine Handlng
vorgenommen hat oder im Kontakt mit Informationen gekommen ist, die
im Widerspruch zu ihren Überzeugungen, Gefühlen und Werten stehen.
Annahme,
dass wenn die Kognition einer Person bezüglich ihres Verhaltens
und relevanter Einstellungen dissonant ist - eine nicht aus der
anderen folgt - , ein unangenehmer Zustand entsteht, den die
Person reduzieren möchte. Aktivitäten, die Dissonanz
reduzieren, modifizieren den unangenehmen Zustand. --> Dissonanz
besitzt motivierende Kraft - sie treibt an, etwas gegend das
unangenehme Gefühl zu unternehmen. Die Motivation zur
Reduktion der Dissonanz steigt mit der Stärke der Dissonanz, die
durch die koginitve Inkonsitenz geschaffen wird.
Klassisches
Experiment: Studierende erzählen anderen eine Lüge und begannen
an ihre Lüge zu glauben, wenn sie eine kleine statt der
erwarteten großen Belohnung für das Lügen erhielten - Das
Experiment zeigt, dass Menschen unter der Bedingung starker
Dissonanz ihr Verhalten im Nachhinein rechtfertigen und sich selbst
überzeugen.
Zweifel
daran, dass sich die Dissonanzeffekte auf andere Kulturen
verallgemeinern lassen. Dies liegt an der Art und Weise in
der sich das Konzept des Selbst von Kultur zu Kultur
verändert. Beispiel: Menschen aus Nordamerika unabhängig
(independent) und von anderen in ihrer Umgebung verschieden;
Mitglieder asiatischer Kulturen sehen sich als wechselseitig
abhängig (interpendent) und eng mit anderen verbunden
Erleben
von Dissonanz nur bei (Versuch Konsistenz innerhalb ihres
Selbstkonzeptes aufrechzuerhalten) bei einem independenten Konzept
des Selbst.
Aus
der Forschung: Kanadische und japanische Probanden untersuchen eine
Liste von Vorspeisen. Auswahl der Lieblingsgerichte für sich selbt
und für einen Freund. Gutschein für eins der Gerichte. Kanadische
Teilnehmer erleben eine stärkere Dissonanz in Bezug auf ihre eigene
Auswahl (independetes Konzept des Selbst), während japanische
Teilnehmende mehr Dissonanz bei der Auswahl für ihren Freund
erleben (interpendentes Konzept des Selbt)
Selbstwahrehmungstheorie
Daryl
Bem (1972) entwickelte die Selbstwahrnehmungstheorie,
die die Umstände identifiziert, unter denen Verhaltensweisen
Einstellungen beeinflussen
Selbstwahrehmungstheorie:
man erschließt innere Zustände (Überzeugungen, Einstellungen,
Motive und Gefühle) oder den inneren Sollzustand, indem man
wahrnimmt wie man in der Vergangenheit in einer bestimmten Situation
gehandelt hat. Menschen nutzen dieses Wissen über sich selbst, um
auf die wahrscheinlichsten Ursachen und Determinanten des Verhaltens
zurückzuschließen
Beispiel:
Man beantwortet eine Frage zu persönlichen Präferenzen ("Mögen
Sie Psychologie?"), indem man eine behaviorale Beschreibung
der relevanten Handlungen und situativen Faktoren abgibt - statt
eigene Gedanken und Gefühle zu hinterfragen
Fehler
im Prozess des Wissenserwerbs über sich selbst anhand der
Selbstwahrnehmung: Menschen sind oft unempfänglich für das
Ausmaß, in dem ihr Verhalten durch situative Kräfte beeinflusst
wird - Der Prozess der Selbstwahrnemung kann zu einer
negativen Selbstbewertung führen --> Vermeidung:Man kann
das eigene Verhalten beobachten und daraus die eigene
Einstellung ableiten
16.3.4
Compliance
Menschen
wollen oft, dass Andere ihr Verhalten ändern - Sie wollen
Compliance (Folgsamkeit) herbeiführen - eine
Verhaltensänderung, die zu ihrem Ansinnen passt
Beispiele:
Werbetreibende wollen, dass man das Produkt auch wirklich
kauft ; Ärzte wollen, dass man dem medizinischen Rat folgt
Reziprozität
Reziprozitätsnorm:
Eine der dominierenden Regeln menschlicher Erfahrung - Eine
Person tut etwas für einen, man selbst tut auch etwas für diese
Person
Forschungen
zeigten, dass sogar ein sehr kleiner
Gefallen dazu führt, im Gegenzug einen weitaus größeren Gefallen
zu tun - Beispiel Verkaufsstrategien: Verkäufer geben einen
Preisnachlass (kleiner Gefallen) und man selbst kommt in
Bedgrängnis, wenn man den Gefallen nicht erwidert und das
Produkt kauft.
Mit-der-Tür-ins-Hauss-fall-Technik:
Wenn Menschen zu einergroßen Bitte "Nein" sagen,
bejahen sie oft eine kleinere Bitte --> Im Bezug auf
Reziprozitätsnorm: Wenn jemand eine Bitte an eine Person
richtet, von einer großen Bitte auf eine gemäßigtere umschwenkt,
dann hat diese Person etwas für die Andere getan: Jetzt muss
etwas für diese Person getan werden, sonst wird die Norm
verletzt (die kleine Bitte wird erfüllt)
Verbindlichkeit
Verkäufer
wissen, dass Menschen gerne in ihrem Verhalten konsistent
scheinen. Wenn etwas kleines schmackhaft gemacht wurde,
wollen sie es schaffen etwas Größeres zu verkaufen.
"Fuß-in-der-Tür-Technik":
Sobald jemand einen Fuß in der Tür hat, kann diese Person das
Gefühl der Verbindlichkeit nutzen umd die spätere Compliance zu
vergrößern. Diese Technik funktioniert, da das ursprüngliche
Verhalten dazu führt, dass auch das nachfolgende Verhalten zum
Selbstbild passen soll.
"Fuß-in-den-Mund-Technik":
Indem man Menschen dazu bringt, eine einfache erste Frage zu
beantworten kann man die Wahrscheinlichkeit erhöhen, dass sie im
Anschluss einer Bitte entsprechen werden --> Aus der
Forschung: Werbung für Umfrage am Telefon beginnt mit
einfacher Frage, die die Wahrscheinlichkeit für die Teilnahme an
der Umfrage erhöhte --> Compliance wird gesteigert
Diese
Compliance Techniken werden in den meisten Fällen dazu
verwendet, Menschen zu etwas zu bewegen, dass sie nicht tun wollen
(Verkaufen!)
16.6
Aggression, Altruismus und prosoziales Verhalten
Aggression:
das Verhalten von Menschen, das bei anderen einen psychologischen
oder physischen Schaden verursacht. Psychologen versuchen die
Ursachen von Aggression zu verstehen, um dieses Wissen für ein
Reduzieren des Gewaltmaßes auf allen gesellschaftlichen Ebenen
nutzbar zu machen.
Prosoziale
Verhaltensweisen sind Verhaltensweisen, denen Menschen
nachgehen, um anderen Menschen zu helfen.
Altruismus:
prosoziales Verhalten, das Menschen ausüben, ohne dass es dabei um
die eigene Sicherheit oder eigene Interessen ginge.
Es
gibt persönliche und situationale Faktoren, die beeinflussen
mit welcher Wahrscheinlichkeit diese helfenden Verhaltensweisen
auftreten
16.6.1
Individuelle Unterschiede
Wichtiger
Befund der Forschung: Manche Menschen sind konsistent aggressiver
als andere
Studien
belegen, dass genetische Komponenten einen starken
Einfluss auf aggressive Verhaltensweisen haben. Zum Beispiel
weisen eineiige Zwillinge durchweg höhere Korrelationen für
Aggressivität auf als zweieiige Zwillinge
Aufmerksamkeit
auf Unterschiede im Gehirn, die möglicherweise eine
Prädisposition für aggressives Verhalten anzeigen. Wichtige
Gehirnstrukturen, wie Amygdala und Teile des Cortex spielen
eine Rolle im Ausdruck und der Regulation von Emotionen.
Bei
Aggression ist es entscheidend, dass Bahnen im Gehrin effektiv
funktionieren, damit Menschen ihren Ausdruck negativer
Emotionen kontrollieren können. Wenn Menschen z.B. einen
unangemessenen Aktivationsgrad in der Amygdala erleben, dann
können sie die negativen Emotionen nicht hemmen, die zu
aggressivem Verhalten führen.
Aufmerksamkeit
auf dem Neurotransmitter Serotonin: Ein unangemessener
Serotoninspiegel kann die Fähigkeit des Gehirns
beeinträchtigen, negative Emotionen und impulsives Verhalten zu
regulieren --> Studie: Aggressive Männer haben eine
verminderte Reaktion im Serotoninsystem auf ein Medikament
(Fenfluramin), das normalerweise Einfluss auf dieses System
ausübt. --> Eine bestimmte genetische Variation kann die
Serotoninfunktion so beeinflussen, dass es ein hohes Risiko
von aggressivem Verhalten zur Folge hat.
Es
ist wichtig, zwischen Kategorien aggressiven Verhaltens zu
unterscheiden: Menschen mit unterschiedlichen
Persönlichkeitsprofilen werden verschiedene Arten der
Aggression zeigen --> Trennung von impulsiver Aggression
von instrumenteller Aggression
Impulsive
Aggression entsteht als Reaktion auf Situationen und ist
emotionsgeleitet: Im Eifer des Gefechts
reagieren Menschen aggressiv
Instrumentelle
Aggression ist zielgerichtet (die Aggression dient als
Mittel zu einer Zielerreichung) und wissensbasiert: Menschen
üben aggressive Handlungen mit vorausgegangenen Überlegungen aus,
um bestimmte Ziele zu erreichen
Unterschiedliche
Persönlichkeitsmerkmale sind relevant: z.B. sind Menschen mit einer
Neigung zu impulsiver Aggression , häufig mit hohen Werten auf
dem Faktor emotionale Reagibilität ausgestattet.
Das heißt, starke emotionale Reaktionen auf eine Bandbreite von
Situationen
Menschen
mit einer Neigung zu instrumenteller Aggression zeigen hohe Werte
auf dem Faktor positive Bewertung von Gewalt. Diese
Menschen sind der Ansicht, dass viele Formen der Gewalt
gerechtfertigt sind und akzeptieren auch keine moralische
Verantwortung für aggressives Verhalten
Diese
Befunde zeigen, dass nicht alle Arten der Aggression auf
denselben zugrunde liegenden Persönlichkeitsfaktor
hervorgehen.
Die
meisten Personen bewegen sich nicht an den Extrempolen der
Aggression. Dennoch verhalten sich sogar die sanftmütigsten
Menschen in manchen Situationen aggressiv
16.6.2 Situative
Einflüssse
Frustrations-Aggressions-Hypothese:
Frustration entsteht in Situationen, in welchen Menschen in ihrer
Zielerreichung behindert oder von ihr abgehalten werden;
Wachsende Frustration führt mit einer größeren
Wahrscheinlichkeit zum Auftreten von Aggression. (Kind wird
zeigt gegen zuvor begehrtes, jedoch verwährtes Spielzeug
Aggressionen, wenn es endlich damit spielen darf)
Nutzen
auf persönlicher und gesellschaftlicher Ebene - Beispiel:
Arbeitslosenquote in San Francisco und Zahl der
"gemeingefährlichen Verurteilten. Die Gewalttaten nahmen zu,
wenn die Arbeitslosigkeit anstieg, jedoch nur bis zu einem
bestimmten Punkt. Wenn die Arbeitslosigkeit zu groß wurde, gingen
die Gewalttaten wieder zurück --> Die Angst der Menschen,
auch noch ihre Arbeit zu verlieren half, frustrationsbedingte
Tendenzen in Richtung Gewalt zu unterdrücken. Die
Interaktion individueller und gesellschaftlicher Kräfte bestimmt
die Ausgangslage des Gewaltpotenzials --> Man kann einen
gewissen Grad der Aggression aufgrund der Frustration vorhersagen,
die jeder in einer Gesellschaft mit steigender Arbeitslosigkeit
erlebt. Wenn sie jedoch erkennen, dass Aggression ihre Arbeit
gefährdet, wird Gewalt unterdrückt.
Direkte
Provokation: Die Auswirkungen direkter Provokation
unterstützen die Grundvorstellung, dass Situationen mit negativen
Effekten zu Aggressionen führen. Die Absichtlichkeit der
Handlung ist ausschlaggebend, weil es unwahrscheinlicher ist,
dass man eine unbeabsichtigte Handlung negativ interpretiert. -->
Es ist relevant, wie Menschen ihre soziale Realität
konstruieren: Wenn Menschen ambivalente Situationen als
provokativ interpretieren, werden sie mit
wahrscheinlicher aggressiv reagieren.
Auch
die weitergefassten sozialen Normen wirken sich auf die
Wahrscheinlichkeit aus, ob jemand aggressiv reagiert - Aus der
Forschung: Kinder können durch das Beobachten erwachsener Modelle
aggressive Verhaltensweisen sehr leicht übernehmen - Die
Präsentation von Gewalt fördert die Nachahmung
Entwicklung
des allgemeinen Aggressionsmodells: Menschen legen einen
allgmeinen Vorrat an aggressionsbezognen Wissensstrukturen durch
ihre Erfahrungen mit medial vermittelter Gewalt an- Jede diser
Erfahrungen ist ein weiterer Lernvorgang dafür, dass die Welt
gefährlich ist, dass Aggression eine angemessene Reaktion auf
Konflikte/Wut ist und dass Aggression wirkt
Studie
zu gewalttätigen Videospielen: Normalerweise lässt sich bei
Menschen, die gewalttätige Bilder ansehen, eine als P3 bekannte
Hirnreaktion nachweisen. Versuschspersonen allerdings, die
gewalttätige Videospiele gespielt hatten zeigten nur
geringfügig eine P3 Reaktion --> Desensibilisierung im
Bezug auf die gewalttätigen Bilder
Ergebnis:
Gewalttätige Videospiele verändern die Neigung von Menschen in
Bezug auf aggressive Verhaltensweisen schnell. Diese Menschen
setzen sich einem Risiko aus, sich im Anschluss aggressiver und
auch antisozial zu verhalten.
Viele
Menschen sind auch ohne ihr Zutun Gewalt ausgesetzt - Kinder
können z.B. in ihrem zu Hause aggressivem Verhalten ausgeliefert
sein, oder sie wachsen in Innenstädten auf, wo die
Gewalt alltäglich und chronisch ist
16.6.3 Die
Wurzeln des Altruismus
In
vielen Krisen (Fukushima, Erdbeben in Sichuan) gibt es
Heldentaten, in denen Menschen ihr eigenes Leben gefährden, um
anderen zu helfen.
Daniel
Batson (1994) - Es gibt vier Kräfte, die Menschen anhalten,
zum Wohl der Gesellschaft zu handeln --> Dasselbe prosoziale
Verhalten kann mehr als nur einem Motiv dienen.
Altruismus:
Handeln aufgrund eines
Motivs, anderen etwas Gutes zu tun.
Egoismus:
Prosoziales Verhalten wird ausschließlich im eigenen Interesse
gezeigt: Hilfe wird geleistet, um im Gegenzug eine ähnliche
Gefälligkeit oder eine Belohnung zu erhalten
Kollektivismus:
Prosoziales Verhalten wird gezeigt, um einer bestimmten
Gruppe Gutes zu tun (Familie, Freunde, politische Parteien...)
Prinzipien:
Prosoziales Verhalten wird gezeigt, um moralischen Prinzipien
zu entsprechen oder aufgrund einer religiösen oder ethischen
Richtlinie
Service
learning an Universitäten: eine pädagogisch eingebundene
Aufgabe, bei der Studierende die akademischen Lernziele durch ein
ehrenamtliches Engagement erreichen, das anderen nützt.
Beispiel: Studierende halfen in gerontologischem Einführungskurs
einer städtischen Behörde. Man kann diese Beteiligung dem
Egoismus zurechnen (Belohnung liegt im größeren Lerneffekt)
oder dem Kollektivismus (Beteiligung war für die älteren
Erwachsenen und die Behörden vorteilhaft) --> Pädagogen hoffen,
dass die vermittelten Werte die Studenten motivieren, sich ihr
Leben lang prosozial zu verhalten
Die
Existenz von Altruismus war lange kontrovers, besonders im
Bezug auf evolutionäre Kräfte: Das Hauptziel des Lebens
besteht darin, sich zu reproduzieren, um die eigenen Gene
weiterzugeben. Frage, inwieweit Altruismus in diesem Kontext
Sinn macht, da dadurch oft das eigene Leben riskiert wird. -->
Ausgeschlossen Familienmitglieder, weil
hierdurch dem generellen Überleen des eigenen Genpools geholfen
wird.
Aus
der Forschung: Versuchspersonen sollten Schmerz aushalten, um ihren
Verwandten (Entweder Brüder & Elternteile, Onkel &
Nichten, Cousinen) Geld zukommen zu lassen --> Deutlicher
Einfluss genetischer Überlappungen: Bei Überlappung
stieg das Aushalten des Schmerzes an (In mehreren Kulturen
nachgewiesen!)
Menschen
eilen am ehesten den Personen zu Hilfe, mit denen sie sich emotional
verbunden fühlen. Die engste emotionale Bindung ist eigenen
Nachkommen vorbehalten.
Um
Altruismus gegenüber Bekannten und Fremden zu erklären, wurde das
Konzept des reziproken Altruismus entwickelt: Menschen
verhalten sich altruistisch, weil sie auf gewisse Art und Weise
erwarten, im Gegenzug altruistisches Verhalten von anderen zu
erhalten. --> Das Konzept kann nicht alle Facetten der
Kooperation bei sozialen Arten erklären (z.B. ältere Menschen die
sich in Fukushima opferten, erwarteten keine ähnliche Handlung von
anderen)
Indirekte
Reziproziät: Menschen handlen altruistisch, weil sie
glauben, dass sie in der Zukunft selbst Nutznießer altruistischer
Akte werden.
Empathie-Altruismus-Hypothese:
Wenn man einer anderen Person empathisch gegenübersteht, wecken
diese Gefühle altruistische Motive, Hilfe zu leisten. -->
Beispiel: Versuchspersonen sollen Lose aus einer Tombola verteilen.
Wenn Versuchspersonen Empathie entwickelten, gaben sie der
frisch-single Person ein paar mehr Lose zusätzlich -->
Weitreichende Verbindungen zwischen Empathie und Altruismus sind
nachgewiesen.
16.6.4 Die Effekte der Situation auf
prosoziales Verhaltens
Forschungsprogramm:
Tragödie in New York - Viele Bürger hatten einen Mord beobachtet,
doch nur eine Zeugin rief laut Berichten die Polizei. Erster
Zeitungsbericht dramatisierte diesen Mord und hatte große
Auswirkungen. Nachrichten berichten von vielen Fällen, in
denen Bystanders/Anwesende ein Eingreifen
unterließen
Beschäftigung
mit der Frage, ob es fair ist, diese Menschen als
apathisch oder kaltherzig abzustempeln - Untätigkeit kann
auch im Rahmen situativer Kräfte erklärt werden.
Bibb
Latané und John Darley (1970): das Eingreifen Umstehender
(bystanders) - also die Bereitschaft, Fremden in Not zu helfen -
hängt stark von den genauen Eigenschaften einer Situation ab.
Aus
der Forschung: Teilnehmer saßen allein in einem Zimmer und
glaubten sie würden über Gegensprechanlage mit anderen in
angrenzendem Zimmer kommunizieren --> Eine Person hat einen
asthmatischen Anfall --> Die Wahrscheinlichkeit des
Eingreifens hing von der Anzahl der vermeintlich Beteiligten ab. Je
mehr Menschen anwesend sind, desto weniger wahrscheinlich ist es,
dass ein Umstehender eingreift. Umstehende handeln am
schnellsten in Gruppen mit zwei Personen.
Verantwortungsdiffusion:
Wenn mehr als eine Person in einer Notfallsituation helfen
könnte, dann gehen Menschen oft davon aus, dass menad anders helfen
wird/sollte- daher halten sie sich zurück.
Wichtige
Variable: Ernsthaftigkeit des Notfalls: Die Anwesenheit
anderer Zeugen wirkt sich in gefährlichen Situationen weit weniger
aus. --> Studie, in der ein Mann eine Frau bedroht: In der
niedrige physische Gefahr Bedingung war der Mann dünn &
nicht furchteinflößend - Menschen halfen bei 50 % ,wenn sie
allein waren nur 6 Prozent wenn noch ein weiterer Zeuge da war. In
der hohe physische Gefahr Bedingung war der Mann groß &
einschüchternd - Menschen intervenierten zu 50 % wenn sie allein
waren und auch zu 40% wenn noch ein weiterer Zeuge anwesend war.
Weitere
wichtige Variable: Wie genau der Notfall sich darstellt -
Wenn ein Notfall offensichtlich ist, fällt es Augenzeugen schwer,
sich abzuwenden. In vielen Alltagssituationen, bemerken solche
Situationen viele Menschen nicht. --> Beispiel: Studierende der
Priesterseminars halfen einem hilfsbedürftigen Mann am ehesten,
wenn sie noch viel Zeit vor einer Predigt hatten, am wenigsten, wenn
sei im Zeitstress waren.
Wie
sollte man sich bei einem Notfall verhalten?
Aufmerksamkeit
Umstehender wecken und sie mit allen Mitteln dazu bewegen, sich
verantwortlich zu fühlen. Beispiel: Tasche
wird von einem Dieb in Restaurant gestohlen. Wenn vorher gefragt
wird, ob ein Umstehender kurz auf die Tasche aufpasst, fühlt er
sich verantwortlich und greift bei dem Diebstahl eher ein, als ohne
Frage --> Durch das Bitten um einen konkreten Gefallen werden
Menschen so eingebunden, dass sich die Situation substanziell
verändert.
Die
Soziale Situation hat einen großen Einfluss auf das
Ausmaß in dem Menschen auf Grundlage von prosozialen Motiven
handeln werden.