<
>
Download

Zusammenfassung
Pädagogik

Ludwig-Maximilians-Universität München - LMU

2.7, Barchfeld-Pekrun, Fischer, 2015

Nicole Z. ©
8.00

1.27 Mb
sternsternsternsternstern
ID# 48985







Diagnostik


Def. Psychologie:

Empirische Wissenschaft & Lehre vom Erleben und Verhalten des Menschen, basierend auf durch Feldbeobachtungen, Experimente & Befragungen gewonnene Daten.


Gaußsche Normalverteilung der Daten nur unter Berücksichtigung der Gesamtbevölkerung möglich

-> Ergebnis abhängig von Testgruppe


Mittelwert =statistischer Durchschnittswert, bei dem alle Werte eines Datensatzes addiert werden und die Summe durch ihre Anzahl geteilt wird (z.B. Standard-IQ = 100)


Ist die Parabel der Verteilung nach rechts geneigt handelt es sich um eine positive, nach links hingegen um eine negativeSchiefe/ Neigung; was bedeutet dass sich der Mittelwert verschieben kann bzw. den Punkt darstellen kann auf dem in Realität die wenigsten Werte liegen -> Mittelwert ist wenig aussagekräftig


Varianz = Streuungsmaß der Daten


Standardabweichung (SD) = Maß der durchschnittlichen Entfernung aller Werte vom Mittelwert


Korrelation = Zusammenhang von Variablen/ Wechselbeziehung von Merkmalen


Korrelationskoeffizient (r )

-1 (negative Korrelation -> je mehr desto weniger/ je weniger desto mehr

0 (kein Zusammenhang)

+1 (positive Korrelation -> je mehr desto mehr/ je weniger desto weniger


Geringe Korrelation bei r= -/+0.3

Mittlere Korrelation bei r= -/+0.5

Hohe Korrelation bei r= -/+0.7 bis r= -/+1 (eher selten, da meist mehrere Variablen)


Variablen von Schulleistung sind z.B. Motivation, Intelligenz, Interesse, Gedächtnis, Fleiß, …

Aber Korrelation ist abhängig von der Varianz/Streuungsmaß (je geringer diese desto geringer die Korrelation):

Da es sich bei Korrelationen allerdings um rein statistische Werte handelt, lassen diese keine Kausalaussagen zu.


Problem der Konfundierung/ Scheinkorrelation: häufig unbeachtete Drittvariablen


  • Faktorenanalyse zur Analyse von Korrelationsmustern und deren Ursachen (in der mehrere Variablen zu größeren Faktoren/ Dimensionen zusammengefasst werden) z.B. Fragebogen zur Persönlichkeitsmessung (hohe Korrelation der Ergebnisse deutet auf die Messung ähnlicher Variablen hin welche im Folgenden zu einem Faktor zusammengefasst werden können)


Def. Diagnostik:

„Kognitiver Vorgang vom Erkennen zum Beschließen“


Zweck pädagogischer Diagnostik:

  • Entscheidungshilfen für die Schullaufbahn -> Allokations- und Selektionsfunktion

  • Optimierung pädagogischen Handelns -> pädagogisch didaktische Interaktionsebene

  • Curriculum-Entwicklung und Evaluation -> didaktische Rahmenbedingungen


Ziel pädagogischer Diagnostik:

  • Optimierung von individuellem Lernen

  • Schaffung von Voraussetzungen zur individuellen Förderung eines jeden Schülers


Beobachtungsbereiche der Alltagsdiagnostik:

  • Gefühlsmäßige Entwicklung (Selbstvertrauen, Motivation)

  • Motorische Entwicklung (Grobmotorik, Feinmotorik)

  • Individuelle Entwicklung (Konzentration, Aufmerksamkeit, Gliederungsfähigkeit, Mengenerfassung, Arbeitsverhalten, Denkfähigkeit, Gedächtnis, Wahrnehmung)

  • Sprachliche Entwicklung (Sprachfähigkeit, Sprachverständnis)

  • Soziale Entwicklung (Kontaktfähigkeit, Konfliktfähigkeit, Selbständigkeit)


Voraussetzungen für die Optimierung von individuellem Lernen:

  • Was wird gemessen

  • Personenmerkmale: Verhalten + Eigenschaften (Voraussetzungen: zeitstabil + individuell)

  • Umweltmerkmale: Schule (Unterrichtsqualität, Klima)+ Elternhaus (Unterstützung, Größe, sozio-ökonomischer Status)

  • Wozu

  • Basis für Entscheidungen im Sinne des Individuums: Optimierung + Förderung, Platzierung, Selektion)

  • Im Kontext erziehungswissenschaftlicher Forschung: Determinanten des Lernens, Wirksamkeit von Lern-Arrangements, Qualitätsmerkmale von Unterricht


Ziele derDiagnostik:

  • Verhaltensbeschreibung (Eigenschaften als hypothetisches Konstrukt, Schaffung künstlicher Klassifikationen)

  • Verhaltenserklärung (Ereignisse oder Eigenschaften als Ursache, Bedingung für die Aufrechterhaltung von Fehlverhalten)

  • Vorhersagen (nur zum Teil möglich)


Diagnostik als Prozess:

  • Eingangsdiagnostik: Erfassung des Status/ Ist-Zustandes (psychisches Problem, Eigenschaften, Begabung) zu einem bestimmten Zeitpunkt

  • Verlaufsdiagnostik: Begleitung des (Interventions-) Prozesses durch mehrfache Messung, Entwicklungsanzeige

  • Erfolgskontrolle: Vergleich mit Eingangsdiagnostik


Diagnostische Strategien:

  • Selektion von

  • Personen: größte Passung bezüglich einer Bedingung (z.B. Stellenbesetzung, Hochbegabtenförderung)

  • Bedingungen: größte Passung bezüglich einer Person (z.B. Wahl einer Berufsausbildung die den Eignungsmerkmalen einer Person entsprechen)

  • Modifikation und Förderung: Ziel der Veränderung einer Person oder Bedingung (z.B. Einzelfallbetreuung, Praktikum, Beschulung)


Diagnostik in der Praxis (z.B. Erfassung des IQ mittels Intelligenztests)


Def. von Intelligenz nach David Wechsler:

„Fähigkeit eines Individuums zweckvoll zu handeln, vernünftig zu denken und einer wirkungsvollen Auseinandersetzung mit der Umgebung“

  • Erfasst durch:

  • Sprachliches Verständnis (3 Subtests)

  • Abstraktes logisches Denken

    3 Subtests

  • Wahrnehmungsorganisation

  • Mengenbezogenes Denken

  • Gedächtnis (2 Subtests)

  • Verarbeitungsgeschwindigkeit (2 Subtests)

  • Hamburg Wechsler Intelligenztest für Kinder (HaWIK):

Individualtest mit 14 Untertests (in 4 Gruppen/ Indizes gegliedert) zur Untersuchung der kognitiven Entwicklung bei Kindern von 6 bis 16 Jahren in Deutschland, Österreich und Schweiz -> Screening-Verfahren der neuropsychologischen Diagnostik zur Feststellung des Förderbedarfs, sowie der Diagnostik von Lernbehinderung und Hochbegabung


Verhaltensbeobachtung:

  • Gründe für Testanordnung

  • Sprache

  • Körperliche Erscheinung

  • Aufmerksamkeit

  • Konzentration

  • Einstellung zum Test

  • Affekt/ Stimmung


Messtheoretische Grundlagen – Klassische Testtheorie (KTT)

Messtheorie: Wie wird gemessen (Instrumente nach wissenschaftlichen Kriterien)

Testtheorie: Zusammenhang zwischen Testverhalten und zu erfassendem psychischen Merkmal

Operationalisierung: Standardisierung (Prüfung) eines Konstrukts (Aufgabe) durch Angaben (Tagesform, Komplexität, Vorbereitung) als Indikator der Ausprägung des Konstrukts

Klassische Testtheorie (KTT): Grundlage der Konstruktion und Interpretation von 95% der psychologischen Testverfahren -> breite Messwerte, Items messen eine Variable, berücksichtigt Variation der Messwerte, berücksichtigt unsystematische Messfehler


Axiome der KTT:

  1. Testwert (X) = wahrer Wert (W) der Ausprägung des Testmerkmals (T) + Messfehler (e) (unkontrollierte/unsystematische Störeinflüsse)

  2. Varianz um wahren Wert -> erwarteter Mittelwert des Fehlers ist Null; Korrelation zwischen Wert und Messfehler ist Null

  3. Keine Korrelation der Messfehler bei unterschiedlichen Personen

Ziel der Testung: Bestimmung des wahren Wertes durch geringen Messfehler


Gütekriterien:

  • Reliabilität: Zuverlässigkeit/Genauigkeit der Merkmalserfassung, geschätzter Wert zwischen 0 (großer Messfehler -> instabiles Merkmal) und +1 (kein Messfehler -> stabiles Merkmal)

  • Re-test-reliabilität: gleicher Test zu zwei Zeitpunkten -> Korrelation der Testwerte besagt Reliabilität

  • Paralleltestreliabilität: zwei gleiche Tests zum gleichen Zeitpunkt -> schwierig bei Kreativitätsaufgaben

  • Split-Half-Reliabilität: ein Test der nachträglich in zwei Hälften (z.B. gerade und ungerade Aufgaben geteilt wird) -> Bildung von Item-Paarlinge mit annähernd gleicher Schwierigkeit

  • Objektivität: Testergebnisse unabhängig von der Person des Testleiters und Auswerters

  • Durchführungsobjektivität: gleiche Anforderungen (z.B. Hilfsmittel) unter gleichen Bedingungen (z.B. Testanweisung)

Problem: unkontrollierbare Einflussfaktoren -> Lösung: Standardisierung

  • Auswertungsobjektivität: gleiche Auswertung eines Tests,

Problem: offene Fragen -> Lösung: geschlossene Antworten zum Ankreuzen

  • Interpretationsobjektivität: Abhängigkeit der Testergebnisse (z.B. Punkteanzahl) von interpretativen Schlüssen (z.B. Notenverteilung)

Problem: Intuition und Erfahrung -> Lösung: Position auf einer Dimension)

  • Validität: Gültigkeit (es wird das gemessen was gemessen werden soll)

Ergebnis:

  • Konvergente Validität: hohe Korrelation bei gleichem Konstrukt

  • Diskriminante Validität: geringe Korrelation bei abweichendem Konstrukt

Arten:

  • Inhaltliche Validität: Items bilden repräsentative Stichprobe (=Expertenurteil)

Problem: nicht empirisch überprüfbar -> subjektive Augenscheinvalidität (face validity)

  • Kriteriumsvalidität (prädikativ und konkurrent) -> messbares Außenkriterium

Übereinstimmungsvalidität: gleichzeitige Messung eines Außenkriteriums an zwei Tests

Prognosevalidität: Kriterium ist ein in der Zukunft liegender Verhaltensaspekt

  • Konstruktvalidität: Latente Konstrukte (gedanklich, theoretischer Sachverhalt wird aus anderen empirischen Indikatoren wie Beobachtungen am Verhalten, Physiologie, Kognition und Emotion geschlossen), Tests stellen Operationalisierungsversuche von Konstrukten dar


Test der nicht reliabel ist automatisch nicht valide; aber: Test der reliabel ist nicht automatisch valide


Prognosevalidität bei zu großer Zeitspanne meist nicht möglich, da relevante Eigenschaften auch späterer erworben werden können.

Vorrausetzung:

Bestimmung von Cut-Off-Werten (festgelegter Trennwert in einem Test, der die Stichprobe in Gruppen teilt)

  • Effektivität (Zielerreichungsgrad: Verhältnis von erreichtem und definiertem Ziel)

Berechnung in %: richtig positiv + richtig negativ / richtig positiv + falsch negativ + falsch positiv + richtig negativ x 100

  • Sensibilität (richtig-positive-Rate, Empfindlichkeit / Trefferquote: Anteil der richtig-positiv klassifizierten Objekte an der Gesamtheit der positiv klassifizierten Objekte)

Berechnung in %: richtig positiv / richtig positiv + falsch negativ x 100

  • Spezifität (richtig-negative-Rate, kennzeichnende Eigenschaft: Anteil der richtig-negativ klassifizierten Objekte an der Gesamtheit der negativ klassifizierten Objekte)

Berechnung in %: richtig negativ / richtig negativ + falsch positiv x 100


Spezifität: Cut-Off-Wert IQ weiter rechts

Sensitivität: Cut-Off-Wert IQ weiter links


Nebengütekriterien:

  • Umfang der Nominierung (Vergleich von Testergebnissen mit der Referenzpopulation) -> Zielgruppenbestimmung (Äquivalentnorm, Abweichungsnorm)

Arten:

  • Normen ohne Verteilungsannahme: Prozentrangnorm (Anzahl der Personen aus Vergleichsgruppe, die maximal gleichhohe Werte erreicht haben) -> relative Stellung in einer Gruppe vs. Messwert der Leistung; Vorteile: anschaulich, leicht zu ermitteln

  • Normen mit Verteilungsannahme: Annahme der Normalverteilung bei der Population

  • Normen durch Transformation: Vergleichsmaßstab der zur Einordnung und Interpretation der Rohwerte dient -> Ermittlung von Mittelwert, Varianz, Standardabweichung

Einflussfaktoren:

  • Kultur

  • Zeit

  • Gesellschaftliche Veränderungen

  • Ãœbersetzungen

  • Fairness (Chancengleichheit bezüglich der zu erreichenden Testergebnisse) unabhängig von Alter, Geschlecht, Bildung, sozioökonomischer Status, Migrationshintergrund, sprachlichen Fähigkeiten

  • Vergleichbarkeit (Korrelationen mit Tests ähnlicher Konstrukte)

  • Ökonomische Nützlichkeit (Kosten der Tools, Durchführung, Auswertung; Zeitaufwand; Notwendigkeit)

  • Spezifische Nützlichkeit (Beantwortung spezieller Fragestellungen möglich)


Def. Schulleistungstests von Ingenkamp (1997):

Möglichst objektive, zuverlässige und gültige Messung von geplanten und am Curriculum orientierten Ergebnissen von Lernvorgängen, sowie Auswertung, Interpretation und Nutzbarmachung für pädagogisches Handeln von Lehrenden oder Beratenden.

Arten:

  • Formell (von Experten unter strenger Berücksichtigung der Gütekriterien entwickelt, Normierung an einer Stichprobe, Ziel: Prüfung allgemeiner Lernziele, Selektion -> normorientiert: bezugsgruppen- und sozialnormorientiert

Konstruktion:

  1. Analyse von Lehrplänen

  2. Entwurf von Aufgaben (Testitems) nach einem Expertenrating

  3. Probelauf an Einzelfällen

  4. Testdurchlauf an kleiner Stichprobe (200-400)

  5. Aufgaben und Testanalyse mit den Daten der Stichprobe nach Schwierigkeit, Trennschärfe, Reliabilität

  6. Validierung an kleiner Stichprobe

  7. Eichung und Validierung an repräsentativer Stichprobe (Berechnung von Normwerten)

Einsatzmöglichkeiten formeller sozialnormorientierter Leistungstests:

  • Vergleich der Klasse zur Eichstichprobe

  • Vergleich des Benotungssystems

  • Objektivierungsmöglichkeit bei Klassen- oder Schulwechsel

  • Leistungsgruppeneinteilung

  • Informell (von Lehrern nach festen Aufbaukriterien konzipiert, keine Normierung, Ziel: Prüfung spezifischer Lernziele, keine Selektion -> kriteriumsorientiert: lernziel- und idealnorm-orientiert

Beachtung bei der Auswahl:

  • Gütekriterien

  • Normierung

  • Stichprobengröße

  • Differenzierungsbereich

  • Aktualität

  • Durchführungsdauer

Leistungsbeurteilung

Bedeutungsvarianten von Schulleistung umfasst nach Furck 1975:

  • Schulische Forderung an die Schüler

  • Tätigkeit der Schüler

  • Ergebnis der Tätigkeit des Einzelnen innerhalb der verschiedenen Leistungsbereiche


Def. Schulleistung nach Ingenkamp/Lissmann (2005):

curricular geplante Lernvorgänge und Ergebnisse


Schulleistungsmodell nach Bloom (1976):

Schulleistungsmodell nach Krapp:

Schulleistungsmodell nach Kühn (1983):

Bezugsnormen:

  • Sozial (objektiver, gültiger und zuverlässiger Vergleich der Einzelleistung mit einer für die Altersstufe und Schulart repräsentativen Stichprobe) -> Auslese und Platzierung; aber pädagogisch und psychologisch problematisch

+ keine starr lineare Verknüpfung zwischen Fehlerzahl und Note

+ Beurteilung der Leistung innerhalb einer Lerngruppe

  • Keine Aussagen über Lernzielerreichung

  • Kann großzügig oder streng ausfallen -> sehr subjektiv

  • Keine Würdigung individueller Lernfortschritte

  • Kriterial/sachlich (Interpretation der Einzelleistung in Bezug auf einen definierten Leistungsstandard)

Def. Ingenkamp „Sache“: Norm bezieht sich auf die Sache

Def. Gaude „Idealnorm“: Vergleich realer Leistungen mit idealen optimalen Leistungen

Kriterienbezogene Norm: inhaltlich spezifizierte Nominierung, im Vorhinein von der Fachdidaktik definierte Fähigkeit- bzw. Kompetenzstufen (Bildungsstandards), typisch für Schulleistungstests wie PISA und IGLU (internationale Grundschul-Lese-Untersuchung), viele vergleichbare Paralleltests aus Itempool erstellbar

+ Gruppierung von Testwerten und Bildung von inhaltlichen Kompetenzprofilen

+ informiert über Grad der Lernzielerreichung, Kompetenzen und Lücken

+ Anerkennung individueller Lernfortschritte -> Motivationsförderung

+ Transparenz der Anforderungen für die Schüler und Eltern

+ angemessenes durchschnittliches Anforderungsniveau

  • Lernzielbestimmung stark an Standards orientiert

  • Oft zu niedrig angesetztes Anforderungsniveau

  • Individuell (Vergleich der Einzelleistung mit früheren Lernergebnissen des Individuums)

+ Würdigung individueller Lernfortschritte und wirksame Förderung

  • Unterschiedliche Maßstäbe können zu einem Konflikt mit dem Gleichheitsgrundsatz führen

  • Vernachlässigung allgemein vorgegebener Bildungsstandards und konkreter Lernziele aufgrund von Rücksichtnahme möglich


Fazit:

Frage nach pädagogischen Standards, da Spannung aus notwendig begründeten Forderungen aus der Gesellschaft und dem individuellen Leistungsvermögen (personale Würde und Anspruch auf angemessene Entfaltung der Persönlichkeit). Gesellschaft und Individuum sind jedoch dialektisch aufeinander bezogen (freie Entfaltung der Persönlichkeit nur in funktionierender Gesellschaft möglich, wohingegen die Gesellschaft nur durch leistungsfähige und -bereite Individuen funktionsfähig ist).


Zensuren und Zeugnisse als Methode pädagogisch psychologischer Diagnostik

Funktion:

  • Auslese

  • Anreiz

  • Berechtigung

  • Disziplinierung

  • Orientierung

  • Selbstkontrolle


Was wird beurteilt:

  • Leistung im Vergleich zu Lernzielen des Lehrplans, bzw. Unterrichtszielen des Lehrers

  • Notengebung als Schätzverfahren eines komplexen Sachverhaltes

  • Lehrer als Messinstrument


    Problem:

    Punkteanzahl (Rohwert) = Note


    2 Vorgehen nach Schulz (1988):

    • Äquidistante Punkteverteilung: 6 ungefähr gleiche Wertebereiche

    • Verschärfte Bewertungslinie: für eine ausreichende Leistung müssen mindestens 50% erreicht werden


    Verzerrungsfaktoren bei Schätzurteilen (Objektivität, Validität):

    • Güte-/Mildefehler: bessere Beurteilung als eigentlich richtig

    • Fehler der zentralen Tendenz: Vermeidung extremer Bewertungspositionen (Halo-Effekt: Einfluss eines beobachteten Merkmales auf die Bewertung anderer nicht beobachteten Merkmale)

    • Logischer Fehler: Merkmale die subjektiv logisch verknüpft sind, werden ähnlich bewertet

    • Reihungsfehler: erste Arbeiten werden mit mittlerer Note zensiert, nach mehreren gleichen Zensuren wird (aus Verteilungsgründen) eine andere gegeben

    • Recency/ Primacy-Effekt: Tendenz letzte oder erste Arbeit besser zu bewerten

    • Ettiketierungsprozesse: Einfluss von Vorurteilen (Rosenthal-Effekt)


    PISA-Ergebnisse 2001:

    • 11,4% der Schüler die nicht einmal Kompetenzstufe 1 im Lesen erreichten, wurden von ihren Lehrern als schwache Leser eingestuft.

    • Lehrervorhersage: 49,3% Hauptschüler, 60% Realschüler und 68% Gymnasiasten könnten die höchste Kompetenzstufe erzielen, in Realität waren dies jedoch 0,3%, 4,2% und 27,7%.


    Forschungsbefunde zur Objektivität von Lehrerurteilen (schriftlich informelle Tests):

    • Traditionelle Tests entsprechen nicht den Gütekriterien

    • Geringe Durchführungsobjektivität

    • Geringe Auswertungsobjektivität

    Nachgewiesene Einflussfaktoren:

    • Vorinformation über Leistung und sozialen Hintergrund

  • Grammatikalische und orthographische Fehler (selbst wenn es nur um den Inhalt geht)

  • Handschrift

  • Beliebtheit der Schüler

    • Geringe Interpretationsobjektivität

    Begründung:

    • Höhere Gewichtung der Endlösung als einzelner Zwischenschritte und der Aufgabenbewältigung an sich -> höhere Gewichtung von Flüchtigkeitsfehlern und deren Auswirkungen

    • Höhere Gewichtung von Rechtschreibung und Stil als Inhalt


    Fazit:

    • Unterschiedliche Strenge

    • Unterschiedliche Ausschöpfung der Notenskala

    • Unterschiedliche Differenziertheit der Notengebung (über Fächer hinweg)

    • Unterschiedliche Kriterien in der Notengebung

    Maßnahmen zur Verbesserung der Objektivität:

    • Erstellung von Kriterienkatalogen

    • Notengebung anhand mehrerer Leistungsüberprüfungen

    • Benotung durch mehrere Lehrer

    • Ergänzung durch Schulleistungstest


    Reliabilität von Lehrerurteilen (schriftlich informelle Tests):

    Messwiederholung / Bewertung gleicher Arbeit zu unterschiedlichen Zeiten mit gleichem Bewerter; r=0.25


    Maßnahmen & Konsequenzen zur Verbesserung der Reliabilität (schriftlich formelle Tests):

  • Einheitlich fachlich konzipierte Prüfungsanforderungen im Abi nach Vorgaben der KMK mit Beispielaufgaben und Musterlösungen als Bewertungskriterien

  • Entwicklung von Richtlinien zur Aufsatzbeurteilung zur Verminderung der Urteilsstreuung und zur Analyse und Besprechung im Unterricht zur Transparenz


    Validität von Lehrerurteilen (schriftlich informelle Tests):

    Bewertung identischer Arbeiten in Abhängigkeit von der Vorinformation (Rosenthal-Effekt)


    Ergebnisse der Studie von Ingenkamp / Hadley:

    • Sympathie x Schulnoten=0.08-0.92

    • Testleistung x Schulnoten=0.02-0.94

    • Geschlechterunterschiede: Noten korrelieren mit der Testleistung bei Jungen mehr als bei Mädchen

    • Beliebte: 50% besser, 16% schlechter

    • Unbeliebte: 50% schlechter, 19% besser


    Geschlechterunterschiede nach Teichmann (1987):

    • Mädchen werden besser bewertet

    • besonders in den Klassen 5-8

    • besonders in Sprachen

    • keine weiteren Unterschiede in Examen


    Prognostische Validität von Noten:

    • 1971 - 80%, heute – 20% der Lehrer trauen sich gültige Prognosen zu

    • Versagerquote bei geeigneten 7-32%

  • Korrelation Grundschulnote – Erfolg am Gymnasium=0.45 in der Unterstufe


    Gütekriterien bei mündlichen Tests:

    • Tradition (Disputation, Verbreitungsgrad der Leistungskontrolle)

    • Charakteristika (interaktiv oder adaptiv)

    • Prüfungsziele (sprachgebundene Leistungen, Wissens- und Verständnisleistungen)


    Probleme mündlicher Tests:

    • Mangelnde Durchführungsobjektivität: Urteilsfehler, Primacy-Effekt (erster Eindruck bestimmt Gesamteindruck), Kontexteffekt (nach guter Leistung wird schlechte noch schlechter)

    • Mangelnde Validität: bessere Beurteilung von Brillenträgern (Thornton), Mädchen mit Lippenstift (Argyle), Menschen mit Verbalisationsgeschick und Sprechgeschwindigkeit (Birkel/Pritz)

    • Mangelnde Reliabilität: Bewertung mündlicher Leistungen meist signifikant besser als schriftlicher, nicht wahrgenommene unterschiedliche Schwierigkeitsgrade von Fragen

    Maßnahmen & Konsequenzen (mündliche Tests):

    • Nur sprachgebundene Prüfung

    • Intensive Vorbereitung (Festlegung lernzielbezogener Faktoren, Beachtung der Schwierigkeitsgrade)

  • für entspannte Atmosphäre sorgen

  • Bereithaltung von Eisbrecherfragen

  • Wissensüberprüfungen in komplexe (mit Begründung) und einfache (Fakten) Fragen aufteilen, evtl. Fragekarten zum Ziehen bei einfachen Fragen


    Pädagogische Psychologie des Lehrens & Lernen

    1. Lernen als Verhaltensveränderung (Behaviorismus)

    2. Lernen als Wissenserwerb I & II

    3. Problemlösen & Transfer

    4. Selbststeuerung & Lernstrategien

    5. Instruktion & Unterrichtsqualität

    6. Mediendidaktik


    Lerntheorien:

    1. Lernen als Verhaltensveränderung

    Behavioristische Lerntheorien

    Def. von Gage & Berliner (1996)

    „Lernen als Prozess durch den ein Organismus sein Verhalten als Resultat von Erfahrungen ändert.“


    Vertreter:

    • John Broadus Watson untersucht beobachtbares Verhalten statt kognitiven Phänomenen -> das menschliche Gehirn als „Black Box“, Verhalten resultiert aus Reiz

    • Burrhus Frederic Skinner geht hingegen von der Formbarkeit des Verhaltens durch Belohnung/Bestrafung und daraus einhergehender Verhaltensverstärkung oder Löschung aus, wonach das Hinzufügen, Entfernen oder Ausbleiben bestimmter Reize ein Verhalten wahrscheinlicher macht -> Rattenexperiment


  • Verstärkerarten:

    • Primäre Verstärker (Befriedigung biologischer Bedürfnisse -> Sättigungsproblem)

    • Sekundäre Verstärker (erlernte Verstärkerfunktion: sozial, materiell, Aktivitätsverstärker/Premack-Prinzip -> kein Sättigungsproblem)


    Premack-Prinzip: Verstärkung unbeliebter Aktivität durch beliebte/bevorzugte Aktivität


    Token Economy (Münzeintauchsystem als Verstärkungsplan):

    Mithilfe von Münzen (oder ähnlichem), die gesammelt und später eingetauscht werden, wird das Problem umgangen, dass (primäre) Verstärker im Unterricht schwer identifizierbar sind


    Bestrafung:

    • Aversiver Reiz mit strafender Wirkung

    • Kein Zielverhalten als Bestrafung

    • Von Anfang an intensiv, keine graduelle Steigerung

    • Keine Fluchtmöglichkeiten lassen

    • Gegenkonditionierung (Verstärkung von alternativem Verhalten) funktioniert besser als Bestrafung


    Anwendung im schulischen Kontext:

    • Förderung erwünschter, Reduktion unerwünschter Verhaltensweisen

    • Erlernen von situationsangemessenem Verhalten (Toben in der Pause, Ruhe im Unterricht)


    Sozial Kognitive Lerntheorien

    Er entwickelt den Lernbegriff weiter als Prozess, der zu relativ stabilen Verhaltensveränderungen führt und auf Erfahrungen aufbaut, die nicht direkt beobachtbar sind.


    Zimbardo beschreibt, dass Lernen dabei aus den beobachteten Verhaltensveränderungen erschlossen wird.


    Zusammenfassung Behaviorismus:

    • Erklärt Verhaltensänderungen als Funktion von Reizen in der Umgebung

    • Assoziation zeitlich und räumlich gekoppelter Reize

    • Assoziation von Verhalten und unmittelbar nachfolgenden Konsequenzen

    • Gezielter Einsatz von Verstärkern und Bestrafung zur Lernförderung (operantes Konditionieren)

    Später:

    • Es kann auch durch Beobachtung gelernt werden

    • Lernen zeigt sich immer im Verhalten

    • Motivation ein bestimmtes Verhalten zu zeigen kann auch aus stellvertretender Verstärkung des Modells resultieren


    2. Lernen als Wissenserwerb

    Kognitive Lerntheorie


    Atkinson-Shiffrin-Informationsverarbeitungsmodell (Salvin):

    Total-Time-Hypothesis im Langzeitgedächtnis:

    Mit der Lernzeit steigt auch die Lernmenge


    Arten von Interferenz:

    • Retroaktive Hemmung (Erinnerungshemmung durch neues Lernen)

  • Retroaktive Erleichterung (Wissen wird durch neues Lernen verbessert)

  • Proaktive Erleichterung (Lernerleichterung aufgrund vorhandenen Wissens)


    Enkodierungsspezifität:

    Art der Erinnerung hängt vom Kontext des Lernens ab


    Wissensformen und Gedächtnissysteme im Langzeitgedächtnis:

    • Deklaratives Wissen (Was?) -> Hierarchisch organisierte Speicherung nach analogem (bildhaftem) oder symbolischem (propositionalem) Schema

    • Episodisches Gedächtnis (bildhafte Speicherung persönlicher Erfahrung nach -> Erinnerung erfolgt aufgrund zeitlich und räumlicher Cues/Hinweisreize)

    • Semantisches Gedächtnis (propositionale Speicherung allgemeiner Fakten)

    • Prozedurales Wissen (Wie?) -> Speicherung von Abfolgen in Form von Bedingung-Handlungs-Sequenzen oder Wenn-Dann-Regeln (Reizreaktionen) bzw. Skripts (typisches Schema für Ereignisablauf)

    • Prozedurales Gedächtnis


    Def. Proposition nach Schunk:

    Kleinste bedeutungs-, sinn- oder eigenschaftszuweisende Info, die ein Urteil über die Korrektheit einer Aussage zulässt


    Belege für propositionale Speicherung nach den Experimenten von W. Kintsch:


  • | | | | |
    Tausche dein Hausarbeiten

    G 2 - Cached Page: Thursday 28th of March 2024 02:45:30 PM