Diagnostik
Def. Psychologie:
Empirische Wissenschaft & Lehre vom Erleben und Verhalten des Menschen, basierend auf durch Feldbeobachtungen, Experimente & Befragungen gewonnene Daten.
Gaußsche Normalverteilung der Daten nur unter Berücksichtigung der Gesamtbevölkerung möglich
-> Ergebnis abhängig von Testgruppe
Mittelwert =statistischer Durchschnittswert, bei dem alle Werte eines Datensatzes addiert werden und die Summe durch ihre Anzahl geteilt wird (z.B. Standard-IQ = 100)
Ist die Parabel der Verteilung nach rechts geneigt handelt es sich um eine positive, nach links hingegen um eine negativeSchiefe/ Neigung; was bedeutet dass sich der Mittelwert verschieben kann bzw. den Punkt darstellen kann auf dem in Realität die wenigsten Werte liegen -> Mittelwert ist wenig aussagekräftig
Varianz = Streuungsmaß der Daten
Standardabweichung (SD) = Maß der durchschnittlichen Entfernung aller Werte vom Mittelwert
Korrelation = Zusammenhang von Variablen/ Wechselbeziehung von Merkmalen
Korrelationskoeffizient (r )
-1 (negative Korrelation -> je mehr desto weniger/ je weniger desto mehr
0 (kein Zusammenhang)
+1 (positive Korrelation -> je mehr desto mehr/ je weniger desto weniger
Geringe Korrelation bei r= -/+0.3
Mittlere Korrelation bei r= -/+0.5
Hohe Korrelation bei r= -/+0.7 bis r= -/+1 (eher selten, da meist mehrere Variablen)
Variablen von Schulleistung sind z.B. Motivation, Intelligenz, Interesse, Gedächtnis, Fleiß, …
Aber Korrelation ist abhängig von der Varianz/Streuungsmaß (je geringer diese desto geringer die Korrelation):
Da es sich bei Korrelationen allerdings um rein statistische Werte handelt, lassen diese keine Kausalaussagen zu.
Problem der Konfundierung/ Scheinkorrelation: häufig unbeachtete Drittvariablen
Def. Diagnostik:
„Kognitiver Vorgang vom Erkennen zum Beschließen“
Zweck pädagogischer Diagnostik:
Entscheidungshilfen für die Schullaufbahn -> Allokations- und Selektionsfunktion
Optimierung pädagogischen Handelns -> pädagogisch didaktische Interaktionsebene
Curriculum-Entwicklung und Evaluation -> didaktische Rahmenbedingungen
Ziel pädagogischer Diagnostik:
Beobachtungsbereiche der Alltagsdiagnostik:
Gefühlsmäßige Entwicklung (Selbstvertrauen, Motivation)
Motorische Entwicklung (Grobmotorik, Feinmotorik)
Individuelle Entwicklung (Konzentration, Aufmerksamkeit, Gliederungsfähigkeit, Mengenerfassung, Arbeitsverhalten, Denkfähigkeit, Gedächtnis, Wahrnehmung)
Sprachliche Entwicklung (Sprachfähigkeit, Sprachverständnis)
Soziale Entwicklung (Kontaktfähigkeit, Konfliktfähigkeit, Selbständigkeit)
Voraussetzungen für die Optimierung von individuellem Lernen:
Personenmerkmale: Verhalten + Eigenschaften (Voraussetzungen: zeitstabil + individuell)
Umweltmerkmale: Schule (Unterrichtsqualität, Klima)+ Elternhaus (Unterstützung, Größe, sozio-ökonomischer Status)
Basis für Entscheidungen im Sinne des Individuums: Optimierung + Förderung, Platzierung, Selektion)
Im Kontext erziehungswissenschaftlicher Forschung: Determinanten des Lernens, Wirksamkeit von Lern-Arrangements, Qualitätsmerkmale von Unterricht
Ziele derDiagnostik:
Verhaltensbeschreibung (Eigenschaften als hypothetisches Konstrukt, Schaffung künstlicher Klassifikationen)
Verhaltenserklärung (Ereignisse oder Eigenschaften als Ursache, Bedingung für die Aufrechterhaltung von Fehlverhalten)
Vorhersagen (nur zum Teil möglich)
Diagnostik als Prozess:
Eingangsdiagnostik: Erfassung des Status/ Ist-Zustandes (psychisches Problem, Eigenschaften, Begabung) zu einem bestimmten Zeitpunkt
Verlaufsdiagnostik: Begleitung des (Interventions-) Prozesses durch mehrfache Messung, Entwicklungsanzeige
Erfolgskontrolle: Vergleich mit Eingangsdiagnostik
Diagnostische Strategien:
Personen: größte Passung bezüglich einer Bedingung (z.B. Stellenbesetzung, Hochbegabtenförderung)
Bedingungen: größte Passung bezüglich einer Person (z.B. Wahl einer Berufsausbildung die den Eignungsmerkmalen einer Person entsprechen)
Diagnostik in der Praxis (z.B. Erfassung des IQ mittels Intelligenztests)
Def. von Intelligenz nach David Wechsler:
„Fähigkeit eines Individuums zweckvoll zu handeln, vernünftig zu denken und einer wirkungsvollen Auseinandersetzung mit der Umgebung“
Sprachliches Verständnis (3 Subtests)
Abstraktes logisches Denken3 Subtests
Wahrnehmungsorganisation
Mengenbezogenes Denken
Gedächtnis (2 Subtests)
Verarbeitungsgeschwindigkeit (2 Subtests)
Individualtest mit 14 Untertests (in 4 Gruppen/ Indizes gegliedert) zur Untersuchung der kognitiven Entwicklung bei Kindern von 6 bis 16 Jahren in Deutschland, Österreich und Schweiz -> Screening-Verfahren der neuropsychologischen Diagnostik zur Feststellung des Förderbedarfs, sowie der Diagnostik von Lernbehinderung und Hochbegabung
Verhaltensbeobachtung:
Messtheoretische Grundlagen – Klassische Testtheorie (KTT)
Messtheorie: Wie wird gemessen (Instrumente nach wissenschaftlichen Kriterien)
Testtheorie: Zusammenhang zwischen Testverhalten und zu erfassendem psychischen Merkmal
Operationalisierung: Standardisierung (Prüfung) eines Konstrukts (Aufgabe) durch Angaben (Tagesform, Komplexität, Vorbereitung) als Indikator der Ausprägung des Konstrukts
Klassische Testtheorie (KTT): Grundlage der Konstruktion und Interpretation von 95% der psychologischen Testverfahren -> breite Messwerte, Items messen eine Variable, berücksichtigt Variation der Messwerte, berücksichtigt unsystematische Messfehler
Axiome der KTT:
Testwert (X) = wahrer Wert (W) der Ausprägung des Testmerkmals (T) + Messfehler (e) (unkontrollierte/unsystematische Störeinflüsse)
Varianz um wahren Wert -> erwarteter Mittelwert des Fehlers ist Null; Korrelation zwischen Wert und Messfehler ist Null
Keine Korrelation der Messfehler bei unterschiedlichen Personen
Ziel der Testung: Bestimmung des wahren Wertes durch geringen Messfehler
Gütekriterien:
Re-test-reliabilität: gleicher Test zu zwei Zeitpunkten -> Korrelation der Testwerte besagt Reliabilität
Paralleltestreliabilität: zwei gleiche Tests zum gleichen Zeitpunkt -> schwierig bei Kreativitätsaufgaben
Split-Half-Reliabilität: ein Test der nachträglich in zwei Hälften (z.B. gerade und ungerade Aufgaben geteilt wird) -> Bildung von Item-Paarlinge mit annähernd gleicher Schwierigkeit
Problem: unkontrollierbare Einflussfaktoren -> Lösung: Standardisierung
Problem: offene Fragen -> Lösung: geschlossene Antworten zum Ankreuzen
Problem: Intuition und Erfahrung -> Lösung: Position auf einer Dimension)
Ergebnis:
Arten:
Problem: nicht empirisch überprüfbar -> subjektive Augenscheinvalidität (face validity)
Übereinstimmungsvalidität: gleichzeitige Messung eines Außenkriteriums an zwei Tests
Prognosevalidität: Kriterium ist ein in der Zukunft liegender Verhaltensaspekt
Konstruktvalidität: Latente Konstrukte (gedanklich, theoretischer Sachverhalt wird aus anderen empirischen Indikatoren wie Beobachtungen am Verhalten, Physiologie, Kognition und Emotion geschlossen), Tests stellen Operationalisierungsversuche von Konstrukten dar
Test der nicht reliabel ist automatisch nicht valide; aber: Test der reliabel ist nicht automatisch valide
Prognosevalidität bei zu großer Zeitspanne meist nicht möglich, da relevante Eigenschaften auch späterer erworben werden können.
Vorrausetzung:
Bestimmung von Cut-Off-Werten (festgelegter Trennwert in einem Test, der die Stichprobe in Gruppen teilt)
Berechnung in %: richtig positiv + richtig negativ / richtig positiv + falsch negativ + falsch positiv + richtig negativ x 100
Berechnung in %: richtig positiv / richtig positiv + falsch negativ x 100
Berechnung in %: richtig negativ / richtig negativ + falsch positiv x 100
Spezifität: Cut-Off-Wert IQ weiter rechts
Sensitivität: Cut-Off-Wert IQ weiter links
Nebengütekriterien:
Arten:
Normen ohne Verteilungsannahme: Prozentrangnorm (Anzahl der Personen aus Vergleichsgruppe, die maximal gleichhohe Werte erreicht haben) -> relative Stellung in einer Gruppe vs. Messwert der Leistung; Vorteile: anschaulich, leicht zu ermitteln
Normen mit Verteilungsannahme: Annahme der Normalverteilung bei der Population
Normen durch Transformation: Vergleichsmaßstab der zur Einordnung und Interpretation der Rohwerte dient -> Ermittlung von Mittelwert, Varianz, Standardabweichung
Einflussfaktoren:
Fairness (Chancengleichheit bezüglich der zu erreichenden Testergebnisse) unabhängig von Alter, Geschlecht, Bildung, sozioökonomischer Status, Migrationshintergrund, sprachlichen Fähigkeiten
Vergleichbarkeit (Korrelationen mit Tests ähnlicher Konstrukte)
Ökonomische Nützlichkeit (Kosten der Tools, Durchführung, Auswertung; Zeitaufwand; Notwendigkeit)
Spezifische Nützlichkeit (Beantwortung spezieller Fragestellungen möglich)
Def. Schulleistungstests von Ingenkamp (1997):
Möglichst objektive, zuverlässige und gültige Messung von geplanten und am Curriculum orientierten Ergebnissen von Lernvorgängen, sowie Auswertung, Interpretation und Nutzbarmachung für pädagogisches Handeln von Lehrenden oder Beratenden.
Arten:
Formell (von Experten unter strenger Berücksichtigung der Gütekriterien entwickelt, Normierung an einer Stichprobe, Ziel: Prüfung allgemeiner Lernziele, Selektion -> normorientiert: bezugsgruppen- und sozialnormorientiert
Konstruktion:
Analyse von Lehrplänen
Entwurf von Aufgaben (Testitems) nach einem Expertenrating
Probelauf an Einzelfällen
Testdurchlauf an kleiner Stichprobe (200-400)
Aufgaben und Testanalyse mit den Daten der Stichprobe nach Schwierigkeit, Trennschärfe, Reliabilität
Validierung an kleiner Stichprobe
Eichung und Validierung an repräsentativer Stichprobe (Berechnung von Normwerten)
Einsatzmöglichkeiten formeller sozialnormorientierter Leistungstests:
Vergleich der Klasse zur Eichstichprobe
Vergleich des Benotungssystems
Objektivierungsmöglichkeit bei Klassen- oder Schulwechsel
Leistungsgruppeneinteilung
Informell (von Lehrern nach festen Aufbaukriterien konzipiert, keine Normierung, Ziel: Prüfung spezifischer Lernziele, keine Selektion -> kriteriumsorientiert: lernziel- und idealnorm-orientiert
Beachtung bei der Auswahl:
Gütekriterien
Normierung
Stichprobengröße
Differenzierungsbereich
Aktualität
Durchführungsdauer
Leistungsbeurteilung
Bedeutungsvarianten von Schulleistung umfasst nach Furck 1975:
Def. Schulleistung nach Ingenkamp/Lissmann (2005):
curricular geplante Lernvorgänge und Ergebnisse
Schulleistungsmodell nach Bloom (1976):
Schulleistungsmodell nach Krapp:
Schulleistungsmodell nach Kühn (1983):
Bezugsnormen:
+ keine starr lineare Verknüpfung zwischen Fehlerzahl und Note
+ Beurteilung der Leistung innerhalb einer Lerngruppe
Keine Aussagen über Lernzielerreichung
Kann großzügig oder streng ausfallen -> sehr subjektiv
Keine Würdigung individueller Lernfortschritte
Def. Ingenkamp „Sache“: Norm bezieht sich auf die Sache
Def. Gaude „Idealnorm“: Vergleich realer Leistungen mit idealen optimalen Leistungen
Kriterienbezogene Norm: inhaltlich spezifizierte Nominierung, im Vorhinein von der Fachdidaktik definierte Fähigkeit- bzw. Kompetenzstufen (Bildungsstandards), typisch für Schulleistungstests wie PISA und IGLU (internationale Grundschul-Lese-Untersuchung), viele vergleichbare Paralleltests aus Itempool erstellbar
+ Gruppierung von Testwerten und Bildung von inhaltlichen Kompetenzprofilen
+ informiert über Grad der Lernzielerreichung, Kompetenzen und Lücken
+ Anerkennung individueller Lernfortschritte -> Motivationsförderung
+ Transparenz der Anforderungen für die Schüler und Eltern
+ angemessenes durchschnittliches Anforderungsniveau
+ Würdigung individueller Lernfortschritte und wirksame Förderung
Unterschiedliche Maßstäbe können zu einem Konflikt mit dem Gleichheitsgrundsatz führen
Vernachlässigung allgemein vorgegebener Bildungsstandards und konkreter Lernziele aufgrund von Rücksichtnahme möglich
Fazit:
Frage nach pädagogischen Standards, da Spannung aus notwendig begründeten Forderungen aus der Gesellschaft und dem individuellen Leistungsvermögen (personale Würde und Anspruch auf angemessene Entfaltung der Persönlichkeit). Gesellschaft und Individuum sind jedoch dialektisch aufeinander bezogen (freie Entfaltung der Persönlichkeit nur in funktionierender Gesellschaft möglich, wohingegen die Gesellschaft nur durch leistungsfähige und -bereite Individuen funktionsfähig ist).
Zensuren und Zeugnisse als Methode pädagogisch psychologischer Diagnostik
Funktion:
Auslese
Anreiz
Berechtigung
Disziplinierung
Orientierung
Selbstkontrolle
Was wird beurteilt:
Notengebung als Schätzverfahren eines komplexen Sachverhaltes
Lehrer als Messinstrument
Problem:
Punkteanzahl (Rohwert) = Note
2 Vorgehen nach Schulz (1988):
Verzerrungsfaktoren bei Schätzurteilen (Objektivität, Validität):
Güte-/Mildefehler: bessere Beurteilung als eigentlich richtig
Fehler der zentralen Tendenz: Vermeidung extremer Bewertungspositionen (Halo-Effekt: Einfluss eines beobachteten Merkmales auf die Bewertung anderer nicht beobachteten Merkmale)
Logischer Fehler: Merkmale die subjektiv logisch verknüpft sind, werden ähnlich bewertet
Reihungsfehler: erste Arbeiten werden mit mittlerer Note zensiert, nach mehreren gleichen Zensuren wird (aus Verteilungsgründen) eine andere gegeben
Recency/ Primacy-Effekt: Tendenz letzte oder erste Arbeit besser zu bewerten
Ettiketierungsprozesse: Einfluss von Vorurteilen (Rosenthal-Effekt)
PISA-Ergebnisse 2001:
11,4% der Schüler die nicht einmal Kompetenzstufe 1 im Lesen erreichten, wurden von ihren Lehrern als schwache Leser eingestuft.
Lehrervorhersage: 49,3% Hauptschüler, 60% Realschüler und 68% Gymnasiasten könnten die höchste Kompetenzstufe erzielen, in Realität waren dies jedoch 0,3%, 4,2% und 27,7%.
Forschungsbefunde zur Objektivität von Lehrerurteilen (schriftlich informelle Tests):
Traditionelle Tests entsprechen nicht den Gütekriterien
Geringe Durchführungsobjektivität
Geringe Auswertungsobjektivität
Nachgewiesene Einflussfaktoren:
Grammatikalische und orthographische Fehler (selbst wenn es nur um den Inhalt geht)
Handschrift
Beliebtheit der Schüler
Begründung:
Höhere Gewichtung der Endlösung als einzelner Zwischenschritte und der Aufgabenbewältigung an sich -> höhere Gewichtung von Flüchtigkeitsfehlern und deren Auswirkungen
Höhere Gewichtung von Rechtschreibung und Stil als Inhalt
Fazit:
Unterschiedliche Strenge
Unterschiedliche Ausschöpfung der Notenskala
Unterschiedliche Differenziertheit der Notengebung (über Fächer hinweg)
Unterschiedliche Kriterien in der Notengebung
Maßnahmen zur Verbesserung der Objektivität:
Erstellung von Kriterienkatalogen
Notengebung anhand mehrerer Leistungsüberprüfungen
Benotung durch mehrere Lehrer
Ergänzung durch Schulleistungstest
Reliabilität von Lehrerurteilen (schriftlich informelle Tests):
Messwiederholung / Bewertung gleicher Arbeit zu unterschiedlichen Zeiten mit gleichem Bewerter; r=0.25
Maßnahmen & Konsequenzen zur Verbesserung der Reliabilität (schriftlich formelle Tests):
Einheitlich fachlich konzipierte Prüfungsanforderungen im Abi nach Vorgaben der KMK mit Beispielaufgaben und Musterlösungen als Bewertungskriterien
Entwicklung von Richtlinien zur Aufsatzbeurteilung zur Verminderung der Urteilsstreuung und zur Analyse und Besprechung im Unterricht zur Transparenz
Validität von Lehrerurteilen (schriftlich informelle Tests):
Bewertung identischer Arbeiten in Abhängigkeit von der Vorinformation (Rosenthal-Effekt)
Ergebnisse der Studie von Ingenkamp / Hadley:
Sympathie x Schulnoten=0.08-0.92
Testleistung x Schulnoten=0.02-0.94
Geschlechterunterschiede: Noten korrelieren mit der Testleistung bei Jungen mehr als bei Mädchen
Beliebte: 50% besser, 16% schlechter
Unbeliebte: 50% schlechter, 19% besser
Geschlechterunterschiede nach Teichmann (1987):
Mädchen werden besser bewertet
besonders in den Klassen 5-8
besonders in Sprachen
keine weiteren Unterschiede in Examen
Prognostische Validität von Noten:
1971 - 80%, heute – 20% der Lehrer trauen sich gültige Prognosen zu
Versagerquote bei geeigneten 7-32%
Korrelation Grundschulnote – Erfolg am Gymnasium=0.45 in der Unterstufe
Gütekriterien bei mündlichen Tests:
Tradition (Disputation, Verbreitungsgrad der Leistungskontrolle)
Charakteristika (interaktiv oder adaptiv)
Prüfungsziele (sprachgebundene Leistungen, Wissens- und Verständnisleistungen)
Probleme mündlicher Tests:
Mangelnde Durchführungsobjektivität: Urteilsfehler, Primacy-Effekt (erster Eindruck bestimmt Gesamteindruck), Kontexteffekt (nach guter Leistung wird schlechte noch schlechter)
Mangelnde Validität: bessere Beurteilung von Brillenträgern (Thornton), Mädchen mit Lippenstift (Argyle), Menschen mit Verbalisationsgeschick und Sprechgeschwindigkeit (Birkel/Pritz)
Mangelnde Reliabilität: Bewertung mündlicher Leistungen meist signifikant besser als schriftlicher, nicht wahrgenommene unterschiedliche Schwierigkeitsgrade von Fragen
Maßnahmen & Konsequenzen (mündliche Tests):
Nur sprachgebundene Prüfung
Intensive Vorbereitung (Festlegung lernzielbezogener Faktoren, Beachtung der Schwierigkeitsgrade)
für entspannte Atmosphäre sorgen
Bereithaltung von Eisbrecherfragen
Wissensüberprüfungen in komplexe (mit Begründung) und einfache (Fakten) Fragen aufteilen, evtl. Fragekarten zum Ziehen bei einfachen Fragen
Pädagogische Psychologie des Lehrens & Lernen
1. Lernen als Verhaltensveränderung (Behaviorismus)
2. Lernen als Wissenserwerb I & II
3. Problemlösen & Transfer
4. Selbststeuerung & Lernstrategien
5. Instruktion & Unterrichtsqualität
6. Mediendidaktik
Lerntheorien:
1. Lernen als Verhaltensveränderung
Behavioristische Lerntheorien
Def. von Gage & Berliner (1996)
„Lernen als Prozess durch den ein Organismus sein Verhalten als Resultat von Erfahrungen ändert.“
Vertreter:
John Broadus Watson untersucht beobachtbares Verhalten statt kognitiven Phänomenen -> das menschliche Gehirn als „Black Box“, Verhalten resultiert aus Reiz
Burrhus Frederic Skinner geht hingegen von der Formbarkeit des Verhaltens durch Belohnung/Bestrafung und daraus einhergehender Verhaltensverstärkung oder Löschung aus, wonach das Hinzufügen, Entfernen oder Ausbleiben bestimmter Reize ein Verhalten wahrscheinlicher macht -> Rattenexperiment
Verstärkerarten:
Primäre Verstärker (Befriedigung biologischer Bedürfnisse -> Sättigungsproblem)
Sekundäre Verstärker (erlernte Verstärkerfunktion: sozial, materiell, Aktivitätsverstärker/Premack-Prinzip -> kein Sättigungsproblem)
Premack-Prinzip: Verstärkung unbeliebter Aktivität durch beliebte/bevorzugte Aktivität
Token Economy (Münzeintauchsystem als Verstärkungsplan):
Mithilfe von Münzen (oder ähnlichem), die gesammelt und später eingetauscht werden, wird das Problem umgangen, dass (primäre) Verstärker im Unterricht schwer identifizierbar sind
Bestrafung:
Aversiver Reiz mit strafender Wirkung
Kein Zielverhalten als Bestrafung
Von Anfang an intensiv, keine graduelle Steigerung
Keine Fluchtmöglichkeiten lassen
Gegenkonditionierung (Verstärkung von alternativem Verhalten) funktioniert besser als Bestrafung
Anwendung im schulischen Kontext:
Förderung erwünschter, Reduktion unerwünschter Verhaltensweisen
Erlernen von situationsangemessenem Verhalten (Toben in der Pause, Ruhe im Unterricht)
Sozial Kognitive Lerntheorien
Er entwickelt den Lernbegriff weiter als Prozess, der zu relativ stabilen Verhaltensveränderungen führt und auf Erfahrungen aufbaut, die nicht direkt beobachtbar sind.
Zimbardo beschreibt, dass Lernen dabei aus den beobachteten Verhaltensveränderungen erschlossen wird.
Zusammenfassung Behaviorismus:
Erklärt Verhaltensänderungen als Funktion von Reizen in der Umgebung
Assoziation zeitlich und räumlich gekoppelter Reize
Assoziation von Verhalten und unmittelbar nachfolgenden Konsequenzen
Gezielter Einsatz von Verstärkern und Bestrafung zur Lernförderung (operantes Konditionieren)
Später:
Es kann auch durch Beobachtung gelernt werden
Lernen zeigt sich immer im Verhalten
Motivation ein bestimmtes Verhalten zu zeigen kann auch aus stellvertretender Verstärkung des Modells resultieren
2. Lernen als Wissenserwerb
Kognitive Lerntheorie
Atkinson-Shiffrin-Informationsverarbeitungsmodell (Salvin):
Total-Time-Hypothesis im Langzeitgedächtnis:
Mit der Lernzeit steigt auch die Lernmenge
Arten von Interferenz:
Retroaktive Erleichterung (Wissen wird durch neues Lernen verbessert)
Proaktive Erleichterung (Lernerleichterung aufgrund vorhandenen Wissens)
Enkodierungsspezifität:
Art der Erinnerung hängt vom Kontext des Lernens ab
Wissensformen und Gedächtnissysteme im Langzeitgedächtnis:
Episodisches Gedächtnis (bildhafte Speicherung persönlicher Erfahrung nach -> Erinnerung erfolgt aufgrund zeitlich und räumlicher Cues/Hinweisreize)
Semantisches Gedächtnis (propositionale Speicherung allgemeiner Fakten)
Def. Proposition nach Schunk:
Kleinste bedeutungs-, sinn- oder eigenschaftszuweisende Info, die ein Urteil über die Korrektheit einer Aussage zulässt
Belege für propositionale Speicherung nach den Experimenten von W. Kintsch: