12. Februar 2012 | Tanja Gabriele Baudson

100 Jahre IQ – ein Grund zum Feiern

Was ist Intelligenz? So ganz einig ist sich die Forschung bis heute nicht – fest steht aber, dass wir sie im Vergleich zu anderen psychologischen Merkmalen sehr gut messen können, und das ist doch auch schon mal was. In diesem Jahr feiert der Intelligenzquotient seinen 100. Geburtstag.

Die systematische Erfassung kognitiver Fähigkeiten begann sogar schon etwas eher – genau gesagt, vor 107 Jahren, als Alfred Binet vom französischen Bildungsministerium den Auftrag erhielt, ein Verfahren zu entwickeln, um Schulkinder mit besonderem Förderbedarf zu identifizieren. Der Förderbedarf bezog sich (und das setzt sich zum Leidwesen vieler Hochbegabter ja bis heute fort) auf diejenigen, die Schwierigkeiten hatten, dem Schulunterricht zu folgen. Ihnen sollte eine entsprechende Unterstützung zuteil werden, damit sie zumindest eine Grundbildung erreichen könnten.

Gemeinsam mit seinem Kollegen Théodore Simon machte sich Binet also ans Werk. Bereits deutlich früher hatte der Engländer Francis Galton (ein Cousin von Charles Darwin) versucht, Intelligenz mit Hilfe einfacher mentaler Operationen wie der Fähigkeit, zwischen Sinneseindrücken wie verschiedenen Helligkeitsstufen zu unterscheiden, oder der Reaktionsgeschwindigkeit zu erfassen. Für Binet und Simon, denen es ja um die Vorhersage des schulischen Erfolges ging, war diese Art der Erfassung dann doch etwas arg reduktionistisch. Stattdessen standen in ihrem Test Fähigkeiten im Vordergrund, die für die Bewältigung konkreter Alltagsprobleme von Bedeutung waren und die entsprechend – so würden es Pädagogen heute ausdrücken – einen starken lebensweltlichen Bezug hatten. Zeige mir Deine Nase! Wie heißen die Monate? Wozu benutzt man eine Gabel? Solche und ähnliche Aufgaben sind bis heute Teil von Intelligenztests, beispielsweise dem verbreiteten Wechsler-Intelligenztest für Kinder. Diese verschiedenen Aufgaben wurden nun von Binet und Simon nach Schwierigkeit gestaffelt. Aufgaben, die von 70 % aller Kinder eines Altersjahrgangs erfolgreich bewältigt werden konnten, wurden zu so genannten "Altersreihen" zusammengefasst, die dann wiederum eine Abschätzung des Intelligenzalters erlaubten. Wenn ein Kind alle Aufgaben seiner Altersstufe löst, entspricht das Intelligenzalter dem Lebensalter; löst es mehr, wird dies entsprechend verrechnet.

Binet selbst war eher zurückhaltend, das Testergebnis auf eine Zahl zu reduzieren, da der selben Summe an gelösten Aufgaben ganz unterschiedliche qualitative Muster zu Grunde liegen können.1 Dieses Manko ist bis heute in den meisten handelsüblichen Tests nicht zufriedenstellend gelöst – Punktsummen lassen sich nun mal einfach berechnen und normieren. Ein weiteres Problem mit Binets "Intelligenzalter" war jedoch, dass Diskrepanzen zwischen Intelligenz- und Lebensalter je nach Alter des Kindes etwas ganz anderes bedeuten können. Ein Vierjähriger auf dem Stand eines Sechsjährigen ist in seiner kognitiven Entwicklung deutlich weiter als ein Zehnjähriger auf dem Niveau eines Zwölfjährigen. Und hier kommt nun unser Geburtstagskind ins Spiel: Denn genau, um dieses Problem zu lösen, schlug William Stern 1912 vor, das Intelligenzalter doch einfach am Lebensalter zu relativieren (und diesen Quotienten zur leichteren Handhabbarkeit dann noch einmal mit 100 zu multiplizieren) – der IQ war erfunden!

Leider waren aber auch damit nicht alle Probleme gelöst. Bei Kindern lässt sich noch halbwegs bestimmen, welche Fertigkeiten in einem bestimmten Alter beherrscht werden sollten; bei Jugendlichen und Erwachsenen hingegen, die sich im Rahmen ihrer beruflichen Ausbildungen deutlich stärker spezialisieren, lässt sich kaum noch sagen, welche "allgemeinen" Dinge jemand können muss. Abgesehen davon wird auch die Differenzierung immer schwieriger. Was unterscheidet einen 34jährigen von einem 35jährigen? Aus diesem Grund brachte David Wechsler dann den Abweichungs-IQ ins Spiel – der den "Quotienten" nur noch aus Gründen der Tradition im Namen trägt, aber eigentlich keiner mehr ist. Wechsler ging nämlich von der so genannten Rohwerteverteilung aus, die einer Normalverteilung ähnelt. Die meisten Leute erreichen Werte im mittleren Bereich, an den Extremen wird die Verteilung dann dünner. Eine solche Verteilung lässt sich nun beschreiben durch (1) den Mittelwert: Dieser wurde – ganz traditionsgemäß im Einklang mit Sterns Intelligenzquotienten – auf 100 festgelegt; (2) die Standardabweichung: Diese ist im Wesentlichen ein Maß dafür, wie breit die Verteilung auseinanderläuft bzw. wie spitz sie ist. Die in Deutschland gängige IQ-Verteilung hat eine Standardabweichung von 15 (und wer jetzt die IQ > 130 = Hochbegabung im Kopf hatte, kann auch messerscharf schlussfolgern, wie die 130 zustande gekommen ist: nämlich dadurch, dass zwei Standardabweichungen über dem Mittelwert als hinreichend überdurchschnittlich gelten können).

Damit eine solche Verteilung auch aussagekräftig ist, braucht man eine große (und repräsentative) Vergleichsgruppe, an der man einen individuell erreichten Wert messen kann. Insbesondere, um an den Extremen hinreichend zu differenzieren, braucht man genug Leute, die einen so extremen Wert auch erreichen; da diese statistisch ja eher selten sind, muss die Grundgesamtheit entsprechend groß sein. Darin liegt auch das Problem begründet, dass die meisten Intelligenztests überhaupt nur bis etwa zu einem IQ von 140-150 messen (und in diesen Bereichen auch nicht mehr sehr genau). Statistisch betrachtet haben 0,13 % der Bevölkerung einen IQ von 145 und darüber; bei einer nicht unüblichen Normierungsstichprobe von 1000 Personen hat man also vielleicht eine oder zwei Personen dabei, die einen entsprechenden Wert überhaupt erreichen!

Wie erklären sich aber dann die teilweise astronomischen Werte, die Höchstbegabten zugeschrieben werden? Zum einen muss auch hier natürlich die Standardabweichung beachtet werden. Manche Tests, etwa die Cattell-Skala, haben eine Standardabweichung von 24; ein mit einem solchen Test erreichter beeindruckender IQ von 148 entspräche, transformiert in die gängige Verteilung mit einer Standardabweichung von 15, jedoch gerade mal einem IQ von 130. Zum zweiten werden in der Höchstbegabtenforschung mangels besserer Alternativen auch noch die frühen Weiterentwicklungen des klassischen IQ-Konzepts (etwa die älteren Stanford-Binet-Skalen) verwendet. Erreicht ein Kind also ein Intelligenzalter, das doppelt so hoch ist wie sein Lebensalter, ergibt sich daraus rein rechnerisch ein IQ von 200. Da sich jedoch, wie oben skizziert, nicht für jedes Lebensalter entsprechende Intelligenzalter-Aufgaben finden lassen, wird es ab der späten Kindheit schwierig, eine solche Höchstbegabung mit gängigen Testverfahren zu diagnostizieren. Erwachsene Höchstbegabte müssen sich daher mit relativ ungenauen Angaben wie beispielsweise "IQ > 150" zufrieden geben – möglicherweise ist es in solchen Bereichen aber auch gar nicht mehr so praktisch relevant, ob der tatsächliche IQ nun bei 153 oder bei 160 liegt ...

1 Dies beeinflusste möglicherweise auch Binets berühmtesten Schüler, Jean Piaget, der seinen Fokus bei der Erforschung der kognitiven Entwicklung von Kindern insbesondere auf die qualitativen Fortschritte legte.

 

Literatur:

  • Mackintosh, N. J. (2011). History of theories and measurement of intelligence. In R. J. Sternberg & S. B. Kaufman (Eds.), The Cambridge Handbook of Intelligence (pp. 3–19). Cambridge: Cambridge University Press.
  • Urbina, S. (2011). Tests of intelligence. In R. J. Sternberg & S. B. Kaufman (Eds.), The Cambridge Handbook of Intelligence (pp. 20–38). Cambridge: Cambridge University Press.