Charles Spearman – Erfinder der explorativen Faktorenanalyse

Von Kritische Psychologie Marburg

Charles Spearman (1863-1945) ist als hervorragender Statistiker und Psychologe bekannt. Er erfand den sog. Spearmanschen Rangkorrelationskoeffizienten, die Attenuationskorrektur und die explorative Faktorenanalyse.

Seine Zweifaktorentheorie der Intelligenz, die er 1904 in dem Aufsatz “General Intelligence“ Objectively Measured and Deterimed, vorstellte ist eine der einflussreichsten Theorien in der Geschichte der Intelligenzforschung. In diesem Aufsatz verwendete er das Verfahren der tetradischen Differenzen – ein Vorläufer der Faktorenanalyse. Die Faktorenanalyse ist ein mathematisches Verfahren zur Reduzierung eines komplexen Systems von Korrelationen auf eine geringere Zahl von Dimensionen.

Spearman übernahm von Sir Francis Galton nicht nur das Interesse an Statistik, sondern auch sein Engagement in der eugenischen Gesellschaft Englands (zeitweise gewähltes Mitglied im Beirat) und die Vorstellung Galtons, dass es eine mentale Fähigkeit gibt, die dafür sorgt, dass, wenn eine Person bei einer Aufgabe gut abschneidet, auch andere Aufgaben gut absolviert. Obwohl Galtons Vorstellung, dass senorische Tests (Wahrnehmung, Reaktionszeit etc.) mit schulischer und akademischer Leistung korrelieren, schon maßgeblich widerlegt war ( Clark Wissle, 1901), versuchte Spearman diese Annahme 1904 erneut zu untermauern: Er fand eine Korrelation von nahezu 1, die nie jemand replizieren konnten und gab der sog. mentalen Fähigkeit den Namen „g“ für General Intelligenz.

Spearmans Vorgehen

Spearman untersuchte auch die Korrelationen zwischen verschiedenen Tests, von denen er annahm, dass sie mentale Fähigkeiten maßen, und fand fast immer eine positive Korrelation. Er schloss daraus, dass jeder dieser Tests nicht eine unabhängige geistige Funktionsweise maß, sondern vielmehr eine einfachere Struktur dahinter lag. Spearman stellte sich zwei Alternativen vor. Die gefundenen Korrelationen könnten entweder auf eine kleine Reihe unabhängige geistige Attribute zurückzuführen sein oder auf einen allgemeinen Faktor (g-factor). In beiden Fällen bliebe allerdings eine gewisse Restvarianz, die bei jedem Test spezifisch sei (s-factor).

Um zwischen diesen beiden Annahmen zu einer Entscheidung zu gelangen, erfand er das Verfahren der tetradischen Differenzen. Er erfand diese Technik praktisch als Mittel zum Schlussfolgern auf Ursachen von Korrelationsmatrizen von Tests. Mittels dieser Methode fand er einen Hauptfaktor (g-factor) und sah dieses Ergebnis als Bestätigung seiner Zweifaktorentheorie der Intelligenz an.

Er fasste „g“ als eine Art Energie auf („mental energie“, siehe Spearman 1923, 1927), die wie ein Treibstoff funktioniert. Für jede spezifische Fähigkeit gäbe es einen bestimmten Hirnbereich, den „g“ mit Energie versorge. Er verglich diese mit Motoren und „g“ mit dem dafür nötigen Treibstoff. Für ihn stand es außer Frage, dass die Physiologie eine solche Hirnenergie finden würde.

Kritik

Gould (1988) griff dieses Vorgehen und insbesondere die Schlussfolgerungen in seinem Buch „Der falsch vermessene Mensch“ in zweierlei Hinsicht an:

  • Wie bei Korrelationsberechnungen liefert die Faktorenanalyse keine Kausalzusammenhänge. Nur weil etwas miteinander korreliert, heißt es nicht, dass die beiden gemessenen Maße in einem Zusammenhang zueinander stehen (z.B. Lebensalter und Benzinpreis). Bei dem Ergebnis einer Faktorenanalyse ist es ähnlich. Faktoren an sich sind mathematische Abstraktionen, geschaffen durch ein mathematisches Verfahren. Erst wenn überzeugende, unabhängige Angaben über die bloße Tatsache der Korrelation hinaus vorliegen, können stichhaltige Aussagen über Faktoren gemacht werden. Sie allerdings aus sich heraus als eigenständige Wesenheiten aufzufassen ohne zusätzliches Wissen über die Natur der Korrelation, ist äußert fragwürdig. Denn auch unsinnige Korrelationsmatrizen können durchaus einen starken ersten Hauptfaktor haben (z.B. eine 5×5 Korrelationsmatrix aus Lebensalter, der Bevölkerung Mexikos, der durchschnittlichen Entfernung von Galaxien, dem Benzinpreis und der Anzahl aller Bundesligaspiele in den letzten 10 Jahren (vgl. Gould, 1988)).
  • Die Faktorenanalyse ist aus ihrer Art heraus hypothesengenerierend (siehe Bortz, 1999). Die von Spearman vorgestellte Lösung ist eine von theoretisch unendlich vielen mathematisch gleichwertigen Lösungen, da die Faktoren, wie ein Koordinatensystem behandelt und beliebig im Raum gedreht werden können (siehe Abb. 1). Durch die Drehung ändern sich allerdings die Ladungen der Tests auf die einzelnen Faktoren und somit ihre inhaltliche Interpretierbarkeit. Thurstone nimmt beispielsweise sieben Faktoren der Intelligenz an (siehe Amelang & Bartussek, 2001). Die Position der Faktorenachsen ist demnach theorieabhängig und nicht mathematisch notwenig. Bei diesem Ansatz beeinflussen die Vorannahmen die Ergebnisse: aus den theoretisch unendlich vielen Lösungen der Faktorenanalyse sucht man sich das Ergebnis aus, das einem am besten in die Theorie passt – in diesem Fall einen Hauptfaktor, der aus seiner Definition heraus, maximalen Erklärungswert besitzt.

Die Faktorenanalyse kann große Datenmenge vereinfachen und uns helfen Ursachen zu verstehen, indem sie uns Hinweise auf Informationen jenseits der Mathematik liefert. Doch Faktoren als solche sind mathematische Abstraktionen, keine Ursachen oder Dinge, die irgendwo im Gehirn ansässig sind.

„Den Ausspruch des Statistikers, dass alles Vorhandene gemessen werden kann, hat der Faktorenanalytiker um die Annahme ergänzt, dass alles was „gemessen“ werden kann auch vorhanden sei, doch es kann sein, dass die Beziehung nicht umkehrbar und die Annahme falsch.“ Tuddenham (1962) zitiert in Gould (1988)

Die Behauptung, dass der gefundene Hauptfaktor Intelligenz darstelle, kann sich nie aus der Mathematik allein ergeben, sondern nur aus dem zusätzlichen Wissen über die materielle Natur der Messwerte selbst. Die Messwerte sind Werte von Tests, die behaupten „geistige Fähigkeiten“ zu messen, ohne dies unabhängig bestätigen zu können. Die operationale Definition von Boring (1923), dass Intelligenz das ist, was eine Intelligenztest misst, ist heute immer noch gebräuchlich (siehe Amelang & Bartussek, 2001, S.191) und zeigt die vollkommene Willkürlichkeit in der Definition und Messung von Intelligenz. Seit 1923 haben Intelligenzforscher zwar viele neue Intelligenzkonzepte entwickelt und unzählige Tests dazu konzipiert. Eine allgemeine Definition, die den Namen verdient, gibt es aber immer noch nicht und damit natürlich auch keinen wirklichen Fortschritt in der theoretischen Weiterentwicklung. Die Psychologen messen, ohne zu wissen, was sie messen.

Politscher Hintergrund von „g“

Das Spearmansche „g“ steht in der Tradition der Galtonschen Psychologie, Intelligenz zu einer inhärenten, erblichen und extakt meßbaren Wesenheit zu verdinglichen.. Es lieferte die theoretische Begründung, mit der man Menschen auf einer linearen Einheitsskala des geistigen Werts einreihen kann. Somit scheinen einfache „objektive“ Aussagen über die individuelle geistige Leistungsfähigkeit jedes Menschen möglich und damit einhergehend „die einzige vielversprechende theoretische Rechtfertigung, die für die Vererbungstheorien des IQ je gefunden wurde“ ( Gould, 1988).

Die starke Verteidigung des g-factors von Seiten vererbungstheoretischer Forscher wie Jensen, Eysenck, Cattell, Herrnstein, Gottfredson, Rushton, Weiss etc. können nicht allein als wissenschaftlich motiviert interpretiert werden. Spearmans „g“ ist ihre vermeintlich stärkste Waffe, um ihre politischen Forderungen wissenschaftlich zu untermauern. Durch den Wegfall des g-factors wäre es ungleich schwieriger Rassenvergleiche anzustellen und so die Minderwertigkeit bestimmter Rassen gegenüber anderen Rassen in Bezug auf ihre geistige Leistungsfähigkeit aufzuzeigen. Bei einer mehrfaktoriellen Intelligenztheorie sind solche Vergleiche absurd.

Die Möglichkeit, dass Intelligenz mehrdimensional oder numerische nicht fassbar sein könnte, würde auch die Forderung der Galtonschen Eugenik nach Menschenzüchtung extrem erschweren. Es wäre, unter der Prämisse eines schwachen oder sogar fehlenden g-factors, sehr unwahrscheinlich ein „Intelligenzgen“ zu finden. Eine eindeutig identifizierbare genetische Grundlage ist allerdings der Traum eines jeden Eugenikers. Die Intelligenztestentwicklung und die Annahme der Erblichkeit von Intelligenz ist unauflösbar mit der eugenischen Bewegung in den USA, England, Deutschland und vielen anderen Ländern verbunden. Spearman, der selbst in der eugenischen Bewegung aktiv war (s.o.), verdeutlicht diese Vorstellung in seinem biologisch-deterministischen Denken von Intelligenz als Hirnenergie und den spezifischen Fähigkeiten als identifizierbare Hirnbereiche (in seiner Analogie als „Motoren und Treibstoff“).

“Spearman recognized the importance of ´g´ to the future of eugenics. The ´eugenicist would be seriously hindered´ if intelligence was composed of numerous independent factors, the ´efforts to better the race´ would be ´dissipated in hunting after innumerable independent abilities´ (Spearman, 1914, pp. 220-21).zitiert in Mehler (1998)

Spearman gehörte auch einer Kommission der eugenischen Gesellschaft an, die zur Aufgabe hatte, Intelligenztests weltweit zu standardisieren. Der Gedanke dahinter war, dass mit einem solchen Messinstrument erblich bedingte Rassenunterschiede aufgezeigen werden können. Diese wichtige Aufgabe erfüllte aber erst der Schüler von Spearmanns Nachfolger Raymond Bernard Cattell mit der Entwicklung des „Culture-free“-Tests, heute zynischerweise „Culture-fair“-Test genannt.

Die Forschung von Wissenschaftlern kann nicht unabhängig von ihren politischen Überzeugungen betrachtet werden. Die Verteidigung des g-factors hat eine eindeutig ideologisch-politische Komponente, die nicht durch den Verweis auf die vermeintliche Objektivität der Forschung entkräftet werden kann. Die politischen Überzeugungen des Forschenden begleiten den gesamten Forschungsprozess, von der Wahl des Paradigmas bis zur Interpretation der Ergebnisse.

Es bleibt in Marburg leider den Studierenden überlassen, die ideologischen Prämissen der Forschenden zu aufzuzeigen und die Methoden, Ergebnisse und Interpretationen diesbezüglich zu reflektieren und neu zu bewerten.

Literatur:

Amelang, M. & Bartussek, D. (2001). Differentielle Psychologie & Persönlichkeitsforschung (5., aktual. & erw. Aufl.) (S. 190-223). Stuttgart: Kohlhammer.

Bortz, J (1999). Statistik für Sozialwissenschaftler (5., vollständig überarbeitete und aktualisierte Aufl.) (S. 498). Heidelberg: Springer.

Gould, S. J. (1988). Der falsch vermessene Mensch. Frankfurt am Main: Suhrkamp.

Mehler, B. (1998 , January). Beyondism: Raymond B. Cattell and the New Eugenics. URL: http://www.ferris.edu/HTMLS/othersrv/isar/bios/Cattell/genetica.htm. [Zugriff am 23.4.07]. Originally published 1997. In Genetica , 99, 153-163.

Spearman, C.E. (1904) . „General Intelligence“ O bjectively Determined and Measured . The American Journal of Psychology, 15, 201-292.

Spearman, C.E . (1914). The Heredity of Abilities. Eugenics Review, 6, 219-237.

Spearman, C.E. (1923) . The nature of intelligence and the principles of cognition. London: MacMillian.

Spearman, C. E. (1927) . The abilities of man: their nature an measurement. London: MacMillian.

Dieser Eintrag wurde veröffentlicht in Online-Publikationen und getaggt als . Fügen Sie den permalink zu Ihren Favoriten hinzu.

Kommentare sind geschlossen.