Jeder Mensch hat ein Brett vor dem Kopf – es kommt nur auf die Entfernung an.
Marie von Ebner-Eschenbach (1830 – 1916)
Einige einleitende Worte zur Rationaliät des Menschen
Im unserem schönen Abendlande wurden von alters her große Stücke auf die menschliche Vernunft gehalten. Insbesondere seit der Aufklärung erhoffte man sich die Lösung aller Menschheitsprobleme durch Anwendung von rationalem Denken, das uns einerseits die Geheimnisse der Natur entschlüssele und so nutzbar mache, und darüber hinaus das soziale Miteinander mittels vernunftgemäßer Reformen der Gesellschaft verbessere. Das klassische Menschenbild des 18. und 19. Jahrhundert war das des zoon logikon, des animal rationale [1], und die Menschheit, so schien es damals vielen, werde auf den Schwingen der Vernunft einer strahlenden Zukunft des immerwährenden materiellen und geistigen Wohlstands entgegen fliegen.
Heutzutage ist nur noch wenig von dieser einstigen Fortschritts- und Vernunftgläubigkeit übriggeblieben. Darwin und Freud relativierten mit ihren Arbeiten bereits die Hoffnung auf die Macht der Ratio, und schließlich führten zwei verheerende Weltkriege, globale Umweltzerstörung, Bevölkerungsexplosion und die ständige Drohung eines Nuklearkrieges dazu, dass heute längst nicht mehr positive Utopien unsere Erwartungen an die Zukunft widerspiegeln, sondern eher Höllenszenarien wie in Huxleys Brave New World, Orwells 1984 oder in Filmen wie denen der Matrix– und Terminator-Trilogie.
In letzteren besteht die besondere Pikanterie darin, dass die Maschinen als Erzeugnisse des menschlichen Verstandes ihre Schöpfer am Ende zu vernichten drohen. Die von Max Horkheimer so genannte „instrumentelle Vernunft“, also jene Raffinesse, mit der der Mensch die Unterwerfung der Natur (und seiner Mitmenschen) für seine Interessen bewerkstelligt, verkehrt sich also letztlich in ihr Gegenteil, wenn nicht eine humane, moralische Vernunft ihr Ziele und Grenzen diktiert.[2] Und die Irrationalität des Menschen auf letzterem Gebiet – soviel scheint heute klar zu sein – ist viel stärker und hartnäckiger als die Aufklärer von einst geglaubt und gehofft hatten.
In der Psychologie blieb es lange Zeit der Psychoanalyse vorbehalten, auf den hohen Stellenwert „vorvernünftiger“ Einflussfaktoren auf das menschliche Erleben und Verhalten zu insistieren, insbesondere natürlich den der emotionalen Erfahrungen mit Interaktionspartnern in der Kindheit. Von der universitären Mainstream-Psychologie wurden Störungen der reinen Rationalität erst nach der sogenannten Kognitiven Wende, wie die Ablösung des Behaviorismus als vorherrschendem Paradigma heute genannt wird, ab dem Ende der 1960er Jahre systematisch untersucht. Die Initiierung des wichtigsten Forschungsprogramms auf diesem Gebiet ist eng mit den Namen Daniel Kahneman und Amos Tversky verbunden, zwei israelisch-US-amerikanischen Psychologen, deren Veröffentlichungen seit den frühen 1970er Jahren in der Fachwelt Furore machten, eben genau weil sie das althergebrachte selbstgefällige Bild des sogenannten Homo sapiens von sich selbst als einem Wesen, das vorrangig von Vernunft bestimmt sei, vehement erschütterten.
Mehrere systematische kognitive Fehler (engl. biases) entdeckten Tversky und Kahneman und wiesen mittels sorgfältig konstruierter Experimente nach, dass die meisten Menschen in vielen Situationen für solche Fehler anfällig sind und ihre Entscheidungen und Urteile oft deutlich von optimalen und korrekten Lösungen abweichen. Die Existenz dieser Biases wird dabei damit erklärt, dass nicht logisch-exakte Strategien der Problemlösung, sondern sogenannte Heuristiken benutzt werden, d.h. „Pi-mal-Daumen“-Regeln, die in vielen Alltagssituationen brauchbare Ergebnisse liefern, aber eben nicht selten auch zu unsinnigen Resultaten führen. Für die von Tversky und Kahneman begründete Forschungstradition hat sich daher der Name „Heuristics and Biases“-Schule eingebürgert.
In Zukunft sollen hier – wie bereits in Folge (1) über Optische Täuschungen angekündigt – in unregelmäßigen Abständen verschiedene dieser „Biases“ vorgestellt werden. Den Anfang machen die sogenannten Ankereffekte.
Ankereffekte
Bei Einschätzungen und Urteilen, die mit Zahlen zu tun haben, konnte gezeigt werden, dass es sehr leicht ist, solche Schätzungen durch gezielte Vorinformationen zu beeinflussen. So ließ man beispielsweise Probanden schätzen, wie hoch der höchste Küstenmammutbaum der Welt ist. Bevor die Versuchspersonen aber eine eigene Zahl angeben durften, beantwortete eine Hälfte von ihnen die Frage „Beträgt die Höhe des höchsten Küstenmammutbaums mehr oder weniger als 366 Meter?“ und die andere Hälfte die Frage „Beträgt die Höhe des höchsten Küstenmammutbaums mehr oder weniger als 55 Meter?“. Bei den Probanden, die den hohen Wert in der Mehr-oder-weniger-Frage erhalten hatten, betrug der Durchschnitt der anschließend erfragten konkreten eigenen Schätzungen 257 m, bei jenen mit dem niedrigen Wert dagegen nur 86 m! Die in der vorab gestellten Frage angegebene Höhe wirkte als Anker und beeinflusste die Schätzungen der ProbandInnen offensichtlich in erheblichem Maße [3] (Jacowitz & Kahneman, 1995, zit. in Kahneman, 2014, S. 157).
Selbst wenn die verwendeten Anker völlig „verrückt“ und unplausibel sind, wirken sie ähnlich stark wie glaubhafte Anker: Die deutschen Psychologen Fritz Strack und Thomas Mussweiler (Strack & Mussweiler, 1997, zit. in Chapman & Johnson, 2002) ließen ihre Versuchpersonen schätzen, wann Einstein erstmals die USA besuchte und stellten analog der oben bei den Mammutbäumen beschriebenen Methode vorab eine Früher-oder-später-Frage, die eine Jahresangabe enthielt, die als Anker fungierte. Ergebnis: Bei extremen und völlig unglaubwürdigen Jahreszahlen wie 1215 vs. 1992 waren die Ankereffekte genauso groß wie bei den ziemlich realistischen Angaben 1905 und 1939. Verblüffend, nicht wahr?! Es ist offenbar sehr simpel, quantitative Schätzungen zu beeinflussen, zumindest dann, wenn Menschen nicht wissen, was die korrekte Antwort ist und daher schätzen müssen. Selbst vollkommen absurde Informationen rufen oft einen beträchtlichen kognitiven Bias in Richtung eben dieser Information hervor. (Warum nur fällt mir an dieser Stelle spontan Donald Trump ein??)
Dass Ankereffekte auch in realen Zusammenhängen Auswirkungen haben können, und zwar sehr beunruhigende, und als Anker sogar Zahlen wirksam werden, die mittels eines Würfels ermittelt werden, zeigten 2006 wiederum drei deutsche ForscherInnen: Erfahrenen StrafrichterInnen (mit mindestens 15 Jahren Berufserfahrung) wurde die fiktive Beschreibung einer Straftat (Ladendiebstahl) vorgelegt. Nachdem sie die Schilderung gelesen hatten, warfen sie zunächst zwei Würfel, die allerdings so gezinkt waren, dass sich als Summe immer nur 3 oder 9 ergeben konnte; anschließend wurden sie gefragt, ob sie die Ladendiebin zu einer Freiheitsstrafe verurteilen würden, die größer oder kleiner als die von ihnen gewürfelte Zahl (in Monaten) sei. Erst nachdem sie diese Frage beantwortet hatten, sollten sie ein exaktes eigenes Strafmaß festsetzen. Diejenigen Richter, die zuvor eine 3 gewürfelt hatten, wählten als Urteil im Schnitt 5 Monate, diejenigen, die eine 9 gewürfelt hatten, dagegen 8 Monate Freiheitsstrafe (Englich et al., 2006, zit. in Kahneman, 2014, S. 159f.). Ziemlich erschreckend, welche trivialen Geschehnisse Auswirkungen auf solch ernste Entscheidungen haben, bei denen es ja um das Wohl und Wehe anderer Menschen geht! Auch in anderen Zusammenhängen ist gut belegt, dass Expertentum keineswegs vor dem Wirksamwerden von Ankereffekten (und anderen kognitiven Fehlern) schützt.
Wie bei genaueren Untersuchungen zu den Ursachen des Ankereffekts gezeigt werden konnte, beruht dieser meist darauf, dass die Probanden den gegebenen Anker als Ausgangspunkt ihrer Überlegungen übernehmen und dann ihre Schätzung oder ihr Urteil in Richtung des Wertes korrigieren, den sie gewählt hätten, wenn vorab keine Beeinflussung durch einen hinterlistigen Versuchsleiter stattgefunden hätte. Am Beispiel der StrafrichterInnen: Sie wählten als Ausgangspunkt ihrer Überlegungen bezüglich des gerechten Urteils im Falle des Ladendiebstahls nicht ähnlich gelagerte Fälle aus der strafrechtlichen Realität, wie sie es vermutlich getan hätten, wenn sie unbeeinflusst gewesen wären, sondern knüpften offensichtlich bei ihren Erwägungen an die Gedanken an, die mit der von ihnen gewürfelten Zahl zusammenhingen, denn kurz zuvor hatten sie sich ja entscheiden müssen, ob ihr Urteil strenger oder milder als 3 bzw. 9 Monate ausfallen würde. Von dieser Ankerzahl aus korrigierten die RichterInnen dann in Richtung des Urteils, das sie ohne einen äußeren Anker gefällt hätten. Das Problem dabei: sie korrigierten nicht genug! Ein Stück weit „klebten“ sie noch an der zuvor gewürfelten Zahl (in Monaten Freiheitsstrafe) und ließen sich von dieser unbewusst beeinflussen.
Eine (unbewusst eingesetzte) Heuristik, die zum Anker-Bias führen kann, könnte also in etwa so lauten:
Nimm für deine Schätzung einen halbwegs brauchbaren Ausgangswert, evtl. einen, der gerade im Gedächtnis verfügbar ist (z.B. weil er gerade durch den Versuchsleiter präsentiert wurde) und somit wenig kognitiven Aufwand erfordert, und taste dich dann von diesem Wert aus in die Richtung des Bereichs vor, von dem du „eigentlich“ dachtest, in ihm müsse sich die optimale Lösung befinden; sei aber nicht zu „draufgängerisch“ bei dieser Korrektur – der vorgegebene Ausgangswert könnte wichtig sein.
Was ausformuliert ganz schön umständlich und kompliziert klingt, läuft in unseren Köpfen nahezu mühelos und meist völlig unbewusst in wenigen Sekunden ab. Ständig benutzen wir solche (und andere) vagen Pi-mal-Daumen-Regeln ohne es zu bemerken. Häufig haben Anker natürlich auch positive Effekte, z.B. dann wenn im Ankerwert besseres Wissen steckt als der jeweiligen Person zum gegebenen Zeitpunkt zur Verfügung steht.
Eine generelle Lehre, die man aus den Forschungen zu Ankereffekten ziehen kann, ist wohl die, dass es eine nicht unerhebliche Rolle spielt, von welchem Ausgangspunkt unsere Überlegungen ausgehen, wenn es darum geht, wichtige Entscheidungen zu fällen oder Einschätzungen vorzunehmen. Optimal wäre es, diesen Startpunkt bewusst und nach rationalen Kriterien zu wählen und ihn sich nicht durch gerade zufällig vorhandene Informationen diktieren zu lassen.
Die allermeisten Menschen glauben übrigens, immun gegen die hier beschriebenen Ankereffekte zu sein; auch unsere ehrwürdigen StrafrichterInnen hätten bestimmt vorab vehement bestritten, auf eine solche im Grunde triviale Art und Weise manipulierbar zu sein. Wie der Verlauf des Experiments zeigte, hätten sie sich damit allerdings gründlich geirrt [4].
Anmerkungen
[1] Zumindest dachte das die Minderheit der weißen, wohlhabenden und gebildeten Männer des abendländischen Kulturkreises, die dieses Bild proklamierten, von sich selber. Frauen, Menschen ohne Zugang zu Bildung oder Nicht-Europäer – mithin die übergroße Mehrheit der Menschheit – fielen nicht oder bestenfalls nur teilweise unter die Definition des „weisen Menschen“, des Homo sapiens. Das störte aber meist nicht weiter und galt mitnichten als irrational.
[2] „Mit dem Versuch, die Natur zu beherrschen, wird der einst mythische Zugang zur Welt aufgeklärt und schlägt als ,Herrschaft’ und ‚neue Barbarei’ dialektisch in Mythos zurück“ Wikipedia, Artikel: Instrumentelle Vernunft
[3] Tatsächlich steht der höchste Küstenmammutbaum (Sequoia sempervirens) wohl im Redwood-Nationalpark im Nordwesten Kaliforniens und war mit im Jahr 2006 gemessenen 115,60 Metern der höchste lebende Baum der Welt (Quelle: wikipedia).
[4] Allerdings muss das natürlich nicht für alle RichterInnen, die am Experiment teilnahmen, gelten. Die angegebenen Werte sind nur Durchschnittswerte. Die Anfälligkeit für kognitive Verzerrungen (z.B. Ankereffekte) variiert interindividuell natürlich ziemlich stark.
Literatur
Chapman, G. B. & Johnson, E. J. (2002). Incorporating the irrelevant: Ancors in judgments of belief and value. In: Gilovich, T., Griffin, D. & Kahneman, D., Heuristics and Biases – The psychology of intuitive judgment. New York: Cambridge University Press.
Englich, Birte; Mussweiler, Thomas & Strack, Fritz (2006). Playing dice with criminal sentences: The influence of irrelevant anchors on experts’ judicial decision making. Personality and Social Psychology Bulletin, 32, S. 188 – 200.
Jacowitz, Karen E. & Kahneman, Daniel (1995). Measures of anchoring in estimation tasks. Personality and Social Psychology Bulletin, 21, S. 1161 – 1166.
Kahneman, Daniel (2014). Schnelles Denken, langsames Denken. München: Pantheon. (Amer. Originaltitel: Thinking, Fast and Slow. New York: Farrar Straus & Giroux, 2011.)
Strack, F. & Mussweiler, T. (1997). Explaining the enigmatic anchoring effect: mechanism of selective accessibility. Journal of Personality and Social Psychology, 73, 437 – 446.
© Matthias Wehrstedt 2017