Schnelles Denken, langsames Denken

aus Wikipedia, der freien Enzyklopädie
Zur Navigation springen Zur Suche springen

Schnelles Denken, langsames Denken (englischer Originaltitel: Thinking, Fast and Slow) ist ein Buch von Daniel Kahneman, das seine großenteils gemeinsam mit Amos Tversky durchgeführten Forschungen aus mehreren Jahrzehnten zusammenfasst.[1][2] Die zentrale These ist die Unterscheidung zwischen zwei Arten des Denkens: Das schnelle, instinktive und emotionale System 1 und das langsamere, Dinge durchdenkende und logischere System 2. Das Buch schildert kognitive Verzerrungen im Denken von System 1 und bietet dabei einen breiten Querschnitt von Forschungsergebnissen der sogenannten Heuristics-and-biases-Schule, die von Tversky und Kahneman in den 1970er Jahren begründet wurde. Die englischsprachige Originalausgabe erschien am 25. Oktober 2011 unter dem Titel Thinking, Fast and Slow[3], die deutsche Übersetzung im Mai 2012.

Zwei Systeme[Bearbeiten | Quelltext bearbeiten]

Im ersten Teil des Buches beschreibt Kahneman die zwei verschiedenen Weisen, in denen das Gehirn denkt:

  • System 1: Schnell, automatisch, immer aktiv, emotional, stereotypisierend, unbewusst
  • System 2: Langsam, anstrengend, selten aktiv, logisch, berechnend, bewusst

Kahneman beschreibt eine Reihe von Experimenten, die die Unterschiede zwischen beiden Gedankenprozessen herausstellen, und er zeigt, wie beide Systeme oft zu verschiedenen Schlüssen kommen.

Das System 1 sei dabei rasch „faul“, „ausgelastet und erschöpft“. Der Autor beschreibt das Phänomen der „Bahnung“ (engl. Priming) von bestimmten Ansichten durch bestimmte Reizworte. Er zeigt auf, wie „kognitive Leichtigkeit“ bestimmte unrealistische Denkweisen fördert. Zudem legt er dar, wie das Gehirn zu voreiligen Schlussfolgerungen aufgrund unvollständiger oder falscher Informationen kommt (Halo-Effekt; „What you see is all there is“ – WYSIATI).

Im Unterkapitel zu Urteilsbildung wird untersucht, wie schwer es für das Gehirn ist, statistisch aufgrund von Mengen zu denken.

In einem Unterkapitel zu Heuristiken (Faustregeln) zeigt Kahneman, wie Menschen schwierig zu beantwortende Fragen durch leichtere ersetzen.

Heuristiken und kognitive Verzerrungen[Bearbeiten | Quelltext bearbeiten]

Der zweite Teil untersucht einige angesprochene Punkte aus Teil I genauer. Er bietet Erklärungen, warum es Menschen schwerfällt, statistisch richtig zu denken, z. B. in Fällen, wo nur kleine Datenmengen zur Verfügung stehen. Hierzu verwendet Kahneman die Theorie der Heuristiken. Beispiele für Heuristiken von System 1 sind die Ankerheuristik, das Ersetzen einer schwierigen Frage durch eine einfachere und die Repräsentativitätsheuristik.

Er beschreibt außerdem mehrere weitere Effekte, die die kognitive Leistungsfähigkeit in Bezug auf Entscheidungen herabsetzen können:

  • Unvollständige, aber zufällig verfügbare Informationen werden überbewertet.
  • Informationslücken werden bei der Bewertung ignoriert.
  • Menschen erfänden häufig schnell kausale Zusammenhänge zwischen zwei Ereignissen, die gar nicht zusammenhängen. Im Gegensatz dazu würden Schlüsse aus Häufigkeiten ungern gezogen.
  • Natürliche statistische Streuungen von Ereignissen, die vom tatsächlich wahrscheinlicheren Mittelwert stark abweichen, werden für repräsentativ gehalten („Regression zum Mittelwert“).

Selbstüberschätzung[Bearbeiten | Quelltext bearbeiten]

Zu den laut Kahneman wichtigsten kognitiven Verzerrungen gehört die Neigung, zu großes Vertrauen in das eigene Wissen zu haben, und andere Formen von übermäßigem Optimismus, wie etwa der Planungsfehlschluss.

Ein anderes Phänomen sei die Illusion, eine Katastrophe oder ein Problem vorhergesehen zu haben, zum Beispiel die Wirtschaftskrise 2008, da man sich an die eigene Einstellung nicht (exakt) erinnere.

Entscheidungen[Bearbeiten | Quelltext bearbeiten]

In diesem Abschnitt wendet sich Kahneman der von ihm entwickelten Prospect Theory (dt. Neue Erwartungstheorie) zu. Er schreibt über die Tendenz, Probleme isoliert zu betrachten und wie die Wahl des Framings Entscheidungen massiv beeinflussen kann.

Zwei Selbste[Bearbeiten | Quelltext bearbeiten]

Kahneman geht auf den Unterschied zwischen zwei verschiedenen Sichtweisen auf das Wohlbefinden ein: Das Wohlbefinden des „sich erinnernden Selbsts“, das Menschen rückblickend angeben, etwa nach einem schmerzhaften medizinischen Eingriff, und das tatsächlich erlebte Wohlbefinden des „erlebenden Selbsts“. Werden Probanden gebeten, im Laufe einer Prozedur in kurzen Abständen ihren gefühlten Schmerz mitzuteilen, dann entspricht der erlebte Schmerz dem „Gesamten“ all dieser Schmerzempfindungen, also quasi der Fläche unter der Kurve der Schmerzintensität über die Zeit. Die beiden Maße weichen voneinander ab – für die rückblickende Bewertung ist es nahezu irrelevant, wie lange der Eingriff dauerte. Erlebt ein Mensch beispielsweise einen als konstant empfundenen Schmerz, so wäre bei doppelter Dauer der erlebte Schmerz entsprechend doppelt so groß, der erinnerte Schmerz hingegen jedoch nur wenig verändert.

Replikationskrise[Bearbeiten | Quelltext bearbeiten]

Ein Teil des Buches wurde von der Replikationskrise erfasst, die die Glaubwürdigkeit vieler Studien aus der Psychologie und aus den Sozialwissenschaften infrage stellt. Eine Analyse[4] der in Kapitel 4, „Die Assoziationsmaschine“, zitierten Studien ergab, dass ihr R-Index[5] bei 14 liegt, was im Wesentlichen darauf hindeutet, dass sie keinerlei Zuverlässigkeit besitzen. Kahneman selbst reagierte in Blog-Kommentaren auf die Studie und räumte die Unzulänglichkeiten des Kapitels ein: „I placed too much faith in underpowered studies[6].“ (deutsch: „Ich habe zu sehr auf unzureichende Studien vertraut.“) Andere haben auf die Ironie hingewiesen, dass Kahneman eine ähnliche Fehleinschätzung wie die von ihm untersuchten Studien gemacht hat.[7]

Eine spätere Analyse[8] ging so weit zu behaupten, dass trotz Kahnemans früherer Beiträge zum Gebiet der Entscheidungsfindung die meisten Ideen des Buches auf „wissenschaftlicher Literatur mit wackeligem Fundament“ beruhten. Als Begründung wurde ein allgemeiner Mangel an Reproduzierbarkeit bei den im Buch zitierten empirischen Studien angeführt.

Ausgaben[Bearbeiten | Quelltext bearbeiten]

  • Englische Ausgabe: Thinking, Fast and Slow. Farrar, Straus and Giroux, New York 2011, ISBN 978-0-374-27563-1.
  • Deutsche Ausgabe aus dem amerikanischen Englisch übersetzt von Thorsten Schmidt: Schnelles Denken, langsames Denken. Siedler, München 2012, ISBN 978-3-88680-886-1.

Weblinks[Bearbeiten | Quelltext bearbeiten]

  • Jens-Christian Rabe: Misstraue dem Vertrauten! Daniel Kahneman liefert mit „Schnelles Denken, langsames Denken“ das Buch zur Bewegung: Warum man mit den Lehren der Verhaltensökonomie die Piratenpartei verstehen kann. In: sueddeutsche.de. 25. Mai 2012 (sueddeutsche.de – Rezension).
  • Constantin Seibt: Das Aufeinandertreffen von Wahrnehmung und Wirklichkeit. In: republik.ch. 19. Januar 2018 (republik.ch – Rezension).

Einzelnachweise[Bearbeiten | Quelltext bearbeiten]

  1. Jim Holt: Two Brains Running In: The New York Times, 27. November 2011, S. 16 
  2. Daniel Kahneman: Schnelles Denken, Langsames Denken. Siedler Verlag, München, aus dem amerikanischen Englisch von Thorsten Schmidt, 2012, ISBN 978-3-88680-886-1 (google.de [abgerufen am 4. April 2014]). Original: Daniel Kahneman: Thinking, Fast and Slow. Macmillan, 2011, ISBN 978-1-4299-6935-2 (google.de [abgerufen am 8. April 2012]).
  3. Das Hardcover ISBN 978-0-374-27563-1; seit Mai 2012 auch als Taschenbuch erhältlich: Penguin Books, ISBN 978-0-14-103357-0. Kindle Edition B005MJFA2W
  4. Ulrich Schimmack: Reconstruction of a Train Wreck: How Priming Research Went off the Rails. 2. Februar 2017, abgerufen am 23. Mai 2021 (amerikanisches Englisch).
  5. Ulrich Schimmack: A Revised Introduction to the R-Index. 31. Januar 2016, abgerufen am 23. Mai 2021 (amerikanisches Englisch).
  6. Author Alison McCook: “I placed too much faith in underpowered studies:” Nobel Prize winner admits mistakes. In: Retraction Watch. 20. Februar 2017, abgerufen am 23. Mai 2021 (amerikanisches Englisch).
  7. Daniel Engber: How a Pioneer in the Science of Mistakes Ended Up Mistaken. 21. Dezember 2016, abgerufen am 23. Mai 2021 (englisch).
  8. Ulrich Schimmack: A Meta-Scientific Perspective on “Thinking: Fast and Slow. 30. Dezember 2020, abgerufen am 23. Mai 2021 (amerikanisches Englisch).