Prospect Theory – Entscheidungsprozesse mit Risikoelementen

Der folgende Beitrag beschäftigt sich mit der Frage, wie Menschen Entscheidungen treffen, wenn die Ergebnisse unklar sind bzw. mit einer bekannten Wahrscheinlichkeit eintreten. Dabei wird das bislang beste Modell der heutigen Forschung, die Prospect Theory, eingeführt und Probleme der vorherigen Modell veranschaulicht. Leser, die nur an den Eigenschaften der Prospect Theory interessiert sind, können den Empirischen Faktencheck überspringen, während Leser ohne mathematische Ambitionen die Eigenschaften der Nutzenfunktion und die Gewichtungsfunktion auslassen können.

Einleitung

Entscheidungsprozesse mit Risiko- oder Ungewissheitselementen beschreiben Szenarien, in welchen eine Person zwischen zwei oder mehr Erwartungen oder Erwartungsmengen (engl. Prospect) wählen muss, wobei sich eine Erwartung aus dessen quantisierten Ergebnis x und der Wahrscheinlichkeit des Ergebnisses p zusammensetzt. Grundsätzlich wird eine einzelne Erwartung als (x, p) bzw. eine Erwartungsmenge als (x1, p1; …; xn, pn) notiert.
Eine Wahlmöglichkeit zwischen (i) einer Chance von 50% einen Betrag von 100€ und 50% Chance gar nichts zu gewinnen und (ii) einer 100%igen Wahrscheinlichkeit 50€ zu gewinnen, wird entsprechend als (100€, 0.5; 0, 0.5)1 und (50€, 1) geschrieben.

Bis zur Mitte des 20. Jahrhunderts wurde dieses Feld der Verhaltensforschung durch Theorien auf Basis des erwarteten Nutzens (engl. expected utility theory), häufig in der Auslegung von Daniel Bernoulli, dominiert. Der Kerngedanke dieser Modelle ist, dass Menschen grundsätzlich kohärente und rationale Entscheidungen treffen, abhängig von ihren individuellen Präferenzen. Die Auslegung eines rationalen Entscheidungsmodells geht auf von Neumann und Morgenstern (1944) zurück und beinhaltet vier vorrangige Axiome.
Zwei dieser Axiome2 wurden recht früh von einigen Ökonomen als nicht verallgemeinerbar akzeptiert, die anderen zwei wurden jedoch grundsätzlich als deskriptiv zutreffend betrachtet, was vereinfacht bedeutet, dass sie akkurat das Verhalten von Menschen in der Realität beschreiben sollten. Bei Vernachlässigung der mathematischen Formulierung lassen sich diese wie folgt definieren:

  1. Dominanz: Ist eine Erwartungsmenge in mindestens einer Ausgangsmöglichkeit besser als eine andere Erwartungsmenge und in allen anderen Ausgangsmöglichkeiten mindestens genauso gut, so wird dieser Option immer bevorzugt.
  2. Invarianz: Verschiedene Darstellungen derselben Wahlmöglichkeiten führen zu den gleichen Präferenzen.

Im Folgen werden Studien des Versagens dieser Axiome bei der Beschreibung menschlichen Verhaltens vorgestellt.

Empirischer Faktencheck

Die hier aufgelisteten Probleme stammen aus empirischen Versuchen, die an verschiedenen Testgruppen durchgeführt wurden, um Tendenzen menschlichen Verhaltens bei Entscheidungen unter Risiko3 zu erörtern. Es sei darauf hingewiesen, dass nur ein kleiner Teil der Versuche dargestellt wird. Die Auswahl des Autors basiert dabei auf Signifikanz und der Offensichtlichkeit der Abweichung von den Versuchsergebnissen zu den oben genannten Axiomen. Es kann angenommen werden, dass auch die nicht gezeigten Versuche dieselbe Tendenz aufweisen. Weitere Daten sind in den angegebenen Publikationen zu finden.
Die Anzahl der Teilnehmer ist als N notiert, der Wahlanteil der jeweiligen Optionen als [p%] und die dominierende Wahl mit einem *.

[1] Problem 2 (N = 150):

Imagine that you face the following pair of concurrent decisions. First examine both decisions, then indicate the options you prefer.
Decision (i). Choose between:
A. a sure gain of $240 [84%*]
B. 25% chance to gain $1000 and 75% chance to gain nothing [16%]

Decision (ii). Choose between:
C. a sure loss of $750 [13%]
D. 75% to lose $1000 and 25% chance to lose nothing [87%*]

(Subjects were students at Stanford University and University of British Columbia.)
(Tversky, Kahneman 1984)

Das zunächst auffällige Resultat dieses Experimentes ist eine Risikoaversion bei positiven Erwartungsmenge und eine Risikoaffinität bei negativen Erwartungsmengen. Der durchschnittliche, subjektive Wert, also die Präferenz aller Befragten, wird im Folgen als V(u) mit u = einer Erwartungsmenge, dargestellt. Für (i) gilt somit: V($240, 1) > V($1000, 0.25; 0, 0.75) und für (ii) V(-750, 1) < V(-1000, 0.75; 0, 0.25).
Diese Eigenschaft ist bereits vor der Prospect Theory in der Psychologie bekannt gewesen und da die Axiome der Rationalität nicht annehmen, dass der Erwartungswert optimiert wird, kann es zunächst scheinen, dass diese Beobachtung keinen Widerspruch mit diesen darstellt. Werden die beiden präferierten Entscheidungen (A. in (i) und D. in (ii)) jedoch kombiniert, so ergeben sich die folgenden Optionen:

A&D: 25% chance to win $240 and 75% chance to lose $760
B&C: 25% chance to win $250 and 75% chance to lose $750.
(only 3% of all subjects chose the combination B&C; 73% chose the combination A&D)

Die neue Darstellung zeigt eine eindeutige Verletzung des Dominanz-Axioms (B&C ist in jeder Hinsicht besser als A&D). Weitere Probleme zeigten die gleichen Ungereimtheiten.

[2] Problem 5 (N = 152):

Imagine that the United States is preparing for the outbreak of an unusual Asian disease, which is expected to kill 600 people. Two alternative programs to combat the disease have been proposed. […] the consequences of the programs are as follows:

If Program A is adopted, 200 people will be saved. [72%*]
If Program B is adopted, there is a 1/3 probability that 600 people will be saved and 2/3
probability that no people will be saved. [28%]

[3] Problem 6 (N = 155):

[Same cover story and the following description of the alternative programs]:

If Program A is adopted, 400 people will die. [22%]
If Program D is adopted, there is a 1/3 probability that nobody will die and 2/3 probability that no people will die. [78%*]

(Tversky, Kahneman 1984)

Der Vergleich der beiden Probleme zeigt eine klare Unvereinbarkeit mit dem Invarianz Axiom: Eine Veränderung der Formulierung ohne Auswirkung auf das Ergebnis der Entscheidung verändert die allgemeine Präferenz.

Eigenschaften der Prospect Theory

Die gezeigten Abweichungen von den Axiomen des rationalen Verhaltens führen dazu, dass die bisherigen Theorien über Entscheidungsprozesse mit Risikoelementen an deskriptiven Wert verlieren. Sie beschreiben als nicht so gut die Realität wie ursprünglich angenommen.
Daniel Kahneman und Amos Tversky machten es sich nun zur Aufgabe eine rein deskriptive Theorie zu entwickeln – also ein Modell was nicht beschreibt, wie sich Menschen verhalten sollen, sondern wie sie sich in der Realität tatsächlich verhalten.

Aus ihren Beobachtungen leiteten sie ein zwei-Phasen Modell ab, in welchem Menschen zunächst die ihnen zur Verfügung stehenden Möglichkeiten ordnen und vereinheitlichen. Diese erste Phase wurde als Editing (de. Editieren) bezeichnet und setzt sich hauptsächlich aus den folgenden Operatoren zusammen:

  • Coding (Kodierung). Hierbei wird ein Referenzpunkt für die Erwartungsmengen festgelegt und z.B. entschieden, ob ein Ergebnis als Verlust oder Gewinn betrachtet wird. Dabei muss ein Verlust nicht zwangsläufig eine Verschlechterung des aktuellen Standes sein, sondern kann auch eine negative Abweichung eines erwarteten Gewinns beinhalten. Erwartet ein Angestellter z.B. eine Gehaltserhöhung von 5%, so kann eine Erhöhung von nur 2% als Verlust wahrgenommen werden. Dasselbe gilt entsprechend für positive Abweichungen von erwarteten Verlusten.
  • Combination (Kombination). Hierbei werden z.B. Erwartungen mit den gleichen Ergebnissen vereint. Aus der Erwartungsmenge (200, 0.25; 200, 0.25) kann z.B. (200, 0.5) gebildet werden.
  • Segregation (Trennung). Einige Erwartungsmengen, die risikofreie und risikohafte Elemente beinhalten, werden in diese aufgeteilt. So wird die Erwartungsmenge (300, 0.8; 200, 0.2) z.B. häufig als ein sicherer Gewinn von 200 und ein Wahrscheinlichkeitselement von (100, 0.8) wahrgenommen. In Überlegungen bezüglich Präferenz werden die Teile dann separat betrachtet.
  • Cancellation (Annullierung). Bei dem Annullierungsprozess werden gleiche Elemente verschiedener Erwartungsmenge rausgekürzt. Die Wahl zwischen (200, 0.2; 100, 0.5; -50, 0.3) und (200, 0.2; 150, 0.5; -100, 0.3) wird also oft als Wahl zwischen (100, 0.5; -50, 0.3) und (150, 0.5; -100, 0.3) verstanden.

Zwei weitere Operatoren, die im Hinterkopf behalten werden sollten, sind Vereinfachungen (simplification), wo z.B. Wahrscheinlichkeiten und Ergebnisse gerundet werden und das Entdecken von Dominanz (detection of dominance), was besagt, dass wenn z.B. die Entscheidungen aus Problem 2 in der kombinierten Form (A&D und B&C) dargestellt werden, immer die (offensichtlich) dominierende Option gewählt wird.

[Phase 2] Das Gewichten von Wahrscheinlichkeiten und Ergebnissen

In der zweiten Phase betrachtet der Entscheidungsträger die editierten Möglichkeiten und wählt die mit dem höchsten (subjektiven) Wert. Der (subjektive) Gesamtwert einer editierten Erwartungsmenge wird mit V notiert (Beispiel s.o.), wobei sich V aus den Größen π(p) und v(x) zusammensetzt.

Der Wert π gibt dabei an welchen Einfluss eine bekannte Wahrscheinlichkeit auf den Entscheidungsprozess hat; wobei oft nicht gilt, dass dieser Wert der tatsächlichen Wahrscheinlichkeit entspricht: π(p) ≠ p. Sie wird als Gewichtungsfunktion bezeichnet.

Die zweite Subfunktion, v(x), gibt an, wie stark der Einfluss des potenziellen Ergebnisses (x) auf die Entscheidung ist – einfach gesagt: wie sehr eine Person ein Ergebnis möchte.

Der subjektive Wert, den ein Individuum einer Erwartungsmenge (x, p; y, q) zuordnet, wird dann als V(x, p; y, q) = π(p)v(x) + π(q)v(y) geschrieben.

Im Folgenden wird zunächst der zweite Faktor v(x) betrachtet, da dessen Eigenschaften weniger komplex sind und ohne viel Mathematik dargestellt werden können. Der π(p)-Faktor wird anschließend oberflächlich erläutert; eine formale Definition mit Beweis folgt hier ggf. in einem zukünftigen Artikel.

Die Nutzenfunktion [v(x)]

Die wichtigsten Eigenschaften der Nutzenfunktion leiten sich aus der Verlustaversion und dem logarithmischen Verhältnis der wahrgenommenen Wertveränderungen ab.

Die Verlustaversion beschreibt eine Übergewichtung von Verlusten gegenüber Gewinnen. Vereinfacht gesagt, bringt z.B. ein Verlust von 100€ ist also zu mehr Schmerzen als ein Gewinn von 100€ Freude bringt. Auch führt dies dazu, dass eine bedeutende Mehrheit der Menschen eine Wette auf einen Münzwurf über 100€, also die Erwartungsmenge (100, 0.5; -100, 0.5), ablehnen würden. Selbst eine Anhebung des potenziellen Gewinns ändert zunächst diese Neigung nicht. Der Schwellenwert für eine solche Wette liegt nach Schätzungen bei ca. 150€ bis 200€ möglichen Gewinn bei einem gleichbleibenden, potenziellen Verlust von 100€. Für die Funktion bedeutet diese Eigenschaft, dass sie steiler im Bereich der Verluste abfällt als sie im Bereich der Gewinne ansteigt.

Das logarithmische Verhältnis bei der Wahrnehmung von Wertänderung lässt sich auch ohne viel Mathematik ausreichend erklären. Das Konzept sagt im Grunde aus, dass wir nicht auf den absoluten, sondere auf den relativen Unterschied zwischen zwei Ergebnissen achten. Der Unterschied zwischen 10€ und 20€ wird entsprechend als größer wahrgenommen als der Unterschied zwischen 120€ und 130€. Vergleichbar ist diese Wahrnehmung mit der von Helligkeit. Der Sprung von einer Lampe auf zwei Lampen erscheint deutlich extremer als der Sprung von 100 Lampen auf 101 Lampen.
Für die Nutzenfunktion bedeutet dies einfach, dass sie im Bereich der Gewinne konkav verläuft und im Bereich der Verlust konvex4.

Als letzte Eigenschaft wird lediglich der Koordinatenursprung als Referenzpunkt definiert. Dieser muss nicht immer bei einem tatsächlichen Ergebnis von Null liegen, wie bei dem Operator „Kodierung“ bereits gezeigt wurde. Somit ist alles was sich unterhalb der horizontalen Achse befindet ein Verlust, während alles darüber ein Gewinn ist.

Eigenschaften der Nutzenfunktion

Die Nutzenfunktion hat folglich diese drei primären Eigenschaften:

  1. Die Funktion fällt im Bereich von Verlusten (also für alle v(x) < 0) schneller ab als sie im Bereich von Gewinnen (v(x) > 0) ansteigt.
  2. Die Funktion verläuft konkav für Gewinne (v‘‘(x) ≤ 0 für alle x > 0) und konvex für Verluste (v‘‘(x) ≥ 0 für alle x < 0).
  3. Der Referenzpunkt einer Entscheidung ist immer im Koordinatenursprung (0,0).

Als Skizze der Nutzenfunktion ergibt sich die folgende Graphik:

Die Gewichtungsfunktion π(p)

Wie zuvor angesprochen sind die Eigenschaften der Gewichtungsfunktion komplexer als die der Nutzenfunktion und benötigen ihren eigenen Artikel. An dieser Stelle wird nur ein grober Überblick der wichtigsten Merkmale gegeben, um den Einfluss von π(p) auf die Gesamtfunktion V(π,v) zu verstehen.

Die zwei wichtigsten Eigenschaften sind dabei die Subadditivität (subadditivity) und die „Sub-Sicherheit“5 (subcertainty).

Die Bedeutung dieser Eigenschaften ist, dass die wahrgenommene Wahrscheinlichkeit π(p) für alle mittelgroßen bis großen p kleiner ist als die tatsächliche Wahrscheinlichkeit. Dabei ergibt sich das grundsätzlich π(p) + π(1-p) > 1 gilt, während statistisch immer p + (1-p) = 1 gelten muss. Die Wahrscheinlichkeit 90% wird also subjektiv tendenziell als kleiner als 90% wahrgenommen (als z.B. 70%). Mathematisch bedeutet das, dass die Gewichtungsfunktion für alle mittelgroßen bis großen p unter der Winkelhalbierenden x=y verläuft. Das Verhältnis ist bei kleinen Wahrscheinlichkeiten jedoch umgekehrt. Hier gilt π(p) > p. Eine Wahrscheinlichkeit von 2% wird z.B. eher als 5% wahrgenommen.

Auch bedeutet dies, dass es einen Sprung zwischen einer sehr hohen Wahrscheinlichkeit (ca. 97%) und einer Sicherheit gibt (genannt „Sicherheitseffekt“). Die Furcht oder Hoffnung, dass eine sehr unwahrscheinliche Alternative doch eintritt, verzerrt die Wahrscheinlichkeitswahrnehmung, da unserer Vorstellung und Gewichtung mehr auf Bildern als auf Zahlen beruht.


Ein skizzierte Gewichtungsfunktion sieht in etwa wie folgt aus:

Die Gesamtfunktion V

Abschließend werden die Teilfunktionen π(p) und v(x) noch zu der Gesamtfunktion V(x,p) zusammengefasst, welche die Eigenschaften ihrer Bestandteile übernimmt. Auch hier wird auf den mathematischen Beweis verzichtet. Leser, die sich dafür interessieren, wird empfohlen die Literaturempfehlungen zu lesen.
Eine Skizze ist hier nicht sinnvoll, da die Funktion graphisch stark der Nutzenfunktion ähnelt und die Werte individuell auf eine Situation anzupassen sind. Wichtig zu merken ist das Verhältnis V(x, p; y, q) = π(p)v(x) + π(q)v(y) und die Eigenschaften der hierbei summierten Funktionen π(p) und v(x).

Zusammenfassung

Die in dem ersten Teil des Artikels aufgezeigten Lücken der bis zur Prospect Theory vorhandenen Modelle für Entscheidungsprozesse mit Risikoelementen, können mit dieser neuen Theorie geschlossen werden. Sie gilt mittlerweile als einer der am besten untersuchten und empirisch belegten Theorien der Verhaltensforschung und wird täglich von Ökonomen, Psychologen und vielen weiteren Sozialwissenschaftlern verwendet.

Die Prospect Theory setzt sich dabei aus einer Editierungsphase, wo Erwartungsmengen geordnet und vereinheitlicht werden und einer Bewertungsphase, in welcher den umformulierten Mengen ein subjektiver Wert zugesprochen wird, zusammen. Dabei werden stets Änderungen im Wohlstand anstelle von absoluten Wohlstandsbeträgen betrachtet. Wer diese Eigenschaften versteht, der ist in der Lage grundsätzlich akkurate Vorhersagungen über das Verhalten von Menschen in einer entsprechenden Situation zu treffen.

Überprüfungsfragen:

  1. Welche Axiome konnte die Forscher Tversky und Kahneman mit ihren Experimenten als deskriptiv unzutreffend belegen?
  2. In welche Phasen ist die Prospect Theory unterteilt?
  3. Warum verhält sich die Nutzenfunktion konkav für Gewinne?
  4. Wie verhält sich π(p) in Bezug auf p?
  5. Wie vergleichen Menschen gemäß der Prospect Theory verschiedene Ergebnisse miteinander?

Literaturverzeichnis

von Neumann, J. & Morgenstern, O. (1944). Theory of games and economic behavior. Princeton, NJ: Princeton University Press

Kahnemann, D. & Tversky, A. (1979). Prospect Theory: An Analysis of Decision under Risk. Econometrica, Vol. 47, No. 2, pp. 263-29

Kahnemann, D. & Tversky, A. (1984) Choices, values, and frames. American Psychologist, 39, 341-350

Tversky, A. & Kahnemann, D. (1986). Rational Choice and the Framing of Decisions. The Journal of Business Vol. 59, No. 4, Part 2: The Behavioral Foundations of Economic Theory, pp. S251-S278


Literaturempfehlung:

Daniel Kahneman: Schnelles Denken, Langsames Denken (2011)

Amos Tversky, Eldar Shafir, Michael Lewis, Daniel Kahneman: The Essential Tversky (2018)

  1. Die anglistische Notation 0.5 statt 0,5 wird hier verwendet, um eine Verwirrung mit der Abgrenzung von Ergebnis und Wahrscheinlichkeit (x, p) zu vermeiden.
  2. Hierbei handelt es sich um Auslöschung (cancellation) und Transitivität (transivity). Die Axiome werden hier nicht weiter konkretisiert, da ihre Ablehnung keine Besonderheit der Prospect Theorie ist.
  3. Ungewissheit (Situationen mit undefinierten Wahrscheinlichkeiten) wurde grundsätzlich nicht untersucht. Es ist anzunehmen, dass zusätzlich zu den beim Risiko gezeigten Verzerrungen weitere Faktoren auf die Einschätzung der Wahrscheinlichkeiten wirken. Diese These muss jedoch separat untersucht werden.
  4. Wem dieser mathematische Jargon nichts sagt: konkav bedeutet, dass die Steigung der Funktion mit steigenden x-Werten abnimmt, während konvex das Gegenteil bezeichnet. Wer nun verwirrt ist, warum die Funktion nicht auch bei den Verlusten konkav ist, sollte sich veranschaulichen, dass die Funktion in diesem Bereich ja fällt und entsprechend nicht die Steigung abnimmt, sondern das Gefälle (was wiederum einer steigenden Steigung entspricht)
  5. Für Subcertainty liegt keine offizielle deutsche Übersetzung vor.

2 Kommentare zu „Prospect Theory – Entscheidungsprozesse mit Risikoelementen“

  1. Pingback: Verlustaversion - Econ2091

Kommentar verfassen

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.