Newcombs Problem

Newcombs Problem

Newcombs Problem ist ein von Robert Nozick und William Newcomb (†1999; Urgroßneffe von Simon Newcomb) im Jahre 1960 festgestelltes und 1969 publiziertes Problem der Entscheidungstheorie.

Inhaltsverzeichnis

Die Situation des Gedankenexperiments

Es existieren zwei Boxen. In der ersten, durchsichtigen Box, sind immer 1.000 Dollar; in der zweiten, undurchsichtigen Box, liegen entweder eine Million Dollar oder gar nichts. Es darf nun eine von folgenden Entscheidungen getroffen werden:

  1. Nur die zweite Box wird gewählt.
  2. Beide Boxen werden gewählt.

Ein allwissendes Wesen hat vorhergesagt, welche Entscheidung getroffen werden wird. Seine Verlässlichkeit bei Voraussagen ist absolut. Sieht dieses Wesen voraus, dass nur die zweite Box gewählt wird, hat es die Million Dollar in die Box gelegt. Sieht das Wesen dagegen voraus, dass beide Boxen genommen werden, bleibt die zweite Box leer.

Da zum Zeitpunkt der Wahl die Entscheidung darüber, ob in der zweiten Box die Million liegt, bereits gefällt ist, könnte man beide Boxen nehmen, da sich die gewonnene Geldsumme nicht mehr ändern kann. Eben dies könnte das Wesen aber vorausgesehen und die zweite Box leer gelassen haben. Demnach wäre es besser, nur die zweite Box zu nehmen, weil das allwissende Wesen dies vorausgesehen hätte und die zweite Box gefüllt wäre.

Modifikationen und Abgrenzungen

Parfits Problem

Newcombs Problem hat Ähnlichkeit mit Parfits Problem.

Gefangenendilemma

Verzichtet man auf ein höheres Wesen (analog dem Laplaceschen Dämon), entspricht das Problem dem Gefangenendilemma für den Fall, dass einer der beiden Gefangenen seine Strategie bereits gewählt hat, das Ergebnis dem anderen, der jetzt seine Wahl zu treffen hat, aber noch unbekannt ist.

Die optimale Strategie lässt sich in diesem Fall berechnen anhand der Wahrscheinlichkeit, dass der Vorhersager eine richtige Vorhersage trifft und anhand der Summe, die eine Rolle spielt.

Glasbox

Das Problem lässt sich auch auf eine Glasbox anwenden: Wenn der Wähler sieht, was in der Box ist, kann er seine Entscheidung entsprechend treffen. Wenn er das Maximum an Geld mit minimalem Aufwand möchte, wird er entweder beide Boxen wählen, wenn in beiden Boxen Geld ist, oder er wählt nur eine Box, wenn nur in der einen Geld ist. Hierdurch wird aber die Voraussage niemals zutreffen, sofern man einen normalen Zeitablauf voraussetzt.

Höheres Wesen

Nimmt man im Gedankenexperiment die Möglichkeit eines höheren Wesens an, das zum Beispiel in der Lage ist, eine Zeitreise durchzuführen, so kann dieses seine Entscheidung entsprechend der Wahl treffen und die zweite Box entsprechend füllen. Erst durch die Wahl wird der Endzustand hergestellt, vorher sind beide Möglichkeiten vorhanden. Man könnte nun sagen, wie auch in Matt Beller: Newcomb's Paradox is Not a Paradox beschrieben, dass eine Zeitreise der Physik unserer Welt widerspräche und deshalb nicht möglich sei. Allerdings wissen wir nichts über die Fähigkeiten des "höheren Wesens", außer, dass es im Gegensatz zu unserer Welt absolute Voraussagen machen kann, sodass dieses Argument für das vorliegende Problem nicht stichhaltig ist, denn in einem Gedankenexperiment ist eine Zeitreise möglich.

Ein Komplize

Nach dieser Variation ist unbekannt, was in den beiden Boxen ist, da diese undurchsichtig sind. Außerdem kann das Höhere Wesen zwar in die Zukunft schauen, aber keine Zeitreisen durchführen. Der Freund des Wählers war allerdings dabei, als das höhere Wesen das Geld in die beiden Boxen getan hat und weiß daher, ob sich unter der zweiten Box eine Million Dollar befinden oder nicht. Außerdem ist sein Freund ihm gegenüber absolut loyal und wird ihm immer den Tipp geben, mit dem der Wähler das meiste Geld absahnen werden. Die Regeln verbieten dem Freund aber zu sagen, ob sich unter der zweiten Box 1 Mio $ befinden oder nicht. Er darf nur sagen, ob der Wähler beide Kisten nehmen sollte oder nur eine.

Für den Freund gibt es zwei Möglichkeiten:

  • Er sieht, dass das Höhere Wesen nur in die 1. Box 1000 Dollar gelegt hat und die zweite Box leer gelassen hat. In diesem Fall wird er dem Wählenden empfehlen, beide Boxen zu nehmen. (Denn wenn der Wählende beide Boxen nimmt, bekommt er immerhin 1000 Dollar. Wenn er dagegen nur die 2. Box nimmt, geht er leer aus.)
  • Er sieht, dass das Höhere Wesen in die 1. Box 1000 Dollar packt und in die zweite Box 1 Mio $. Auch in diesem Fall wird er dem Wählenden empfehlen, beide Kisten zu nehmen. (Denn 1,001 Mio $ ist mehr wert als 1 Mio $.)

Egal, was das Höhere Wesen also in der Zukunft gesehen hat und wie es dementsprechend das Geld verteilt hat, der Freund wird dem Wählenden in beiden Fällen das gleiche empfehlen: "Nimm beide Boxen!"

Für den Wählenden selber gilt aber nach wie vor das gleiche wie im Ursprungsbeispiel: Es ist besser für ihn, wenn er nur die zweite Box nimmt, da er so 1 Mio $ bekommt.

Das Paradoxe daran ist: Obwohl der Wählende seinem Freund 100% vertrauen kann und obwohl sein Freund ihn auch in diesem Fall nicht belogen hat, war es für ihn besser, nicht auf seinen Freund zu hören. (Sein Freund hat das Richtige gesagt: Er hat schließlich gesehen, dass unter der 2. Box das Geld liegt. Daher war seine Empfehlung, beide Boxen zu nehmen für ihn vollkommen legitim und absolut der richtige Ratschlag. - Genauso, wie es für den Wählenden die richtige Entscheidung war, nicht auf diesen (eigentlich richtigen) Ratschlag zu hören.)

Gegenspieler-Variante

Diesmal haben wir zwei Koffer. Im zweiten Koffer liegt entweder gar kein Geld oder eine Million Euro. Im ersten Koffer liegen genau 1000 Euro mehr als im zweiten Koffer. Im Prinzip gilt also: Im 1. Koffer liegt das Geld, das man bekommt, falls man sich für beide Boxen entscheidet und im 2. Koffer liegt das Geld, das man bekommt, falls man sich nur für die 2. Box entscheidet. Analog zum ursprünglichen Problem schaut nun das allwissende Wesen in die Zukunft und sagt voraus, dass Sie entweder 1000 Euro oder eine Million Euro bekommen werden. Analog zum ursprünglichen Problem will der Wählende möglichst viel Geld.

Zu allem Überfluss werden die Spielregeln in einem winzigen Detail geändert: Egal, wie sie sich entscheiden, den Koffer, den Sie nicht auswählen, bekommt Ihr geldgieriger Erzfeind. Sie haben also nun die Wahl, sich selbst mit tausend Euro zu begnügen, damit ihr Erzfeind leer ausgeht oder ihm 1,001 Mio. € zu schenken, damit Sie selbst eine Million Euro bekommen. Sie überlegen also lang und breit, welche Möglichkeit Ihnen besser gefällt und am Ende steht Ihre Entscheidung fest.

Das Paradoxe ist nun: Egal, wie Sie sich entschieden haben, Sie wissen nach dieser Entscheidung, wie viel Geld in beiden Koffern ist. Und obwohl Sie wissen, wie viel Geld in beiden Koffern ist, schenken Sie Ihrem Erzfeind den Koffer, in dem mehr Geld ist, und begnügen sich selbst mit dem Koffer, in dem weniger Geld ist.

Braess-Paradoxon

Es gibt eine Variante des Newcombs Paradoxon, in der das Wesen nicht allwissend ist, sondern nur zu einer gewissen Wahrscheinlichkeit die Zukunft vorhersagen kann. Andrew D. Irvine zeigt, dass diese Variante des Newcombs Problem mit einer Variante des Gefangenendilemma äquivalent ist und sich mit Hilfe einer Variante des Braess-Paradoxon lösen ließe.[1]

Die Variante des Gefangenendillemmas ist, dass der zweite Gefangene mit einer gewissen Wahrscheinlichkeit das Verhalten des Spielers vorhersehen kann und sich dementsprechend anpasst. (Wenn er denkt, dass er verraten wird, dann verrät er den ersten Gefangenen auch. Wenn er denkt, dass der erste Gefangene kooperiert, dann kooperiert er auch.)

Die Äquivalenz zwischen der Variante von Newcombs Problem und der Variante des Gefangenendilemmas ist klar: "beide Kästen nehmen" aus Newcombs Problem wird mit "den anderen Gefangenen verraten" identifiziert. Und "nur eine Kiste nehmen" wird mit "mit dem anderen Gefangenen kooperieren" identifiziert. Außerdem existieren in beiden Versionen eine Wahrscheinlichkeit, dass der Gegenüber die Tat richtig einschätzen kann. Und letztendlich hat die eigentliche Entscheidung keinen Einfluss auf die Handlung des Gegenübers. (Denn sowohl das vorhersagende Wesen als auch der Gefangene erfahren die eigentliche Entscheidung ja nicht, sondern müssen sich auf ihre Menschenkenntnis und auf das Verhalten des "Spielers" vor der Entscheidung verlassen.)

Irvine zeigt anschließend, dass sich diese Variante des Gefangenendilemas (und damit auch die Variante von Newcombs Problem) mit Hilfe einer Variante des Braess-Paradoxons lösen lässt. (Beim Braess-Paradoxon wird nach dem Neubau einer Straße die Fahrtzeit für alle Teilnehmer verlängert.) Irvine identifiziert dabei "Kooperation" aus dem Gefangenendilemma mit "die alte Strecke fahren" aus dem Braess-Paradoxon. Und er identifiziert "der andere Gefangene kooperiert" mit "die anderen Verkehrsteilnehmer fahren die alte Strecke". Dementsprechend gilt, wenn jemand im Gefangenendilemma nicht kooperiert, entspricht das im Braess-Paradoxon, dass er die neue Strecke fährt.

Analysen und Lösungsvorschläge

Diese Situation ist paradox, denn sie setzt einerseits Willensfreiheit voraus, negiert sie aber andererseits. Wenn vorher bereits feststeht, wie gewählt wird, gibt es keine Willensfreiheit. Wenn man wählt, nachdem das allwissende Wesen die Box gefüllt oder leergelassen hat, muss entweder die Wahl davon beeinflusst werden - dann gibt es keine Willensfreiheit - oder die Vergangenheit muss gegebenenfalls in Abhängigkeit von der Wahl verändert werden. Erst durch die Wahl würde die Füllung der Box hergestellt. Das Problem wird oft auch deswegen schwieriger als einige andere Dilemmasituationen beurteilt, weil "Allwissendheit" nach dem Verständnis vieler Kommentatoren auch impliziert, dass absolut gewisse Vorhersagen getroffen werden; damit würden Lösungsversuche mittels wahrscheinlichkeitstheoretischer Quantifizierungen nicht weiterführen.

Meist geht man davon aus, dass es bei der Entscheidung darum gehe, möglichst viel Geld zu gewinnen. Matt Beller wies in seinem Artikel Newcomb's Paradox is Not a Paradox darauf hin, dass es auch andere Kriterien geben könne. Beispielsweise könne man sofort beide Schachteln nehmen. Man hat dann entweder nur die kleinere Menge oder man hat die große Menge und zugleich nachgewiesen, dass das Wesen (der Versuchsleiter) nicht allwissend sei.

Wenn man davon ausgeht, dass die angegebenen Bedingungen wahr sind, ist die optimale Strategie, nur die zweite Schachtel zu nehmen und auf die erste zu verzichten. Man weiß dann, dass unter der zweiten Schachtel eine Million liegt. Einen höheren Wert kann man nicht erlangen, wenn die angegebenen Bedingungen wahr sind.

Literatur

  • Maya Bar-Hillel / Avishai Margalit: Newcomb's paradox revisited, in: British Journal of Philosophy of Science 23 (1972), S. 295-304.
  • Richmond Campbell / Lanning Sowden (Hgg.): Paradoxes of Rationality and Cooperation: Prisoners' Dilemma and Newcomb's Problem, Vancouver: University of British Columbia Press 1985.
  • Martin Gardner: "Free Will Revisited, With a Mind-Bending Prediction Paradox by William Newcomb.", Scientific American 229, 1973
  • Martin Gardner: "Reflections on Newcomb's problem: a prediction and free-will dilemma.", in: Scientific American 230/3 (1974), S. 102-106.
  • Robert Nozick: "Newcomb's Problem and the Two Principles of Choice.", in: Nicholas Rescher (Hg.): Essays in Honnor of Carl G. Hempel, D. Reidel Publishing Co., Dordrecht 1970, 114f.
  • William Poundstone: "Im Labyrinth des Denkens.", Rowohlt, 1995, ISBN 3-499-19745-6.
  • Richard Mark Sainsbury: "Newcombs Paradoxie", in Paradoxien, Reclam, 2001, ISBN 3-150-18135-6

Einzelnachweise

  1. A. D. Irvine: How Braess’ Paradox Solves Newcomb's Problem. International Studies in Philosophy of Science, Vol. 7 (1993), no. 2, 145–164.

Weblinks


Wikimedia Foundation.

Игры ⚽ Поможем сделать НИР

Schlagen Sie auch in anderen Wörterbüchern nach:

  • Newcombs-Problem — William Newcomb von der University of California s Lawrence Livermore Laboratory stellte das Problem auf, das durch Robert Nozick 1969 als ein Problem der Entscheidungstheorie untersucht und als Newcombs Problem bekannt wurde. Inhaltsverzeichnis… …   Deutsch Wikipedia

  • Newcombs — William Newcomb von der University of California s Lawrence Livermore Laboratory stellte das Problem auf, das durch Robert Nozick 1969 als ein Problem der Entscheidungstheorie untersucht und als Newcombs Problem bekannt wurde. Inhaltsverzeichnis… …   Deutsch Wikipedia

  • Braess-Paradox — Das Braess Paradoxon ist eine Veranschaulichung der Tatsache, dass eine zusätzliche Handlungsalternative unter der Annahme rationaler Einzelentscheidungen zu einer Verschlechterung der Situation für alle führen kann. Das Paradoxon wurde 1968 vom… …   Deutsch Wikipedia

  • Paradox — Ein Paradoxon oder Paradox (altgriechisch παράδοξον, von παρα , para – gegen und δόξα, dóxa – Meinung, Ansicht), auch Paradoxie (παραδοξία) und in der Mehrzahl Paradoxa g …   Deutsch Wikipedia

  • Paradoxa — Ein Paradoxon oder Paradox (altgriechisch παράδοξον, von παρα , para – gegen und δόξα, dóxa – Meinung, Ansicht), auch Paradoxie (παραδοξία) und in der Mehrzahl Paradoxa g …   Deutsch Wikipedia

  • Paradoxie — Ein Paradoxon oder Paradox (altgriechisch παράδοξον, von παρα , para – gegen und δόξα, dóxa – Meinung, Ansicht), auch Paradoxie (παραδοξία) und in der Mehrzahl Paradoxa g …   Deutsch Wikipedia

  • Nozick — Robert Nozick Robert Nozick (* 16. November 1938; † 23. Januar 2002) war ein US amerikanischer Philosoph. Er hatte die Pellegrino University Professur an der Harvard Universität inne. Sein Buch Anarchy, State and Utopia war eine libertäre Antwort …   Deutsch Wikipedia

  • Atompatt — Mutual assured destruction (MAD, auf deutsch „wechselseitige zugesicherte Zerstörung“) oder Gleichgewicht des Schreckens (umgangssprachlich: Atompatt) bezeichnet eine Situation, in der die Nuklearmächte vom Ersteinsatz von Nuklearwaffen dadurch… …   Deutsch Wikipedia

  • Guaranteed mutual destruction — Mutual assured destruction (MAD, auf deutsch „wechselseitige zugesicherte Zerstörung“) oder Gleichgewicht des Schreckens (umgangssprachlich: Atompatt) bezeichnet eine Situation, in der die Nuklearmächte vom Ersteinsatz von Nuklearwaffen dadurch… …   Deutsch Wikipedia

  • Mutual Assured Destruction — (MAD, auf deutsch „wechselseitige zugesicherte Zerstörung“) oder Gleichgewicht des Schreckens (umgangssprachlich: Atompatt) bezeichnet eine Situation, in der die Nuklearmächte vom Ersteinsatz von Nuklearwaffen dadurch abgehalten werden, dass der… …   Deutsch Wikipedia

Share the article and excerpts

Direct link
Do a right-click on the link above
and select “Copy Link”