30. Induktive Verzerrung

 30. Induktive Verzerrung (Deutsche Zusammenfassung von “Inductive Bias” von E. Yudkowsky)

Dieser Post wird ein bisschen mathematischer.

Was sind eigentlich apriori-Wahrscheinlichkeiten und warum sollten wir uns um sie kümmern?

Dazu folgendes Beispiel: Du stehst vor einer Urne, und du weisst nur, dass sie 10 Kugeln enthält, die entweder rot oder schwarz sind, aber du weisst nicht, wie viele rote oder schwarze Kugeln sie enthält. Wie hoch ist die Wahrscheinlichkeit eine rote Kugel zu ziehen (ohne Zurücklegen), wenn du bereits 3 rote gezogen hast? Da du keinerlei Informationen hast, ist sie 50%. Nun nehmen wir an, du weißt, dass die Urne 5 schwarze und 5 rote Kugeln enthält. Wie groß ist jetzt die Wahrscheinlichkeit, eine rote Kugel zu ziehen? 2/7.

Angenommen, du weisst, dass zunächst eine zufällige Zahl zwischen 0 und 1 gezogen wurde, und diese Zahl wurde dann als Wahrscheinlichkeit verwendet, mit der eine einzelne von einer Reihe von 10 Kugeln rot ist, der Rest schwarz.

Wenn du nun 3 rote Kugeln ziehst, ist die Wahrscheinlichkeit 4/5, dass du eine weiter rote Kugel ziehst!  ( Nach Lapace’s Gesetz der Sukzession)

Man sieht also, dass die Informationen, die man a priori hat, wichtig sind. Was hat das Ganze mit induktiven Verzerrungen zu tun?

Je höher die eigene induktive Verzerrung, desto mehr erhöht sich die Wahrscheinlichkeit von zukünftigen Ereignissen, die denen der Vergangenheit ähneln. Das kann gut oder schlecht sein, je nach dem, ob in der Realität sozusagen eine “induktive Verzerrung” vorliegt. Z.B. ist es klug, davon auszugehen, dass ein morgiger Sonnenaufgang ziemlich wahrscheinlich ist. Wenn bereits 5 mal Kopf gefallen ist, ist es jedoch unklug, davon auszugehen, dass dies auch beim nächsten Wurf der Fall ist.

Leave a Reply