183.Fake Fake Utility Functions; 184. Fake Utility Functions

183.Fake Fake Utility Functions

Hilarious. Yudkowsky erklärt seinen Schreibprozess. Eigentlich wollte er am 1.November einen Post schreiben, in dem er erklärt, warum die Große Moralische Theorie, die alles auf eine axiologische Dimension reduzieren kann, meist schwachsinnig ist. Doch dann ist ihm aufgefallen, dass er dafür kurz die Evolutionstheorie erklären musste. Das wollte er in einem Post machen, doch daraus wurden dann ungefähr zehn, und um diese Post zu erklären, musste er andere Posts schreiben, die er aber wieder erklären musste, bis er am Ende über 30 Posts geschrieben hat, die für ein Verständnis von “Fake Utility Functions” notwendig sind.

Hier ist also dieser Post, der nicht einmal besonders wichtig ist, sondern einfach nur viel Vorwissen erforderte:

184. Fake Utility Functions

Wenn man ein superintelligente KI mit einer eindimensionalen Axiologie ausstattet, besteht die hohe Wahrscheinlichkeit ein Dystopia zu erschaffen. Menschliche Werte sind komplex. Selbst wenn man nur einen Wert vergisst, z.B. Langeweile, dann würden wir bis in alle Ewigkeit den schönsten Moment unseres Lebens wiederholen. Und sonst nichts anderes.

Leave a Reply