393. Surface Analogies and Deep Causes – 394. Optimization and the Singularity

393. Surface Analogies and Deep Causes

Yudkowsky warnt vor der Außenansicht. Nur weil Dinge prima facie einige Ähnlichkeiten aufweisen, bedeutet das nicht, dass sie auch in anderer Hinsicht gleich sind.

Besser ist es, die kausale Struktur der Phänomene zu entschlüsseln, d.h. zu erklären,warumdie Dinge sind, wie sie sind.

394. Optimization and the Singularity

Kurze Vorschau auf Yudkowsky’s Ansichten bezüglich der Singularität.

Ganz kurz gefasst, da ich es später eh noch viel ausführlicher erläutern werde:

Die natürliche Auslese, das menschliche Gehirn, usw. sind Optimierungs-Prozesse, d.h. sie erschaffen unwahrscheinliche Entitäten (= mit unwahrscheinlich niedriger Entropie, wie z.b. ein Bein, oder ein Auto), dadurch, dass sie die Materie derart umformen, dass sie anhand eines bestimmten Kriterium optimiert wird. Dieses Kriterium ist im Fall der natürlichen Auslese die maximale Verbreitung der Gene, und im Fall des menschlichen Gehirns, natürlich wesentlich komplizierter.

Bisher galt jedoch, dass man bei allen Optimierungsprozessen zwischen Objekt- und Meta-Level unterscheiden konnte, i.e. zwischen Genen und natürlicher Auslese, oder zwischen Umwelt und Gehirn. Das menschliche Gehirn kann sich nicht selbst optimieren, wir können nicht unsere neuronalen Algorithmen durchsuchen und verbessern.

Die Erfindung einer superintelligenten KI könnte das verändern, da sie ihren eigenen Quellcode verbessern könnte, dann wäre sie noch intelligenter, könnte ihren eigenen Quellcode also noch effizienter verbessern, wäre dann wiederum intelligenter als zuvor, usw. bis – FOOM- die KI fucking über-intelligent ist.

 

 

Leave a Reply