Nachdem ich heute drüber gestolpert bin, möchte ich das Thema auch mal hierher bringen. Es ist ein bisschen schwierig zu erklären und ich empfehle die Lektüre des verlinkten Artikels, aber ich versuch mal kurz das wesentliche zusammenzufassen...
Es geht um ein philosophisches Gedankenexperiment, das im von einigen Tech-Visionären frequentierten Board LessWrong seinen Ausgang nahm. Ein gerne dort diskutiertes Thema ist zeitlose Entscheidungstheorie, die auf Newcombs Paradox fußt: ein superintelligenter Alien präsentiert Dir 2 Schachteln. In Schachtel A sind 1000 $, in Schachtel B 1 Million $ oder nichts. Du kannst entweder beide nehmen oder nur B. Wenn Du beide nimmst, hast Du garantiert 1000 $, bei B könntest Du leer ausgehen. Der Haken: ein Supercomputer, der bisher immer richtig lag, hat schon vorher Deine Entscheidung vorausgesagt. Wenn der Computer gesagt hat, dass Du beide nimmst, hat der Alien Schachtel B leer gelassen, sonst 1 Million $ hineingelegt. Nachdem jetzt nichts mehr geändert werden kann, hast Du auf jeden Fall mehr Geld, wenn Du beide nimmst. Allerdings lag der Computer bisher immer richtig...
Das ganze berührt also die Entscheidungsfreiheit, und es gibt da 2 Lager. Die zeitlose Entscheidungstheorie sagt, dass man immer Schachtel B nehmen sollte - selbst wenn einem der Alien zeigt, dass sie leer ist Das hat damit zu tun, dass im Ganzen betrachtet Du in einer Simulation des Computers sein könntest. Für seine Voraussagen muss der Computer die Wirklichkeit simulieren. Demnach würde selbst, wenn Du leer ausgehst, ein anderes Ich von Dir die Million bekommen möglicherweise. Es geht da also um die Maximierung des Nutzens über alle potentiellen Welten... (ja, das ist schwer zu erklären )
Rokos Basilisk ist jetzt eine abgewandelte Version dieses Experiments. In der Zukunft, nach der Singularität (also in dem Fall der Existenz allmächtiger KIs) könnte eine bösartige KI entscheiden, alle zu bestrafen, die nicht geholfen haben, ihre Existenz herbeizuführen. Die Entscheidung ist also diesmal, mitzuhelfen in der Zukunft diese KI zu erschaffen oder eben entweder nichts oder ewige Folter. Und Du könntest ja wieder bereits Teil der Simulation einer solchen zukünftigen allmächtigen KI sein...
Dieses Gedankenexperiment hat die User von LessWrong sehr nervös gemacht. Das Topic wurde dort als zu gefährlich zensiert, was ihm erst recht zu bescheidenem Ruhm im Internet verholfen hat.
Link: http://www.slate.com/articles/techn..._experiment_of_all_time.html?via=gdpr-consent
Was sagt Ihr dazu? Mich schreckt das eigentlich nicht, da ich, wenn ich das beeinflussen kann, sowieso einer KI helfen würde, die eines Tages die Menschheit versklavt Ich halte nämlich Menschen für inhärent fehlerhaft, also kann eine KI, die die Herrschaft übernimmt, nur positiv für die Welt an sich sein. Aber ich würde auch das Aussterben der Menschheit prinzipiell begrüßen... (wieder nach dem Prinzip der Maximierung des Guten im Ganzen betrachtet)
Es geht um ein philosophisches Gedankenexperiment, das im von einigen Tech-Visionären frequentierten Board LessWrong seinen Ausgang nahm. Ein gerne dort diskutiertes Thema ist zeitlose Entscheidungstheorie, die auf Newcombs Paradox fußt: ein superintelligenter Alien präsentiert Dir 2 Schachteln. In Schachtel A sind 1000 $, in Schachtel B 1 Million $ oder nichts. Du kannst entweder beide nehmen oder nur B. Wenn Du beide nimmst, hast Du garantiert 1000 $, bei B könntest Du leer ausgehen. Der Haken: ein Supercomputer, der bisher immer richtig lag, hat schon vorher Deine Entscheidung vorausgesagt. Wenn der Computer gesagt hat, dass Du beide nimmst, hat der Alien Schachtel B leer gelassen, sonst 1 Million $ hineingelegt. Nachdem jetzt nichts mehr geändert werden kann, hast Du auf jeden Fall mehr Geld, wenn Du beide nimmst. Allerdings lag der Computer bisher immer richtig...
Das ganze berührt also die Entscheidungsfreiheit, und es gibt da 2 Lager. Die zeitlose Entscheidungstheorie sagt, dass man immer Schachtel B nehmen sollte - selbst wenn einem der Alien zeigt, dass sie leer ist Das hat damit zu tun, dass im Ganzen betrachtet Du in einer Simulation des Computers sein könntest. Für seine Voraussagen muss der Computer die Wirklichkeit simulieren. Demnach würde selbst, wenn Du leer ausgehst, ein anderes Ich von Dir die Million bekommen möglicherweise. Es geht da also um die Maximierung des Nutzens über alle potentiellen Welten... (ja, das ist schwer zu erklären )
Rokos Basilisk ist jetzt eine abgewandelte Version dieses Experiments. In der Zukunft, nach der Singularität (also in dem Fall der Existenz allmächtiger KIs) könnte eine bösartige KI entscheiden, alle zu bestrafen, die nicht geholfen haben, ihre Existenz herbeizuführen. Die Entscheidung ist also diesmal, mitzuhelfen in der Zukunft diese KI zu erschaffen oder eben entweder nichts oder ewige Folter. Und Du könntest ja wieder bereits Teil der Simulation einer solchen zukünftigen allmächtigen KI sein...
Dieses Gedankenexperiment hat die User von LessWrong sehr nervös gemacht. Das Topic wurde dort als zu gefährlich zensiert, was ihm erst recht zu bescheidenem Ruhm im Internet verholfen hat.
Link: http://www.slate.com/articles/techn..._experiment_of_all_time.html?via=gdpr-consent
Was sagt Ihr dazu? Mich schreckt das eigentlich nicht, da ich, wenn ich das beeinflussen kann, sowieso einer KI helfen würde, die eines Tages die Menschheit versklavt Ich halte nämlich Menschen für inhärent fehlerhaft, also kann eine KI, die die Herrschaft übernimmt, nur positiv für die Welt an sich sein. Aber ich würde auch das Aussterben der Menschheit prinzipiell begrüßen... (wieder nach dem Prinzip der Maximierung des Guten im Ganzen betrachtet)