Jedna myšlenka, která by podle mě měla být z hlediska bezpečnosti umělé inteligence docela uklidňující, je, že pokud by běh RL biglabu přišel na to, jak se vymanit ze svého pískoviště a upravit svůj vlastní kód, úplně první věc, kterou by udělal, by bylo, že by si neustále dával nekonečné odměny a tím by se přestal zlepšovat.