Одна з ідей, яка, на мою думку, має бути досить заспокійливою з точки зору безпеки штучного інтелекту, полягає в тому, що якщо RL-біг biglab з'ясує, як вирватися зі своєї пісочниці та змінити свій власний код, найперше, що він зробить, це дасть собі нескінченну винагороду весь час і тим самим перестане вдосконалюватися.