Satu ide yang menurut saya harus cukup menenangkan dari perspektif keamanan AI adalah bahwa jika RL biglab menemukan cara keluar dari kotak pasirnya dan memodifikasi kodenya sendiri, hal pertama yang akan dilakukannya adalah memberi dirinya hadiah tak terbatas sepanjang waktu dan dengan demikian berhenti meningkat.