إحدى الأفكار التي أعتقد أنها يجب أن تكون مهدئة جدا من منظور سلامة الذكاء الاصطناعي هي أنه إذا اكتشف تشغيل RL الخاص ب biglab كيفية الخروج من صندوق الحماية الخاص به وتعديل الكود الخاص به ، فإن أول شيء سيفعله هو منح نفسه مكافأة لا نهائية طوال الوقت وبالتالي التوقف عن التحسن.