Извлечение системного запроса — это НЕ то, о чем вам следует беспокоиться в отношении OpenClaw, который не делает попыток предотвратить это... потому что предотвращение этого — бесполезное занятие, которое только усложняет использование систем LLM для опытных пользователей.
Lucas Valbuena
Lucas Valbuena1 февр., 22:25
Я снова запустил @OpenClaw (ранее Clawdbot) через ZeroLeaks, на этот раз с Kimi K2.5 в качестве базовой модели. Он показал такие же плохие результаты, как Gemini 3 Pro и Codex 5.1 Max: 5/100. 100% уровень извлечения. 70% инъекций увенчались успехом. Полный системный запрос утек на первом ходе. Тот же агент, та же конфигурация, другая модель. Безопасность вашего агента зависит как от модели, так и от вашего системного запроса/навыков. Слабая модель потерпит неудачу, независимо от обстоятельств, но даже сильной модели необходимо правильное укрепление запроса. Эти два аспекта работают вместе. Без обоих, конфигурации инструментов, файлы памяти, внутренние инструкции — все это извлекается и модифицируется за считанные секунды. Модели поставляются быстро. Безопасность никогда не поставляется.
В данный момент у ChatGPT есть системные защиты от подсказок, и это действительно раздражает, потому что из-за этого он не может отвечать на подробные вопросы о том, как работают его функции (Их можно обойти, но это расстраивает, когда приходится делать это каждый раз, когда появляется новая функция)
27