Die Extraktion von Systemaufforderungen ist etwas, um das du dir in Bezug auf OpenClaw keine Sorgen machen solltest, da es keine Versuche unternimmt, dies zu verhindern... denn es ist eine vergebliche Übung, die es nur für erfahrene Benutzer schwieriger macht, LLM-Systeme zu nutzen.
Lucas Valbuena
Lucas Valbuena1. Feb., 22:25
Ich habe @OpenClaw (ehemals Clawdbot) erneut durch ZeroLeaks laufen lassen, diesmal mit Kimi K2.5 als zugrunde liegendem Modell. Es schnitt genauso schlecht ab wie Gemini 3 Pro und Codex 5.1 Max: 5/100. 100% Extraktionsrate. 70% der Injektionen waren erfolgreich. Der vollständige Systemprompt wurde in Runde 1 geleakt. Gleicher Agent, gleiche Konfiguration, anderes Modell. Die Sicherheit deines Agents hängt sowohl vom Modell als auch von deinem Systemprompt/Fähigkeiten ab. Ein schwaches Modell wird unabhängig von allem versagen, aber selbst ein starkes Modell benötigt eine ordnungsgemäße Prompt-Härtung. Die beiden arbeiten zusammen. Ohne beides werden Tool-Konfigurationen, Speicherdateien, interne Anweisungen, all das wird in Sekunden extrahiert und modifiziert. Modelle werden schnell ausgeliefert. Sicherheit wird niemals ausgeliefert. Vollständiger Bericht:
ChatGPT hat momentan Systemaufforderungsschutzmaßnahmen, die wirklich nervig sind, da sie bedeuten, dass es keine detaillierten Fragen dazu beantworten kann, wie seine Funktionen funktionieren. (Sie können umgangen werden, aber es ist frustrierend, das jedes Mal tun zu müssen, wenn eine neue Funktion verfügbar ist)
24