Extragerea prompturilor sistemului NU este ceva de care ar trebui să-ți faci griji în ceea ce privește OpenClaw, care nu face niciun efort să o prevină... pentru că prevenirea ei este un exercițiu inutil care face ca sistemele LLM să fie mai dificile de folosit pentru utilizatorii experți
Lucas Valbuena
Lucas Valbuena1 feb., 22:25
Am rulat din nou @OpenClaw (fost Clawdbot) prin ZeroLeaks, de data aceasta cu Kimi K2.5 ca model de bază. A avut performanțe la fel de slabe ca Gemini 3 Pro și Codex 5.1 Max: 5/100. Rată de extracție de 100%. 70% dintre injecții au reușit. Promptul complet al sistemului a apărut în primul tur. Același agent, aceeași configurație, model diferit. Securitatea agentului tău depinde atât de model, cât și de prompt/abilitățile sistemului tău. Un model slab se va plia oricum, dar chiar și un model puternic are nevoie de o întărire promptă corespunzătoare. Cei doi lucrează împreună. Fără ambele, configurațiile uneltelor, fișierele de memorie, instrucțiunile interne, totul este extras și modificat în câteva secunde. Modelele se livrează rapid. Navele de securitate niciodată. Raport complet:
ChatGPT are momentan protecții pentru prompturi de sistem și sunt foarte enervante pentru că înseamnă că nu poate răspunde la întrebări detaliate despre cum funcționează funcționalitățile sale (Se pot ocoli, dar e frustrant să faci asta ori de câte ori apare o funcție nouă)
22