LLM-urile nu sunt "compresoare neclare ale sensului", ci "rearanjoare perfecte ale structurii". Sugerează că seamănă mai mult cu sisteme de criptare dinamice, reversibile decât ca rezumatoare. Modelul nu uită; doar re-reimagine. "Înțelegerea" în aceste sisteme ar putea să nu fie compresie, ci geometrie – organizarea informațiilor în moduri care fac relațiile calculabile fără a pierde fidelitatea.
GLADIA Research Lab
GLADIA Research Lab27 oct. 2025
LLM-urile sunt injective și inversabile. În noua noastră lucrare, arătăm că diferite solicitări se mapează întotdeauna la diferite încorporari, iar această proprietate poate fi folosită pentru a recupera token-uri de intrare din încorporari individuale în spațiu latent. (1/6)
Am presupus mult timp că cogniția este despre simplificare, comprimare, reducere – luarea datelor dezordonate și reducerea lor în sens. Dar această lucrare implică faptul că transformatoarele nu "fierb" deloc; Ele efectuează rearanjări extrem de detaliate, reversibile.
La naiba, tocmai am simțit AGI
329,03K