Os LLMs não são "compressões borradas de significado", mas sim "rearranjadores perfeitos de estrutura." Isso sugere que eles são mais como sistemas de criptografia dinâmicos e reversíveis do que como resumidores. O modelo não esquece; ele apenas re-representa. "Compreensão" nesses sistemas pode não ser compressão, mas sim geometria — organizando informações de maneiras que tornam as relações computáveis sem perder fidelidade.
GLADIA Research Lab
GLADIA Research Lab27/10, 22:34
Os LLMs são injetivos e invertíveis. No nosso novo artigo, mostramos que diferentes prompts sempre mapeiam para diferentes embeddings, e esta propriedade pode ser usada para recuperar tokens de entrada a partir de embeddings individuais no espaço latente. (1/6)
Durante muito tempo, assumimos que a cognição se trata de simplificar, comprimir, reduzir — pegar dados confusos e destilá-los em significado. Mas este trabalho implica que os transformadores não "destilam" nada; eles realizam rearranjos massivamente detalhados e reversíveis.
Droga, acabei de sentir a AGI
329K