大型语言模型(LLMs)并不是“模糊的意义压缩器”,而是“完美的结构重组器”。这表明它们更像是动态的、可逆的加密系统,而不是摘要工具。 模型并不会忘记;它只是重新表示。 在这些系统中,“理解”可能不是压缩,而是几何——以使关系可计算的方式组织信息,而不失真。
GLADIA Research Lab
GLADIA Research Lab10月27日 22:34
LLMs 是单射且可逆的。 在我们的新论文中,我们展示了不同的提示总是映射到不同的嵌入,这一特性可以用来从潜在空间中的单个嵌入中恢复输入标记。 (1/6)
我们长期以来一直认为认知是关于简化、压缩、减少——将杂乱的数据提炼成意义。但这项工作暗示变换器根本不“提炼”;它们执行的是大规模详细的、可逆的重组。
该死,我刚刚感受到了AGI
329K