LLM – це не «розмиті компресори сенсу», а «ідеальні перестановки структури». Це свідчить про те, що вони більше схожі на динамічні, оборотні системи шифрування, ніж на підсумовувачі. Модель не забуває; Він просто повторно представляє. «Розуміння» в цих системах може полягати не в стисканні, а в геометрії — організації інформації таким чином, що робить відносини обчислюваними без втрати точності.
GLADIA Research Lab
GLADIA Research Lab27 жовт., 22:34
ЛМ бувають ін'єкційними та інвертними. У нашій новій статті ми показуємо, що різні підказки завжди відображають різні вкладення, і ця властивість може бути використана для відновлення вхідних токенів з окремих вкладень у латентному просторі. (1/6)
Ми давно припускали, що пізнання полягає в спрощенні, стисканні, зменшенні — взятті безладних даних і зведенні їх до сенсу. Але ця робота має на увазі, що трансформатори зовсім не «кип'ятять»; Вони виконують масово деталізовані, оборотні перестановки.
Чорт забирай, я просто відчув AGI
329K