LLM-y nie są „rozmytymi kompresorami znaczenia”, lecz „doskonałymi przestawiaczami struktury”. Sugeruje to, że są bardziej jak dynamiczne, odwracalne systemy szyfrowania niż jak podsumowujące. Model nie zapomina; po prostu ponownie reprezentuje. „Zrozumienie” w tych systemach może nie być kompresją, lecz geometrią — organizowaniem informacji w sposób, który sprawia, że relacje są obliczalne bez utraty wierności.
GLADIA Research Lab
GLADIA Research Lab27 paź, 22:34
LLM-y są iniektywne i odwracalne. W naszym nowym artykule pokazujemy, że różne zapytania zawsze odpowiadają różnym osadzeniom, a ta właściwość może być wykorzystana do odzyskiwania tokenów wejściowych z poszczególnych osadzeń w przestrzeni latentnej. (1/6)
Od dawna zakładaliśmy, że poznanie polega na upraszczaniu, kompresowaniu, redukcji — na przekształcaniu chaotycznych danych w znaczenie. Ale ta praca sugeruje, że transformatory wcale nie "redukują"; wykonują masowo szczegółowe, odwracalne przekształcenia.
Cholera, właśnie poczułem AGI
329,02K