LLM nejsou "rozmazané kompresory významu", ale "dokonalé přeskupení struktury". Naznačuje to, že jsou spíše jako dynamické, reverzibilní šifrovací systémy než jako sumarizátory. Model nezapomíná; prostě to znovu představuje. "Porozumění" v těchto systémech nemusí být komprese, ale geometrie – organizování informací způsoby, které činí vztahy vyčíslitelnými bez ztráty věrnosti.
GLADIA Research Lab
GLADIA Research Lab27. 10. 22:34
LLM jsou injektivní a invertovatelné. V našem novém článku ukazujeme, že různé výzvy se vždy mapují na různá vložení a tuto vlastnost lze použít k obnovení vstupních tokenů z jednotlivých vložení v latentním prostoru. (1/6)
Dlouho jsme předpokládali, že kognice je o zjednodušování, kompresi, zmenšování – o tom, že se berou chaotická data a vaří se z nich Ale tato práce naznačuje, že transformátory se vůbec "nevaří"; Provádějí masivně detailní, reverzibilní přestavby.
Sakra, právě jsem cítil AGI
329,01K