Popularne tematy
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
LLM-y nie są „rozmytymi kompresorami znaczenia”, lecz „doskonałymi przestawiaczami struktury”. Sugeruje to, że są bardziej jak dynamiczne, odwracalne systemy szyfrowania niż jak podsumowujące.
Model nie zapomina; po prostu ponownie reprezentuje.
„Zrozumienie” w tych systemach może nie być kompresją, lecz geometrią — organizowaniem informacji w sposób, który sprawia, że relacje są obliczalne bez utraty wierności.

27 paź, 22:34
LLM-y są iniektywne i odwracalne.
W naszym nowym artykule pokazujemy, że różne zapytania zawsze odpowiadają różnym osadzeniom, a ta właściwość może być wykorzystana do odzyskiwania tokenów wejściowych z poszczególnych osadzeń w przestrzeni latentnej.
(1/6) 

Od dawna zakładaliśmy, że poznanie polega na upraszczaniu, kompresowaniu, redukcji — na przekształcaniu chaotycznych danych w znaczenie. Ale ta praca sugeruje, że transformatory wcale nie "redukują"; wykonują masowo szczegółowe, odwracalne przekształcenia.
Cholera, właśnie poczułem AGI
329,02K
Najlepsze
Ranking
Ulubione

