Rubriques tendance
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Les LLM ne sont pas des "compresseurs flous de signification" mais des "réorganisateurs parfaits de structure." Cela suggère qu'ils ressemblent davantage à des systèmes de cryptage dynamiques et réversibles qu'à des résumés.
Le modèle n'oublie pas ; il se représente simplement différemment.
"Comprendre" dans ces systèmes pourrait ne pas être une compression mais de la géométrie — organiser l'information de manière à rendre les relations calculables sans perdre de fidélité.

27 oct. 2025
Les LLMs sont injectifs et inversibles.
Dans notre nouvel article, nous montrons que différents prompts correspondent toujours à des embeddings différents, et cette propriété peut être utilisée pour récupérer les tokens d'entrée à partir d'embeddings individuels dans l'espace latent.
(1/6) 

Nous avons longtemps supposé que la cognition consiste à simplifier, compresser, réduire — à prendre des données désordonnées et à les réduire à leur signification. Mais ce travail implique que les transformateurs ne "réduisent" pas du tout ; ils effectuent des réarrangements massivement détaillés et réversibles.
Merde, je viens de ressentir l'AGI
329,02K
Meilleurs
Classement
Favoris

