Tendencias del momento
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Los LLMs no son "compresores borrosos de significado" sino "reordenadores perfectos de estructura." Sugiere que son más como sistemas de cifrado dinámicos y reversibles que como resumidores.
El modelo no olvida; simplemente re-representa.
La "comprensión" en estos sistemas podría no ser compresión sino geometría: organizar la información de maneras que hacen que las relaciones sean computables sin perder fidelidad.

27 oct, 22:34
Los LLM son inyectivos e invertibles.
En nuestro nuevo artículo, mostramos que diferentes indicaciones siempre se mapean a diferentes incrustaciones, y esta propiedad se puede utilizar para recuperar tokens de entrada a partir de incrustaciones individuales en el espacio latente.
(1/6)

Durante mucho tiempo hemos asumido que la cognición se trata de simplificar, comprimir, reducir: tomar datos desordenados y reducirlos a un significado. Pero este trabajo implica que los transformadores no "reducen" en absoluto; realizan reordenamientos masivos, detallados y reversibles.
Maldita sea, acabo de sentir la AGI
329K
Parte superior
Clasificación
Favoritos

