Tópicos em alta
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Os LLMs não são "compressores borrados de significado", mas "reorganizadores perfeitos da estrutura". Isso sugere que eles são mais como sistemas de criptografia dinâmicos e reversíveis do que como resumidores.
O modelo não esquece; apenas re-representa.
"Compreensão" nesses sistemas pode não ser compressão, mas geometria - organizar informações de maneiras que tornem os relacionamentos computáveis sem perder a fidelidade.

27 de out., 22:34
Os LLMs são injetivos e invertíveis.
Em nosso novo artigo, mostramos que diferentes prompts sempre são mapeados para diferentes incorporações, e essa propriedade pode ser usada para recuperar tokens de entrada de incorporações individuais no espaço latente.
(1/6)

Há muito tempo assumimos que a cognição é simplificar, comprimir, reduzir – pegar dados confusos e resumi-los em significado. Mas este trabalho implica que os transformadores não "fervem" de forma alguma; eles realizam rearranjos reversíveis e detalhados em massa.
Droga, eu acabei de sentir o AGI
329,01K
Melhores
Classificação
Favoritos

