Los LLM no son "compresores borrosos de significado" sino "reorganizadores perfectos de la estructura". Sugiere que se parecen más a sistemas de cifrado dinámicos y reversibles que a resumidores. El modelo no olvida; simplemente re-representa. La "comprensión" en estos sistemas podría no ser compresión sino geometría: organizar la información de manera que las relaciones sean computables sin perder fidelidad.
GLADIA Research Lab
GLADIA Research Lab27 oct, 22:34
Los LLM son inyectivos e invertibles. En nuestro nuevo artículo, mostramos que diferentes solicitudes siempre se asignan a diferentes incrustaciones, y esta propiedad se puede usar para recuperar tokens de entrada de incrustaciones individuales en el espacio latente. (1/6)
Durante mucho tiempo hemos asumido que la cognición se trata de simplificar, comprimir, reducir, tomar datos desordenados y reducirlos a significado. Pero este trabajo implica que los transformadores no "se reducen" en absoluto; realizan reordenamientos reversibles masivamente detallados.
Maldita sea, acabo de sentir el AGI
329.01K