Esta publicación es una completa desinformación ¡Los LLM son compresores con pérdidas! de *datos de entrenamiento*. Los LLM comprimen sin pérdidas *indicaciones*, internamente. Eso es lo que muestra este documento. Fuente: Soy el autor de "Inversión del modelo de lenguaje", el artículo original sobre este