esta publicación es una completa desinformación ¡Los LLM son compresores con pérdida! de *datos de entrenamiento*. Los LLM comprimen *prompts* sin pérdida, internamente. eso es lo que muestra este artículo. fuente: soy el autor de "Inversión de Modelos de Lenguaje", el artículo original sobre esto