ce post est une désinformation complète Les LLMs sont des compresseurs avec perte ! de *données d'entraînement*. Les LLMs compressent sans perte *les invites*, en interne. c'est ce que montre cet article. source : je suis l'auteur de "Language Model Inversion", l'article original à ce sujet.