Dieser Beitrag ist vollständige Fehlinformation. LLMs sind verlustbehaftete Kompressoren! von *Trainingsdaten*. LLMs komprimieren *Eingaben* verlustfrei, intern. Das zeigt dieses Papier. Quelle: Ich bin der Autor von "Language Model Inversion", dem ursprünglichen Papier dazu.