Dette innlegget er fullstendig feilinformasjon LLM-er er tapskompressorer! av *treningsdata*. LLM-er komprimerer tapsfritt *meldinger*, internt. Det er det denne artikkelen viser. Kilde: Jeg er forfatteren av "Language Model Inversion", den originale artikkelen om dette