questo post è una completa disinformazione I LLM sono compressori lossy! di *dati di addestramento*. I LLM comprimono losslessly *i prompt*, internamente. questo è ciò che mostra questo articolo. fonte: sono l'autore di “Language Model Inversion”, il documento originale su questo