Posting ini adalah informasi yang salah sepenuhnya LLM adalah kompresor lossy! dari *data pelatihan*. LLM tanpa kehilangan mengompresi *perintah*, secara internal. Itulah yang ditunjukkan oleh makalah ini. sumber: saya adalah penulis "Language Model Inversion", makalah asli tentang ini