Цей пост – повна дезінформація LLM – це компресори з втратами! *тренувальних даних*. LLM без втрат стискають *підказки* внутрішньо. Ось що показує ця робота. Джерело: я є автором "Language Model Inversion", оригінальної статті про це