этот пост является полной дезинформацией LLM — это сжимающие алгоритмы с потерями! для *обучающих данных*. LLM без потерь сжимают *запросы*, внутри. именно это показывает эта статья. источник: я автор статьи "Инверсия языковой модели", оригинальной статьи на эту тему