este post é uma completa desinformação LLMs são compressores com perdas! de *dados de treinamento*. Os LLMs compactam *prompts* sem perdas internamente. Isso é o que este artigo mostra. Fonte: Eu sou o autor de "Language Model Inversion", o artigo original sobre este