この投稿は完全な誤った情報です LLMは非可逆コンプレッサーです! *トレーニングデータ*の。 LLM は、内部で *プロンプト* を可逆圧縮します。それがこの論文が示していることです。 出典:私は「言語モデルの反転」の著者であり、これに関する元の論文です