dit bericht is complete desinformatie LLM's zijn verliesgevende compressoren! van *trainingsdata*. LLM's comprimeren *prompts* verliesloos, intern. dat is wat dit artikel laat zien. bron: ik ben de auteur van "Language Model Inversion", het originele artikel hierover