ten post to całkowita dezinformacja LLM to kompresory stratne! danych *treningowych*. LLM bezstratnie kompresują *zapytania*, wewnętrznie. to właśnie pokazuje ten artykuł. źródło: jestem autorem „Inwersji Modelu Językowego”, oryginalnego artykułu na ten temat