Na het lezen van veel van de reacties, willen we een paar verduidelijkingen geven: - we kunnen geen trainingsdata uit het model extraheren met onze methode - LLM's zijn niet injectief ten opzichte van de outputtekst, die functie is zeker niet-injectief en botsingen komen de hele tijd voor - om dezelfde redenen zijn LLM's niet omkeerbaar vanuit de outputtekst we hopen dat dit enige verwarring opheldert en we verwelkomen alle feedback over deze kwestie. Voor verdere vragen, aarzel niet om contact op te nemen met de auteurs: @GiorgosNik02, @tommaso_mncttn, @DonatoCrisosto1, @teelinsan, Yannis Panagakis, @EmanueleRodola