Dopo aver letto molte delle risposte, vorremmo fare alcune chiarificazioni: - non possiamo estrarre dati di addestramento dal modello utilizzando il nostro metodo - i LLM non sono iniettivi rispetto al testo di output, quella funzione è sicuramente non iniettiva e le collisioni si verificano continuamente - per le stesse ragioni, i LLM non sono invertibili dal testo di output speriamo che questo chiarisca eventuali confusioni e accogliamo qualsiasi feedback in merito. Per ulteriori domande, non esitate a contattare gli autori: @GiorgosNik02, @tommaso_mncttn, @DonatoCrisosto1, @teelinsan, Yannis Panagakis, @EmanueleRodola