Olin hiljattain sekä vaikuttunut että huvittunut kuullessani VaultGemmasta, Googlen äskettäisestä yrityksestä esikouluttaa LLM differentiaalisella yksityisyydellä TLDR: - ensimmäinen LLM ilman havaittavaa harjoitusdatan muistamista - jokainen kirjan temppu, 100 kertaa enemmän laskentaa, pääsi *GPT-2* tasolle