Nedávno jsem byl ohromen a pobaven, když jsem se dozvěděl o VaultGemma, nedávné snaze Googlu předtrénovat LLM s diferenciálním soukromím TLDR: - první LLM bez detekovatelného zapamatování tréninkových dat - každý trik v knize, 100x více výpočtů, se dostal na úroveň *GPT-2*