بحث جديد مع @AISecurityInst المملكة المتحدة و @turinginst: وجدنا أن عددا قليلا فقط من المستندات الضارة يمكن أن تنتج ثغرات أمنية في LLM - بغض النظر عن حجم النموذج أو بيانات التدريب الخاصة به. قد تكون هجمات تسمم البيانات أكثر عملية مما كان يعتقد سابقا.