Neue Forschung mit dem UK @AISecurityInst und dem @turinginst: Wir haben herausgefunden, dass bereits einige wenige bösartige Dokumente Schwachstellen in einem LLM erzeugen können – unabhängig von der Größe des Modells oder seinen Trainingsdaten. Datenvergiftungsangriffe könnten praktischer sein als bisher angenommen.