Nuove ricerche sull'allineamento da Anthropic. 'L'AI potrebbe fallire non a causa di un disallineamento sistematico, ma per incoerenza—comportamenti imprevedibili e autolesionisti che non ottimizzano per alcun obiettivo coerente. Cioè, l'AI potrebbe fallire nello stesso modo in cui spesso falliscono gli esseri umani, essendo un gran caos.'