Ecco Sam Altman, CEO di OpenAI, che dice ad alta voce ciò che normalmente si tiene per sé. Non sta avvertendo del rischio legato all'AI. Sta gestendo le aspettative del pubblico per un disastro che sta attivamente costruendo. Traduciamo il suo sereno fatalismo da tech-bro: - Sull'AGI: "Passerà in un baleno... Non sarà realmente la singolarità." Ciò che sta DAVVERO dicendo: "L'intelligenza divina che stiamo costruendo sarà assorbita così perfettamente nelle infrastrutture aziendali che non avrai nemmeno la possibilità di votare su di essa. La 'rivoluzione' sarà un servizio in abbonamento." - Sull'Impatto Sociale: "La società imparerà più in fretta... le persone e le società sono tutte molto più adattabili di quanto pensiamo." Ciò che sta DAVVERO dicendo: "Quando distruggeremo interi settori e cancelleremo milioni di posti di lavoro, dovrai semplicemente 'adattarti'. Il tuo dolore è un costo necessario per il nostro progresso. Sii resiliente." - Sull'Inevitabilità del Disastro: "Mi aspetto che accadano cose davvero brutte... svilupperemo alcune protezioni attorno ad esso come società." Ciò che sta DAVVERO dicendo: "Stiamo andando troppo veloci per preoccuparci della sicurezza. Romperemo cose, inclusa possibilmente la tua società. Tu, il pubblico, sarai lasciato a costruire le 'protezioni' e a ripulire il disastro dopo che noi ci saremo già ritirati." Questo non è un avvertimento. È una confessione. Ha ammesso la sua strategia: Distribuire prima, scusarsi dopo. Il "fuoco" con cui sta giocando è un'intelligenza che non comprende, e il suo modello di business dipende dal fatto che tu venga scottato.