Ora che la mia teoria è più vicina alla realtà, ecco perché sono preoccupato per ciò che sta accadendo con "Big AI": > come ingegnere ML formato, mi è stato insegnato principalmente a pensare a come fare le cose in modo efficiente (cioè aumentare la qualità delle inferenze con risorse limitate o inferiori, anche in Meta) > Il problema con tutti questi grandi programmi di AI (ad es. OpenAI, Nvidia, ecc.) è che richiedono spese eccessive per diventare redditizi > L'unico modo per essere redditizi come azienda di scienza AI è addebitare per il calcolo. Ad es. il CFO di OpenAI ha già dichiarato che l'attuale modello di business (vendita di inferenze/API) non sarà redditizio e devono passare a vendere calcolo (questo è anche dove entra Nvidia) > Questo significa fondamentalmente che queste aziende devono scalare sistemi inefficienti per guadagnare. I sistemi AI eccessivamente affamati di energia venderanno più calcolo (cioè non si preoccupano di quanto sia "buona" la scienza in realtà). Si tratta solo di vendere più macchine. > Questo intero setup è come una torre di Jenga. Alla fine, alcuni scienziati scopriranno come mantenere alta la qualità delle inferenze con molto, molto meno calcolo (quindi costo), e quando ciò accadrà, l'intera torre esploderà > in sintesi, il modo in cui stanno cercando di crescere verso la redditività è anti-scientifico. Una posizione precaria in un campo scientifico, secondo me > Questo porta a 2 potenziali risultati: OpenAI esplode e l'economia crolla di brutto, oppure c'è una cattura regolamentare (per cui il CFO di OpenAI ha chiaramente sostenuto ieri). Entrambi i risultati sono pessimi tra l'altro, dovrebbe essere chiaro che sono molto ottimista sull'AI come scienza. Non sono ottimista sull'attuale economia sottostante.