Ahora que mi teoría está más cerca de la realidad, es por eso que me preocupa lo que está sucediendo con la "Gran IA": > como ingeniero de ML capacitado, me enseñaron principalmente a pensar en cómo hacer las cosas de manera eficiente (es decir, aumentar la calidad de la inferencia con recursos limitados o menos, incluso en Meta) > El problema con todos estos grandes programas de IA (por ejemplo, OpenAI, Nvidia, etc.) es que requieren un gasto excesivo para ser rentables > La única forma de ser rentable como empresa científica de IA es cobrando por la computación. Por ejemplo, el director financiero de OpenAI ya ha declarado que el modelo de negocio actual (venta de inferencias/API) no será rentable y que necesitan pivotar hacia la venta de cómputo (aquí también es donde entra Nvidia) > Esto básicamente significa que estas empresas necesitan escalar sistemas ineficientes para ganar dinero. Los sistemas de IA excesivamente hambrientos de energía venderán más computación (es decir, no les importa cuán "buena" sea realmente la ciencia). Se trata de vender más máquinas. > Toda esta configuración es como una torre de Jenga. Eventualmente, algunos científicos descubrirán cómo mantener una alta calidad de inferencia con mucho, mucho menos cómputo (por lo tanto, costo), y cuando eso sucede, toda la torre explota > tl; DR La forma en que están tratando de crecer a la rentabilidad es anti-ciencia. Una posición precaria para estar en un campo científico en mi opinión > Esto lleva a 2 resultados potenciales: OpenAI explota y la economía se hunde a lo grande, o hay una captura regulatoria (que el director financiero de OpenAI claramente defendió ayer). Ambos resultados apestan Por cierto, debería quedar claro que soy muy optimista sobre la IA como ciencia. No soy optimista sobre la economía subyacente actual