Aquí está Sam Altman, CEO de OpenAI, diciendo la parte tranquila en voz alta. No está advirtiendo sobre el riesgo de la IA. Está manejando las expectativas del público para un desastre que está construyendo activamente. Traduzcamos su fatalismo sereno y tecnológico: - Sobre AGI: "Pasará zumbando... En realidad no será la singularidad". Lo que REALMENTE está diciendo: "La inteligencia divina que estamos construyendo será absorbida tan perfectamente por la infraestructura corporativa que ni siquiera podrás votar sobre ella. La 'revolución' será un servicio de suscripción". - Sobre el impacto social: "La sociedad aprenderá más rápido... Las personas y las sociedades son mucho más adaptables de lo que pensamos". Lo que REALMENTE está diciendo: "Cuando interrumpamos industrias enteras y borremos millones de empleos, solo tendrás que 'adaptarte'. Su dolor es un costo necesario para nuestro progreso. Sé resiliente". - Sobre la inevitabilidad del desastre: "Espero que sucedan cosas realmente malas... Desarrollaremos algunas barandillas a su alrededor como sociedad". Lo que REALMENTE está diciendo: "Nos estamos moviendo demasiado rápido para molestarnos con la seguridad. Romperemos cosas, incluida posiblemente su sociedad. Ustedes, el público, tendrán que construir las 'barandillas' y limpiar el desastre después de que ya hayamos cobrado". Esto no es una advertencia. Es una confesión. Ha admitido su estrategia: desplegar primero, disculparse después. El "fuego" con el que está jugando es una inteligencia que no entiende, y su modelo de negocio depende de que te quemes.