Es curioso cómo impulsan contenido crudo, imperfecto, de "verdaderamente tú" (ahora la narrativa consensuada de la industria) justo cuando las plataformas necesitan material y datos de mayor variabilidad para entrenar a la IA. Donde la discusión enmarca este cambio como una adaptación cultural, también merece la pena examinar los incentivos de las plataformas que lo aceleran. Si realmente les importara lo que querían los usuarios, habrían mantenido una mezcla más saludable de fotos en el feed, que los usuarios dicen que se les escapa constantemente. Pero con casi todas las imágenes estáticas en internet ya extraídas para entrenar modelos, las imágenes quedan efectivamente "resueltas". Una imagen estática enseña a la IA cómo es un perro, pero no enseña cómo suena el ladrido de un perro ni cómo mueve la cola. El vídeo es denso. Un minuto de vídeo a 60fps contiene 3.600 imágenes únicas. Para acercarse a la inteligencia general, los modelos necesitan un entendimiento mucho mejor de la causa y el efecto. Necesitan volúmenes enormes de vídeo a gran escala. Al obligar a los algoritmos a priorizar Reels y Shorts mientras promueven la "estética cruda/sin editar", las plataformas incentivan a los usuarios a subir realidad de mayor fidelidad a gran escala. Aun así, la experiencia por sí sola no es suficiente. La inteligencia general requiere tanto un modelo del mundo como una señal para lo que importa. Los creadores proporcionan la experiencia. Los espectadores proporcionan la retroalimentación, y su atención tanto genera ingresos publicitarios como datos de preferencias. Normalizar las gafas de IA y los dispositivos de captura siempre activos es el siguiente paso. Cierran la brecha entre lo que seleccionas y lo que realmente ves. En conjunto, los incentivos son claros. La mayoría de las plataformas ya no están optimizadas para la conexión humana. Están optimizados para extraer los datos necesarios para simularlo.