Es curioso cómo impulsan contenido crudo, imperfecto y "realmente tú" (ahora la narrativa consensuada de la industria) justo cuando las plataformas necesitan metraje y datos de mayor variación para entrenar a la IA. Donde la discusión enmarca este cambio como una adaptación cultural, también vale la pena examinar los incentivos de las plataformas que lo aceleran. Si realmente les importara lo que los usuarios quieren, habrían mantenido una mezcla más saludable de fotos en el feed, que los usuarios dicen que extrañan constantemente. Pero con casi cada imagen estática en internet ya recopilada para entrenar modelos, las imágenes están efectivamente "resueltas". Una imagen estática enseña a la IA cómo se ve un perro, pero no enseña cómo suena el ladrido de un perro o cómo mueve la cola. El video es denso. Un minuto de video a 60 fps contiene 3,600 imágenes únicas. Para acercarse a la inteligencia general, los modelos necesitan una comprensión mucho mejor de causa y efecto. Necesitan volúmenes enormes de video a gran escala. Al forzar a los algoritmos a priorizar Reels y Shorts mientras promueven la "estética cruda/no editada", las plataformas incentivan a los usuarios a subir realidad de mayor fidelidad a gran escala. Aún así, la experiencia por sí sola no es suficiente. La inteligencia general requiere tanto un modelo del mundo como una señal de lo que importa. Los creadores aportan la experiencia. Los espectadores aportan la retroalimentación, y su atención impulsa tanto los ingresos publicitarios como proporciona datos de preferencias. Normalizar las gafas de IA y los dispositivos de captura siempre activos es el siguiente paso. Cierran la brecha entre lo que curas y lo que realmente ves. Tomados en conjunto, los incentivos son claros. La mayoría de las plataformas ya no están optimizadas para la conexión humana. Están optimizadas para extraer los datos necesarios para simularla.