Creo que fui demasiado despectivo con el nuevo LLM de codificación Composer-1 de Cursor. Claro, es estrictamente peor que GPT-5 High Effort y GPT-5-Codex, y en ese sentido, cuando estoy diseñando e implementando proyectos de código importantes, realmente no veo un lugar para él en mis flujos de trabajo. Por otro lado, es extremadamente rápido (me pregunto cómo lo hicieron; ¿están usando hardware de Groq o Cerebras? ¿es porque el modelo es tan pequeño y eficiente? no estoy seguro), y esto por sí solo desbloquea muchos nuevos flujos de trabajo y técnicas de trabajo para cuando el código no es tan crítico, o cuando estás comenzando un nuevo proyecto y no tienes que preocuparte por romper el código existente. También es mucho, mucho más barato en comparación con cualquier variante de GPT-5. La combinación de ser mucho más rápido y mucho más barato crea una diferencia cualitativa en cómo puedes usar el modelo que no aprecié completamente antes. Cuando el costo de iteración es tan bajo tanto en términos de tiempo como de dinero, puedes iterar muchas más veces. Eso reduce el valor de la "corrección de un solo intento"; es decir, la capacidad de un modelo como GPT-5 Pro para obtener incluso una tarea de codificación compleja correcta la primera vez sin errores (aunque incluso ese modelo a menudo falla en esta prueba tan estricta). Pero si puedes cerrar el ciclo de depuración y alimentar rápidamente los errores/advertencias de nuevo en el modelo, y cada ronda de iteración toma de 20 segundos a un minuto (en lugar de 5 a 10 veces más tiempo al menos usando GPT-5 con alto esfuerzo), entonces puedes resolver rápidamente todos los errores descuidados que comete la primera vez (o incluso la segunda, tercera o cuarta vez) y aún así terminar con código funcional antes de lo que podrías con GPT-5. Si estás desarrollando algo en el navegador, ahora realmente puedes cerrar el ciclo por completo usando la nueva pestaña del navegador de Cursor, que es de lejos la mejor implementación de este tipo que he visto en cualquier herramienta de codificación (¡está muy por delante de usar Playwright MCP de Codex o Claude Code!). He estado usando este aviso con gran efecto hoy: "Usa la pestaña del navegador para explorar sistemáticamente esta aplicación y usa la interfaz de manera natural; mientras eso sucede, observa cualquier advertencia o error en la consola de desarrollo. Cuando veas uno, comienza a diagnosticar y arreglar interactivamente e iterativamente los errores y problemas y luego actualiza la aplicación y verifica que el error o advertencia esté completamente resuelto. Al arreglar cosas, concéntrate en determinar la verdadera causa raíz del error y no en aplicar arreglos "falsos" de tipo "curita"!" Donde este enfoque realmente se descompone, sin embargo, es en las fases conceptuales y de planificación donde estás averiguando qué hacer y la mejor manera de implementarlo a un alto nivel. Allí, la falta de pensamiento profundo y exploración puede llevarte por un mal camino del que es difícil recuperarse. Esto es mucho más evidente cuando la tarea en la que estás trabajando se aleja mucho del "manifold de datos" de tareas de codificación comunes. Si estás haciendo otro simple sitio web CRUD, probablemente no lo notarás mucho. Si estás tratando de explorar nuevos terrenos en una simulación de vida artificial o algo raro así, lo notarás mucho. Pero hay un buen enfoque híbrido que funciona muy bien: combinar el modelo más inteligente para la planificación con estos modelos rápidos y baratos para generar iteraciones. Así que, usa GPT-5 Pro en la aplicación del navegador para elaborar tu plan y una implementación inicial, luego pégalo en Cursor y comienza a iterar, arreglar y mejorar. Es mucho mejor modificando una base sólida existente que estableciendo esa base por sí misma. Donde todo esto realmente brilla es cuando estás jugando y explorando con algo divertido, en un nuevo proyecto donde no hay plazos ni expectativas. En este contexto, la velocidad es un verdadero cambio de juego. Me recuerda a esa antigua investigación realizada por IBM a principios de los 80 que examinó la latencia en los sistemas informáticos, que encontró que cuando la latencia baja por debajo de un nivel mágico, como 50 ms, se produce un gran cambio en el comportamiento porque el cerebro humano percibe que está tratando con un "sistema en vivo". Y, por el contrario, cuando la latencia supera incluso un nivel sorprendentemente modesto, como 500 ms, hay mucho menos compromiso, y es mentalmente agotador y frustrante. Cuando la latencia se dispara a unos pocos segundos o más, las personas tienden a desconectarse mentalmente y se convierte en una lucha mantenerse comprometido. Ver al modelo de codificación responder en segundos y hacer una ráfaga de 10 ediciones en menos de 15 segundos es una experiencia completamente diferente a esperar 5 minutos para que GPT-5 de alto esfuerzo procese algo metódicamente. ...