Hace unos años, el marco del 'loro estocástico' se utilizó para desestimar el potencial de los modelos para tener capacidades más sofisticadas, subestimando masivamente la flexibilidad del lenguaje. Desde entonces, siento que ha habido una sobrecorrección/fenómeno donde la gente lee un poco demasiado en el texto, ignora los mecanismos detrás de las predicciones del siguiente token y termina haciendo comparaciones superficiales falsas con el comportamiento humano. ¡Es fácil perderse en simulaciones!