Il y a quelques années, le cadre du 'perroquet stochastique' a été utilisé pour rejeter le potentiel des modèles à avoir des capacités plus sophistiquées, sous-estimant massivement la flexibilité du langage. Depuis, j'ai l'impression qu'il y a eu une surcorrection/phénomène où les gens lisent un peu trop dans le texte, ignorent les mécanismes derrière les prédictions du prochain token, et finissent par faire de fausses comparaisons superficielles avec le comportement humain. Il est facile de se perdre dans les simulations !