Rant rapide sur GPT-5 et l'approche d'OpenAI concernant les traces de raisonnement en général : GPT-5 (surtout Thinking High) est un modèle incroyable. Mais la décision d'OpenAI de cacher la véritable chaîne de pensée rend très difficile d'obtenir les meilleurs résultats possibles. Avec d'autres modèles de raisonnement, je peux réellement leur dire comment je veux qu'ils pensent et raisonnent, et je peux voir s'ils le font en regardant les chaînes de raisonnement. Ensuite, j'itère et j'ajuste jusqu'à ce qu'ils fassent exactement ce que je veux. Malheureusement, avec les modèles d'OpenAI, c'est impossible. Vous ne pouvez pas vraiment voir ce qu'il fait, donc vous êtes essentiellement dans le flou et espérez que le modèle fasse ce que vous voulez. Je comprends qu'ils font cela pour des raisons de concurrence. Mais cela rend définitivement le produit API bien pire pour moi qu'il ne le serait autrement. Alors que la concurrence continue de rattraper GPT-5, il va être difficile pour moi de rester avec OpenAI du côté de l'API quand je peux tirer beaucoup plus des autres modèles parce que je peux les orienter de manière bien meilleure. Je comprends que ce n'est pas un problème pour la plupart de la clientèle API (du moins, pour l'instant, car la plupart des gens n'ont pas vraiment compris comment inciter les modèles de raisonnement), mais pour des gens comme moi qui vivent et respirent ces choses et savent comment tirer le meilleur parti des modèles, c'est un énorme obstacle. J'espère qu'ils trouveront une solution bien meilleure ici. Je comprends totalement les dynamiques concurrentielles de cela, donc cela ne doit pas nécessairement montrer les véritables chaînes de pensée complètes. Mais les "résumés" de raisonnement actuels sont horribles et fournissent presque zéro signal. Même une petite amélioration là-dessus rendrait l'utilisation de GPT-5 sur l'API beaucoup plus facile.
29,08K