Breve sfogo su GPT-5 e sull'approccio di OpenAI alle tracce di ragionamento in generale: GPT-5 (soprattutto Thinking High) è un modello incredibile. Ma la decisione di OpenAI di nascondere la vera catena di pensiero rende così difficile ottenere i migliori risultati possibili. Con altri modelli di ragionamento, posso effettivamente dirgli come voglio che pensino e ragionino, e posso vedere se lo fanno guardando le catene di ragionamento. Poi iterò e aggiusterò fino a quando non fa esattamente ciò che voglio. Sfortunatamente, con i modelli di OpenAI, questo è impossibile. Non puoi effettivamente vedere cosa sta facendo, quindi stai essenzialmente volando al buio e sperando che il modello faccia ciò che vuoi. Capisco che lo stanno facendo per motivi competitivi. Ma rende sicuramente il prodotto API molto peggiore per me di quanto non sarebbe altrimenti. Con la concorrenza che continua a guadagnare terreno su GPT-5, sarà difficile per me rimanere con OpenAI sul lato API quando posso ottenere molto di più dagli altri modelli perché posso guidarli in un modo molto migliore. Capisco che questo non sia un problema per la maggior parte della base clienti API (almeno, per ora, poiché la maggior parte delle persone non ha davvero preso confidenza con i modelli di ragionamento), ma per persone come me che vivono e respirano queste cose e sanno come ottenere il massimo dai modelli, è un enorme ostacolo. Spero che trovino una soluzione molto migliore qui. Capisco perfettamente le dinamiche competitive di questo, quindi non è necessario mostrare le vere catene di pensiero complete. Ma i "sommari" di ragionamento attuali sono orribili e forniscono quasi zero segnale. Anche un piccolo miglioramento lì renderebbe l'uso di GPT-5 sull'API significativamente più facile.
29,08K