Rask rant om GPT-5, og OpenAIs tilnærming til resonnementspor generelt: GPT-5 (spesielt Thinking High) er en utrolig modell. Men OpenAIs beslutning om å skjule den sanne tankekjeden gjør det så vanskelig å få best mulig resultater ut av det. Med andre resonneringsmodeller kan jeg faktisk fortelle dem hvordan jeg vil at de skal tenke og resonnere, og jeg kan se om de gjør det ved å se på resonnementkjedene. Så itererer jeg og justerer til den gjør akkurat det jeg vil. Dessverre, med OpenAI-modeller, er dette umulig. Du kan faktisk ikke se hva den gjør, så du flyr i hovedsak i blinde og håper at modellen gjør det du vil. Jeg skjønner at de gjør dette av konkurransemessige årsaker. Men det gjør definitivt API-produktet langt verre for meg enn det ellers ville vært. Ettersom konkurransen fortsetter å vinne terreng på GPT-5, kommer det til å være vanskelig for meg å holde meg til OpenAI på API-siden når jeg kan få langt mer ut av de andre modellene fordi jeg kan styre dem på en mye bedre måte. Jeg skjønner at dette ikke er et problem for de fleste av API-kundebasen (i hvert fall foreløpig, siden de fleste egentlig ikke har fått taket på å be om resonneringsmodeller), men for folk som meg selv som lever og ånder for disse tingene og vet hvordan de skal få mest mulig ut av modeller, er det en stor veisperring. Jeg håper de kommer opp med en mye bedre løsning her. Jeg forstår fullstendig konkurransedynamikken i dette, så det trenger ikke nødvendigvis å vise de fulle, sanne tankekjedene. Men det nåværende resonnementet "sammendrag" er forferdelig og gir nesten null signal. Selv en liten forbedring der vil gjøre bruk av GPT-5 på API betydelig enklere.
29,07K