Korte rant over GPT-5 en de aanpak van OpenAI met betrekking tot redeneersporen in het algemeen: GPT-5 (vooral Thinking High) is een ongelooflijk model. Maar de beslissing van OpenAI om de ware denkprocessen te verbergen, maakt het zo moeilijk om de best mogelijke resultaten eruit te halen. Met andere redeneer-modellen kan ik ze daadwerkelijk vertellen hoe ik wil dat ze denken en redeneren, en ik kan zien of ze dat doen door naar de redeneersporen te kijken. Dan kan ik itereren en aanpassen totdat het precies doet wat ik wil. Helaas is dit met OpenAI-modellen onmogelijk. Je kunt niet echt zien wat het doet, dus je vliegt in wezen blind en hoopt dat het model doet wat je wilt. Ik begrijp dat ze dit doen om competitieve redenen. Maar het maakt het API-product zeker veel slechter voor mij dan het anders zou zijn. Naarmate de concurrentie blijft groeien ten opzichte van GPT-5, zal het moeilijk voor me zijn om bij OpenAI te blijven aan de API-kant, wanneer ik veel meer uit de andere modellen kan halen omdat ik ze op een veel betere manier kan sturen. Ik begrijp dat dit geen probleem is voor de meeste klanten van de API (tenzij, voor nu, omdat de meeste mensen nog niet echt de kunst van het aansteken van redeneer-modellen onder de knie hebben), maar voor mensen zoals ik die van deze dingen leven en ademen en weten hoe ze het meeste uit modellen kunnen halen, is het een enorme hindernis. Ik hoop dat ze hier met een veel betere oplossing komen. Ik begrijp de competitieve dynamiek hiervan volledig, dus het hoeft niet per se de volledige, ware denkprocessen te tonen. Maar de huidige redeneer "samenvattingen" zijn vreselijk en bieden bijna geen signaal. Zelfs een kleine verbetering daar zou het gebruik van GPT-5 op de API aanzienlijk gemakkelijker maken.
29,09K