Szybka dygresja na temat GPT-5 i podejścia OpenAI do śladów rozumowania w ogóle: GPT-5 (szczególnie Thinking High) to niesamowity model. Jednak decyzja OpenAI o ukrywaniu prawdziwego łańcucha myślenia sprawia, że tak trudno uzyskać najlepsze możliwe wyniki. W przypadku innych modeli rozumowania mogę im powiedzieć, jak chcę, aby myślały i rozumiały, a następnie mogę sprawdzić, czy to robią, patrząc na łańcuchy rozumowania. Potem iteruję i dostosowuję, aż robią dokładnie to, czego chcę. Niestety, w przypadku modeli OpenAI jest to niemożliwe. Nie możesz tak naprawdę zobaczyć, co robią, więc w zasadzie lecisz na oślep, mając nadzieję, że model zrobi to, czego chcesz. Rozumiem, że robią to z powodów konkurencyjnych. Ale zdecydowanie sprawia to, że produkt API jest dla mnie znacznie gorszy, niż mógłby być. W miarę jak konkurencja nadal zyskuje na znaczeniu w porównaniu do GPT-5, będzie mi trudno pozostać z OpenAI w kwestii API, gdyż mogę uzyskać znacznie więcej z innych modeli, ponieważ mogę nimi lepiej kierować. Rozumiem, że to nie jest problem dla większości klientów API (przynajmniej na razie, ponieważ większość ludzi nie opanowała jeszcze w pełni modelowania rozumowania), ale dla takich osób jak ja, które żyją i oddychają tymi rzeczami i wiedzą, jak uzyskać najwięcej z modeli, to ogromna przeszkoda. Mam nadzieję, że znajdą znacznie lepsze rozwiązanie w tej kwestii. Całkowicie rozumiem konkurencyjne dynamiki tego, więc niekoniecznie musi to być pokazywanie pełnych, prawdziwych łańcuchów myślenia. Ale obecne "podsumowania" rozumowania są okropne i nie dają prawie żadnego sygnału. Nawet mała poprawa w tej kwestii znacznie ułatwiłaby korzystanie z GPT-5 w API.
29,08K