Dużo mówi się o tym, jak formatowanie JSON/XML/polecenia dla LLM zwiększy 10-krotnie Twoje wyniki w ChatGPT, Claude, Grok itd. Ale to 0% prawdy. Model ma ten sam kontekst, niezależnie od tego, czy pytasz o Wojnę i Pokój, czy {"story": "Wojna i Pokój"}. Ludzie myślą, że JSON/XML oszukuje model, ponieważ widzą dłuższe wyniki w ustrukturyzowanych formatach, ale to korelacja, a nie przyczyna.... po prostu zadajesz lepsze pytania z jaśniejszymi oczekiwaniami. To, co naprawdę działa, aby zwiększyć wyniki 10-krotnie, to "nudna" rada, ale oto ona: Rozbijanie złożonych próśb na kawałki, używanie poleceń "kontynuuj" oraz bycie konkretnym w tym, czego chcesz, zamiast mieć nadzieję, że tagi XML/JSON w jakiś sposób obejdą fundamentalną architekturę modeli transformatorowych.
80,61K