Багато говорять про те, що форматування JSON/XML/підказки для LLM в 10 разів покращать ваш вихід ChatGPT, Claude, Grok тощо. Але це 0% правди. Модель має однакове контекстне вікно, незалежно від того, чи ви питаєте про Війну і Мир або {"story": "Війна і Мир"}. Люди думають, що JSON/XML обманює модель, тому що вони бачать довші результати в структурованих форматах, але це кореляція, а не причинно-наслідковий зв'язок.... Ви просто ставите кращі запитання з більш чіткими очікуваннями. Те, що насправді працює на 10-кратний вихід – це "нудна" порада, але ось вона все одно: Розбиття складних запитів на фрагменти, використання підказок «продовжити» та конкретизація того, що ви хочете, замість надії на теги XML/JSON якимось чином обійдуть фундаментальну архітектуру трансформерних моделей.
80,65K