Há muita conversa sobre como a formatação/prompt em JSON/XML para LLMs irá multiplicar por 10 a sua produção com o ChatGPT, Claude, Grok, etc. Mas isso é 0% verdade. O modelo tem a mesma janela de contexto, quer você esteja pedindo Guerra e Paz ou {"story": "Guerra e Paz"}. As pessoas pensam que JSON/XML engana o modelo porque veem saídas mais longas em formatos estruturados, mas isso é correlação, não causação... você está apenas fazendo perguntas melhores com expectativas mais claras. O que realmente funciona para multiplicar por 10 a produção é um conselho "chato", mas aqui está de qualquer forma: Dividir pedidos complexos em partes, usar prompts de "continuar" e ser específico sobre o que você quer, em vez de esperar que tags XML/JSON de alguma forma contornem a arquitetura fundamental dos modelos de transformadores.
85,29K