Muita conversa sobre como a formatação/prompts JSON/XML para LLMs irá 10x sua saída de ChatGPT, Claude, Grok etc. Mas é 0% verdade. O modelo tem a mesma janela de contexto, quer você esteja perguntando por Guerra e Paz ou {"story": "Guerra e Paz"}. As pessoas pensam que JSON / XML engana o modelo porque veem saídas mais longas em formatos estruturados, mas isso é correlação, não causalidade.... você está apenas fazendo perguntas melhores com expectativas mais claras. O que realmente funciona para a saída 10x é um conselho "chato", mas aqui está de qualquer maneira: Dividir solicitações complexas em partes, usar prompts "continuar" e ser específico sobre o que você deseja, em vez de esperar que as tags XML / JSON de alguma forma ignorem a arquitetura fundamental dos modelos de transformador.
80,66K