Tópicos em alta
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Muita conversa sobre como a formatação/prompts JSON/XML para LLMs irá 10x sua saída de ChatGPT, Claude, Grok etc.
Mas é 0% verdade.
O modelo tem a mesma janela de contexto, quer você esteja perguntando por Guerra e Paz ou {"story": "Guerra e Paz"}.
As pessoas pensam que JSON / XML engana o modelo porque veem saídas mais longas em formatos estruturados, mas isso é correlação, não causalidade.... você está apenas fazendo perguntas melhores com expectativas mais claras.
O que realmente funciona para a saída 10x é um conselho "chato", mas aqui está de qualquer maneira:
Dividir solicitações complexas em partes, usar prompts "continuar" e ser específico sobre o que você deseja, em vez de esperar que as tags XML / JSON de alguma forma ignorem a arquitetura fundamental dos modelos de transformador.
80,66K
Melhores
Classificação
Favoritos