Rubriques tendance
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Il y a beaucoup de discussions sur la façon dont le formatage JSON/XML / les invites pour les LLMs vont multiplier par 10 votre production avec ChatGPT, Claude, Grok, etc.
Mais c'est 0% vrai.
Le modèle a la même fenêtre de contexte que vous demandiez Guerre et Paix ou {"story": "Guerre et Paix"}.
Les gens pensent que JSON/XML trompe le modèle parce qu'ils voient des sorties plus longues dans des formats structurés, mais c'est une corrélation, pas une causalité... vous posez simplement de meilleures questions avec des attentes plus claires.
Ce qui fonctionne réellement pour multiplier par 10 la production, c'est un conseil "ennuyeux", mais le voici quand même :
Diviser les demandes complexes en morceaux, utiliser des invites "continuer", et être spécifique sur ce que vous voulez au lieu d'espérer que les balises XML/JSON contourneront d'une manière ou d'une autre l'architecture fondamentale des modèles de transformateurs.
80,65K
Meilleurs
Classement
Favoris