LLMのJSON/XMLフォーマット/プロンプトが、ChatGPT、Claude、Grokなどの出力を10倍にする方法について多くの話があります。 しかし、それは0%の真実です。 モデルには、戦争と平和を求めるか、{"story": "戦争と平和"}を求めるかにかかわらず、同じコンテキストウィンドウがあります。 人々は、構造化された形式でより長い出力を見るため、JSON / XMLがモデルをだますと考えていますが、それは因果関係ではなく相関関係です。より明確な期待を持って、より良い質問をしているだけです。 実際に10倍の出力に効果があるのは「退屈な」アドバイスですが、とにかくここにあります。 複雑なリクエストをチャンクに分割し、「続行」プロンプトを使用し、XML / JSONタグがトランスフォーマーモデルの基本的なアーキテクチャを何らかの形でバイパスすることを期待するのではなく、必要なものを具体的に指定します。
80.65K