Banyak pembicaraan tentang bagaimana pemformatan/prompt JSON/XML untuk LLM akan 10x output ChatGPT, Claude, Grok, dll. Tapi itu 0% benar. Model ini memiliki jendela konteks yang sama apakah Anda meminta Perang dan Perdamaian atau {"cerita": "Perang dan Perdamaian"}. Orang-orang berpikir JSON/XML mengelabui model karena mereka melihat output yang lebih panjang dalam format terstruktur, tetapi itu korelasi bukan sebab-akibat.... Anda hanya mengajukan pertanyaan yang lebih baik dengan harapan yang lebih jelas. Apa yang sebenarnya bekerja untuk output 10x adalah saran yang "membosankan" tetapi ini dia: Memecah permintaan kompleks menjadi beberapa bagian, menggunakan perintah "lanjutkan", dan menjadi spesifik tentang apa yang Anda inginkan alih-alih berharap tag XML/JSON entah bagaimana akan melewati arsitektur dasar model transformator.
80,64K