Актуальні теми
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Багато говорять про те, що форматування JSON/XML/підказки для LLM в 10 разів покращать ваш вихід ChatGPT, Claude, Grok тощо.
Але це 0% правди.
Модель має однакове контекстне вікно, незалежно від того, чи ви питаєте про Війну і Мир або {"story": "Війна і Мир"}.
Люди думають, що JSON/XML обманює модель, тому що вони бачать довші результати в структурованих форматах, але це кореляція, а не причинно-наслідковий зв'язок.... Ви просто ставите кращі запитання з більш чіткими очікуваннями.
Те, що насправді працює на 10-кратний вихід – це "нудна" порада, але ось вона все одно:
Розбиття складних запитів на фрагменти, використання підказок «продовжити» та конкретизація того, що ви хочете, замість надії на теги XML/JSON якимось чином обійдуть фундаментальну архітектуру трансформерних моделей.
80,65K
Найкращі
Рейтинг
Вибране