To je přesně Jevonův paradox v akci v té nejčistší formě. Protože náklady na tokeny AI klesly, můžeme si nyní dovolit používat jich mnohem více pro stále složitější úkoly. Klíčovým bodem tedy není to, že "umělá inteligence zdražuje"; Místo toho je to tím, že protože je to stále levnější a schopnější, používáme ho více k lepšímu řešení problémů. U téměř každého srovnatelného úkolu používáme pouze mnohem více tokenů k dokončení úkolu, abychom dosáhli mnohem lepšího výstupu. Ať už jde o psaní kódu, odpovídání na otázky týkající se zdravotní péče nebo analýzu smlouvy, k provádění této práce dnes používáme mnohem více umělé inteligence, protože potřebujeme další body výkonu. Získání 99% správné odpovědi při práci s právní smlouvou se *velmi* liší od 90% správné odpovědi a snadno stojí za 10x až 100x zvýšení tokenů. Nyní, v *nějakém* bodě, začneme dosahovat stagnace pro určité typy úkolů, a pak cena za úkol klesne. Například pravděpodobně nepotřebujeme 100x více tokenů, než používáme dnes pro odpověď na jednoduchou lékařskou otázku nebo shrnutí dokumentu. Takže nakonec se tyto pracovní zátěže na srovnatelném základě zlevní, protože budeme schopni zachytit zvýšení efektivity z modelů. *Ale*, obecný cyklus bude pokračovat v podstatě navždy, protože budeme jen neustále zvyšovat laťku toho, co děláme s umělou inteligencí. Vzhledem k tomu, že tokeny stále zlevňují díky algoritmickým průlomům, konkurenci v cenách GPU, obecné výpočetní efektivitě a alternativám s otevřenou hmotností, najdeme další sadu způsobů, jak tokeny spotřebovat. Nasadíme paralelně mnohem více agentů, abychom urychlili úlohy, budeme používat multiagentní systémy k porovnávání odpovědí a dosažení konsensu, budeme řešit složitější problémy práce se znalostmi a budeme mít mnohem déle běžící agenty na pozadí. Umělá inteligence bude současně vždy levnější a dražší.
108,33K