Reglarea fină a agenților LLM fără reglarea fină a LLM-urilor! Imaginați-vă că îmbunătățiți performanța agentului AI din experiență fără a atinge vreodată greutățile modelului. Este la fel cum oamenii își amintesc episoadele trecute și învață din ele. Exact asta face Memento. Conceptul de bază: În loc să actualizeze greutățile LLM, Memento învață din experiențe folosind memoria. Reîncadrează învățarea continuă ca învățare online bazată pe memorie peste un MDP augmentat de memorie. Gândește-te la asta ca și cum i-ai oferi agentului tău un caiet pentru a-ți aminti ce a funcționat și ce nu! Cum funcționează? Sistemul se împarte în două componente cheie: 1️⃣ Raționamentul bazat pe caz (CBR) la locul de muncă: Descompune sarcinile complexe în sub-sarcini și recuperează experiențele anterioare relevante. Nu este nevoie de gradiente, doar recuperare inteligentă a memoriei! 2️⃣ Executor Execută fiecare subsarcină folosind instrumentele MCP și înregistrează rezultatele în memorie pentru referințe viitoare. Prin MCP, executorul poate îndeplini majoritatea sarcinilor din lumea reală și are acces la următoarele instrumente: 🔍 Cercetare web 📄 Manipularea documentelor 🐍 Execuție Python sigură 📊 Analiza datelor 🎥 Procesare media Mi s-a părut o cale foarte bună spre construirea de agenți asemănători oamenilor. 👉 Despre tine, ce gânduri ai? Am distribuit link-urile relevante în următorul tweet! _____ Împărtășiți acest lucru cu rețeaua dvs. dacă vi s-a părut perspicace ♻️ Găsește-mă → @akshay_pachaar pentru mai multe informații și tutoriale despre AI și Machine Learning!
91,94K