LLM-agenttien hienosäätö ilman LLM:ien hienosäätöä! Kuvittele, että parannat tekoälyagenttisi suorituskykyä kokemuksen perusteella koskematta koskaan mallin painoihin. Se on aivan kuin miten ihmiset muistavat menneitä jaksoja ja oppivat niistä. Juuri sitä Memento tekee. Ydinkonsepti: LLM-painojen päivittämisen sijaan Memento oppii kokemuksista muistin avulla. Se muotoilee jatkuvan oppimisen uudelleen muistipohjaiseksi online-vahvistusoppimiseksi muistilla täydennetyn MDP:n sijaan. Ajattele sitä niin, että annat agentillesi muistikirjan, jonka avulla voit muistaa, mikä toimi ja mikä ei! Miten se toimii? Järjestelmä jakautuu kahteen keskeiseen osaan: 1️⃣ Tapauspohjainen päättely (CBR) työssä: Hajottaa monimutkaiset tehtävät osatehtäviksi ja hakee asiaankuuluvat aiemmat kokemukset. Liukuvärejä ei tarvita, vain älykäs muistin haku! 2️⃣ Toimeenpanija Suorittaa jokaisen alitehtävän MCP-työkaluilla ja tallentaa tulokset muistiin myöhempää tarvetta varten. MCP:n kautta toimeenpanija voi suorittaa useimmat todelliset tehtävät ja hänellä on pääsy seuraaviin työkaluihin: 🔍 Web-tutkimus 📄 Asiakirjojen käsittely 🐍 Turvallinen Python-suoritus 📊 Tietojen analysointi 🎥 Median käsittely Minusta tämä oli todella hyvä tapa rakentaa ihmisen kaltaisia agentteja. 👉 Sinulle, mitä ajatuksiasi on? Olen jakanut asiaankuuluvat linkit seuraavassa twiitissä! _____ Jaa tämä verkostosi kanssa, jos pidit tätä oivaltavana ♻️ Etsi minut → @akshay_pachaar saadaksesi lisää näkemyksiä ja opetusohjelmia tekoälystä ja koneoppimisesta!
77,11K