Finjustering av LLM-agenter uten finjustering av LLM-er! Tenk deg å forbedre AI-agentens ytelse fra erfaring uten å berøre modellvektene. Det er akkurat som hvordan mennesker husker tidligere episoder og lærer av dem. Det er nettopp det Memento gjør. Kjernekonseptet: I stedet for å oppdatere LLM-vekter, lærer Memento av erfaringer med å bruke hukommelse. Den omformulerer kontinuerlig læring som minnebasert online forsterkende læring over en minneforsterket MDP. Tenk på det som å gi agenten din en notatbok for å huske hva som fungerte og hva som ikke fungerte Hvordan virker det? Systemet brytes ned i to nøkkelkomponenter: 1️⃣ Saksbasert resonnement (CBR) på jobben: Dekomponerer komplekse oppgaver i deloppgaver og henter frem relevante tidligere erfaringer. Ingen gradienter nødvendig, bare smart minnehenting! 2️⃣ Utførende Utfører hver deloppgave ved hjelp av MCP-verktøy og registrerer resultater i minnet for fremtidig referanse. Gjennom MCP kan utføreren utføre de fleste virkelige oppgaver og har tilgang til følgende verktøy: 🔍 Nettundersøkelser 📄 Dokumenthåndtering 🐍 Sikker Python-kjøring 📊 Analyse av data 🎥 Mediebehandling Jeg syntes dette var en veldig god vei mot å bygge menneskelignende agenter. 👉 Over til deg, hva er dine tanker? Jeg har delt de relevante lenkene i neste tweet! _____ Del dette med nettverket ditt hvis du syntes dette var innsiktsfullt ♻️ Finn meg → @akshay_pachaar for mer innsikt og opplæringer om kunstig intelligens og maskinlæring!
32,09K