Fijn afstemmen van LLM-agenten zonder LLM's af te stemmen! Stel je voor dat je de prestaties van je AI-agent verbetert op basis van ervaring zonder ooit de modelgewichten aan te raken. Het is net zoals hoe mensen zich eerdere episodes herinneren en daarvan leren. Dat is precies wat Memento doet. Het kernconcept: In plaats van de gewichten van LLM's bij te werken, leert Memento van ervaringen met behulp van geheugen. Het herformuleert continu leren als geheugen-gebaseerd online versterkend leren over een geheugen-versterkte MDP. Denk aan het als het geven van een notitieboek aan je agent om te onthouden wat werkte en wat niet! Hoe werkt het? Het systeem is onderverdeeld in twee belangrijke componenten: 1️⃣ Case-Based Reasoning (CBR) in actie: Decompositie van complexe taken in sub-taken en het ophalen van relevante eerdere ervaringen. Geen gradiënten nodig, alleen slimme geheugenophaling! 2️⃣ Executor Voert elke subtaak uit met behulp van MCP-tools en registreert de uitkomsten in het geheugen voor toekomstige referentie. Via MCP kan de executor de meeste taken in de echte wereld uitvoeren en heeft toegang tot de volgende tools: 🔍 Webonderzoek 📄 Documentverwerking 🐍 Veilige Python-uitvoering 📊 Gegevensanalyse 🎥 Media verwerking Ik vond dit een echt goede weg naar het bouwen van mensachtige agenten. 👉 Aan jou, wat zijn jouw gedachten? Ik heb de relevante links in de volgende tweet gedeeld! _____ Deel dit met je netwerk als je dit inzichtelijk vond ♻️ Vind me → @akshay_pachaar voor meer inzichten en tutorials over AI en Machine Learning!
49,14K