Dostosowywanie agentów LLM bez dostosowywania LLM! Wyobraź sobie poprawę wydajności swojego agenta AI na podstawie doświadczeń, nie dotykając nigdy wag modelu. To tak, jak ludzie pamiętają przeszłe wydarzenia i uczą się z nich. Dokładnie to robi Memento. Główna koncepcja: Zamiast aktualizować wagi LLM, Memento uczy się z doświadczeń, korzystając z pamięci. Przekształca uczenie się ciągłe w oparte na pamięci uczenie się przez wzmocnienie w ramach wzbogaconego pamięcią MDP. Pomyśl o tym jak o dawaniu swojemu agentowi notatnika, aby pamiętał, co zadziałało, a co nie! Jak to działa? System dzieli się na dwa kluczowe komponenty: 1️⃣ Rozumowanie oparte na przypadkach (CBR) w akcji: Rozkłada złożone zadania na podzadania i przywołuje odpowiednie przeszłe doświadczenia. Nie potrzebne są gradienty, tylko inteligentne przywoływanie pamięci! 2️⃣ Wykonawca Wykonuje każde podzadanie, korzystając z narzędzi MCP i zapisuje wyniki w pamięci do przyszłego odniesienia. Dzięki MCP, wykonawca może zrealizować większość zadań w rzeczywistym świecie i ma dostęp do następujących narzędzi: 🔍 Badania w sieci 📄 Obsługa dokumentów 🐍 Bezpieczne wykonywanie Pythona 📊 Analiza danych 🎥 Przetwarzanie mediów Uważam, że to naprawdę dobra droga do budowania agentów przypominających ludzi. 👉 Teraz twoja kolej, co o tym myślisz? Podzieliłem się odpowiednimi linkami w następnym tweecie! _____ Podziel się tym ze swoją siecią, jeśli uznałeś to za interesujące ♻️ Znajdź mnie → @akshay_pachaar, aby uzyskać więcej informacji i samouczków na temat AI i uczenia maszynowego!
49,14K