Popularne tematy
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Dostosowywanie agentów LLM bez dostosowywania LLM!
Wyobraź sobie poprawę wydajności swojego agenta AI na podstawie doświadczeń, nie dotykając nigdy wag modelu.
To tak, jak ludzie pamiętają przeszłe wydarzenia i uczą się z nich.
Dokładnie to robi Memento.
Główna koncepcja:
Zamiast aktualizować wagi LLM, Memento uczy się z doświadczeń, korzystając z pamięci.
Przekształca uczenie się ciągłe w oparte na pamięci uczenie się przez wzmocnienie w ramach wzbogaconego pamięcią MDP.
Pomyśl o tym jak o dawaniu swojemu agentowi notatnika, aby pamiętał, co zadziałało, a co nie!
Jak to działa?
System dzieli się na dwa kluczowe komponenty:
1️⃣ Rozumowanie oparte na przypadkach (CBR) w akcji:
Rozkłada złożone zadania na podzadania i przywołuje odpowiednie przeszłe doświadczenia.
Nie potrzebne są gradienty, tylko inteligentne przywoływanie pamięci!
2️⃣ Wykonawca
Wykonuje każde podzadanie, korzystając z narzędzi MCP i zapisuje wyniki w pamięci do przyszłego odniesienia.
Dzięki MCP, wykonawca może zrealizować większość zadań w rzeczywistym świecie i ma dostęp do następujących narzędzi:
🔍 Badania w sieci
📄 Obsługa dokumentów
🐍 Bezpieczne wykonywanie Pythona
📊 Analiza danych
🎥 Przetwarzanie mediów
Uważam, że to naprawdę dobra droga do budowania agentów przypominających ludzi.
👉 Teraz twoja kolej, co o tym myślisz?
Podzieliłem się odpowiednimi linkami w następnym tweecie!
_____
Podziel się tym ze swoją siecią, jeśli uznałeś to za interesujące ♻️
Znajdź mnie → @akshay_pachaar, aby uzyskać więcej informacji i samouczków na temat AI i uczenia maszynowego!

49,14K
Najlepsze
Ranking
Ulubione