Настройка LLM-агентов без настройки LLM! Представьте, что вы улучшаете производительность вашего AI-агента на основе опыта, не касаясь весов модели. Это похоже на то, как люди запоминают прошлые события и учатся на них. Именно это и делает Memento. Основная концепция: Вместо обновления весов LLM, Memento учится на опыте, используя память. Он переосмысляет непрерывное обучение как основанное на памяти онлайн-обучение с подкреплением на основе дополненной памяти MDP. Представьте, что вы даете вашему агенту блокнот, чтобы запомнить, что сработало, а что нет! Как это работает? Система разбивается на два ключевых компонента: 1️⃣ Работа основанного на примерах рассуждения (CBR): Разбивает сложные задачи на подзадачи и извлекает соответствующий прошлый опыт. Градиенты не нужны, только умное извлечение памяти! 2️⃣ Исполнитель Выполняет каждую подзадачу, используя инструменты MCP, и записывает результаты в память для будущего использования. С помощью MCP исполнитель может выполнять большинство реальных задач и имеет доступ к следующим инструментам: 🔍 Веб-исследования 📄 Обработка документов 🐍 Безопасное выполнение Python 📊 Анализ данных 🎥 Обработка медиа Я считаю, что это действительно хороший путь к созданию человекоподобных агентов. 👉 Теперь ваша очередь, что вы думаете? Я поделился соответствующими ссылками в следующем твите! _____ Поделитесь этим с вашей сетью, если вы нашли это полезным ♻️ Найдите меня → @akshay_pachaar для получения дополнительных идей и учебных материалов по AI и машинному обучению!
49,15K