¡Ajuste de los agentes de LLM sin ajuste de LLM! Imagine mejorar el rendimiento de su agente de IA a partir de la experiencia sin tocar los pesos del modelo. Es como la forma en que los humanos recuerdan episodios pasados y aprenden de ellos. Eso es precisamente lo que hace Memento. El concepto central: En lugar de actualizar los pesos de LLM, Memento aprende de las experiencias usando la memoria. Replantea el aprendizaje continuo como aprendizaje de refuerzo en línea basado en la memoria sobre un MDP aumentado por la memoria. ¡Piense en ello como darle a su agente un cuaderno para recordar qué funcionó y qué no! ¿Cómo funciona? El sistema se divide en dos componentes clave: 1️⃣ Razonamiento basado en casos (CBR) en funcionamiento: Descompone tareas complejas en subtareas y recupera experiencias pasadas relevantes. No se necesitan degradados, ¡solo recuperación inteligente de la memoria! 2️⃣ Albacea Ejecuta cada subtarea utilizando herramientas MCP y registra los resultados en la memoria para referencia futura. A través de MCP, el ejecutor puede realizar la mayoría de las tareas del mundo real y tiene acceso a las siguientes herramientas: 🔍 Investigación web 📄 Manejo de documentos 🐍 Ejecución segura de Python 📊 Análisis de datos 🎥 Procesamiento de medios Encontré que este es un muy buen camino hacia la construcción de agentes similares a los humanos. 👉 A ti, ¿cuáles son tus pensamientos? ¡He compartido los enlaces relevantes en el próximo tweet! _____ Comparte esto con tu red si te pareció interesante ♻️ ¡Encuéntrame → @akshay_pachaar para obtener más información y tutoriales sobre IA y aprendizaje automático!
49.15K