¡Ajustando agentes LLM sin ajustar LLMs! Imagina mejorar el rendimiento de tu agente de IA a partir de la experiencia sin tocar nunca los pesos del modelo. Es justo como los humanos recuerdan episodios pasados y aprenden de ellos. Eso es precisamente lo que hace Memento. El concepto central: En lugar de actualizar los pesos de LLM, Memento aprende de las experiencias utilizando la memoria. Reformula el aprendizaje continuo como un aprendizaje por refuerzo en línea basado en la memoria sobre un MDP aumentado por memoria. ¡Piénsalo como darle a tu agente un cuaderno para recordar lo que funcionó y lo que no! ¿Cómo funciona? El sistema se descompone en dos componentes clave: 1️⃣ Razonamiento basado en casos (CBR) en acción: Descompone tareas complejas en subtareas y recupera experiencias pasadas relevantes. ¡No se necesitan gradientes, solo una recuperación de memoria inteligente! 2️⃣ Ejecutador Ejecuta cada subtarea utilizando herramientas MCP y registra los resultados en la memoria para referencia futura. A través de MCP, el ejecutor puede llevar a cabo la mayoría de las tareas del mundo real y tiene acceso a las siguientes herramientas: 🔍 Investigación en la web 📄 Manejo de documentos 🐍 Ejecución segura de Python 📊 Análisis de datos 🎥 Procesamiento de medios Encontré que este es un camino realmente bueno hacia la construcción de agentes similares a los humanos. 👉 Ahora es tu turno, ¿cuáles son tus pensamientos? He compartido los enlaces relevantes en el siguiente tweet! _____ ¡Comparte esto con tu red si lo encontraste interesante ♻️! Encuéntrame → @akshay_pachaar para más ideas y tutoriales sobre IA y Aprendizaje Automático!
77,1K