Afinando agentes LLM sem afinar LLMs! Imagine melhorar o desempenho do seu agente de IA a partir da experiência sem nunca tocar nos pesos do modelo. É como os humanos se lembram de episódios passados e aprendem com eles. Isso é exatamente o que Memento faz. O conceito central: Em vez de atualizar os pesos do LLM, Memento aprende com as experiências usando a memória. Ele reformula o aprendizado contínuo como aprendizado por reforço online baseado em memória em um MDP com memória aumentada. Pense nisso como dar ao seu agente um caderno para lembrar o que funcionou e o que não funcionou! Como funciona? O sistema se divide em dois componentes principais: 1️⃣ Raciocínio Baseado em Casos (CBR) no trabalho: Decompõe tarefas complexas em subtarefas e recupera experiências passadas relevantes. Não são necessários gradientes, apenas recuperação de memória inteligente! 2️⃣ Executor Executa cada subtarefa usando ferramentas MCP e registra os resultados na memória para referência futura. Por meio do MCP, o executor pode realizar a maioria das tarefas do mundo real e tem acesso às seguintes ferramentas: 🔍 Pesquisa na web 📄 Manuseio de documentos 🐍 Execução segura do Python 📊 Análise de dados 🎥 Processamento de mídia Achei que esse é um caminho muito bom para a construção de agentes semelhantes aos humanos. 👉 Para você, quais são seus pensamentos? Eu compartilhei os links relevantes no próximo tweet! _____ Compartilhe isso com sua rede se você achou isso perspicaz ♻️ Encontre-me → @akshay_pachaar para mais insights e tutoriais sobre IA e aprendizado de máquina!
77,11K