Tinh chỉnh các tác nhân LLM mà không cần tinh chỉnh LLM! Hãy tưởng tượng việc cải thiện hiệu suất của tác nhân AI của bạn từ kinh nghiệm mà không bao giờ chạm vào trọng số của mô hình. Nó giống như cách mà con người nhớ lại các sự kiện trong quá khứ và học hỏi từ chúng. Đó chính xác là những gì Memento làm. Khái niệm cốt lõi: Thay vì cập nhật trọng số LLM, Memento học hỏi từ kinh nghiệm bằng cách sử dụng bộ nhớ. Nó định hình lại việc học liên tục như một quá trình học tăng cường trực tuyến dựa trên bộ nhớ qua một MDP được tăng cường bộ nhớ. Hãy nghĩ về nó như việc cho tác nhân của bạn một cuốn sổ tay để nhớ những gì đã hiệu quả và những gì không! Nó hoạt động như thế nào? Hệ thống được chia thành hai thành phần chính: 1️⃣ Lý luận dựa trên trường hợp (CBR) đang hoạt động: Phân tách các nhiệm vụ phức tạp thành các nhiệm vụ con và truy xuất các kinh nghiệm trong quá khứ có liên quan. Không cần gradient, chỉ cần truy xuất bộ nhớ thông minh! 2️⃣ Người thực thi Thực hiện từng nhiệm vụ con bằng cách sử dụng các công cụ MCP và ghi lại kết quả vào bộ nhớ để tham khảo trong tương lai. Thông qua MCP, người thực thi có thể hoàn thành hầu hết các nhiệm vụ trong thế giới thực và có quyền truy cập vào các công cụ sau: 🔍 Nghiên cứu web 📄 Xử lý tài liệu 🐍 Thực thi Python an toàn 📊 Phân tích dữ liệu 🎥 Xử lý phương tiện Tôi thấy đây là một con đường rất tốt để xây dựng các tác nhân giống như con người. 👉 Đến lượt bạn, bạn nghĩ gì? Tôi đã chia sẻ các liên kết liên quan trong tweet tiếp theo! _____ Chia sẻ điều này với mạng lưới của bạn nếu bạn thấy điều này hữu ích ♻️ Tìm tôi → @akshay_pachaar để biết thêm thông tin và hướng dẫn về AI và Machine Learning!
49,14K