Chủ đề thịnh hành
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Meituan LongCat
🚀 Mở rộng embeddings, không chỉ là các chuyên gia—giới thiệu một con đường mới cho các LLM hiệu quả.
Phát hiện chính: Trong các tình huống có độ thưa cao, embeddings N-gram mang lại một biên giới Pareto tốt hơn so với việc chỉ thêm nhiều chuyên gia MoE.
Do đó, chúng tôi giới thiệu LongCat-Flash-Lite—mô hình mã nguồn mở đầu tiên được xây dựng dựa trên hiểu biết này.
⚙️ 68.5B Tổng số tham số (37.13B không phải embedding) | 2.9B~4.5B Hoạt động
📊 Hiệu suất cao: SWE-Bench 54.4 | τ²-Bench 72.8 | TerminalBench 33.75
📃 Cửa sổ ngữ cảnh 256K (được hỗ trợ bởi YARN)
✨ Tối ưu hóa cho Agentic/Coding, mạnh mẽ trong lý luận tổng quát
⚡ ~700 tokens/s tốc độ suy diễn đỉnh
Kết quả: Đạt được hiệu suất cạnh tranh trong quy mô của nó với chi phí và độ trễ thấp hơn đáng kể.
Hugging Face:
Báo cáo công nghệ:



44
🚀 Báo cáo Kỹ thuật LongCat-Flash-Thinking-2601 – Đã được phát hành hoàn toàn!
Những điểm chính:
🌍 Học tăng cường agentic quy mô lớn (14 trang phân tích sâu!)
🔹 Mở rộng môi trường: Một cái nhìn chi tiết về quy trình tự động của chúng tôi xây dựng hơn 10,000 môi trường có thể thực thi và xác minh trên hơn 20 lĩnh vực.
🔹 Hạ tầng RL: Một khung DORA được nâng cấp hỗ trợ đào tạo bất đồng bộ với hơn 32,000 môi trường đồng thời, giải quyết các vấn đề ổn định trong các nhiệm vụ dài hạn và rất đa dạng.
🛡️ Độ bền trong thực tế
🔹 Tiêm nhiễm tiếng ồn: Không còn các agent "nhà kính" nữa. Chúng tôi phân tích có hệ thống tiếng ồn trong thế giới thực (tiếng ồn từ người dùng/công cụ) và tiêm nhiễm trực tiếp vào vòng lặp đào tạo.
🔹 RL theo chương trình: Một chiến lược dựa trên chương trình mà dần dần làm cho mô hình trở nên mạnh mẽ hơn trước các môi trường lộn xộn, không hoàn hảo.
🧠 Khung tư duy nặng
🔹 Lập luận song song: Mở rộng chiều rộng bằng cách tạo ra nhiều quỹ đạo lập luận độc lập.
🔹 Tóm tắt lặp lại: Mở rộng chiều sâu bằng cách sử dụng một mô hình tóm tắt để phản ánh và tổng hợp các quỹ đạo song song trước khi đưa ra quyết định cuối cùng.
🔹 Bộ nhớ ngữ cảnh: Một mô-đun bộ nhớ được thiết kế đặc biệt để giữ cho lập luận nhất quán qua các khoảng thời gian dài.
⚡ Sự chú ý Zigzag
🔹 Thiết kế Kết nối Zigzag kết hợp MLA + SSA để giảm tính toán trong khi vẫn bảo tồn dòng thông tin toàn cầu.
🔹 Chuyển đổi giữa chừng sang các biến thể thưa thớt mang lại tốc độ tăng 1.5× và hỗ trợ ngữ cảnh 1 triệu token — đặt nền tảng cho những đột phá trong tư duy agentic dài hạn.
🔹 Khám phá:
📊 Đạt SOTA trong số
các mô hình mã nguồn mở trên các tiêu chuẩn agentic chính: tìm kiếm, sử dụng công cụ, lập luận toán học và lập trình.
Nếu bạn muốn biết thêm chi tiết, hãy thoải mái kiểm tra báo cáo kỹ thuật đầy đủ.




36
🚀 Giới thiệu LongCat-Flash-Thinking-2601 — Một phiên bản được xây dựng cho tư duy sâu và tổng quát.
✨ Điểm nổi bật:
🤖 Khả năng tác nhân hàng đầu
🔹 Hiệu suất: Kết quả benchmark hàng đầu (TIR / Tìm kiếm tác nhân / Sử dụng công cụ tác nhân); khả năng tổng quát tuyệt vời, vượt trội hơn Claude trong các nhiệm vụ phức tạp, ngẫu nhiên
🔹 Tăng cường môi trường: Nhiều môi trường chất lượng cao được tự động xây dựng; đồ thị phụ thuộc dày đặc
🔹 RL Đa môi trường: Mở rộng DORA (hạ tầng RL của chúng tôi), hỗ trợ đào tạo tác nhân đa môi trường quy mô lớn
🛡️ Độ bền trong thế giới thực
🔹 Hiệu suất: Hiệu suất vững chắc trong các tình huống lộn xộn, không chắc chắn (Vita-Noise & Tau^2-Noise)
🔹 Phân tích tiếng ồn: Phân tích hệ thống tiếng ồn trong các tình huống tác nhân
🔹 RL Chương trình giảng dạy: Tăng cường loại và cường độ tiếng ồn trong khi đào tạo
🎯 Chế độ tư duy nặng
🔹 Tư duy song song: Mở rộng chiều sâu thông qua nhiều đường suy nghĩ độc lập
🔹 Tóm tắt lặp lại: Tăng cường chiều sâu bằng cách sử dụng mô hình tóm tắt để tổng hợp đầu ra, hỗ trợ các vòng lặp suy nghĩ lặp lại
📅 Một điều nữa: ngữ cảnh 1 triệu token thông qua Zigzag Attention sẽ sớm ra mắt.
🔍 Thử ngay bây giờ:
✅ Truy cập API cho phiên bản này cũng có sẵn.
Hugging Face:
GitHub:


49
Hàng đầu
Thứ hạng
Yêu thích
