热门话题
#
Bonk 生态迷因币展现强韧势头
#
有消息称 Pump.fun 计划 40 亿估值发币,引发市场猜测
#
Solana 新代币发射平台 Boop.Fun 风头正劲

Meituan LongCat
🚀 扩展嵌入,而不仅仅是专家——为高效的LLM引入一条新路径。
关键发现:在高稀疏场景中,N-gram嵌入比仅仅增加更多MoE专家产生更好的帕累托前沿。
因此,我们推出了LongCat-Flash-Lite——第一个基于这一见解的开源模型。
⚙️ 68.5B 总参数(37.13B 非嵌入)| 2.9B~4.5B 活跃
📊 高性能:SWE-Bench 54.4 | τ²-Bench 72.8 | TerminalBench 33.75
📃 256K 上下文窗口(YARN驱动)
✨ 针对Agentic/Coding进行了优化,在一般推理方面表现强劲
⚡ ~700 tokens/s 峰值推理速度
结果:在其规模内以显著更低的成本和延迟实现竞争性能。
Hugging Face:
技术报告:



25
🚀 LongCat-Flash-Thinking-2601 技术报告 – 现已全面发布!
关键见解:
🌍 大规模代理强化学习(14 页深入分析!)
🔹 环境扩展:详细介绍我们自动化管道的构建,能够在 20 多个领域中构建 10,000+ 可执行、可验证的环境。
🔹 强化学习基础设施:升级版 DORA 框架,支持 32,000+ 个并发环境的异步训练,解决长尾和高度异质任务中的稳定性问题。
🛡️ 真实环境中的鲁棒性
🔹 噪声注入:不再有 "温室" 代理。我们系统地分析真实世界的噪声(用户/工具噪声),并将其直接注入训练循环中。
🔹 课程强化学习:基于课程的策略,逐步增强模型对混乱、不完美环境的适应能力。
🧠 深度思考框架
🔹 并行推理:通过生成多个独立的推理轨迹来扩展广度。
🔹 迭代总结:通过使用总结模型反思和综合并行轨迹,扩展深度,然后做出最终决策。
🔹 上下文记忆:专门构建的记忆模块,以保持长时间范围内推理的一致性。
⚡ 之字形注意力
🔹 结合 MLA + SSA 的之字形连接设计,减少计算同时保持全局信息流。
🔹 中途切换到稀疏变体实现 1.5× 的加速,并支持 1M 令牌上下文——为未来在长上下文代理推理中的突破奠定基础。
🔹 探索:
📊 在关键代理基准测试中,开放源代码模型中实现 SOTA:搜索、工具使用、数学推理和编码。
如果您想了解更多细节,请随时查看完整的技术报告。
• 论文:
• 网站:
• GitHub:
• Hugging Face:




28
🚀 介绍 LongCat-Flash-Thinking-2601 — 一个为深度和一般代理思维构建的版本。
✨ 亮点:
🤖 顶级代理能力
🔹 性能:顶级基准结果(TIR / 代理搜索 / 代理工具使用);卓越的泛化能力,在复杂的随机任务中超越 Claude
🔹 环境扩展:多个自动构建的高质量环境;密集的依赖图
🔹 多环境强化学习:扩展 DORA(我们的强化学习基础设施),支持大规模多环境代理训练
🛡️ 现实世界的鲁棒性
🔹 性能:在混乱、不确定的场景中表现稳健(Vita-Noise & Tau^2-Noise)
🔹 噪声分析:系统分析代理场景中的现实世界噪声
🔹 课程强化学习:在训练过程中增加噪声类型和强度
🎯 重思维模式
🔹 并行思维:通过多个独立的推理轨道扩展广度
🔹 迭代总结:通过使用总结模型合成输出,增强深度,支持迭代推理循环
📅 还有一件事:1M-token 上下文通过 Zigzag Attention 即将推出。
🔍 现在就试试:
✅ 此版本的 API 访问也可用。
Hugging Face:
GitHub:


31
热门
排行
收藏
