Tópicos populares
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Meituan LongCat
🚀 Escalando embeddings, não apenas especialistas—introduzindo um novo caminho para LLMs eficientes.
Descoberta Principal: Em cenários de alta esparsidade, embeddings N-gram oferecem uma melhor fronteira de Pareto do que apenas adicionar mais especialistas MoE.
Portanto, apresentamos o LongCat-Flash-Lite—o primeiro modelo opensource construído com base nesta percepção.
⚙️ 68.5B Total de Parâmetros (37.13B não-embedding) | 2.9B~4.5B Ativos
📊 Alto Desempenho: SWE-Bench 54.4 | τ²-Bench 72.8 | TerminalBench 33.75
📃 Janela de Contexto de 256K (potenciado por YARN)
✨ Otimizado para Agente/Codificação, forte em raciocínio geral
⚡ ~700 tokens/s de velocidade de inferência máxima
O resultado: Alcança desempenho competitivo dentro de sua escala a um custo e latência significativamente mais baixos.
Hugging Face:
Relatório Técnico:



57
🚀 Relatório Técnico LongCat-Flash-Thinking-2601 – Agora Totalmente Liberado!
Principais insights:
🌍 RL agentic em larga escala (14 páginas de análises profundas!)
🔹 Escalonamento de ambiente: Um olhar detalhado sobre nosso pipeline automatizado que constrói mais de 10.000 ambientes executáveis e verificáveis em mais de 20 domínios.
🔹 Infraestrutura de RL: Um framework DORA atualizado que suporta treinamento assíncrono com mais de 32.000 ambientes concorrentes, enfrentando problemas de estabilidade em tarefas de cauda longa e altamente heterogêneas.
🛡️ Robustez no mundo real
🔹 Injeção de ruído: Chega de agentes "greenhouse". Analisamos sistematicamente o ruído do mundo real (ruído de usuário/ferramenta) e o injetamos diretamente no loop de treinamento.
🔹 RL baseado em currículo: Uma estratégia baseada em currículo que gradualmente fortalece o modelo contra ambientes bagunçados e imperfeitos.
🧠 Framework Heavy Thinking
🔹 Raciocínio paralelo: Expande a amplitude gerando múltiplas trajetórias de raciocínio independentes.
🔹 Resumo iterativo: Expande a profundidade usando um modelo de resumo para refletir e sintetizar trajetórias paralelas antes de tomar decisões finais.
🔹 Memória de contexto: Um módulo de memória projetado para manter o raciocínio coerente ao longo de longos horizontes.
⚡ Atenção Zigzag
🔹 Design de Conectividade Zigzag combinando MLA + SSA para reduzir o cálculo enquanto preserva o fluxo de informação global.
🔹 Mudança durante o treinamento para variantes esparsas resulta em um aumento de 1,5× na velocidade e suporta contextos de 1M tokens — preparando o terreno para futuras inovações no raciocínio agentic de longo contexto.
🔹 Explore:
📊 Alcança SOTA entre
modelos de código aberto em benchmarks chave agentic: busca, uso de ferramentas, raciocínio matemático e codificação.
Se você quiser mais detalhes, sinta-se à vontade para conferir o relatório técnico completo.
• Artigo:
• Website:
• GitHub:
• Hugging Face:




57
🚀 Apresentando o LongCat-Flash-Thinking-2601 — Uma versão construída para pensamento profundo e geral agentic.
✨ Destaques:
🤖 Capacidades de Agente de Alto Nível
🔹 Desempenho: Resultados de benchmark de alto nível (TIR / Pesquisa Agentic / Uso de Ferramentas Agentic); capacidade de generalização superb, superando Claude em tarefas complexas e aleatórias
🔹 Escalonamento de Ambiente: Múltiplos ambientes de alta qualidade construídos automaticamente; gráfico de dependência denso
🔹 RL Multi-Ambiente: DORA estendida (nossa infraestrutura de RL), suportando treinamento agentic em larga escala em múltiplos ambientes
🛡️ Robustez no Mundo Real
🔹 Desempenho: Desempenho sólido em cenários confusos e incertos (Vita-Noise & Tau^2-Noise)
🔹 Análise de Ruído: Análise sistemática do ruído do mundo real em cenários agentic
🔹 RL Curricular: Aumento do tipo e intensidade do ruído durante o treinamento
🎯 Modo de Pensamento Pesado
🔹 Pensamento Paralelo: Expande a amplitude através de múltiplas trilhas de raciocínio independentes
🔹 Resumo Iterativo: Aumenta a profundidade usando um modelo de resumo para sintetizar saídas, apoiando loops de raciocínio iterativo
📅 Mais uma coisa: contexto de 1M tokens via Zigzag Attention está a caminho.
🔍 Experimente agora:
✅ O acesso à API para esta versão também está disponível.
Hugging Face:
GitHub:


65
Top
Classificação
Favoritos
