Tópicos em alta
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Meituan LongCat
🚀 Escalar embeddings, não apenas especialistas — introduzindo um novo caminho para LLMs eficientes.
Achado chave: Em cenários de alta esparsidade, os embeddings N-gram produzem uma fronteira de Pareto melhor do que apenas adicionar mais especialistas do MoE.
Por isso, apresentamos o LongCat-Flash-Lite — o primeiro modelo opensource construído sobre esse insight.
⚙️ 68,5B Total de Params(37,13B não incorporados) | 2.9B~4.5B Ativo
📊 Alto Desempenho: SWE-Bench 54.4 | τ²-Banco 72.8 | TerminalBench 33.75
📃 Janela de Contexto 256K (alimentada por YARN)
✨ Otimizado para Agente/Programação, forte em raciocínio geral
⚡ ~700 tokens/s velocidade máxima de inferência
O resultado: alcança desempenho competitivo dentro de sua escala com custo e latência significativamente menores.
Rosto de abraço:
Relatório Técnico:



47
🚀 Relatório Técnico LongCat-Flash-Thinking-2601 – Agora Totalmente Lançado!
Principais insights:
🌍 RL agente em grande escala (14 páginas de análises profundas!)
🔹 Escalonamento de ambientes: Uma análise detalhada do nosso pipeline automatizado que constrói 10.000+ ambientes executáveis e verificáveis em 20+ domínios.
🔹 Infraestrutura RL: Um framework DORA atualizado que suporta treinamento assíncrono com 32.000+ ambientes concorrentes, enfrentando problemas de estabilidade em tarefas long-tail e altamente heterogêneas.
🛡️ Robustez na natureza
🔹 Injeção de ruído: Chega de agentes "estufa". Analisamos sistematicamente ruídos do mundo real (ruído do usuário/ferramenta) e o injetamos diretamente no ciclo de treinamento.
🔹 Curriculum RL: Uma estratégia baseada em currículo que fortalece gradualmente o modelo contra ambientes bagunçados e imperfeitos.
🧠 Estrutura de Pensamento Pesado
🔹 Raciocínio paralelo: Expande a amplitude ao gerar múltiplas trajetórias de raciocínio independentes.
🔹 Sumarização iterativa: Expande a profundidade usando um modelo de resumo para refletir e sintetizar trajetórias paralelas antes de tomar decisões finais.
🔹 Memória de contexto: Um módulo de memória construído para propósito para manter o raciocínio coerente ao longo de longos horizontes.
⚡ Atenção em ziguezague
🔹 Projeto de conectividade em ziguezague combinando MLA + SSA para reduzir o cálculo enquanto preserva o fluxo global de informações.
🔹 A mudança no meio do treinamento para variantes esparsas gera um aumento de aceleração de 1,5× e suporta contextos de 1M-token — estabelecendo as bases para futuros avanços em raciocínio agential de longo contexto.
🔹 Explore:
📊 Alcança a SOTA entre
modelos de código aberto em benchmarks agentes-chave: busca, uso de ferramentas, raciocínio matemático e programação.
Se quiser mais detalhes, fique à vontade para conferir o relatório técnico completo.
• Papel:
• Site:
• GitHub:
• Abraços no rosto:




39
🚀 Apresentando LongCat-Flash-Thinking-2601 — Uma versão construída para pensamento agente profundo e geral.
✨ Destaques:
🤖 Capacidades de Agente de Alto Nível
🔹 Desempenho: Resultados de benchmark de alto nível (TIR / Busca Agential / Uso de Ferramentas Agentes); habilidade de generalização excelente, superando Claude em tarefas complexas e aleatórias
🔹 Escalonamento ambiental: Múltiplos ambientes de alta qualidade construídos automaticamente; Grafo de dependência densa
🔹 Multi-Env RL: DORA estendido (nossa infraestrutura RL), suportando treinamento agente em grande escala e multiambiente
🛡️ Robustez do Mundo Real
🔹 Desempenho: Desempenho sólido em cenários bagunçados e incertos (Vita-Ruído & Tau^2-Ruído)
🔹 Análise de Ruído: Analisou sistematicamente ruído do mundo real em cenários agentes
🔹 Currículo RL: Aumento do tipo e da intensidade do ruído durante o treinamento
🎯 Modo Pensamento Pesado
🔹 Pensamento Paralelo: Expande a amplitude por meio de múltiplas trilhas de raciocínio independente
🔹 Sumarização Iterativa: Aumenta a profundidade usando um modelo de resumo para sintetizar resultados, suportando loops de raciocínio iterativo
📅 Mais uma coisa: contexto de 1M-token via Zigzag Attention está chegando em breve.
🔍 Experimente agora:
✅ O acesso à API para esta versão também está disponível.
Rosto de abraço:
GitHub:


52
Melhores
Classificação
Favoritos
