Temas en tendencia
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Meituan LongCat
🚀 Escalar incrustaciones, no solo expertos—introducir un nuevo camino para LLMs eficientes.
Hallazgo clave: En escenarios de alta esparsidad, las incrustaciones de N-grams ofrecen una mejor frontera de Pareto que simplemente añadir más expertos en el Ministerio de Ingenio.
Por ello, presentamos LongCat-Flash-Lite, el primer modelo de código abierto construido sobre esta información.
⚙️ 68,5 mil millones de parámetros totales (37,13 mil millones de parámetros no incrustados) | 2.9B~4.5B Activo
📊 Alto rendimiento: SWE-Bench 54.4 | τ²-Banco 72.8 | TerminalBench 33.75
📃 Ventana de contexto 256K (alimentada por YARN)
✨ Optimizado para Agente/Codificación, fuerte en razonamiento general
⚡ ~700 tokens/s velocidad máxima de inferencia
El resultado: logra un rendimiento competitivo dentro de su escala a un coste y latencia significativamente menores.
Cara de abrazo:
Informe técnico:



48
🚀 Informe técnico de LongCat-Flash-Thinking-2601 – ¡Ya totalmente publicado!
Perspectivas clave:
🌍 RL agente a gran escala (¡14 páginas de análisis profundos!)
🔹 Escalado de entornos: Un análisis detallado de nuestra pipeline automatizada que construye 10.000+ entornos ejecutables y verificables en 20+ dominios.
🔹 Infraestructura RL: Un marco DORA mejorado que soporta entrenamiento asíncrono con 32.000+ entornos concurrentes, abordando problemas de estabilidad en tareas de cola larga y altamente heterogéneas.
🛡️ Robustez en estado salvaje
🔹 Inyección de ruido: No más agentes de "invernadero". Analizamos sistemáticamente el ruido del mundo real (ruido del usuario/herramienta) e inyectamos directamente en el bucle de entrenamiento.
🔹 Curriculum RL: Una estrategia basada en el currículo que fortalece gradualmente el modelo frente a entornos desordenados e imperfectos.
🧠 Marco de Pensamiento Pesado
🔹 Razonamiento paralelo: Amplía la amplitud generando múltiples trayectorias de razonamiento independientes.
🔹 Resumen iterativo: Amplía la profundidad utilizando un modelo resumen para reflexionar y sintetizar trayectorias paralelas antes de tomar decisiones finales.
🔹 Memoria de contexto: Un módulo de memoria diseñado específicamente para mantener el razonamiento coherente a largo plazo.
⚡ Atención en zigzag
🔹 Diseño de conectividad en zigzag combinando MLA + SSA para reducir el cálculo y preservar el flujo global de información.
🔹 El cambio a mitad de entrenamiento a variantes dispersas produce una aceleración del 1,5× y soporta contextos de 1M de tokens, sentando las bases para futuros avances en razonamiento agentico de largo contexto.
🔹 Explora:
📊 Logra la SOTA entre
Modelos de código abierto en los principales benchmarks agentes: búsqueda, uso de herramientas, razonamiento matemático y codificación.
Si quieres más detalles, no dudes en consultar el informe técnico completo.
• Papel:
• Página web:
• GitHub:
• Abrazo en la cara:




40
🚀 Presentamos LongCat-Flash-Thinking-2601 — Una versión diseñada para un pensamiento agente profundo y general.
✨ Resúmenes:
🤖 Capacidades de Agentes de Primer Nivel
🔹 Rendimiento: Resultados de benchmark de primer nivel (TIR / Búsqueda Agentica / Uso de herramientas agentes); una capacidad de generalización sobresaliente, superando a Claude en tareas complejas y aleatorias
🔹 Escalabilidad ambiental: Múltiples entornos de alta calidad construidos automáticamente; grafo de dependencias densas
🔹 Multi-Env RL: DORA extendido (nuestra infraestructura RL), que soporta entrenamiento agente a gran escala y multientorno
🛡️ Robustez en el mundo real
🔹 Rendimiento: Rendimiento sólido en situaciones desordenadas e inciertas (Vita-Ruido y Tau^2-Ruido)
🔹 Análisis de ruido: Analizó sistemáticamente el ruido real en escenarios agentes
🔹 Currículo RL: Aumento del tipo de ruido e intensidad durante el entrenamiento
🎯 Modo de Pensamiento Intenso
🔹 Pensamiento paralelo: Amplía la amplitud a través de múltiples vías de razonamiento independiente
🔹 Resumen iterativo: Mejora la profundidad utilizando un modelo de resumen para sintetizar salidas, soportando bucles de razonamiento iterativo
📅 Una cosa más: el contexto de 1M de tokens vía Zigzag Attention llegará pronto.
🔍 Pruébalo ahora:
✅ También hay acceso a la API para esta versión.
Cara de abrazo:
GitHub:


53
Populares
Ranking
Favoritas
