Populaire onderwerpen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Meituan LongCat
🚀 Schalen van embeddings, niet alleen experts—introduceren een nieuw pad voor efficiënte LLM's.
Belangrijkste Bevinding: In scenario's met hoge spaarzaamheid leveren N-gram embeddings een betere Pareto-grens op dan alleen het toevoegen van meer MoE-experts.
Daarom introduceren we LongCat-Flash-Lite—het eerste opensource model dat op deze inzichten is gebouwd.
⚙️ 68,5B Totaal Params (37,13B niet-embedding) | 2,9B~4,5B Actief
📊 Hoge Prestaties: SWE-Bench 54,4 | τ²-Bench 72,8 | TerminalBench 33,75
📃 256K Contextvenster (YARN-aangedreven)
✨ Geoptimaliseerd voor Agentic/Coding, sterk in algemeen redeneren
⚡ ~700 tokens/s piekinferentiesnelheid
Het resultaat: Bereikt concurrerende prestaties binnen zijn schaal tegen een aanzienlijk lagere kostprijs en latentie.
Hugging Face:
Technisch Rapport:



45
🚀 LongCat-Flash-Thinking-2601 Technisch Rapport – Nu Volledig Vrijgegeven!
Belangrijke inzichten:
🌍 Grootschalige agentic RL (14 pagina's diepgaande analyses!)
🔹 Omgevingsschaal: Een gedetailleerd kijkje naar onze geautomatiseerde pijplijn die 10.000+ uitvoerbare, verifieerbare omgevingen bouwt in meer dan 20 domeinen.
🔹 RL-infrastructuur: Een geüpgraded DORA-framework dat asynchrone training ondersteunt met 32.000+ gelijktijdige omgevingen, waarmee stabiliteitsproblemen in lange staarten en zeer heterogene taken worden aangepakt.
🛡️ Robuustheid in de praktijk
🔹 Geluidsinjectie: Geen "broeikas"-agenten meer. We analyseren systematisch ruis uit de echte wereld (gebruikers-/hulpgeluiden) en injecteren deze direct in de trainingslus.
🔹 Curriculum RL: Een curriculum-gebaseerde strategie die het model geleidelijk versterkt tegen rommelige, onvolmaakte omgevingen.
🧠 Heavy Thinking-framework
🔹 Parallel redeneren: Breidt de breedte uit door meerdere onafhankelijke redeneringstrajecten te genereren.
🔹 Iteratieve samenvatting: Breidt de diepte uit door een samenvattingsmodel te gebruiken om parallelle trajecten te reflecteren en te synthetiseren voordat definitieve beslissingen worden genomen.
🔹 Contextgeheugen: Een speciaal ontworpen geheugeneenheid om redenering coherent te houden over lange tijdshorizonten.
⚡ Zigzag Aandacht
🔹 Zigzag Connectiviteitsontwerp dat MLA + SSA combineert om de rekentijd te verminderen terwijl de globale informatiestroom behouden blijft.
🔹 Tussentijdse overstap naar spaarzame varianten levert een 1,5× versnelling op en ondersteunt 1M-token contexten — legt de basis voor toekomstige doorbraken in lange-context agentic redenering.
🔹 Verken:
📊 Bereikt SOTA onder
open-source modellen over belangrijke agentic benchmarks: zoeken, gereedschapsgebruik, wiskundige redenering en coderen.
Als je meer details wilt, voel je vrij om het volledige technische rapport te bekijken.
• Paper:
• Website:
• GitHub:
• Hugging Face:




37
🚀 Introductie van LongCat-Flash-Thinking-2601 — Een versie gebouwd voor diep en algemeen agentisch denken.
✨ Hoogtepunten:
🤖 Topniveau Agent Capaciteiten
🔹 Prestaties: Topniveau benchmarkresultaten (TIR / Agentic Search / Agentic Tool Use); uitstekende generalisatiecapaciteit, beter presterend dan Claude in complexe, willekeurige taken
🔹 Omgevingsschaling: Meerdere automatisch geconstrueerde omgevingen van hoge kwaliteit; dichte afhankelijkheidsstructuur
🔹 Multi-Env RL: Uitgebreide DORA (onze RL-infrastructuur), ondersteunt grootschalige multi-omgeving agentisch trainen
🛡️ Robuustheid in de echte wereld
🔹 Prestaties: Stevige prestaties in rommelige, onzekere scenario's (Vita-Noise & Tau^2-Noise)
🔹 Geluidsanalyse: Systematisch geanalyseerd real-world geluid in agentische scenario's
🔹 Curriculum RL: Toenemende geluidssoorten en intensiteit tijdens het trainen
🎯 Zware Denkmodus
🔹 Parallel Denken: Breidt de breedte uit via meerdere onafhankelijke redeneertracks
🔹 Iteratieve Samenvatting: Versterkt de diepte door een samenvattingsmodel te gebruiken om outputs te synthetiseren, ter ondersteuning van iteratieve redeneerrondes
📅 Nog één ding: 1M-token context via Zigzag Attention komt binnenkort.
🔍 Probeer het nu:
✅ API-toegang voor deze versie is ook beschikbaar.
Hugging Face:
GitHub:


50
Boven
Positie
Favorieten
