Popularne tematy
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Meituan LongCat
🚀 Skalowanie osadzeń, a nie tylko ekspertów—wprowadzamy nową ścieżkę dla efektywnych LLM-ów.
Kluczowe odkrycie: W scenariuszach o wysokiej rzadkości, osadzenia N-gram dają lepszą granicę Pareto niż po prostu dodawanie większej liczby ekspertów MoE.
Dlatego wprowadzamy LongCat-Flash-Lite—pierwszy model open source zbudowany na tym wniosku.
⚙️ 68,5B całkowitych parametrów (37,13B bez osadzeń) | 2,9B~4,5B aktywnych
📊 Wysoka wydajność: SWE-Bench 54,4 | τ²-Bench 72,8 | TerminalBench 33,75
📃 256K okno kontekstowe (zasilane YARN)
✨ Optymalizowany do Agentic/Coding, silny w ogólnym rozumowaniu
⚡ ~700 tokenów/s szczytowa prędkość wnioskowania
Rezultat: Osiąga konkurencyjną wydajność w swoim zakresie przy znacznie niższych kosztach i opóźnieniach.
Hugging Face:
Raport techniczny:



59
🚀 Raport techniczny LongCat-Flash-Thinking-2601 – Teraz w pełni opublikowany!
Kluczowe spostrzeżenia:
🌍 Duża skala agentowego RL (14 stron głębokich analiz!)
🔹 Skalowanie środowiska: Szczegółowy przegląd naszego zautomatyzowanego procesu, który buduje 10 000+ wykonalnych, weryfikowalnych środowisk w ponad 20 dziedzinach.
🔹 Infrastruktura RL: Ulepszony framework DORA, który wspiera asynchroniczne szkolenie z 32 000+ równoległymi środowiskami, rozwiązując problemy ze stabilnością w zadaniach o długim ogonie i wysoce heterogenicznych.
🛡️ Odporność w terenie
🔹 Wstrzykiwanie szumów: Koniec z agentami "szklarnianymi". Systematycznie analizujemy szum z rzeczywistego świata (szum użytkownika/narzędzia) i wprowadzamy go bezpośrednio do pętli szkoleniowej.
🔹 Curriculum RL: Strategia oparta na programie nauczania, która stopniowo wzmacnia model przeciwko chaotycznym, niedoskonałym środowiskom.
🧠 Ramy Heavy Thinking
🔹 Rozumowanie równoległe: Rozszerza zakres, generując wiele niezależnych trajektorii rozumowania.
🔹 Iteracyjne podsumowanie: Rozszerza głębokość, wykorzystując model podsumowujący do refleksji i syntezowania równoległych trajektorii przed podjęciem ostatecznych decyzji.
🔹 Pamięć kontekstowa: Celowo zbudowany moduł pamięci, aby utrzymać spójność rozumowania na długich horyzontach.
⚡ Uwaga Zigzag
🔹 Projekt połączenia Zigzag łączący MLA + SSA w celu zmniejszenia obliczeń przy zachowaniu globalnego przepływu informacji.
🔹 Przełączanie w trakcie szkolenia na rzadkie warianty przynosi 1,5× przyspieszenie i wspiera konteksty 1M-token — kładąc podwaliny pod przyszłe przełomy w agentowym rozumowaniu o długim kontekście.
🔹 Eksploruj:
📊 Osiąga SOTA wśród
otwartych modeli w kluczowych benchmarkach agentowych: wyszukiwanie, użycie narzędzi, rozumowanie matematyczne i kodowanie.
Jeśli chcesz więcej szczegółów, śmiało sprawdź pełny raport techniczny.
• Artykuł:
• Strona internetowa:
• GitHub:
• Hugging Face:




59
🚀 Przedstawiamy LongCat-Flash-Thinking-2601 — wersję stworzoną do głębokiego i ogólnego myślenia agentowego.
✨ Najważniejsze cechy:
🤖 Najwyższej klasy możliwości agenta
🔹 Wydajność: Wyniki benchmarków na najwyższym poziomie (TIR / Wyszukiwanie agentowe / Użycie narzędzi agentowych); doskonała zdolność do generalizacji, przewyższająca Claude'a w złożonych, losowych zadaniach
🔹 Skalowanie środowiska: Wiele automatycznie skonstruowanych wysokiej jakości środowisk; gęsta graf zależności
🔹 Multi-Env RL: Rozszerzone DORA (nasza infrastruktura RL), wspierająca szkolenie agentowe w dużej skali w wielu środowiskach
🛡️ Odporność na rzeczywistość
🔹 Wydajność: Solidna wydajność w chaotycznych, niepewnych scenariuszach (Vita-Noise & Tau^2-Noise)
🔹 Analiza hałasu: Systematycznie analizowany rzeczywisty hałas w scenariuszach agentowych
🔹 Curriculum RL: Zwiększanie rodzaju i intensywności hałasu podczas szkolenia
🎯 Tryb intensywnego myślenia
🔹 Myślenie równoległe: Rozszerza zakres poprzez wiele niezależnych torów rozumowania
🔹 Iteracyjne podsumowanie: Zwiększa głębokość, wykorzystując model podsumowujący do syntezowania wyników, wspierając iteracyjne pętle rozumowania
📅 Jeszcze jedna rzecz: kontekst 1M-tokenów za pomocą Zigzag Attention już wkrótce.
🔍 Wypróbuj to teraz:
✅ Dostęp do API dla tej wersji jest również dostępny.
Hugging Face:
GitHub:


67
Najlepsze
Ranking
Ulubione
