Topik trending
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Meituan LongCat
🚀 Menyematkan skala, bukan hanya para ahli—memperkenalkan jalur baru untuk LLM yang efisien.
Temuan Utama: Dalam skenario dengan skenario dengan kecepatan tinggi, penyematan N-gram menghasilkan perbatasan Pareto yang lebih baik daripada hanya menambahkan lebih banyak pakar MoE.
Oleh karena itu, kami memperkenalkan LongCat-Flash-Lite—model opensource pertama yang dibangun di atas wawasan ini.
⚙️ 68,5 miliar Total Param (37,13 miliar tanpa penyematan) | 2.9B ~ 4.5B Aktif
📊 Kinerja Tinggi: SWE-Bench 54.4 | τ²-Bangku 72.8 | Bangku Terminal 33.75
📃 Jendela Konteks 256K (didukung YARN)
✨ Dioptimalkan untuk Agen / Pengkodean, kuat dalam penalaran umum
⚡ ~700 token/s kecepatan inferensi puncak
Hasilnya: Mencapai kinerja kompetitif dalam skalanya dengan biaya dan latensi yang jauh lebih rendah.
Wajah Memeluk:
Laporan Teknologi:



54
🚀 Laporan Teknis LongCat-Flash-Thinking-2601 – Sekarang Dirilis Sepenuhnya!
Wawasan utama:
🌍 RL agen skala besar (14 halaman penyelaman mendalam!)
🔹 Penskalaan lingkungan: Tampilan mendetail pada alur otomatis kami yang membangun 10.000+ lingkungan yang dapat dieksekusi dan dapat diverifikasi di 20+ domain.
🔹 Infrastruktur RL: Kerangka kerja DORA yang ditingkatkan yang mendukung pelatihan asinkron dengan 32.000+ lingkungan bersamaan, mengatasi masalah stabilitas dalam tugas ekor panjang dan sangat heterogen.
🛡️ Kekokohan di alam liar
🔹 Injeksi kebisingan: Tidak ada lagi agen "rumah kaca". Kami secara sistematis menganalisis kebisingan dunia nyata (kebisingan pengguna/alat) dan menyuntikkannya langsung ke loop pelatihan.
🔹 Kurikulum RL: Strategi berbasis kurikulum yang secara bertahap memperkuat model terhadap lingkungan yang berantakan dan tidak sempurna.
🧠 Kerangka kerja Berpikir Berat
🔹 Penalaran paralel: Memperluas keluasan dengan menghasilkan beberapa lintasan penalaran independen.
🔹 Ringkasan berulang: Memperluas kedalaman dengan menggunakan model ringkasan untuk merefleksikan dan mensintesis lintasan paralel sebelum membuat keputusan akhir.
🔹 Memori konteks: Modul memori yang dibuat khusus untuk menjaga penalaran tetap koheren di cakrawala yang panjang.
⚡ Perhatian Zigzag
🔹 Desain Konektivitas Zigzag yang menggabungkan MLA + SSA untuk mengurangi komputasi sekaligus mempertahankan aliran informasi global.
🔹 Peralihan pelatihan menengah ke varian jarang menghasilkan percepatan 1,5× dan mendukung konteks token 1M —meletakkan dasar untuk terobosan masa depan dalam penalaran agen konteks panjang.
🔹 Jelajahi:
📊 Mencapai SOTA di antara
model sumber terbuka di seluruh tolok ukur agen utama: pencarian, penggunaan alat, penalaran matematis, dan pengkodean.
Jika Anda menginginkan detail lebih lanjut, jangan ragu untuk memeriksa laporan teknis lengkapnya.
• Kertas:
• Situs web:
• GitHub:
• Wajah Memeluk:




53
🚀 Memperkenalkan LongCat-Flash-Thinking-2601 — Versi yang dibuat untuk pemikiran agen yang mendalam dan umum.
✨ Sorotan:
🤖 Kemampuan Agen Tingkat Teratas
🔹 Kinerja: Hasil benchmark tingkat atas (TIR / Agentic Search / Agent Tool Use); kemampuan generalisasi yang luar biasa, mengungguli Claude dalam tugas acak yang kompleks
🔹 Penskalaan Env: Beberapa lingkungan berkualitas tinggi yang dibangun secara otomatis; grafik dependensi padat
🔹 Multi-Env RL: DORA yang diperluas (infra RL kami), mendukung pelatihan agen multi-lingkungan skala besar
🛡️ Ketahanan Dunia Nyata
🔹 Kinerja: Performa yang solid dalam skenario yang berantakan dan tidak pasti (Vita-Noise & Tau^2-Noise)
🔹 Analisis Kebisingan: Menganalisis kebisingan dunia nyata secara sistematis dalam skenario agen
🔹 Kurikulum RL: Meningkatkan jenis & intensitas kebisingan saat berlatih
🎯 Mode Berpikir Berat
🔹 Pemikiran Paralel: Memperluas keluasan melalui beberapa jalur penalaran independen
🔹 Ringkasan Iteratif: Meningkatkan kedalaman dengan menggunakan model ringkasan untuk mensintesis output, mendukung loop penalaran berulang
📅 Satu hal lagi: Konteks token 1 juta melalui Zigzag Perhatian akan segera hadir.
🔍 Coba sekarang:
✅ Akses API untuk versi ini juga tersedia.
Wajah Memeluk:
GitHub:


62
Teratas
Peringkat
Favorit
