Kami melatih model LFM2-350M @LiquidAI_ kami 1400x melampaui "komputasi optimal" > Hukum penskalaan Chinchilla: ~20 token per parameter > LFM2-350M: ~28.000 token per parameter (1400x lebih banyak) Mengapa? Karena Chinchilla hanya menyangkut komputasi pelatihan, sementara kami peduli dengan biaya inferensi