ChatGPT kostar hundratals miljoner $$$ att tränas Under tiden har @0G_labs utvecklat ett nytt ramverk, "DiLoCoX", som drastiskt förbättrar effektiviteten • 10× snabbare • 95% billigare • på en 1 Gbps-länk framtiden för AI är inte fler och fler och fler GPU:er I stället för en gigantisk serverpark kopplar de samman många mindre maskiner och får dem att dela data på ett smartare sätt detta skapar ett billigare, mer skalbart sätt att träna stora AI-modeller utan att behöva så många resurser ($$$) som OpenAI använder just nu
0G Labs (Ø,G) - AI L1
0G Labs (Ø,G) - AI L15 aug. 2025
Ett stort skifte i grunderna för AI är på gång, och 0G Labs leder det. @sandy_carter:s senaste artikel om @Forbes fångar @0G_Research:s senaste genombrott: 0G tränar den största distribuerade LLM:n hittills - 100B+ parametrar. Dyk i →
4,35K