ChatGPT的訓練成本高達數億$$$ 與此同時,@0G_labs開發了一個新的框架'DiLoCoX',大幅提高了效率 • 快速10倍 • 便宜95% • 在1 Gbps的鏈接上 AI的未來不是越來越多的GPU 而是通過連接許多較小的機器並使它們更智能地共享數據,而不是一個巨大的伺服器農場 這創造了一種更便宜、更具可擴展性的方法來訓練大型AI模型,而不需要像OpenAI現在使用的那麼多資源($$$)
0G Labs (Ø,G) - AI L1
0G Labs (Ø,G) - AI L12025年8月5日
AI 基礎的重大變革正在進行中,而 0G Labs 正在引領這一變革。 @sandy_carter 在 @Forbes 上的最新文章捕捉了 @0G_Research 的最新突破:0G 訓練了迄今為止最大的分佈式 LLM - 超過 100B 的參數。 深入了解 →
4.35K