> byggdes genom kontinuerlig förträning på cirka 15 biljoner blandade visuella och texttokens ovanpå Kimi-K2-Base … Det är i princip en helt ny modell med nya förmågor. 30T tokens @ Muon. «Kimi K2.5 representerar ett meningsfullt steg mot AGI för open source-communityn» Wow, okej