HuggingChat v2 har nettopp spikret modellruting. Jeg prøvde å bygge et lite prosjekt med den nye HuggingChat Omni, og den valgte automatisk de beste modellene for hver oppgave. Først ba jeg den om å generere et Flappy Bird-spill i HTML, det ble umiddelbart rutet til Qwen/Qwen3-Coder-480B-A35B-Instruct (via @nebiusaistudio), en modell optimalisert for koding. Resultatet? Ren, funksjonell kode uten behov for justeringer. Deretter ba jeg den om å skrive en README, og denne gangen byttet den til Llama 3.3 70B Instruct, en mindre modell som er bedre egnet for tekstgenerering. Alt dette skjedde automatisk. Ingen manuell modellbytte. Ingen spørsmål om "hvilken modell du skal bruke." Det er kraften til Omni, @HuggingFace nye policy-baserte ruter! den velger fra 115 åpen kildekode-modeller på tvers av 15 leverandører (Nebius, Groq, Cerebras, Together, Novita og mer) og ruter hver spørring til den beste. Det er som å ha en meta-LLM som vet hvem som er best for jobben. Hvis du ikke har prøvd HuggingChat v2 ennå, er dette oppdateringen som gjør at den virkelig føles som en AI-plattform, ikke bare en chat-app.