HuggingChat v2 hat das Modell-Routing gerade perfekt hinbekommen. Ich habe versucht, ein kleines Projekt mit dem neuen HuggingChat Omni zu erstellen, und es hat automatisch die besten Modelle für jede Aufgabe ausgewählt. Zuerst habe ich es gebeten, ein Flappy Bird-Spiel in HTML zu generieren, und es hat sofort zu Qwen/Qwen3-Coder-480B-A35B-Instruct (über @nebiusaistudio) weitergeleitet, ein Modell, das für das Programmieren optimiert ist. Das Ergebnis? Sauberer, funktionaler Code ohne Anpassungen. Dann habe ich es gebeten, eine README zu schreiben, und diesmal wechselte es zu Llama 3.3 70B Instruct, einem kleineren Modell, das besser für die Textgenerierung geeignet ist. All das geschah automatisch. Kein manuelles Modellwechseln. Keine Aufforderungen dazu, "welches Modell zu verwenden." Das ist die Kraft von Omni, @HuggingFace 's neuem policy-basierten Router! Es wählt aus 115 Open-Source-Modellen von 15 Anbietern (Nebius, Groq, Cerebras, Together, Novita und mehr) aus und leitet jede Anfrage an das beste weiter. Es ist, als hätte man ein Meta-LLM, das weiß, wer am besten für den Job geeignet ist. Wenn du HuggingChat v2 noch nicht ausprobiert hast, ist dies das Update, das es wirklich wie eine AI-Plattform und nicht nur wie eine Chat-App erscheinen lässt.