HuggingChat v2 vient de maîtriser le routage des modèles. J'ai essayé de construire un petit projet avec le nouveau HuggingChat Omni, et il a automatiquement sélectionné les meilleurs modèles pour chaque tâche. D'abord, je lui ai demandé de générer un jeu Flappy Bird en HTML, il a instantanément été dirigé vers Qwen/Qwen3-Coder-480B-A35B-Instruct (via @nebiusaistudio), un modèle optimisé pour le codage. Le résultat ? Un code propre et fonctionnel sans ajustements nécessaires. Ensuite, je lui ai demandé d'écrire un README et cette fois, il est passé à Llama 3.3 70B Instruct, un modèle plus petit mieux adapté à la génération de texte. Tout cela s'est produit automatiquement. Pas de changement de modèle manuel. Pas de demandes sur "quel modèle utiliser". C'est la puissance d'Omni, le nouveau routeur basé sur des politiques de @HuggingFace ! Il sélectionne parmi 115 modèles open-source provenant de 15 fournisseurs (Nebius, Groq, Cerebras, Together, Novita, et plus) et dirige chaque requête vers le meilleur. C'est comme avoir un méta-LLM qui sait qui est le meilleur pour le travail. Si vous n'avez pas encore essayé HuggingChat v2, c'est la mise à jour qui le fait vraiment sentir comme une plateforme d'IA, pas juste une application de chat.