HuggingChat v2 acaba de clavar el enrutamiento del modelo. Intenté construir un pequeño proyecto con el nuevo HuggingChat Omni, y automáticamente eligió los mejores modelos para cada tarea. Primero, le pedí que generara un juego de Flappy Bird en HTML, instantáneamente se enrutó a Qwen / Qwen3-Coder-480B-A35B-Instruct (a través de @nebiusaistudio), un modelo optimizado para codificar. ¿El resultado? Código limpio y funcional sin necesidad de ajustes. Luego, le pedí que escribiera un README y esta vez, cambió a Llama 3.3 70B Instruct, un modelo más pequeño más adecuado para la generación de texto. Todo esto sucedió automáticamente. Sin cambio manual de modelo. No hay indicaciones sobre "qué modelo usar". ¡Ese es el poder de Omni, el nuevo enrutador basado en políticas de @HuggingFace! selecciona entre 115 modelos de código abierto en 15 proveedores (Nebius, Groq, Cerebras, Together, Novita y más) y enruta cada consulta al mejor. Es como tener un meta-LLM que sabe quién es el mejor para el trabajo. Si aún no ha probado HuggingChat v2, esta es la actualización que lo hace sentir realmente como una plataforma de IA, no solo como una aplicación de chat.