HuggingChat v2 acaba de perfeccionar el enrutamiento de modelos. Intenté construir un pequeño proyecto con el nuevo HuggingChat Omni, y automáticamente eligió los mejores modelos para cada tarea. Primero, le pedí que generara un juego de Flappy Bird en HTML, y al instante se enrutó a Qwen/Qwen3-Coder-480B-A35B-Instruct (a través de @nebiusaistudio), un modelo optimizado para codificación. ¿El resultado? Código limpio y funcional sin necesidad de ajustes. Luego, le pedí que escribiera un README y esta vez, cambió a Llama 3.3 70B Instruct, un modelo más pequeño mejor adaptado para la generación de texto. Todo esto sucedió automáticamente. Sin cambio manual de modelos. Sin indicaciones sobre “qué modelo usar.” ¡Ese es el poder de Omni, el nuevo enrutador basado en políticas de @HuggingFace! Selecciona entre 115 modelos de código abierto de 15 proveedores (Nebius, Groq, Cerebras, Together, Novita y más) y enruta cada consulta al mejor. Es como tener un meta-LLM que sabe quién es el mejor para el trabajo. Si aún no has probado HuggingChat v2, esta es la actualización que realmente lo hace sentir como una plataforma de IA, no solo como una aplicación de chat.