HuggingChat v2 только что справился с маршрутизацией моделей. Я попробовал создать небольшой проект с новым HuggingChat Omni, и он автоматически выбрал лучшие модели для каждой задачи. Сначала я попросил его сгенерировать игру Flappy Bird на HTML, и он мгновенно переключился на Qwen/Qwen3-Coder-480B-A35B-Instruct (через @nebiusaistudio), модель, оптимизированную для кодирования. Результат? Чистый, функциональный код без необходимости в доработках. Затем я попросил его написать README, и на этот раз он переключился на Llama 3.3 70B Instruct, меньшую модель, более подходящую для генерации текста. Все это произошло автоматически. Без ручного переключения моделей. Без подсказок о "какую модель использовать." Вот в чем сила Omni, нового маршрутизатора на основе политики от @HuggingFace! Он выбирает из 115 моделей с открытым исходным кодом от 15 поставщиков (Nebius, Groq, Cerebras, Together, Novita и других) и направляет каждый запрос к лучшей. Это как иметь мета-LLM, который знает, кто лучше всего подходит для работы. Если вы еще не пробовали HuggingChat v2, это обновление действительно заставляет его ощущаться как платформу ИИ, а не просто как приложение для чата.