HuggingChat v2 просто прибив модель маршрутизації. Я спробував створити невеликий проект за допомогою нового HuggingChat Omni, і він автоматично вибирав найкращі моделі для кожного завдання. Спочатку я попросив його згенерувати гру Flappy Bird у форматі HTML, він миттєво перейшов на Qwen/Qwen3-Coder-480B-A35B-Instruct (через @nebiusaistudio ), модель, оптимізовану для кодування. До чого це призвело? Чистий, функціональний код без необхідності коригування. Потім я попросив його написати README, і цього разу він перейшов на Llama 3.3 70B Instruct, меншу модель, яка краще підходить для генерації тексту. Все це відбувалося автоматично. Немає ручного перемикання моделей. Жодних підказок про те, «яку модель використовувати». Саме в цьому і полягає сила Omni, нового маршрутизатора @HuggingFace на основі політики! він вибирає з 115 моделей з відкритим вихідним кодом від 15 провайдерів (Nebius, Groq, Cerebras, Together, Novita та інші) і спрямовує кожен запит до найкращого. Це схоже на наявність мета-LLM, який знає, хто найкраще підходить для цієї роботи. Якщо ви ще не пробували HuggingChat v2, це оновлення, яке змушує вас по-справжньому відчути себе платформою штучного інтелекту, а не просто додатком для чату.