HuggingChat v2 właśnie świetnie poradził sobie z routowaniem modeli. Próbowałem zbudować mały projekt z nowym HuggingChat Omni i automatycznie wybrał najlepsze modele do każdego zadania. Najpierw poprosiłem go o wygenerowanie gry Flappy Bird w HTML, a on natychmiast skierował mnie do Qwen/Qwen3-Coder-480B-A35B-Instruct (przez @nebiusaistudio), modelu zoptymalizowanego do kodowania. Rezultat? Czysty, funkcjonalny kod bez potrzeby poprawek. Potem poprosiłem go o napisanie README, a tym razem przeszedł do Llama 3.3 70B Instruct, mniejszego modelu lepiej nadającego się do generowania tekstu. Wszystko to wydarzyło się automatycznie. Bez ręcznego przełączania modeli. Bez wskazówek o „który model użyć.” To jest moc Omni, nowego routera opartego na polityce @HuggingFace! Wybiera spośród 115 modeli open-source z 15 dostawców (Nebius, Groq, Cerebras, Together, Novita i innych) i kieruje każde zapytanie do najlepszego. To jak posiadanie meta-LLM, który wie, kto jest najlepszy do wykonania zadania. Jeśli jeszcze nie próbowałeś HuggingChat v2, to jest aktualizacja, która sprawia, że naprawdę czujesz, że to platforma AI, a nie tylko aplikacja czatu.