Popularne tematy
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Thomas Wolf
Współzałożyciel w @HuggingFace - open-source i open-science
Jestem dumny, że widzę Hugging Face FineWeb napędzający niektóre z najlepszych LLM-ów na rynku.
Właśnie zauważyłem to w nowym raporcie technicznym GLM 4.5 (świeżo otwartym modelem llm agentic konkurującym z Claude 4, Grok 4, o3) i słyszałem o tym w wielu innych przypadkach:
Otwarte dzielenie się narzędziami i wiedzą w celu budowy modeli AI SOTA to kluczowa misja w @huggingface. Wierzymy, że niezbędne jest zapewnienie różnorodności w tej dziedzinie i zapobieganie zbyt dużej koncentracji władzy w rękach tylko kilku firm.
Wielkie gratulacje dla zespołu FineWeb! 🎉
6,47K
Zestaw naprawdę ładnych modeli dla edge został wydany w tym tygodniu
- Jan wydaje model 4B zoptymalizowany do lokalnego wykonywania zadań agentowych - przewyższa Perplexity Pro w kilku ocenach
- LiquidAI wydaje multimodalne modele dla tekstu + obrazu z wersjami 450M i 1.6B zoptymalizowanymi pod kątem niskiej latencji

👋 Jan12 sie, 15:55
Przedstawiamy Jan-v1: model 4B do wyszukiwania w sieci, otwartoźródłowa alternatywa dla Perplexity Pro.
W naszych ocenach, Jan v1 osiąga 91% dokładności SimpleQA, nieznacznie przewyższając Perplexity Pro, działając w pełni lokalnie.
Przykłady zastosowania:
- Wyszukiwanie w sieci
- Głębokie badania
Zbudowany na nowej wersji Qwen's Qwen3-4B-Thinking (do 256k długości kontekstu), dostosowany do rozumowania i użycia narzędzi w Jan.
Możesz uruchomić model w Jan, llama.cpp lub vLLM. Aby włączyć wyszukiwanie w Jan, przejdź do Ustawienia → Funkcje eksperymentalne → Włączone, a następnie Ustawienia → Serwery MCP → włącz powiązany z wyszukiwaniem MCP, taki jak Serper.
Użyj modelu:
- Jan-v1-4B:
- Jan-v1-4B-GGUF:
Podziękowania dla zespołu @Alibaba_Qwen za Qwen3 4B Thinking i @ggerganov za llama.cpp.
10,88K
Zespół OpenAI naprawdę się stara! gpt-oss to potwór
Witajcie z powrotem, miło was znowu widzieć w społeczności open-source. Cieszę się, że zobaczę, co ludzie zbudują na gpt-oss.
Osobiście, to była ogromna przyjemność pracować z zespołem OpenAI i przyjaciółmi przez ostatnie kilka miesięcy, byli niesamowicie otwarci na opinie społeczności. Mam nadzieję, że to sprawiło, że model stał się jeszcze lepszy w wielu zastosowaniach.
Teraz spróbujcie to na

11,01K
Długie czytanie przez SI powraca, a my właśnie wypuściliśmy najlepszą letnią lekturę.
Zainspirowani takimi wydawnictwami jak Stripe Press, z dumą ogłaszamy pierwszą książkę od HF Press: starannie przygotowane, książkowe wydanie PDF Ultra-Scale Playbook.
Ponad 200 gęstych stron do nauki podstaw i zaawansowanych zagadnień:
- Równoległość 5D (DP, TP, PP, EP, FSDP)
-Zero
- Uwaga błysku
- Nakładanie się mocy obliczeniowych/komunikacji i wąskie gardła
Wszystko to z przystępnymi wstępami teoretycznymi i eksperymentami skalowania 4,000+.
Wszystko, co musisz wiedzieć, aby samodzielnie trenować DeepSeek V3 lub LLama 5 :)
Do pobrania za darmo w ramach subskrypcji ✨ HF PRO
Zdobądź go na:

50,39K
Pamiętam, że byłem pod wielkim wrażeniem, gdy na początku 2019 roku dodałem model transformers XL firmy Yang Zhilin jako trzeci model w bibliotece transformatorów
Nic dziwnego, że teraz wysyła szalenie imponujące rzeczy za pomocą sztucznej inteligencji Moonshot
To długa historia, którą powinienem kiedyś opowiedzieć, ale w pewnym sensie ten mały zespół Google był jednym z pierwszych, którzy naprawdę zrozumieli moc skalowania danych treningowych
14,88K
Najlepsze
Ranking
Ulubione
Trendy onchain
Trendy na X
Niedawne największe finansowanie
Najbardziej godne uwagi