Populární témata
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

samsja
Vedoucí výzkum ve společnosti @PrimeIntellect
Najímám výzkumného inženýra do @PrimeIntellect
Budujeme open source agi laboratoře a hledáme surové talenty. Nezajímá nás vaše předchozí pracovní pozice.
Všichni v týmu jsou full stack, budujeme infrastrukturu a také se díváme na data. Pokud máte ideální řešení pro systém, zpětnovazební učení, data nebo škálovací právo, budete čelit spoustě výzev k řešení
54,69K
Deklarativní systém textové báze zvítězí, je čas znovu vynalézt počítač

samsja17. 8. 08:09
Možná llm + nixos zachrání linux tím, že učiní svého uživatele 10x výkonnějším tím, že bude mít počítač agi připojený k os. Představte si, že se jen ptáte "můžete u nainstalovat kurzor a přesunout na něj všechna moje nastavení vscode"
Mezitím bude uživatel macOS stále používat myš ke stahování a konfiguraci všeho ručně
Taková krátkodobá vize, že chci trénovat model vidění, aby pro mě fungoval, musím vše přepracovat pro agi
1,88K
Možná llm + nixos zachrání linux tím, že učiní svého uživatele 10x výkonnějším tím, že bude mít počítač agi připojený k os. Představte si, že se jen ptáte "můžete u nainstalovat kurzor a přesunout na něj všechna moje nastavení vscode"
Mezitím bude uživatel macOS stále používat myš ke stahování a konfiguraci všeho ručně
Taková krátkodobá vize, že chci trénovat model vidění, aby pro mě fungoval, musím vše přepracovat pro agi

samsja17. 8. 07:46
Není Nixos konečnou hrou sandboxu pro LLM?
10,25K
RL je tak citlivý na čísla, minule kompilace pochodně způsobovala nějaký pád běhu, nyní vllm v1

Mika Senghaas12. 8. 11:23
Přechod z VLLM V0 na V1 způsobil pád našeho asynchronního školení RL! Přečtěte si, jak jsme to opravili
Nedávno jsme migrovali z verze v0 na verzi 1 v rámci většího refaktoringu služby Prime-RL, aby byla snadněji použitelná, výkonnější a přirozeně asynchronní. Potvrdili jsme správnou dynamiku tréninku při mnoha menších bězích, ale při pokusu o reprodukci běhu ve větším měřítku, který před refaktorem probíhal bez problémů, jsme narazili na zeď. Konkrétně trénování DeepSeek-R1-Distill-Qwen-1.5B na jednootáčkových matematických problémech z naší matematické datové sady INTELLECT-2 v 8k kontextu s dvoustupňovým zpožděním mimo politiku by fatálně zhroutilo zhruba 400 kroků do trénování

6,64K
o1/o3 byli skuteční GPT5 a podali tvrdý možná větší skok než GPT3 na 4, RL stále pokračuje v dodržování zákona škálování
Předtrénování se také škáluje, ale inference je u obřího modelu prostě příliš drahá
Souhlasím s tím, že open source vyhraje

Yuchen Jin10. 8. 12:04
GPT-5 selhal dvakrát.
Zákony o škálování se chýlí ke konci.
Umělá inteligence s otevřeným zdrojovým kódem bude mít mandát nebes.
4,25K
Top
Hodnocení
Oblíbené
Co je v trendu on-chain
Populární na X
Nejvyšší finanční vklady v poslední době
Nejpozoruhodnější