Populære emner
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

samsja
Ledende forskning ved @PrimeIntellect
Jeg ansetter forskningsingeniør ved @PrimeIntellect
Vi bygger en åpen kildekode agi labs og leter etter rå talent. Vi bryr oss ikke om din tidligere stillingstittel.
Alle i forskerteamet er fullstack, vi bygger infrastruktur og ser også på data. Hvis du har et sweet spot for system, forsterkende læring, data eller skaleringsjuss, vil du bli servert massevis av utfordringer å løse
66,04K
Tekstbase deklarativt system vil vinne, det er på tide å finne opp datamaskinen på nytt

samsja17. aug., 08:09
Kanskje llm + nixos vil redde linux ved å gjøre brukeren 10 ganger kraftigere ved å ha en datamaskin agi koblet til operativsystemet. Tenk deg bare å spørre "kan du installere markøren og flytte alle vscode-innstillingene mine til den"
I mellomtiden vil macOS-brukere fortsatt bruke musen til å laste ned og konfigurere alt manuelt
En så kortsiktig visjon å ønske å trene en visjonsmodell til å gjøre klikk for meg, trenger å redesigne alt for agi
1,96K
Kanskje llm + nixos vil redde linux ved å gjøre brukeren 10 ganger kraftigere ved å ha en datamaskin agi koblet til operativsystemet. Tenk deg bare å spørre "kan du installere markøren og flytte alle vscode-innstillingene mine til den"
I mellomtiden vil macOS-brukere fortsatt bruke musen til å laste ned og konfigurere alt manuelt
En så kortsiktig visjon å ønske å trene en visjonsmodell til å gjøre klikk for meg, trenger å redesigne alt for agi

samsja17. aug., 07:46
Er ikke Nixos sluttspillet av sandkasse for LLM?
10,37K
RL er så følsom for numeriske tall, sist gang torch kompilering gjorde noen løp krasj nå vllm v1

Mika Senghaas12. aug., 11:23
Å gå fra VLLM V0 til V1 gjorde at vår asynkrone RL-trening krasjet! Les hvordan vi fikset det
Vi migrerte nylig fra V0 til V1 som en del av en større refaktorering av Prime-RL for å gjøre den enklere å bruke, mer effektiv og naturlig asynkron. Vi bekreftet riktig treningsdynamikk på mange løp i mindre skala, men møtte en vegg da vi prøvde å reprodusere et løp i større skala som gikk uten problemer før refaktoreringen. Nærmere bestemt vil trening av DeepSeek-R1-Distill-Qwen-1.5B på matematiske problemer med én sving fra vårt INTELLECT-2 matematiske datasett i 8k-kontekst med to-trinns forsinkelse utenfor policyen krasje fatalt omtrent 400 trinn inn i treningen

6,64K
o1/o3 var den virkelige gpt5 og de leverte hardt kanskje større hopp enn gpt3 til 4, RL fortsetter fortsatt å følge skaleringsloven
Forhåndstrening skalerer også, men slutning er bare for dyrt med gigantisk modell
Enig i at åpen kildekode vil vinne

Yuchen Jin10. aug., 12:04
GPT-5 mislyktes to ganger.
Skaleringslovene nærmer seg slutten.
Åpen kildekode AI vil ha himmelens mandat.
4,26K
Topp
Rangering
Favoritter
Trendende onchain
Trendende på X
Nylig toppfinansiering
Mest lagt merke til