Rubriques tendance
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

samsja
Mener des recherches à @PrimeIntellect
Je recrute un ingénieur de recherche chez @PrimeIntellect
Nous construisons des laboratoires AGI open source et recherchons des talents bruts. Peu importe votre ancien titre de poste.
Tout le monde dans l'équipe de recherche est full stack, nous construisons l'infrastructure et analysons également les données. Si vous avez un point fort pour les systèmes, l'apprentissage par renforcement, les données ou les lois de mise à l'échelle, vous serez confronté à une multitude de défis à relever.
82,84K
un système déclaratif basé sur le texte va gagner, il est temps de réinventer l'ordinateur

samsja17 août, 08:09
Peut-être que llm + nixos sauvera linux en rendant son utilisateur 10 fois plus puissant en ayant une agi connectée au système d'exploitation. Imaginez juste demander "peux-tu installer le curseur et déplacer tous mes paramètres vscode vers celui-ci"
Pendant ce temps, les utilisateurs de macos continueront à utiliser leur souris pour tout télécharger et configurer manuellement.
Une vision à si court terme de vouloir entraîner un modèle de vision pour cliquer à ma place, il faut tout repenser pour l'agi.
2,15K
Peut-être que llm + nixos sauvera linux en rendant son utilisateur 10 fois plus puissant en ayant une agi connectée au système d'exploitation. Imaginez juste demander "peux-tu installer le curseur et déplacer tous mes paramètres vscode vers celui-ci"
Pendant ce temps, les utilisateurs de macos continueront à utiliser leur souris pour tout télécharger et configurer manuellement.
Une vision à si court terme de vouloir entraîner un modèle de vision pour cliquer à ma place, il faut tout repenser pour l'agi.

samsja17 août, 07:46
n'est-ce pas que NixOS est le jeu final de sandbox pour LLM ?
10,57K
RL est tellement sensible aux numériques, la dernière fois, la compilation de torch faisait planter certaines exécutions, maintenant vllm v1.

Mika Senghaas12 août, 11:23
le passage de vllm v0 à v1 a fait planter notre entraînement rl asynchrone ! lisez comment nous l'avons corrigé
nous avons récemment migré de v0 à v1 dans le cadre d'une refonte plus large de prime-rl pour le rendre plus facile à utiliser, plus performant et naturellement asynchrone. nous avons confirmé des dynamiques d'entraînement correctes lors de nombreuses exécutions à plus petite échelle, mais nous avons rencontré un mur en essayant de reproduire une exécution à plus grande échelle qui fonctionnait sans problème avant la refonte. Plus précisément, l'entraînement de DeepSeek-R1-Distill-Qwen-1.5B sur des problèmes mathématiques à un tour de notre ensemble de données mathématiques INTELLECT-2 à 8k de contexte avec un délai hors politique en deux étapes se plantait fatalement environ 400 étapes après le début de l'entraînement.

6,73K
o1/o3 étaient les véritables gpt5 et ils ont vraiment livré, peut-être un saut plus grand que de gpt3 à 4, RL continue de suivre la loi de l'échelle.
Le pré-entraînement s'échelonne également, mais l'inférence est tout simplement trop coûteuse avec un modèle géant.
Je suis d'accord que l'open source va gagner.

Yuchen Jin10 août, 12:04
GPT-5 a échoué deux fois.
Les lois de mise à l'échelle touchent à leur fin.
L'IA open-source aura le Mandat du Ciel.
4,36K
Meilleurs
Classement
Favoris
Tendance on-chain
Tendance sur X
Récents financements de premier plan
Les plus notables