Škálování vědeckých světových modelů vyžaduje spolunavrhování architektur, tréninkových cílů a numeriky. Dnes sdílíme první příspěvky v naší sérii o nízkopřesném předtrénování, začínáme receptem NVIDIA NVFP4 pro stabilní 4bitové trénování. Část 1: Část 2: Probíráme základy plovoucí desetinné čárky, heuristiky, vlastní CUDA jádra a stabilizační techniky. Budoucí příspěvky se budou věnovat vlastním receptům a výsledkům na hybridních architekturách.