Notre modèle @OpenAI gpt-oss-120b non seulement atteint 402 tokens par seconde, mais il maintient également ce débit de 1k à 100k tokens sans effondrement. Pour les équipes qui développent des applications réelles, cette cohérence signifie des coûts prévisibles, une fiabilité de niveau production et la confiance pour déployer à grande échelle.