Modelul nostru @OpenAI gpt-oss-120b nu numai că atinge 402 token-uri pe secundă, dar susține și acel randament de la 1k la 100k token-uri fără colaps. Pentru echipele care scalează aplicații din lumea reală, această consecvență înseamnă costuri previzibile, fiabilitate la nivel de producție și încrederea de a implementa la scară largă.