Il nostro modello @OpenAI gpt-oss-120b non solo raggiunge 402 token al secondo, ma mantiene anche quel throughput da 1k a 100k token senza collassi. Per i team che scalano applicazioni nel mondo reale, questa coerenza significa costi prevedibili, affidabilità di livello produttivo e la fiducia di poter implementare su larga scala.