Nuestro modelo @OpenAI gpt-oss-120b no solo alcanza 402 tokens por segundo, sino que también mantiene ese rendimiento de 1k a 100k tokens sin colapsar. Para los equipos que escalan aplicaciones del mundo real, esta consistencia significa costos predecibles, fiabilidad de nivel de producción y la confianza para desplegar a gran escala.