Unser @OpenAI gpt-oss-120b Modell erreicht nicht nur 402 Tokens pro Sekunde, sondern hält diesen Durchsatz auch von 1k bis 100k Tokens ohne Zusammenbruch aufrecht. Für Teams, die reale Anwendungen skalieren, bedeutet diese Konsistenz vorhersehbare Kosten, Produktionsqualität und das Vertrauen, in großem Maßstab zu implementieren.