GPT-5 wurde damit beworben, Halluzinationen zu reduzieren, und es scheint, als ob es hält. 99,5 -> 99,9 sind 80 % weniger Fehler. Ich weiß nicht, warum die Leute keine größere Sache daraus machen. Halluzinationen sind eines der größten Probleme von LLMs und einige dachten, sie seien unlösbar.
OpenRouter
OpenRouter15. Aug., 00:29
Nach einer Woche hat GPT-5 unsere proprietären Modellcharts für die Genauigkeit beim Tool-Calling angeführt🥇 Auf dem zweiten Platz liegt Claude 4.1 Opus mit 99,5% Details 👇
135,5K