Pour donner un contexte à ce à quoi il répond, cet article de Reuters date d'une heure : "Sept sources ont déclaré qu'OpenAI n'est pas satisfait de la vitesse à laquelle le matériel de Nvidia peut fournir des réponses aux utilisateurs de ChatGPT pour des types de problèmes spécifiques tels que le développement de logiciels et l'IA communiquant avec d'autres logiciels. Il a besoin d'un nouveau matériel qui fournirait finalement environ 10 % des besoins en calcul d'inférence d'OpenAI à l'avenir, a déclaré l'une des sources à Reuters. Le créateur de ChatGPT a discuté de la possibilité de travailler avec des startups, y compris Cerebras et Groq, pour fournir des puces pour une inférence plus rapide, ont déclaré deux sources. Mais Nvidia a conclu un accord de licence de 20 milliards de dollars avec Groq qui a mis fin aux discussions d'OpenAI, a déclaré l'une des sources à Reuters."