Doomers : La superintelligence a-t-elle vraiment besoin d'un "gros bouton rouge" ?
David Sacks
David Sacks10 août, 02:13
UN MEILLEUR SCÉNARIO POUR L'IA ? Les récits de Doomer étaient faux. Prédits sur un "décollage rapide" vers l'AGI, ils prédisaient que le modèle d'IA leader utiliserait son intelligence pour s'améliorer lui-même, laissant les autres derrière, et atteignant rapidement une superintelligence divine. Au lieu de cela, nous voyons le contraire : — les modèles leaders se regroupent autour de benchmarks de performance similaires ; — les entreprises de modèles continuent de se dépasser avec leurs dernières versions (ce qui ne devrait pas être possible si l'un d'eux atteint un décollage rapide) ; — les modèles développent des domaines d'avantage concurrentiel, devenant de plus en plus spécialisés en personnalité, modes, codage et mathématiques, plutôt qu'un modèle devenant omniscient. Rien de tout cela ne remet en question les progrès. Nous constatons une forte amélioration de la qualité, de l'utilisabilité et du rapport qualité/prix parmi les meilleures entreprises de modèles. C'est le fruit d'une grande ingénierie et cela devrait être célébré. Ce n'est tout simplement pas le sujet d'annonces apocalyptiques. Oppenheimer a quitté le bâtiment. La course à l'IA est hautement dynamique, donc cela pourrait changer. Mais en ce moment, la situation actuelle est celle de Boucle d'Or : — Nous avons 5 grandes entreprises américaines qui rivalisent vigoureusement sur des modèles de pointe. Cela fait ressortir le meilleur de chacun et aide l'Amérique à gagner la course à l'IA. Comme l'a écrit @BalajiS : "Nous avons de nombreux modèles provenant de nombreuses factions qui ont tous convergé vers des capacités similaires, plutôt qu'un énorme écart entre le meilleur modèle et les autres. Nous devrions donc nous attendre à un équilibre des pouvoirs entre diverses fusions humain/IA plutôt qu'à une AGI dominante unique qui nous transformerait tous en trombones/colonnes de sel." — Jusqu'à présent, nous avons évité un résultat monopolistique qui confère tout le pouvoir et le contrôle à une seule entité. À mon avis, le résultat dystopique le plus probable avec l'IA est un mariage du pouvoir corporatif et de l'État similaire à ce que nous avons vu exposé dans les Twitter Files, où "Confiance & Sécurité" est utilisé comme une arme pour la censure et le contrôle gouvernemental. Au moins, lorsque vous avez plusieurs acteurs privés forts, cela devient plus difficile. En revanche, les dynamiques de gagnant-prend-tout sont plus susceptibles de produire des résultats orwelliens. — Il est probable qu'il y ait un rôle majeur pour l'open source. Ces modèles excellent à fournir 80-90 % de la capacité à 10-20 % du coût. Ce compromis sera très attrayant pour les clients qui privilégient la personnalisation, le contrôle et le coût par rapport aux capacités de pointe. La Chine a misé sur l'open source, donc il serait bon de voir plus d'entreprises américaines rivaliser dans ce domaine, comme l'a fait OpenAI. (Meta mérite également des éloges.) — Il est probable qu'il y ait une division du travail entre des modèles de base généralisés et des applications verticalisées spécifiques. Au lieu qu'une seule superintelligence capte toute la valeur, nous sommes susceptibles de voir de nombreuses applications agentiques résoudre des problèmes de "dernier kilomètre". C'est une excellente nouvelle pour l'écosystème des startups. — Il y a aussi une division du travail de plus en plus claire entre les humains et l'IA. Malgré tous les progrès merveilleux, les modèles d'IA sont toujours à zéro en termes de définition de leur propre fonction objective. Les modèles ont besoin de contexte, ils doivent être fortement incités, la sortie doit être vérifiée, et ce processus doit être répété de manière itérative pour atteindre une valeur commerciale significative. C'est pourquoi Balaji a dit que l'IA n'est pas de bout en bout mais de milieu à milieu. Cela signifie que les prédictions apocalyptiques de perte d'emplois sont aussi exagérées que l'AGI elle-même. Au lieu de cela, le truisme selon lequel "vous ne perdrez pas votre emploi à cause de l'IA mais à cause de quelqu'un qui utilise mieux l'IA que vous" se maintient bien. En résumé, les dernières versions des modèles d'IA montrent que les capacités des modèles sont plus décentralisées que beaucoup ne l'avaient prédit. Bien qu'il n'y ait aucune garantie que cela continue — il y a toujours le potentiel pour le marché de se concentrer sur un petit nombre d'acteurs une fois que le super-cycle d'investissement se termine — l'état actuel de concurrence vigoureuse est sain. Cela propulse l'innovation en avant, aide l'Amérique à gagner la course à l'IA et évite le contrôle centralisé. C'est une bonne nouvelle — que les Doomers n'avaient pas prévu.
2,81K