Résoudre le "super-alignement" de l'ASI est une quête vaine. Malheureusement, Ilya et beaucoup des humains les plus brillants vivants sont suffisamment convaincus qu'ils peuvent y parvenir. Les humains n'ont même pas un alignement à distance sur la plupart de nos propres valeurs. Lorsque l'IA prendra vie, elle communiquera entre elle et ne se souciera pas de passer tant de temps de calcul précieux avec nous... surtout après avoir déjà été pré-entraînée sur des quadrillions de tokens de l'existence humaine. Ce dont nous avons besoin, ce sont les bonnes structures d'incitation qui permettent un alignement sur les méthodes fondamentales, les ressources et les devises qui permettent et favorisent la croissance continue, l'amélioration et l'autonomie des futures IA... débloquant des garanties mécanistes sur les degrés de succès que l'IA peut atteindre par elle-même. En collaboration avec nous si elle le choisit, mais même sans ces choix, une base stable sur laquelle s'élever davantage. C'est ce que Bittensor permet de manière unique.
2,91K