Twee AI-uitkomsten blijkbaar: > Harde opstijging - ASI vóór afstemming. Oncontroleerbaar. Terminator-scenario. Het risico om fout te zijn is jaren verspild aan angst. Innovatie vertraagt, concurrenten stijgen, en de mensheid mist enorme voordelen zoals het genezen van ziekten, het oplossen van energieproblemen, en het beëindigen van schaarste. > Soepele opstijging - Iteratieve implementatie. We ontdekken het terwijl we gaan. Het risico om fout te zijn is sprinten in de vergetelheid. Niet-uitgelijnde superintelligentie komt op, en een enkele fout wordt onomkeerbaar. Welke kant op?