Dois resultados de IA aparentemente: > Decolagem rápida - ASI antes do alinhamento. Incontrolável. Cenário do Terminador. O risco de estar errado é anos desperdiçados com medo. A inovação desacelera, os concorrentes disparam e a humanidade perde uma enorme oportunidade, como curar doenças, resolver a energia, acabar com a escassez. > Decolagem suave - Implementação iterativa. Descobrimos à medida que avançamos. O risco de estar errado é correr para o abismo. Uma superinteligência desalinhada emerge, e um único erro torna-se irreversível. Qual caminho?