Dois resultados de IA aparentemente: > Decolagem forçada - ASI antes do alinhamento. Incontrolável. Cenário do Exterminador do Futuro. O risco de estar errado é anos desperdiçados com medo. A inovação desacelera, os concorrentes aumentam e a humanidade perde vantagens massivas, como curar doenças, resolver energia, acabar com a escassez. > Decolagem suave - Implantação iterativa. Descubra à medida que avançamos. O risco de estar errado é correr para o esquecimento. Superinteligência desalinhada emerge e um único erro se torna irreversível. Para que lado?