To AI-utfall tilsynelatende: > Hard takeoff - ASI før justering. Ukontrollerbar. Terminator-scenario. Risikoen for å ta feil er år bortkastet på frykt. Innovasjon bremser, konkurrenter øker, og menneskeheten går glipp av massiv oppside som å kurere sykdom, løse energi, få slutt på knapphet. > Jevn materialberegning – iterativ distribusjon. Finn ut av det mens vi går. Risikoen for å ta feil er å spurte inn i glemselen. Feiljustert superintelligens dukker opp, og en enkelt feil blir irreversibel. Hvilken vei?