L'ipotesi peggiore
Se invece le cose dovessero andar male, e sono molti gli esperti che temono tale scenario, invece la ASI potrebbe causare la nostra estinzione. Questo intelletto superiore sarà al di là della nostra comprensione, ci potrà manipolare come burattini, e potrà sfruttare risorse di cui noi nemmeno immaginiamo l'esistenza.
Naturalmente esiste il rischio che siano gli stessi creatori della ASI a renderla pericolosa, infondendole una programmazione "maligna", ma gli esperti sono più preoccupati dal fatto che la ASI semplicemente sfugga al controllo.
Una "fuga", quella della ASI, che non sarebbe mirata specificamente a danneggiare gli esseri umani, ma che potrebbe portarci all'estinzione come danno collaterale. Per esemplificare il concetto Tim Urban ha creato il racconto breve Turry, che ha sicuramente qualche difetto ma aiuta a inquadrare bene il concetto espresso.
Rivoluzione AI: Perché il futuro potrebbe essere il nostro incubo peggiore