Rysunek Izhar Cohen
Człowiek

Apokalipsa AI

Sztuczna inteligencja jako zagrożenie egzystencjalne

W 2014 roku Elon Musk, dyrektor generalny SpaceX, tweetował: „Warto przeczytać Superinteligencję Bostroma. Musimy postępować nader ostrożnie z AI. Potencjalnie jest bardziej niebezpieczna niż broń jądrowa”.

Tego samego roku kosmolog z University of Cambridge Steven Hawking powiedział w wywiadzie dla BBC: „Powstanie w pełni rozwiniętej sztucznej inteligencji mogłoby oznaczać kres rodzaju ludzkiego”. Współzałożyciel Microsoftu Bill Gates również przestrzegał: „Należę do obozu tych, którzy żywią obawy odnośnie sztucznej inteligencji”.

Świat Nauki 4.2017 (300308) z dnia 01.04.2017; Głos sceptyka; s. 74
Reklama