Apokalipsa AI
Sztuczna inteligencja jako zagrożenie egzystencjalne
1 kwietnia 2017
W 2014 roku Elon Musk, dyrektor generalny SpaceX, tweetował: „Warto przeczytać Superinteligencję Bostroma. Musimy postępować nader ostrożnie z AI. Potencjalnie jest bardziej niebezpieczna niż broń jądrowa”.
Tego samego roku kosmolog z University of Cambridge Steven Hawking powiedział w wywiadzie dla BBC: „Powstanie w pełni rozwiniętej sztucznej inteligencji mogłoby oznaczać kres rodzaju ludzkiego”. Współzałożyciel Microsoftu Bill Gates również przestrzegał: „Należę do obozu tych, którzy żywią obawy odnośnie sztucznej inteligencji”.
Świat Nauki
4.2017
(300308) z dnia 01.04.2017;
Głos sceptyka;
s. 74