Shutterstock
Struktura

Musk, Wozniak, Harari: trzeba wstrzymać pracę nad zaawansowaną SI

Potężne systemy sztucznej inteligencji powinny być rozwijane tylko pod warunkiem, że przyniosą korzyści całej ludzkości, a ryzyko będzie pod kontrolą. Dziś nie mamy takiej pewności – stwierdza ponad tysiąc osób ze świata nauki i biznesu.

The Future of Life Institute (FLI) to amerykańska organizacja non-profit analizująca zagrożenia dla ludzkości, szczególnie ze strony nowoczesnych systemów sztucznej inteligencji. 29 marca opublikowała w internecie list otwarty, w którym wzywa do natychmiastowego wstrzymania prac nad kolejnymi, jeszcze bardziej zaawansowanymi programami SI niż udostępniony niedawno ChatGPT-4. Pod apelem podpisało się już ponad tysiąc osób ze świata nauki i biznesu, m.in. Elon Musk, Steve Wozniak (współzałożyciel Apple’a) i znany izraelski historyk Yuval Noah Harari.

W liście można m.in. przeczytać, że systemy SI o możliwościach konkurencyjnych wobec inteligencji człowieka mogą stanowić ogromne zagrożenie dla społeczeństw i całej ludzkości. Dlatego ich rozwój powinien podlegać bardzo ścisłemu nadzorowi. Niestety, tak się nie dzieje. A laboratoria SI rywalizują w tworzeniu coraz potężniejszych „cyfrowych umysłów”, których działania nie potrafią zrozumieć, przewidzieć i ściśle kontrolować nawet ich kreatorzy.

Autorzy apelu obawiają się, że zaawansowane systemy SI mogą zacząć zalewać kanały informacyjne propagandą i fałszywymi informacjami i wskazują na groźbę zautomatyzowania niemal wszystkich rodzajów prac. Ostrzegają też, że rozwijanie „nienaturalnych umysłów”, które zaczną przewyższać człowieka swoją inteligencją, może skończyć się tym, że będą one nas oszukiwać, a w końcu zastąpią. Czy powinniśmy ryzykować utratą kontroli nad naszą cywilizacją? – pytają.

„Dlatego potężne systemy SI powinny być rozwijane tylko pod warunkiem, że będziemy pewni, iż skutki tego procesu okażą się pozytywne, a ryzyka z nimi związane mamy pod kontrolą. Pierwszym krokiem w tym kierunku będzie natychmiastowe wstrzymanie na co najmniej pół roku przez wszystkie laboratoria SI trenowania systemów sztucznej inteligencji potężniejszych niż ChatGPT-4”.

Ta przerwa powinna być wykorzystana, aby wspólnie opracować i wdrożyć m.in. zestaw protokołów bezpieczeństwa dla zaawansowanego projektowania i rozwoju SI. Następnie muszą one być rygorystycznie nadzorowane przez niezależnych ekspertów zewnętrznych. To nie oznaczałoby przerwy w ogólnym rozwijaniu systemów sztucznej inteligencji, a jedynie zastopowało niebezpieczną rywalizację między firmami pracującymi nad SI.

Sygnatariusze listu apelują również o powołanie państwowych organów regulacyjnych zajmujących się wyłącznie SI oraz zwiększenie finansowania badań nad bezpieczeństwem systemów SI. „Nie zmierzajmy pospiesznie w kierunku katastrofy” – stwierdzają na koniec.

Ta strona do poprawnego działania wymaga włączenia mechanizmu "ciasteczek" w przeglądarce.

Powrót na stronę główną