Pulsar - portal popularnonaukowy Pulsar - portal popularnonaukowy Shutterstock
Technologia

Ostrzeżenie przed SI na spalonym

Apel Muska, Wozniaka i Harariego o wstrzymanie prac nad rozwojem sztucznej inteligencji spotkał się z silnym odzewem. Tyle że nieco innym niż spodziewali się autorzy. Podważono wszystko. Od prawdziwości podpisów po szczerość intencji.

Niekontrolowane udoskonalanie sztucznej inteligencji może stanowić krytyczne zagrożenie dla ludzkości. Potrzebne jest co najmniej półroczne moratorium na rozwój zaawansowanych systemów SI „potężniejszych niż GPT-4” (duży model językowy, na którym bazuje popularny ChatGPT). Ma ono dać czas na opracowanie i zastosowanie zabezpieczeń mających uchronić świat człowieka przed niepożądanymi konsekwencjami. Takie postulaty wyrażone w opublikowanym pod koniec marca apelu, poparło wówczas ok. 1,2 tysiąca osób (dziś to ok. 5,5 tys., kolejne dziesiątki tysięcy czekają na autoryzację). Podpisali się pod nimi m.in. obecni i byli pracownicy naukowi kluczowych firm zajmujących się rozwojem SI: od Amazonu i DeepMind, przez Google i Meta, po Microsoft i Stability AI. Nie zabrakło wybitnych, cenionych przez świat nauki badaczy SI, jak John J. Hopfield, który wymyślił asocjacyjne sieci neuronowe czy Stuart Russell, profesor z Berkeley, dyrektor Center for Intelligent Systems. Wyraz zaniepokojeniu dali także technonaukowi celebryci: szef Tesli Elon Musk, współzałożyciel Apple Steve Wozniak, filozof i autor bestsellerów Yuval Noah Harari.

List został upubliczniony przez amerykański think-tank Future of Life Institute – organizację monitorującą postęp technologiczny pod kątem ewentualnych długoterminowych korzyści i poważnych zagrożeń dla życia na Ziemi.

Sygnatariusze realni i fikcyjni

Reakcja była natychmiastowa. Apel zaatakowano na kilku frontach. Przede wszystkim podważano autentyczność podpisów. Początkowo były zbierane bez wykorzystania systemu autoryzacji i rzeczywiście, kilka okazało się fałszerstwami. Ponadto niektórzy autorzy, na których ustalenia i poglądy powoływano się w przypisach, uznali to za nadużycie – nie utożsamiają się bowiem z przesłaniem apelu. Być może za sprawą powyższych kontrowersji, czy też w wyniku przemyśleń, część pierwotnych sygnatariuszy wycofała swój podpis.

Powyższe usterki nie musiały wynikać ze złej woli autorów listu, jednak pojawiły się poważniejsze wątpliwości co do ich intencji. Future of Life Institute przyjmował sute dotacje od Elona Muska, jednego z głównych sygnatariuszy listu – a zarazem osoby, która z zamrożenia prac głównych zachodnich firm rozwijających sztuczną inteligencję, jak OpenAI, zawiadującej ChatGPT, mogłaby odnieść korzyść.

Interesy jawne i niejawne

Musk, współzałożyciel OpenAI, w 2018 r. odszedł, uzasadniając to konfliktem interesów – jako prezes Tesli także bowiem rozwijał SI. Według szefa OpenAI Sama Altmana tak naprawdę jednak przestał wierzyć w tę firmę, uznając, że nie ma szans na konkurowanie z Google. Jeśli to prawda, dziś musi przeklinać swój błąd i mieć nadzieję, że w pracach nad SI (zainwestował także w startup Neuralink, pracujący nad interfejsem mózg-komputer) uda mu się dogonić rywali. Półroczne moratorium, opóźniające przede wszystkim głównych graczy, których aktualny poziom zaawansowania prac jest publicznie znany, co ułatwia nadzór, byłoby mu na rękę.

A propos ręki, ta teoria spiskowa co prawda ma ręce i nogi, ale należy oddać Muskowi sprawiedliwość, że przed zagrożeniem ze strony SI zaczął ostrzegać jako jedna z pierwszych osób publicznych. Inwestując w OpenAI, głosił, że chce być blisko zdarzeń, by w razie czego zaciągnąć hamulec, gdy SI zacznie wierzgać. Mówił, że uważa sztuczną inteligencję za potencjalnie bardziej niebezpieczną dla ludzkości niż bomba atomowa. O jego dzisiejszych motywacjach lepiej jest zatem nie przesądzać. Podpisując apel o moratorium, mógł być w tym geście szczery.

Intencje ludzkie i nieludzkie

Najpoważniej brzmią zarzuty krytyków listu dotyczące trafności ostrzeżeń. Faktycznie, apel uderza w najwyższe tony, demonizując nawet rozwijane dziś duże modele językowe, bo przecież GPT-5, jako „potężniejszy od GPT-4”, także mieści się w puli. Przypisuje przyszłym konstruktom SI jakże ludzkie, makiaweliczne intencje, zarazem przecząc ich człowieczej naturze już na wstępie hamletowskiego pytania: „Czy powinniśmy rozwijać nieludzkie umysły, które mogą ostatecznie przewyższyć nas liczebnie, przechytrzyć, a w końcu, postrzegając jako relikty, zastąpić?”.

Błędem autorów apelu był brak umiaru, przez co, jako hiperbola, jest łatwym obiektem krytyki. Szkoda, bo pada w nim sporo sensownych ostrzeżeń, które warto wziąć pod rozwagę. Sztuczna inteligencja nie musi przypominać ludzkiej, dysponować świadomością i wolą, by stać się poważnym zagrożeniem. Słabym ogniwem jest bowiem w tej relacji człowiek. I to jego intencje, motywowane uprzedzeniami, pychą lub chciwością, mogą przesądzić o szkodach, jakie wyrządzi to narzędzie.

Ta strona do poprawnego działania wymaga włączenia mechanizmu "ciasteczek" w przeglądarce.

Powrót na stronę główną