Opinie

Nie pozwólmy robotom pociągać za spust

Ilustracja Chris Whetzel
Broń, która samodzielnie zabija wrogów, na równi zagraża cywilom i żołnierzom

Nadchodzi czas maszyn do zabijania. Uzbrojone roboty, które same wybiorą cel i zniszczą go bez nadzoru człowieka, mogą zrewolucjonizować pole walki w podobnym stopniu, jak wynalezienie prochu albo bomby atomowej. Taka perspektywa stanowi bezpośrednie zagrożenie dla ludności cywilnej i może prowadzić do najgorszych scenariuszy, w których sztuczna inteligencja spowoduje zagładę. Potrzebne jest więc pilne wprowadzenie zakazu stosowania autonomicznych robotów wojskowych, podobnie jak zakazano używania broni chemicznej i biologicznej. Niestety, ta propozycja napotyka na sprzeciw części największych potęg wojskowych świata.

Zabijające roboty nie są wcale wizją technofobów. Na przykład w lipcu 2017 roku Kalashnikov Group w Rosji ujawniła, że rozpoczęła pracę nad kamerą do karabinu maszynowego 7,62 mm, która dzięki układom opartym na sieciach neuronowych ma podejmować decyzje „strzelać czy nie strzelać”. Obecnie już cała generacja samosterującego uzbrojenia, jak drony, pociski, czołgi, zbliża się do krawędzi autonomicznego działania. Stany Zjednoczone, które, jak się wydaje, przodują w pracach badawczo-rozwojowych poświęconych systemom autonomicznym, w latach 2016–2020 przeznaczą na ten cel 18 mld dolarów. Ale i inne państwa z wysoko rozwiniętym przemysłem zbrojeniowym nie pozostają w tyle.

Planiści wojskowi przekonują, że „systemy autonomicznej broni śmiercionośnej” nadadzą walce bezstronną precyzję. Takie automaty mogłyby ograniczyć zapotrzebowanie na żołnierzy i zredukować liczbę ofiar, pozostawiając walkę maszynom. Ale sterowanie przez algorytmy może łatwo zmienić się w działanie bez kontroli. Dostępne systemy sztucznej inteligencji nie potrafią przewidzieć intencji innych uczestników pola walki ani podejmować w chaosie krytycznych decyzji. Nieumiejętność dostrzeżenia subtelności zachowań pozwalających odróżnić cywilów od żołnierzy albo wrogów od sojuszników każe zadać pytanie, czy systemy sztucznej inteligencji w przewidywalnej przyszłości będą gotowe zastąpić ludzi. Zabijający robot byłby w zasadzie sprawnym mordercą jak Arnold Schwarzenegger w filmie Terminator. Kto jednak po skończonej walce miałby odpowiadać za śmierć zadaną przez maszynę? Robot? Jego właściciel? A może jego wytwórca?

Wszystkie te problemy sprawiają, że w pełni autonomiczne roboty staną się zupełnie nowym zagrożeniem w rękach mniejszych państw albo terrorystów, nawet mimo ograniczonych umiejętności i środków. Roje niewielkich uzbrojonych dronów, wykonanych chociażby techniką druku 3D, mogłyby siać panikę w gęsto zaludnionych obszarach. Ich prototypy są testowane już dziś: Departament Obrony Stanów Zjednoczonych w 2017 roku zademonstrował rój składający się z przeszło setki niewielkich nieuzbrojonych dronów. Stuart Russell z University of California w Berkeley, wybitny badacz systemów sztucznej inteligencji, stwierdził, że „mikroroboty atakujące ludzi” pozwalałyby jednemu człowiekowi zabić wiele tysięcy osób i tym samym stałyby się nowym rodzajem broni masowego rażenia.

Od 2013 roku trwają rozmowy na temat objęcia autonomicznej broni śmiercionośnej Konwencją o zakazie lub ograniczeniu użycia pewnych broni konwencjonalnych, które mogą być uważane za powodujące nadmierne cierpienie lub mające niekontrolowane skutki. Ze względu na sprzeciw USA, Rosji i kilku innych państw dyskusja nie osiągnęła etapu wstępnych ustaleń. Stany Zjednoczone argumentują na przykład, że ich obecne przepisy wymagają zachowania kontroli personelu wojskowego nad systemami broni autonomicznej i przedwczesne wprowadzenie regulacji mogłoby zahamować rozwój systemów sztucznej inteligencji.

Ale zakaz nie musiałby być aż tak restrykcyjny. Koalicja 88 pozarządowych organizacji z 50 państw o nazwie Campaign to Stop Killer Robots, która działa na rzecz wprowadzenia takiego zakazu, podkreśla, że miałby on dotyczyć jedynie broni ofensywnej i nie obejmowałby systemów obrony antyrakietowej i innych systemów defensywnych, które mają działać bez udziału człowieka.

Obecny impas w rozmowach skłonił koalicję do próby przekonania przynajmniej części państw do uzgodnienia zakazu poza ramami Konwencji, co jest manewrem stosowanym już wcześniej w przypadku zakazu min przeciwpiechotnych i amunicji kasetowej. Wyprzedzający zakaz dotyczący autonomicznych maszyn zabijających spowodowałby stygmatyzację tej techniki i zapobiegł wprowadzeniu robotów zabójców do arsenałów wojskowych.

Od chwili pierwszej prezentacji, która miała miejsce podczas konferencji International Joint Conference on Artificial Intelligence w lipcu ubiegłego roku w Sztokholmie, przeszło 250 firm i organizacji podpisało zobowiązanie do „nieuczestniczenia ani wspierania rozwoju, produkcji, handlu i użycia autonomicznej broni śmiercionośnej”. Bo prawo zakazujące robotów zabójców trzeba dopiero uchwalić. Bez odpowiednich ram prawnych może wkrótce nadejść dzień, kiedy o pozbawieniu człowieka życia zadecydują algorytmy.

Świat Nauki 4.2019 (300332) z dnia 01.04.2019; Wokół nauki; s. 6