Anna Amarowicz / pulsar
Struktura

Podkast 57. Katarzyna Szymielewicz i Piotr Sankowski: Sztuczna inteligencja każe przemyśleć wyjaśnialność decyzji ludzi

Niepełna przejrzystość modeli SI budzi obawy. Raczej niesłusznie. Akcent w dyskusjach na ich temat powinien zostać przeniesiony gdzie indziej: na styk człowiek–maszyna. A może nawet bardziej na naturę samego człowieka. Rozmowa z Katarzyną Szymielewicz, prawniczką badającą prawa człowieka w świecie nowych technologii, działaczką społeczną, prezeską Fundacji Panoptykon oraz prof. Piotrem Sankowskim, fizykiem i informatykiem z UW, prezesem IDEAS NCBR.

Trudność w prześwietleniu procesów obliczeniowych zachodzących w dużych modelach językowych takich jak ChatGPT prowokuje protesty, wezwania do moratoriów na dalsze badania. Ludzie mówią, że sztuczna inteligencja nie może być jak czarna skrzynka. Nasi goście jednak nieco inaczej szkicują krajobraz ewentualnych zagrożeń.

Nie zgadzam się z tym, że model wyjaśnialny byłby zdecydowanie lepszy niż nie do końca wyjaśnialny – mówi Katarzyna Szymielewicz. – Rozdzieliłabym wyjaśnialność procesu, jaki zachodzi w modelu, od wyjaśnialności decyzji, które podejmują ludzie ten system tworzący. Innymi słowy, kluczowe są nie szczegóły rozwiązań programistycznych, a intencje osób, które zlecają budowę modeli i te modele budują. Ich właśnie przejrzystość jest krytycznie ważna. – I to ją należy akcentować w regulacji prawnej oraz poddawać ocenie zewnętrznej – podkreśla Szymielewicz.

Sama natomiast wyjaśnialność SI jest problemem szerszym. – To jest pytanie bardziej filozoficzne, dotyczące natury ludzkiej. Mam nadzieję, że zaczniemy oczekiwać lepszych wyjaśnień decyzji i poglądów także od ludzi – mówi Piotr Sankowski.

Ludziom trzeba też będzie poświęcić więcej troskliwej uwagi niż dotychczas. Dotyczy to zwłaszcza użytkowników modeli SI, którzy wydając opinie, będą korzystać z pomocy algorytmów. – Co na przykład lekarz zrobi z taką podpowiedzią? Czy będzie w stanie oprzeć się sugestii, w jego mniemaniu opartej o gigantyczne ilości danych, których on nie posiada, o wszystkie te podręczniki, encyklopedie, atlasy, których przecież nie ogląda na co dzień, i obrazowanie, w którym system bezbłędnie wykrywa anomalie? Badania wskazują, że ludzie są skłonni te sugestie przyjąć, nawet jeśli intuicyjnie nie wydają im się trafne – zastanawia się Szymielewicz.

Najbardziej palącym problemem związanym z objawieniem się modeli generatywnych nie jest ochrona prywatności. O tę dba istniejące prawodawstwo. – To już dawno nie jest dyskusja o tym, że chcę coś ukryć albo coś usunąć z sieci – przypomina Szymielewicz. – Chodzi o to, kto ma wiedzę i władzę modelowania ludzkich decyzji w bardzo poważnych kontekstach: od wyborów po decyzje konsumenckie. Modele generatywne mogą bowiem odnajdywać w statystykach naszego zachowania wzorce przez nas nawet nie uświadamiane. To radykalnie inny sposób profilowania niż ten stosowany przez dotychczasowe modele SI.

Przepisy związane z ochroną własności intelektualnej, także w sieci, są dobrze zdefiniowane. Ale słynny GPT i jego konkurenci także w tej dziedzinie każą przemyśleć normy postępowania. – Zbliżamy się do ciekawego problemu związanego z prawem społeczeństwa do używania modeli, które powstały w oparciu o to, co to społeczeństwo generowało wcześniej – mówi Szymielewicz. Komu można udostępniać takie modele? Może potrzebny jest jakiś AI Office, międzynarodowy Urząd do spraw SI? – Myślę, że czeka nas rodzaj walki o redystrybucję tego nowego zasobu.

Nieprzejrzystość czy niewyjaśnialność modeli SI bywa źródłem obaw także dlatego, że postają one w laboratoriach wielkich firm. – Ale nie ma co demonizować tego procesu, twierdzi Sankowski. – To nie będzie technologia zamknięta. Nie będzie na nią monopolu. Wejdzie pod strzechy. Dzisiejsze modele za 3–4 lata można będzie uruchomić na domowym komputerze czy wręcz telefonie.

Sam Altman, szef OpenAI – firmy, która powiła GPT – objeżdża właśnie świat (był także w Warszawie, przyciągając tłumy słuchaczy). Nawołuje, by użycie najbardziej zaawansowanych modeli generatywnych – takich, które mają na przykład potencjał wykorzystania militarnego – licencjonować. To nic radykalnie nowego. Podobne przepisy obejmują istniejące już oprogramowanie szpiegowskie. Szymielewicz uważa to za właściwe podejście: – Prawo oczywiście nie wykluczy nadużyć, ale idziemy w stronę tego, żeby to nie były zabawki działające poza kontrolą.

Pozostaje pytanie o system etyczny, jaki należy wpisać w algorytmy sztucznej inteligencji, które będą decydować o ludzkich sprawach. – Takie normy nie są uniwersalne – przypomina prezeska Panoptykonu. – Nie da się ochronić wszystkich zawsze. Nie da się zabezpieczyć wartości wszystkich grup. One zawsze są w jakiejś konkurencji. To fikcja, że da się zapisać w systemie idealną sprawiedliwość. Od czasów rzymskich prawnicy wiedzą, że metryk sprawiedliwości jest kilka.

Dyskusja o SI przeniosła się już na poziom znacznie wyższy, niż sugerują to media.

Katarzyna Szymielewicz i Piotr Sankowski.Anna Amarowicz/pulsarKatarzyna Szymielewicz i Piotr Sankowski.

Cieszymy się, że słuchacie naszych podkastów. Powstają one także dzięki wsparciu naszych cyfrowych prenumeratorów.
Aby do nich dołączyć – i skorzystać w pełni z oferty pulsara, „Scientific American” oraz „Wiedzy i Życia” – zajrzyjcie tutaj.

WSZYSTKIE SYGNAŁY PULSARA ZNAJDZIECIE TUTAJ