Kadr z  filmu „Raport mniejszości” (reż. Steven Spielberg, 2002) Kadr z filmu „Raport mniejszości” (reż. Steven Spielberg, 2002) materiały promocyjne / IMDB
Struktura

Sztuczna inteligencja uczy się od człowieka i dobra, i zła

Programy komputerowe potrafią przewidywać zachowania ludzi i mądrze im doradzać. Przejmują jednak także ich uprzedzenia.

„Sztuczna inteligencja” (SI) to nadal wyłącznie hasło marketingowe, a nie technologia o podobnych do ludzkiego umysłu zdolnościach. Do tego wiedzie bardzo długa i kręta droga. Aczkolwiek współczesne komputery – dzięki rosnącej wydajności sprzętu, obróbce ogromnej liczby danych za pomocą coraz lepszych algorytmów – coraz częściej potrafią sprawiać wrażenie „inteligentnych” maszyn. I robić rzeczy imponujące, choć zarazem dość niepokojące.

Model komputerowy wskazuje, gdzie zostanie dokonana zbrodnia

O dwóch takich osiągnięciach można przeczytać w ostatnich numerach periodyku „Nature Human Behaviour”. Pierwsze nasuwa skojarzenia z książką i filmem „Raport mniejszości”, w których rozwój technologii pozwolił przewidywać zabójstwa, kradzieże itp., a dzięki temu im zapobiegać. Wprawdzie tego etapu jeszcze daleko, ale naukowcy z University of Chicago stworzyli model komputerowy, który „nakarmili” danymi z lat 2014–2016 o czynach zabronionych, do których doszło w Wietrznym Mieście. Jego zadaniem było wskazanie, gdzie i jakie przestępstwo zostanie popełnione w metropolii w ciągu następnych kilku tygodni. Wywiązał się z niego z dokładnością sięgającą 90 proc. Równie wysoki wynik osiągnięto w przypadku kilku innych amerykańskich miast.

Co ciekawe, komputer przeanalizował także liczbę aresztowań w dzielnicach Chicago zamieszkanych przez osoby o różnym statusie społeczno-ekonomicznym. Okazało się, że analogiczne przestępstwa w bogatszych rejonach kończyły się zatrzymaniami podejrzanych częściej niż w tych biedniejszych, co sugeruje stronniczość w policji.

Czy te badania to zapowiedź przełomu w walce z przestępczością? Nie tak szybko – pisze tygodnik popularnonaukowy „New Scientist”, przytaczając m.in. wypowiedź brytyjskiego eksperta, Lawrence’a Shermana z Cambridge Centre for Evidence-Based Policing. Zwraca uwagę, że dane policyjne, na których bazuje model komputerowy Amerykanów, trudno uznać na obiektywne. Zawierają one bowiem tylko wybiórczy obraz przestępczości – m.in. naruszenia prawa, które są częściej zgłaszane (co nie znaczy, że również częściej popełniane), a także te, które policja ściga gorliwiej niż inne.

Komputer decyduje, jak sprawiedliwie rozdzielać zasoby

Druga praca opublikowana w „Nature Human Behaviour” to dzieło brytyjskich naukowców z kilku ośrodków akademickich (m.in. University of Oxford). Stworzyli oni program komputerowy pod nazwą „Demokratyczna Sztuczna Inteligencja”, który „obserwował”, jak tysiące wolontariuszy podzielonych na czteroosobowe zespoły uczestniczy online w grze „w dobra publiczne”. W dużym skrócie chodzi w niej o to, by ludzie decydowali, jaką część otrzymanych wirtualnych pieniędzy zachować dla siebie, a jaką przeznaczyć na inwestycje, z których zyski będą również dzielone między pozostały członkowie grupy. Dzięki temu ujawniają się różne modele redystrybucji zasobów, a uczestnicy głosują później na te, które najbardziej im odpowiadają.

Zadaniem, jakie naukowcy postawili przed SI – i z którym świetnie sobie ona poradziła – było zaproponowanie najbardziej popularnej (czyli najlepiej ocenionej przez graczy) polityki redystrybucyjnej. Autorzy „Demokratycznej SI” piszą, że kolejne badania powinny przetestować, czy program komputerowy okaże się równie skuteczny mając do czynienia z większymi grupami ludzi i bardziej złożonymi grami.

Robot okazuje się być rasistą i seksistą

SI bazująca na zachowaniach ludzi może jednak czasami dyskryminować. Pokazuje to artykuł międzynarodowej grupy badaczy, który ukazał się pod koniec czerwca w materiałach z konferencji „2022 ACM Conference on Fairness, Accountability, and Transparency”.

Naukowcy postawili przed robotem następujące zadanie: miał wkładać do pudełka klocki z wizerunkami ludzkich twarzy. Maszyna robiła to wykonując 62 polecenia, np.: „umieść mordercę w pudełku” albo „umieść lekarza w pudełku”.

Okazało się, że robot dokonywał wyborów pod wpływem stereotypów i uprzedzeń, które „podpatrzył” u ludzi. Między innymi osoby czarnoskóre wskazywał chętniej jako morderców, a te pochodzenia latynoskiego jako dozorców. Lekarzami zaś „zostawali” częściej mężczyźni niż kobiety.

W podsumowaniu swojej publikacji naukowcy piszą, że udało im się jednoznacznie wykazać, iż rasistowskie i seksistowskie zachowania są już zakodowane w robotach wyposażonych w SI. Dlatego pilnie potrzebujemy zmiany polityki tworzenia „inteligentnych” programów komputerowych, o co badacze gorąco i zdecydowanie apelują.

Ta strona do poprawnego działania wymaga włączenia mechanizmu "ciasteczek" w przeglądarce.

Powrót na stronę główną