Shutterstock
Technologia

Sztuczna inteligencja podejrzała ludzkie myśli

Duży model językowy, na którym opiera się ChatGPT, połączony z funkcjonalnym rezonansem magnetycznym przewidział, jakie zdania powstaną w głowach ochotników. Czy taka technologia umożliwi włamywanie się do mózgów?

Naukowcy z University of Texas w Austin zaprosili do eksperymentu troje wolontariuszy. Głowa każdego została umieszczona w skanerze wykorzystującym metodę funkcjonalnego rezonansu magnetycznego (fMRI). Mierzy on – dzięki silnym magnesom – sygnał zależny od poziomu nasycenia krwi tlenem. Obszary mózgu zaangażowane w danym momencie w wykonywanie jakichś zadań pracują intensywniej i z tego powodu zgłaszają zapotrzebowanie na więcej tlenowego „paliwa”.

Wolontariusze zostali poproszeni o wysłuchanie (każdy w sumie po 16 godzin) różnych podkastów (takich jak „The Moth Radio Hour” czy „Modern Love The New York Times”). Dzięki temu naukowcy zgromadzili duży zbiór danych, na podstawie którego program komputerowy (bazujący na technologii sztucznej inteligencji) uczył się dopasowywać wzory aktywności mózgu do słów, fraz i znaczeń.

Następny krok polegał na sprawdzeniu, czy maszyna – wyłącznie na podstawie obrazów z fMRI – ustali, jakie słowa i zdania pojawią się w głowie wolontariuszy. Początkowo rezultaty nie były specjalnie zachęcające, głównie dlatego, że fMRI rejestruje aktywność mózgu z pewnym opóźnieniem. Sytuacja zmieniła się, gdy zaangażowano tzw. duży model językowy. Poprawił on w przewidywanie, jakie zdania pojawiają się w mózgach uczestników eksperymentu, kiedy ci słuchają nowego podkastu lub oglądają kreskówkę „Sintel” z wyłączonym głosem.

Wyniki eksperymentu, opublikowane na łamach „Nature Neuroscience”, od razu wywołały dyskusje na temat niebezpieczeństw etycznych związanych z używaniem tego typu narzędzi. Czy stanie się możliwe podglądanie najbardziej intymnej sfery umysłu, czyli naszych myśli? „Jeszcze nie wzywam do panikowania, ale rozwój zaawansowanych, nieinwazyjnych technologii, takich jak ta, wydaje się być bliżej, niż sądziliśmy. Myślę, że to ważny sygnał alarmowy dla decydentów i opinii publicznej” – stwierdził bioetyk Gabriel Lázaro-Muñoz z Harvard Medical School w Bostonie w rozmowie z nature.com.

Innego zdania jest Adina Roskies, filozofka nauki z Dartmouth College. Uważa, że połączenie fMRI (skanery wykorzystujące tę metodę to potężne, nieprzenośne urządzenia, w których trzeba leżeć) ze sztuczną inteligencją jest zbyt trudne w użyciu i niedokładne, aby – przynajmniej na razie – stanowić zagrożenie. Podczas omawianego eksperymentu komputer np. odczytał oryginalne zdanie „Po prostu wyskoczyłam z samochodu” jako „Musiałem ją wypchnąć z samochodu”. Kolejne istotne ograniczenie: sztuczna inteligencja musi uczyć się wzorów aktywności mózgu i ich korelacji ze słowami dla każdej osoby oddzielnie. Opracowanie uniwersalnego „dekodera myśli” może więc okazać się niemożliwe.

„Czy zatem warto byłoby poświęcać czas i koszty na szkolenie dekodera dla jednej osoby, w celu innym niż przywracanie zdolności komunikacyjnych np. całkowicie sparaliżowanym pacjentom?” – zastanawia się Adina Roskies. Jej zdaniem, rządy już mają wiele innych i prostszych sposobów, by dowiedzieć się, co myślimy.

Ta strona do poprawnego działania wymaga włączenia mechanizmu "ciasteczek" w przeglądarce.

Powrót na stronę główną