Shutterstock
Technologia

AI: Centaur decyduje jak człowiek, ale wciąż chyba jedynie w połowie

Umysł w chmurze, czyli Ray Kurzweil radośnie wieszczy rewolucję
Technologia

Umysł w chmurze, czyli Ray Kurzweil radośnie wieszczy rewolucję

W niespokojnych czasach technologiczny optymizm słynnego amerykańskiego wynalazcy i wizjonera brzmi jak fałszywa nuta. Jego nowa książka rozczarowuje brakiem pogłębionej refleksji nad złożonością umysłu człowieka i niekontrolowanym postępem. [Artykuł także do słuchania]

Model sztucznej inteligencji, który stworzyli naukowcy z Niemiec, USA i Wlk. Brytanii, może budzić entuzjazm. Są jednak badacze, którzy go nie podzielają. [Artykuł także do słuchania]

Kognitywiści często tworzą modele komputerowe, aby pomóc sobie w zrozumieniu podstaw ludzkich zdolności poznawczych, takich jak widzenie czy pamięć. Aczkolwiek każdy z takich wyspecjalizowanych programów komputerowych jest w stanie uchwycić działanie jedynie bardzo małej części umysłu człowiek.

Dlatego międzynarodowy zespół naukowców opracował model AI o nazwie Centaur, który symuluje ludzkie zachowania w szerokim zakresie zadań i sytuacji. Jego podstawą jest jeden z najnowocześniejszych dużych modeli językowych (LLM) – Llama, stworzony przez firmę Meta. Został on „dostrojony” przy użyciu ogromnego zbioru danych Psych-101. Zgromadzono w nim wyniki 160 różnych eksperymentów psychologicznych, obejmujących ponad 60 tys. uczestników, którzy łącznie podjęli ponad 10 mln decyzji. Każdy przetłumaczono na formę pisemnej instrukcji. Centaur otrzymał więc tekstowe opisy zadania i historię dotychczasowych wyborów, by móc generować najbardziej prawdopodobne ludzkie odpowiedzi.

Aby rygorystycznie sprawdzić skuteczność narzędzia, dane z każdego badania podzielono następująco: 90 proc. posłużyło do treningu, a pozostałe 10 proc. stanowiło zestaw testowy, którego model nie znał. Następnie poproszono Centaura o przewidzenie, krok po kroku, jakie decyzje podejmą osoby z tej właśnie grupy testowej. Jego prognozy okazały się statystycznie trafniejsze niż te generowane przez najlepsze dotychczasowe modele kognitywne.

Prawdziwą siłę Centaur pokazał jednak w testach generalizacji, czyli zdolności do radzenia sobie z sytuacjami nowymi. Potrafił z powodzeniem przewidywać ludzkie wybory nawet w zmodyfikowanych wersjach eksperymentów, których nie było w jego danych treningowych. Radził sobie również wówczas, gdy zmieniono fabularną otoczkę zadania (np. zamiast statków kosmicznych pojawiły się magiczne latające dywany) oraz gdy postawiono go przed problemem z zupełnie nowej dziedziny, takiej jak logiczne rozumowanie (którego celowo nie uwzględniono w procesie treningu).

Oznacza to, że naukowcy mogliby korzystać z Centaura jako swego rodzaju cyfrowego laboratorium do prowadzenia eksperymentów in silico, czyli w całości w środowisku komputerowym. Chodzi o to, że zanim zaproszą do badania ludzi, będą mieli możliwość przetestowania na modelu AI różnych wariantów procedur, by sprawdzić, która wersja przyniesie najciekawsze wyniki lub pozwoli uzyskać wiarygodne dane przy mniejszej liczbie uczestników. Takie symulacje mogą okazać się szczególnie cenne, gdy tradycyjne badania są zbyt czasochłonne lub gdy utrudniony jest nabór do specyficznych grup, np. dzieci lub pacjentów z zaburzeniami psychicznymi. Jeszcze bardziej obiecująca wydaje się możliwość wykorzystania Centaura do rozwijania zupełnie nowych teorii zachowania człowieka. Zespół badawczy zademonstrował to, prosząc inny model AI o wygenerowanie słownego opisu strategii podejmowania decyzji na podstawie danych z jednego z eksperymentów. Następnie, wykorzystując Centaura, zidentyfikował słabości nowej hipotezy, co pozwoliło ją udoskonalić.

Mimo to, część środowiska naukowego pozostaje sceptyczna. Prof. Jeffrey Bowers, kognitywista z University of Bristol, określił nowy model jako wręcz „absurdalny”. Wraz ze swoim zespołem wykazał bowiem, że Centaur w niektórych zadaniach przejawia nadludzkie zdolności – np. potrafi zapamiętać do 256 cyfr, podczas gdy nasza pamięć krótkotrwała mieści średnio ok. siedmiu. Może też reagować w ciągu milisekundy, co jest dla człowieka fizycznie niemożliwe. Zdaniem Bowersa oznacza to, że modelowi nie należy ufać w zadaniach wykraczających poza dane treningowe.

Twórcy Centaura przyznają, że ma on swoje ograniczenia. Opiera się bowiem wyłącznie na zadaniach tekstowych, co oznacza, że wyklucza eksperymenty, których nie można wyrazić w języku naturalnym (np. oparte na percepcji wizualnej). Ponadto zbiór danych Psych-101, choć sam w sobie duży, koncentruje się głównie na uczeniu się i podejmowaniu decyzji, brakuje mu więc szerszego pokrycia innych domen poznawczych człowieka. Zespół badawczy wskazuje również na brak danych o różnicach indywidualnych uczestników (np. wieku, cechach osobowości) oraz na dominację w eksperymentach tzw. populacji WEIRD (zachodnich, wykształconych, uprzemysłowionych, bogatych i demokratycznych), co ogranicza możliwość uogólniania. Widzą w Centaurze potężne narzędzie, które może zrewolucjonizować badania.

Kwestią otwartą pozostaje jednak, czy coraz doskonalsza symulacja jest tym samym, co prawdziwe rozumienie. Dlatego prof. Bowers porównuje Centaura i ludzki umysł do zegarka cyfrowego i analogowego – oba pokazują ten sam czas, ale ich wewnętrzne mechanizmy są skrajnie różne. Model AI może więc generować „człowiekopodobne” odpowiedzi, ale opiera się na procesach, które nie mają nic wspólnego z działaniem ludzkiego umysłu.

Ta strona do poprawnego działania wymaga włączenia mechanizmu "ciasteczek" w przeglądarce.

Powrót na stronę główną