Reklama
Pulsar - wyjątkowy portal naukowy. Pulsar - wyjątkowy portal naukowy. Shutterstock
Technologia

Sztuczna inteligencja „widzi” stany psychiczne człowieka prawie doskonale. Co nie znaczy, że je „rozumie”

Terapeuci SI?
Struktura

Terapeuci SI?

Wykorzystywanie sztucznej inteligencji do rozwiązywania swoich problemów psychicznych nie jest bezpieczne.

Pięć czołowych modeli językowych poddano testowi empatii poznawczej. Trzy z nich – ChatGPT, Gemini i Grok – odpowiadały niemal tak, jak ludzie. Mistral nieco się mylił. Tylko Claude poszedł własną drogą.

Czy maszyna potrafi rozpoznać, że ktoś planuje podstęp, czuje żal albo zamierza komuś wybaczyć? Zespół hiszpańskich naukowców postanowił to sprawdzić, omijając główną przeszkodę dotychczasowych badań nad empatią poznawczą AI (czyli rozumieniem perspektywy, myśli i intencji drugiej osoby, bez konieczności przeżywania tych samych emocji). Klasyczne testy znajdują się bowiem w korpusach treningowych dużych modeli językowych (LLM), przez co ich odpowiedzi mogą być po prostu odtwarzaniem zapamiętanych odpowiedzi.

Badacze opracowali więc nowe zadanie, wykorzystując osiem portretów: trzy obrazy barokowego portrecisty Diego Velázqueza oraz pięć fotografii (przedstawiających m.in. twarze Picassa i Eisenhowera). Do każdego dołączali pytanie wymagające wyboru między dwiema przeciwstawnymi interpretacjami stanu psychicznego osoby na portrecie, np.: czy planuje oszukać, czy poinformować; czy jest pewny siebie, czy zmartwiony; czy patrzy na kogoś z podziwem, czy z pogardą.

W teście wzięło udział 230 młodych dorosłych (19–28 lat) oraz pięć modeli: ChatGPT-4o, Gemini 1.5 Flash, Grok 3, Claude Sonnet 4 i Mistral 3. Następnie badacze porównali, które algorytmy reagowały podobnie. Trzy pierwsze utworzyły zwartą grupę, której odpowiedzi okazały się statystycznie nieodróżnialne od ludzkich we wszystkich ośmiu wymiarach (np. naruszenia oczekiwań: czy osobę na portrecie coś zaskoczyło, czy też tego się spodziewała). Mistral zajął pośrednią pozycję, a Claude wyraźnie odstawał – np. w jednym z zadań przypisał sportretowanej osobie zaufanie, podczas gdy zdecydowana większość badanych dostrzegła na jej twarzy zagrożenie.

Co ciekawe, mimo ogólnego podobieństwa statystycznego, na poziomie konkretnych wyborów widać było, że modele AI chętniej niż ludzie wybierały interpretacje „prospołeczne”. Tam, gdzie 73 proc. uczestników widziało na twarzach pogardę, cztery z pięciu algorytmów dostrzegały podziw (znów jedynym wyjątkiem był Claude). W pytaniu o to, jak sportretowana osoba zachowa się wobec kogoś, kto ją skrzywdził, wszystkie modele jednogłośnie wskazywały wybaczenie, podczas gdy uczestnicy eksperymentu częściej obstawiali zemstę. Autorzy sugerują, że jest to wynik dostrajania algorytmów pod kątem bezpieczeństwa i uprzejmości wobec użytkowników.

Funkcjonalne podobieństwo odpowiedzi ludzi i AI nie oznacza jednak, że LLM-y rzeczywiście „rozumieją” emocje czy intencje. One tylko sprawnie zgadują – na podstawie statystycznych wzorców wyłowionych z ogromnych zbiorów danych – co ktoś czuje.


Dziękujemy, że jesteś z nami. To jest pierwsza wzmianka na ten temat. Pulsar dostarcza najciekawsze informacje naukowe i przybliża najnowsze badania naukowe. Jeśli korzystasz z publikowanych przez Pulsar materiałów, prosimy o powołanie się na nasz portal. Źródło: www.projektpulsar.pl.

Reklama