Reklama
Pulsar - wyjątkowy portal naukowy. Pulsar - wyjątkowy portal naukowy. Ilustracja Shideh Ghandeharizadeh
Struktura

Terapeuci SI?

Sztuczna inteligencja „widzi” stany psychiczne człowieka prawie doskonale. Co nie znaczy, że je „rozumie”
Technologia

Sztuczna inteligencja „widzi” stany psychiczne człowieka prawie doskonale. Co nie znaczy, że je „rozumie”

Pięć czołowych modeli językowych poddano testowi empatii poznawczej. Trzy z nich – ChatGPT, Gemini i Grok – odpowiadały niemal tak, jak ludzie. Mistral nieco się mylił. Tylko Claude poszedł własną drogą.

Wykorzystywanie sztucznej inteligencji do rozwiązywania swoich problemów psychicznych nie jest bezpieczne.

Chatboty oparte na sztucznej inteligencji nie oceniają. Opowiedz im najbardziej osobiste, najbardziej wrażliwe szczegóły swojego życia, a większość z chatbotów okaże ci zrozumienie i być może nawet udzieli rady. Z tego powodu wiele osób zwraca się po życiowe wskazówki do aplikacji takich jak ChatGPT firmy OpenAI.

Jednak „terapia” z udziałem SI wiąże się z poważnym ryzykiem. Pod koniec lipca dyrektor generalny OpenAI, Sam Altman, ostrzegł użytkowników ChatGPT przed używaniem chatbota jako „terapeuty” z powodu obaw o prywatność.

Świat Nauki 4.2026 (300416) z dnia 01.04.2026; Q&A; s. 18