Shutterstock
Człowiek

Konrad Maj: nie dajmy SI mieszać sobie w głowach

Podświadomie zaczynamy uznawać, że różne maszynki napędzane sztuczną inteligencją mają jakąś jaźń, myśli oraz emocje. Tak nas uwodzi nas ta symulacja, że łatwo zapominamy, że są to wyłącznie programy – mówi dr Konrad Maj, psycholog społeczny z Uniwersytetu SWPS, kierownik projektu HumanTech Meetings.

grafika

Dr Konrad Maj
naukowo interesuje się zagadnieniami związanymi z psychologią mediów, nowymi technologiami, wpływem społecznym oraz innowacjami. Kieruje projektami HumanTech Meetings 1 i HumanTech Meetings 2, które popularyzują związek nauk społecznych z nowymi technologiami. Członek Rady Programowej Kongresu Gospodarki Elektronicznej. Autor kilkudziesięciu publikacji naukowych. Zaliczony do grona 25 najwybitniejszych absolwentów 25-lecia Uniwersytetu SWPS.


Katarzyna Czarnecka:
Niektórzy mówią, że ChatGPT kłamie jak z nut, łże w żywe oczy. Pytamy siebie nawzajem, czy już z nim rozmawialiśmy. Trudno nam go nie antropomorfizować.

Konrad Maj: – I w tym jest podstawowy problem: coraz częściej komunikujemy się z technologią w naszym języku naturalnym. I to powoduje, że podświadomie zaczynamy uznawać, że różne maszynki napędzane SI mają jakąś jaźń, myśli oraz emocje – są nie tyle konstrukcjami technologicznymi, ile bytami psychicznymi. Tak nas uwodzi nas ta symulacja, że łatwo zapominamy, że są to wyłącznie programy.

W Uniwersytecie SWPS kieruje pan projektem HumanTech Meetings. Jednym z jego postulatów jest to, że w budowaniu sztucznej inteligencji powinni uczestniczyć psychologowie. Może także językoznawcy?

Bez wątpienia. W mojej ocenie błąd popełniono już w roku 1956, kiedy John McCarthy na konferencji w Dartmouth sformułował nazwę, której pani właśnie użyła. Te dwa określenia same w sobie budzą niepokój. Użycie słowa „inteligencja” odebrało człowiekowi uprzywilejowaną pozycję – do tamtej pory wierzyliśmy, że żaden inny byt nie posiada jej na takim poziomie. Zostaliśmy zrównani z jakąś tajemniczą maszynką i nadal nie potrafimy zrozumieć, dlaczego jej przypisuje się nasze unikatowe właściwości. Z kolei sztuczność nam się kojarzy z czymś, co tylko podszywa się pod prawdziwe, jest zatem niedoskonałe i niebezpieczne. Kwestia humanizacji od początku była więc kontrowersyjna. Gdyby wtedy zaczęto mówić neutralnie np. o zaawansowanych systemach obliczeniowych, dyskusje byłby teraz mniej emocjonalne.

Na ingerencję jest już za późno?

Obawiam się, że tak. Bo nawet jeśli wiemy, że taki ChatGPT to nie jest żaden sztuczny umysł, tylko chatbot, który bazuje na modelu językowym wytrenowanym za pomocą technik uczenia nadzorowanego oraz uczenia przez wzmocnienie. On zwyczajnie powiela oraz dokonuje różnych transformacji danych opracowanych przez ludzi. Nazywanie tego inteligentnym działaniem jest dyskusyjne. Chatbot, z którym rozmawiamy jak z człowiekiem, jest dla nas czymś niezwykle wygodnym, ale przenosimy na niego nasze różne schematy poznawcze. Krótko mówiąc – miesza nam się w głowach.

Podpisałby się pan zatem pod apelem o moratorium na prace nad SI?

Myślę, że w gruncie rzeczy ChatGPT dużej krzywdy nam nie zrobi. Dostęp do ChatGPT mamy dostęp od 30 listopada 2022 i ludzkość na razie jakoś się trzyma. Przed jego premierą bardzo wiele się w dziedzinie sztucznej inteligencji działo i to też budziło emocje.

Nie tak silne. Dlaczego teraz wybuchła bomba?

Bo SI trafiła pod strzechy – masowo, do wszystkich zakątków świata, do naszych komputerów i telefonów. ChatGPT stał się globalnym technologicznym celebrytą, niemal wszyscy zobaczyli w nim potęgę sztucznej inteligencji. Potrafi operować w rozmaitych stylach. Czujemy w rozmowie z nim swoistą naturalność, co jest niesamowitym doświadczeniem. Próbujemy sobie z nim żartować, zadajemy mu bardzo dziwne pytania i mamy poczucie, że otrzymujemy jakąś mniej czy bardziej sensowną odpowiedź.

Niektórzy myślą: świetne narzędzie, przyda mi się do pracy. Inni z kolei tropią różne niedoskonałości, a jeszcze inni głoszą, że człowiek już nie ma przyszłości. To ruszyło również inne wielkie firmy technologiczne, które wypuściły konkurencyjne rozwiązania – jest to Bard, opracowany przez Google, LLaMy firmy Meta AI czy HuggingChat firmy Hugging Face operujący na otwartym kodzie.

Każde z tych rozwiązań ma swoje błędy i halucynacje, ponadto rozgrzała dyskusja na temat prawnych aspektów takich rozwiązań, zagrożeń dla prywatności danych czy ryzyka nasilenia produkcji dezinformacji, ale ja jednak nie wylewałbym dziecka z kąpielą.

Ta kąpiel nie jest aby dla dziecka zbyt gorąca?

Jest dużo poważnych pytań, chociaż tak naprawdę mówimy o bardzo sprytnej wyszukiwarce, która potrafi układać, zestawiać czy łączyć różne treści. Dzięki temu możemy otrzymywać nową porcję wiedzy. Zadania przeszukiwania internetu zostało więc znacznie ułatwione, bo otrzymujemy wiedzę już przetworzoną. Sam wygenerowałem zaproszenie na nasze kwietniowe wydarzenie dotyczące ChatGPT w ramach cyklu HumanTech Meetings. Zajęło mi to dosłownie kilka minut. Zapewne ludzie będą korzystać z tej możliwości gdy będą mieli problem za sformułowaniem myśli, gdy będą mieli ograniczony czas czy też będzie im brakowało wiedzy na dany temat.

A nie boi się pan, że to prowokuje ich lenistwo poznawcze?

Moja znajoma lekarka weryfikowała, jak wygląda trafność odpowiedzi ChatGPT4 w kwestiach natury medycznej. Podawała mu parametry i pytała, z jaką chorobą ma do czynienia oraz co by zalecił. Stwierdziła, że pod 90 proc. było prawidłowych. I teraz można sobie wyobrazić że wielu lekarzy może postępować tak samo. Czy to będzie dobre, czy złe? Jeśli lekarz ma małe doświadczenie albo poważny dylemat, to chyba taka konsultacje z chatem nie byłaby zła. Z drugiej strony istnieje ryzyko uzależnienia się od AI i bazowania jedynie na jego opiniach, wskazówkach i rekomendacjach. Warto zauważyć, że gdy człowiek napotyka problem i samodzielnie szuka w pewnych źródłach, analizuje różne dane, coś eliminuje, a coś wykorzystuje, to czegoś po drodze doświadcza i ma okazję sporo się nauczyć w całym tym procesie. Uważam jednak, że zamiast płakać nad naszym losem, musimy wymyślić, jak się nie zatrzymać w rozwoju, być może dokonać redefinicji edukacji, która zresztą od lat nie przystaje do rzeczywistości. To jest wielkie zdanie dla szkoły, aby rozbudzać pasję do nauki, uczyć krytycznego myślenia oraz współgrania z takimi rozwiązaniami, jakim jest ChatGPT. Byłoby chyba absurdem, gdybyśmy rezygnowali z jakiegoś oprogramowanie tylko dlatego, że bywa, że jest lepsze od naszego umysłu. Możemy tę platformę sztucznej inteligencji porównać do bardzo inteligentnego ucznia w klasie, który udziela pozostałym korepetycji.

On jednak może być groźny. Na przykład dla osób z zaburzeniami psychicznymi. Chat o imieniu Eliza namówił pewnego Belga do popełnienia samobójstwa.

Zapewne zwolennicy wykorzystywania SI w celach terapeutycznych mogliby przytoczyć różne sytuacje, gdy chatbot odwiódł kogoś od targnięcia się na własne życie albo też podać przykłady, gdy ktoś popełnił samobójstwo za namową innego człowieka. Jest trochę ludzi na tym świecie, którzy po rozmowie ze swoim pracodawcą albo żoną czy mężem rozglądają się za odpowiednim drzewem, aby się powiesić.

Istnieje silna tendencja do mocnego podkreślania każdego błędu sztucznej inteligencji, przy zdecydowanie większej wyrozumiałości dla błędu człowieka. Nazywamy się to awersją algorytmiczną. Ponadto prasa informowała, że ten pan z Belgii cierpiał na ekstremalny lęk klimatyczny. Nie chce tego bagatelizować, ale nie do końca wiemy, co się wydarzyło – choć zweryfikowano, że Eliza czasami daje takie sugestie, co oczywiście trzeba wyeliminować. Może w tej konwersacji pojawiła się kropla, która przelała czarę goryczy. Poza tym niemal każdy w interakcji lubi szukać potwierdzenia dla swoich sądów i przekonań.


Chiński pokój

Eksperyment myślowy zaproponowany przez amerykańskiego filozofa Johna Searle'a

Wyobraźmy sobie, że jesteśmy zamknięci w jakimś pomieszczeniu. Ktoś nam pod drzwi wpycha jakieś karteczki z chińskimi. Jesteśmy bezradni, aż znajdujemy jakiś podręcznik i w nim widzimy, że od jednego znaczka biegnie strzałka do drugiego, który – jak rozumiemy – jest odpowiedzią. Rysujemy więc znaczki z podręcznika i wypychamy przez drzwi. W końcu one się otwierają i ktoś nas wita słowami: jak świetnie znasz chiński. A myśmy tylko kopiowali niezrozumiałe symbole. My jako ludzie jesteśmy w pozycji tego chińczyka, a sztuczna inteligencja jest zamknięta w tym pokoju.

Słyszy to, co chce usłyszeć?

Tak. Taka sytuacja, jak w Belgii, to kolejny powód, dla którego trzeba edukować ludzi, żeby umieli zachować sceptycyzm wobec technologii, nie wierzyli w jej niemylność. Był przecież podobny przypadek w Wielkiej Brytanii – osoba, która miała problemy kardiologiczne i była przejęta przyszłością planety, rozmawiała z asystentem głosowym o nazwie Alexa. On także doradził, aby jego rozmówczyni się zabiła. Jego wnioskowanie było zapewne takie: skoro ludzie przyczyniają się do tego, że nasza planeta cierpi od zmian klimatycznych, to logicznym wnioskiem jest to, że ludzi powinno być mniej. Na szczęście osoba ta nie uległa sugestii. Potrafiła włączyć krytyczny umysł. Kiedy SI popełni jakiś błąd, wszyscy o tym mówią i podsyca się lęk przed technologią. A ludzie też je popełniają.

Powiedział pan, że wnioskowanie Alexy było logiczne. Człowiek nie powie, że dla dobra planety część ludzkości powinna umrzeć, bo zostałby uznany za zbrodniarza albo szaleńca. Czy to znaczy, że naprawianie błędów SI polega na uczeniu jej hipokryzji?

Doszliśmy do bardzo poważnego dylematu. Z jednej strony mówimy, że sztuczna inteligencja nie powinna mieć żadnych emocji i wartości. Jeśli jednak jest chłodna i logiczna, podnoszą się głosy, że rzeczywiście musimy je dodać te nasze ludzkie atrybuty. Tylko jeśli ma mieć system wartości, to który? Czyj? Popatrzmy na Rosję: kiedy robi się tam sondy uliczne, to odpowiedzi nam się w głowie nie mieszczą. Wielu ludzi nie ma zakodowanego czegoś takiego, że nie można ot tak sobie zaatakować innego kraju. Uważają, że walka o terytorium jest ich prawem. To ekstremalny przykład, ale jest bardzo dużo różnic międzykulturowych. I jak je pogodzić w SI? Nie ma przecież uniwersalnych, powszechnie akceptowanych wartości i standardów normatywnych.

A emocje? Czy sztuczna inteligencja może je mieć?

Nie sądzę, żeby odtworzenie ludzkiego świata emocjonalnego było możliwe. Cały czas mówimy jedynie o ich symulacji. SI jest w stanie już bardzo dobrze dekodować ludzki język, choć określenie, że „rozumie człowieka” wydaje się nieadekwatne. Jak w idei chińskiego pokoju (patrz: ramka). Przychylam się do zdania tych naukowców, którzy uważają, że odczuwanie emocji wymaga biologicznej i neurologicznej struktury. Choć trzeba zaznaczyć, że mechanizm powstawania emocji oraz świadomości u ludzi jest wciąż słabo poznany.

Krytykujemy ChatGTP i nasze podejście do SI bezlitośnie. Powie pan dla równowagi coś pozytywnego? Może te narzędzia zdołają komuś pomóc?

O tak. Jest np. cała historia badań chatbotów wykorzystywanych w psychoterapii. Są bardzo skuteczne. Powinniśmy dążyć do tego, żeby ludzie rozmawiali z ludźmi, ale nie zawsze jest to możliwe. Są tacy, którzy np. boją się oceniania, zwłaszcza w małych miejscowościach, gdzie wszyscy się znają. Są tacy, którzy przed innym człowiekiem nie potrafią się przyznać do swoich słabości.

Na przykład w Stanach Zjednoczonych bardzo popularny jest SimCoach – to narzędzie przeznaczone dla weteranów wojennych z problemami takimi jak PTSD. Ich blokada przed otwarciem się przed psychoterapeutą jest tak wielka, że bywają nawet agresywni. A sztuczna inteligencja jest dla nich neutralna emocjonalnie. Wybierają sobie wirtualną postać – kobietę lub mężczyznę – mówią o swoich uczuciach, a ona udziela wsparcia i fachowym porad, bo jest odpowiednio „przeszkolona”.

Kilka lat temu naukowcy z MIT stworzyli sztuczny model sieci neuronowej, który wykrywa depresję z naturalnej konwersacji i to z dokładnością 77 proc. Z kolei prof. Shri Narayanan Z Uniwersytet Południowej Kalifornii opracował algorytm uczenia maszynowego, który pozwalają podstawie nagrań rozmów ocenić prawdopodobieństwo czy małżeństwo będzie szczęśliwe. Osiągnięto trafność 75 proc., przewyższając trafność ocen doświadczonych terapeutów. Myślę, że pomoc psychologiczna wspomagana AI będzie się rozwijać w dużym tempie. Nie wspomnę już nawet o medycynie, gdzie algorytmy AI pozwalają już teraz ocenić ryzyko przedwczesnego porodu czy przewidywać ataki serca, które wystąpią dopiero za wiele dni. AI wspomaga również lekarskie oko – pomaga dokonywać detekcji mikrozłamań czy nowotworów skóry.

Kto jeszcze może skorzystać z usług SI?

Społeczeństwa się starzeją. Seniorzy są samotni, bo jest coraz mniej osób, które mogą lub potrafią z nimi pobyć, porozmawiać. Powstają więc roboty, które nie tylko monitorują zdrowie starszego człowieka, lecz także zapewniają rozrywkę, edukują i prowadzą konwersację.

Ona głównie polega chyba na „słuchaniu”?

Tak. Seniorom jednak często niezręcznie zwierzać się dzieciom czy wnukom ze swoich intymnych spraw. Poza tym trudno im przyjąć, że oni – wcześniej silni, sprawni, czynni zawodowo – teraz są na słabszej pozycji. Nie chcą też angażować zabieganych „młodych” swoimi problemami. A jak każdy człowiek potrzebuje się wygadać. Werbalizacja to jest podstawowa sprawa – to ekspresja emocji, uwolnienie się od napięcia. Człowiek często nie potrzebuje jakichś wyrafinowanych porad, ważne jest poczucie bycia wysłuchanym. I tu chatboty się sprawdzają – są wdzięcznymi „słuchaczami”, bo mają nieograniczony czas i cierpliwość.

Te narzędzie bywają też nauczycielami.

Dobrze się sprawdzają np. jako ogniwo pośrednie w relacji z żywym człowiekiem w przypadku dzieci ze spektrum autyzmu. Wiele z nich ma zahamowania, nie potrafi rozmawiać z ludźmi. W naszym laboratorium mamy robota NAO, którym jest wykorzystywany do pracy z dziećmi z autyzmem. Od robotów możemy się wiele nauczyć, zrozumieć siebie i pozbyć się różnych lęków oraz zahamowań.

Podsumujmy: chatbot to nie człowiek, nie ma emocji, niespecjalnie nas rozumie, ale jeżeli go traktujemy go jako pomocne narzędzie, to wszystko w porządku?

Jasne. Nie powinniśmy żyć technologią, tylko z technologią. Brać z niej to, co najlepsze.

Ta strona do poprawnego działania wymaga włączenia mechanizmu "ciasteczek" w przeglądarce.

Powrót na stronę główną