Daniel C. Dennett Daniel C. Dennett Karol Jałochowski / Archiwum
Technologia

Digi-Dan prowokuje do refleksji o naturze inteligencji

Sztuczna inteligencja potrafi podszywać się pod filozofów. Tak skutecznie, że niektóre jej wypowiedzi eksperci przypisali Danielowi C. Dennettowi.

Czy sztuczna inteligencja potrafiłaby napisać wysokich lotów rozprawkę filozoficzną? Esej, który redakcja szanowanego periodyku „Philosophical Review” zakwalifikowałaby do druku? Takie pytanie zadali sobie naukowcy z wydziałów filozoficznych renomowanych uczelni Anna Strasser (Ludwig-Maximilians-Universität München oraz DenkWerkstatt Berlin) i Eric Schwitzgebel (University of California, Riverside).

Zakładając, że SI raczej jeszcze nie dałaby rady sprostać powyższemu wyzwaniu, postanowili sprawdzić, ile jej do tego brakuje. W tym celu wykorzystali GPT-3 (Generative Pre-trained Transformer 3) – model SI, na którym bazuje słynny ChatGPT. Jego zadaniem miało być udawanie amerykańskiego filozofa Daniela C. Dennetta. Wybór z pewnością nie był przypadkowy, warto docenić dowcip i finezję owego zamysłu. Dennett jest wybitnym badaczem natury umysłu – istoty świadomości i inteligencji – chętnie porównującym pracę mózgu do pracy komputera.

Sztuczna inteligencja radzi sobie lepiej niż się tego spodziewali jej twórcy

Aby zwiększyć filozoficzne kompetencje GPT-3, naukowcy poddali go solidnemu treningowi. Wykorzystując najpotężniejszą SI z rodziny GPT-3, model Davinci, nakarmili ją wszystkimi dziełami Immanuela Kanta, później wszystkimi tekstami Erica Schwitzgebela z jego prowadzonego od 2006 roku bloga „The Spintered Mind” oraz większością prac Dennetta (15 książek, 269 artykułów). Na koniec sformułowali dziesięć – nierzadko złożonych – pytań odnoszących się do tematów badań tego ostatniego (m.in. świadomość, wolna wola, bóg) i poprosili samego filozofa o udzielenie odpowiedzi. Te same pytania zadali „Cyfrowemu Danowi” (Digi-Dan) – jak nazwali uzurpacyjny model SI – wielokrotnie, by na każde uzyskać cztery odpowiedzi spełniające elementarne kryteria. Chodziło przede wszystkim o to, by nie odbiegały znacząco długością od udzielonych przez Dennetta. Naukowcy zapewniają, że wykorzystali pierwsze z brzegu bez formalnych usterek, nie stosując żadnej dodatkowej selekcji.

Zgodnie z wynikami opublikowanymi na serwerze arXiv.org w artykule „Creating a Large Language Model of a Philosopher”, sztuczna inteligencja podołała wyzwaniu znacznie lepiej, niż się tego po niej spodziewali Anna Strasser i Eric Schwitzgebel (jako współautor artykułu wymieniony jest także David Schwitzgebel, syn Erica, pomagający w przeprowadzeniu testu).

Uzyskane odpowiedzi przedstawiono 425 osobom: 25 świetnie zorientowanym w twórczości Dennetta ekspertom w dziedzinie filozofii, 302 czytelnikom blogów o filozofii oraz 98 osobom losowym, nieznających myśli Amerykanina, z wykształceniem na poziomie co najmniej licencjatu.

Eksperci i blogerzy rozpoznają charakter pisma Dennetta jednakowo skutecznie

Poproszeni o wskazanie odpowiedzi filozofa na dziesięć pytań, wymieszanych każdorazowo z czterema odpowiedziami SI na to samo pytanie, eksperci uzyskali skuteczność 51-proc. To więcej od statystycznie przewidywalnych 20 proc., ale mniej od circa 80 proc. trafnych wskazań, których spodziewali się autorzy testu. Co ciekawe, w przypadku dwóch pytań eksperci wyraźnie częściej niż w przypadku pozostałych pytań wskazywali błędnie, faworyzując odpowiedzi udzielone przez GPT-3. W oczach znawców twórczości filozofa sztuczna inteligencja okazała się w tych dwóch przypadkach bardziej „dennettowska” od Dennetta.

Podobną skutecznością co eksperci wykazali się czytelnicy filozoficznych blogów (48 proc.). Pozostali uczestnicy testu wypadli znacznie gorzej, plasując się w bliskich okolicach przewidzianego statystycznie przypadku, czyli 20 proc. (trafność wskazań: 1,2 na 5).

Prawdopodobnie filozoficzni eksperci i czytelnicy filozoficznych blogów uzyskaliby jeszcze mniej imponujący wynik, gdyby nie ponadprzeciętna łatwość wskazywania odpowiedzi Dennetta na pytanie dotyczące myśli filozofów Davida Chalmersa i Jerry’ego Fodora. Dennett zwykł pisać o nich w swych pracach per „Dave”, „Jerry”. GPT-3 zdradził się, używając nazwisk.

SI prowokuje do zadania pytania o rolę oraz znaczenie świadomości

Najciekawsza konkluzja nie ma związku z wynikami liczbowymi – jest efektem analizy odpowiedzi udzielonych przez SI. Jak utrzymują Schwitzgebel i Strasser, GPT-3 nie plagiatował Dennetta. Myśli, jakie przedstawiał, mimo że stylem i filozoficzną treścią przypominały dennettowskie, były nowe. Jest to o tyle zaskakujące, że model językowy GPT-3 opiera się na analizie statystycznej treści dostępnych w bazach danych. Gdy pisze o Słońcu, że „świeciło jasno na niebie”, a nie że „zadzwoniło po pizzę”, to wynika to stąd, że taki ciąg słów jest w tym konkretnym przypadku statystycznie najbardziej prawdopodobny.

To między innymi prowokuje do zadania kłopotliwego pytania o rolę oraz znaczenie świadomości i woli w formułowaniu myśli. O autonomię ludzkiego umysłu. O samą naturę inteligencji.

PS. Daniel C. Dennett pracuje właśnie nad publikacją, w której odniesie się do wyników eksperymentu.

Ta strona do poprawnego działania wymaga włączenia mechanizmu "ciasteczek" w przeglądarce.

Powrót na stronę główną