Digi-Dan prowokuje do refleksji o naturze inteligencji
Czy sztuczna inteligencja potrafiłaby napisać wysokich lotów rozprawkę filozoficzną? Esej, który redakcja szanowanego periodyku „Philosophical Review” zakwalifikowałaby do druku? Takie pytanie zadali sobie naukowcy z wydziałów filozoficznych renomowanych uczelni Anna Strasser (Ludwig-Maximilians-Universität München oraz DenkWerkstatt Berlin) i Eric Schwitzgebel (University of California, Riverside).
Zakładając, że SI raczej jeszcze nie dałaby rady sprostać powyższemu wyzwaniu, postanowili sprawdzić, ile jej do tego brakuje. W tym celu wykorzystali GPT-3 (Generative Pre-trained Transformer 3) – model SI, na którym bazuje słynny ChatGPT. Jego zadaniem miało być udawanie amerykańskiego filozofa Daniela C. Dennetta. Wybór z pewnością nie był przypadkowy, warto docenić dowcip i finezję owego zamysłu. Dennett jest wybitnym badaczem natury umysłu – istoty świadomości i inteligencji – chętnie porównującym pracę mózgu do pracy komputera.
Sztuczna inteligencja radzi sobie lepiej niż się tego spodziewali jej twórcy
Aby zwiększyć filozoficzne kompetencje GPT-3, naukowcy poddali go solidnemu treningowi. Wykorzystując najpotężniejszą SI z rodziny GPT-3, model Davinci, nakarmili ją wszystkimi dziełami Immanuela Kanta, później wszystkimi tekstami Erica Schwitzgebela z jego prowadzonego od 2006 roku bloga „The Spintered Mind” oraz większością prac Dennetta (15 książek, 269 artykułów). Na koniec sformułowali dziesięć – nierzadko złożonych – pytań odnoszących się do tematów badań tego ostatniego (m.in. świadomość, wolna wola, bóg) i poprosili samego filozofa o udzielenie odpowiedzi. Te same pytania zadali „Cyfrowemu Danowi” (Digi-Dan) – jak nazwali uzurpacyjny model SI – wielokrotnie, by na każde uzyskać cztery odpowiedzi spełniające elementarne kryteria. Chodziło przede wszystkim o to, by nie odbiegały znacząco długością od udzielonych przez Dennetta. Naukowcy zapewniają, że wykorzystali pierwsze z brzegu bez formalnych usterek, nie stosując żadnej dodatkowej selekcji.
Zgodnie z wynikami opublikowanymi na serwerze arXiv.org w artykule „Creating a Large Language Model of a Philosopher”, sztuczna inteligencja podołała wyzwaniu znacznie lepiej, niż się tego po niej spodziewali Anna Strasser i Eric Schwitzgebel (jako współautor artykułu wymieniony jest także David Schwitzgebel, syn Erica, pomagający w przeprowadzeniu testu).
Uzyskane odpowiedzi przedstawiono 425 osobom: 25 świetnie zorientowanym w twórczości Dennetta ekspertom w dziedzinie filozofii, 302 czytelnikom blogów o filozofii oraz 98 osobom losowym, nieznających myśli Amerykanina, z wykształceniem na poziomie co najmniej licencjatu.
Eksperci i blogerzy rozpoznają charakter pisma Dennetta jednakowo skutecznie
Poproszeni o wskazanie odpowiedzi filozofa na dziesięć pytań, wymieszanych każdorazowo z czterema odpowiedziami SI na to samo pytanie, eksperci uzyskali skuteczność 51-proc. To więcej od statystycznie przewidywalnych 20 proc., ale mniej od circa 80 proc. trafnych wskazań, których spodziewali się autorzy testu. Co ciekawe, w przypadku dwóch pytań eksperci wyraźnie częściej niż w przypadku pozostałych pytań wskazywali błędnie, faworyzując odpowiedzi udzielone przez GPT-3. W oczach znawców twórczości filozofa sztuczna inteligencja okazała się w tych dwóch przypadkach bardziej „dennettowska” od Dennetta.
Podobną skutecznością co eksperci wykazali się czytelnicy filozoficznych blogów (48 proc.). Pozostali uczestnicy testu wypadli znacznie gorzej, plasując się w bliskich okolicach przewidzianego statystycznie przypadku, czyli 20 proc. (trafność wskazań: 1,2 na 5).
Prawdopodobnie filozoficzni eksperci i czytelnicy filozoficznych blogów uzyskaliby jeszcze mniej imponujący wynik, gdyby nie ponadprzeciętna łatwość wskazywania odpowiedzi Dennetta na pytanie dotyczące myśli filozofów Davida Chalmersa i Jerry’ego Fodora. Dennett zwykł pisać o nich w swych pracach per „Dave”, „Jerry”. GPT-3 zdradził się, używając nazwisk.
SI prowokuje do zadania pytania o rolę oraz znaczenie świadomości
Najciekawsza konkluzja nie ma związku z wynikami liczbowymi – jest efektem analizy odpowiedzi udzielonych przez SI. Jak utrzymują Schwitzgebel i Strasser, GPT-3 nie plagiatował Dennetta. Myśli, jakie przedstawiał, mimo że stylem i filozoficzną treścią przypominały dennettowskie, były nowe. Jest to o tyle zaskakujące, że model językowy GPT-3 opiera się na analizie statystycznej treści dostępnych w bazach danych. Gdy pisze o Słońcu, że „świeciło jasno na niebie”, a nie że „zadzwoniło po pizzę”, to wynika to stąd, że taki ciąg słów jest w tym konkretnym przypadku statystycznie najbardziej prawdopodobny.
To między innymi prowokuje do zadania kłopotliwego pytania o rolę oraz znaczenie świadomości i woli w formułowaniu myśli. O autonomię ludzkiego umysłu. O samą naturę inteligencji.
PS. Daniel C. Dennett pracuje właśnie nad publikacją, w której odniesie się do wyników eksperymentu.