Shutterstock
Struktura

Czy modele językowe są świadome? Odpowiada David Chalmers

Czy duże modele językowe myślą? Odpowiada David Chalmers
Struktura

Czy duże modele językowe myślą? Odpowiada David Chalmers

Moje analizy skłaniają do twierdzenia, że jeśli LLM-y będą mogły kiedykolwiek myśleć, to napotkają na pewne ograniczenia w tym, o czym będą w stanie myśleć – pisze David Chalmers, filozof umysłu i języka, kognitywista, uczestnik największych debat o naturze świadomości.

Łowcy Podrabianych Słów, czyli jak chronić kulturowe DNA przed niechcianym wpływem AI
Technologia

Łowcy Podrabianych Słów, czyli jak chronić kulturowe DNA przed niechcianym wpływem AI

Język pełni funkcję wyjątkową – to nasz „system operacyjny”. A teraz jest infekowany na niespotykaną skalę przez automatycznie generowane treści.

Wielką katastrofą byłoby bezwiedne i bezmyślne spotkanie ze sztuczną inteligencją obdarzoną świadomością – mówi David Chalmers, filozof umysłu i języka, kognitywista, uczestnik największych debat o naturze świadomości.

Tekst pierwotnie ukazał się na łamach „Boston Review”.

Przekład: Piotr Rejnuś

Kiedy na początku lat 90. byłem absolwentem studiów, połowę czasu spędzałem na rozmyślaniu o sztucznej inteligencji (AI), zwłaszcza o sztucznych sieciach neuronowych, a drugą połowę na myśleniu o świadomości. Z biegiem lat coraz więcej pracowałem nad świadomością, jednak w ciągu ostatniej dekady uważnie śledziłem eksplozję prac nad uczeniem głębokim w sztucznych sieciach neuronowych. Ostatnio moje zainteresowania sieciami neuronowymi i świadomością zaczęły się krzyżować.

Kiedy Blake Lemoine, inżynier oprogramowania w Google, powiedział w czerwcu 2022 roku, że wykrył świadomość w LaMDA 2, systemie modelowania języka opartym na sztucznej sieci neuronowej, jego twierdzenie spotkało się z powszechnym niedowierzaniem.

Rzecznik Google powiedział: Nasz zespół – w tym etycy i technolodzy – przeanalizował obawy Blake'a zgodnie z naszymi Zasadami Sztucznej Inteligencji i poinformował go, że dowody nie potwierdzają jego twierdzeń. Powiedziano mu, że nie ma dowodów na to, że LaMDA jest zdolna do odczuwania (i wskazano wiele dowodów przeciwko temu twierdzeniu). Pytanie o dowody wzbudziło moją ciekawość. Jakie są lub mogą być dowody przemawiające za świadomością w dużym modelu językowym, a jakie mogą być dowody przeciwko temu? O tym właśnie będę tutaj mówił.

Modele językowe to systemy, które przypisują prawdopodobieństwa sekwencjom tekstu. Po otrzymaniu początkowego tekstu używają tych prawdopodobieństw do generowania nowego tekstu. Duże modele językowe (ang. Large language model, LLM), takie jak dobrze znane systemy GPT, to modele językowe wykorzystujące gigantyczne sztuczne sieci neuronowe. Są to ogromne sieci połączonych ze sobą jednostek podobnych do neuronów, wyszkolonych przy użyciu ogromnej ilości danych tekstowych, które przetwarzają dane wejściowe tekstu i odpowiadają tekstem wyjściowym. Systemy te są wykorzystywane do generowania tekstu, który coraz bardziej przypomina wytwór ludzki.

Wiele osób twierdzi, że widzi w tych systemach przebłyski inteligencji, a niektórzy dostrzegają oznaki świadomości.

Pytanie o świadomość LLM przybiera różne formy. Czy obecne duże modele językowe są świadome? Czy przyszłe duże modele językowe lub ich rozszerzenia mogą być świadome? Jakie wyzwania należy pokonać na drodze do świadomych systemów sztucznej inteligencji? Jaki rodzaj świadomości może mieć LLM? Czy powinniśmy tworzyć świadome systemy AI, czy jest to zły pomysł?

Interesują mnie zarówno dzisiejsze LLM, jak i ich następcy. Następcy ci obejmują to, co będę nazywał systemami LLM+ lub rozszerzonymi dużymi modelami językowymi. Te rozszerzone modele dodają dalsze możliwości do czysto tekstowych lub językowych możliwości modelu językowego. Mamy już modele wielomodułowe, którym wbudowano przetwarzanie obrazu i dźwięku, a czasami dodano kontrolę nad ciałem fizycznym lub wirtualnym. Są modele rozszerzone o działania, takie jak zapytania do bazy danych i wykonywanie kodu. Skoro ludzka świadomość jest wielomodułowa i głęboko związana z działaniem, można argumentować, że te rozszerzone systemy są dużo bardziej obiecujące jako kandydaci na ludzką świadomość niż czyste LLM.

Mój plan jest następujący. Po pierwsze, postaram się rozjaśnić problem świadomości. Po drugie, krótko przeanalizuję argumenty przemawiające za przejawami świadomości w obecnych dużych modelach językowych. Po trzecie, zagłębię się w argumenty za tym, że duże modele językowe jednak nie są świadome. Na koniec wyciągnę kilka wniosków i zakończę możliwą mapą drogową do świadomości w dużych modelach językowych i ich rozszerzeń.

I. Świadomość

Czym jest świadomość, czym jest czucie (sentience)? Będę traktował oba pojęcia z grubsza równoważnie. Świadomość i czucie, tak jak je rozumiem, to subiektywne doznania. Istota jest świadoma lub czująca, jeśli ma zdolność do posiadania subiektywnych doznań takich jak widzenie, uczucia, myślenie.

Zgodnie z powiedzeniem ukłutym przez mojego kolegę Thomasa Nagela, bycie świadomym (lub posiadanie subiektywnych doznań) to bycie czymś, co wie, jak to jest być sobą. Nagel napisał słynny artykuł, w którego tytule zadał pytanie „Jak to jest być nietoperzem?”. Ciężko dowiedzieć się dokładnie, czym dokładnie jest subiektywne doznanie bycia nietoperzem, posługującym się echolokacją do poruszania się, ale większość z nas mniema, że jest coś takiego jak bycie nietoperzem. Bo jest on świadomy. Bo ma subiektywne doznania.

Z drugiej strony większość ludzi mniema, że nie myśli w ten sposób o butelce wody. Nie ma czegoś takiego jak bycie butelką wody. Butelki nie mają subiektywnych doznań.

Świadomość ma wiele różnych aspektów. Po pierwsze, mamy doznania zmysłowe związane z postrzeganiem takie jak widzenie czerwieni. Po drugie, są doznania afektywne powiązane z uczuciami i emocjami takie jak bycie smutnym. Po trzecie, wyróżniamy doznania kognitywne związane z myśleniem i rozumowaniem takie jak rozwikływanie ciężkiej zagadki. Po czwarte, mamy doznania podmiotowe, związane z działaniem, z decydowaniem co robić. Jest jeszcze samoświadomość, bycie świadomym siebie (ang. awareness of oneself). Każdy z tych aspektów jest częścią świadomości, chociaż żaden z nich sam nie jest w pełni świadomością. Wszystkie są aspektami lub składnikami subiektywnego doświadczenia.

Jeszcze inne rozróżnienia mogą okazać się pomocne. Świadomość to nie to samo co samoświadomość. Świadomość nie powinna również być utożsamiana z inteligencją, przez którą rozumiem, ogólnie rzecz biorąc, zdolność do wyrafinowanych zachowań zorientowanych na cel (ang. sophisticated goal-directed behavior). Doświadczenie subiektywne i zachowanie obiektywne to dwie całkiem różne rzeczy, choć mogą zachodzić między nimi jakieś związki.

Co istotniejsze, świadomość to nie to samo co inteligencja na poziomie ludzi (ang. human-level intelligence). Pod pewnymi względami poprzeczka jest zawieszona nieco niżej. Przykładowo, panuje powszechna naukowa zgoda, że świadome są koty i myszy, może nawet ryby. Pytanie zatem, czy LLM są świadome, nie jest równoznaczne z pytaniem, czy mają one inteligencje na poziomie ludzkim. Ewolucja stworzyła świadome istoty dużo wcześniej niż świadomość na poziomie ludzi. Nie jest wykluczone, że AI również może to zrobić.

Brak definicji operacyjnej powoduje, że prace nad świadomością w AI są trudniejsze, ponieważ w AI jesteśmy przyzwyczajeni kierować się obiektywnymi kryteriami efektywności.

Słowo „czucie” jest nawet bardziej niejednoznaczne i mętne niż wyraz „świadomość”. Czasami używa się go do opisu doświadczeń afektywnych takich jak szczęście, przyjemność, ból, cierpienie niezależnie od ich pozytywnego czy negatywnego wartościowania, a kiedy indziej jako zastępnika dla samoświadomości. W innych przypadkach używa się go w stosunku do inteligencji na poziomie ludzkim, a niektórzy używają przymiotnika „czujący” w znaczeniu responsywny. Pozostanę zatem przy słowie świadomość, ponieważ tutaj mamy przynajmniej dość wystandaryzowaną terminologię.

Rozpatrywałem i miałem wiele poglądów na temat świadomości, ale nie będę podejmował się roztrząsania tutaj zbyt wielu z nich. Na przykład, w przeszłości argumentowałem, że istnieje trudny problem z wyjaśnieniem świadomości (ang. hard problem), ale nie będzie to odgrywać tutaj głównej roli. Spekulowałem na temat panpsychizmu, idei, że wszystko jest świadome. Jeśli założymy, że wszystko jest świadome, to mamy bardzo łatwą drogę do tego, by duże modele językowe były świadome. Ja też tego tutaj nie zakładam. Tu i ówdzie przedstawię własne opinie, ale przede wszystkim postaram się pracować w oparciu o zasadniczo główne poglądy w nauce i filozofii świadomości, aby zastanowić się, co wynika z tego dla LLM i ich następców.

Idąc dalej, chce przyjąć założenie, że świadomość jest czymś rzeczywistym, nie zaś złudzeniem (ang. illusion). Jest to istotne założenie. Jeśli zakładasz, że świadomość jest złudzeniem, tak jak robią to niektórzy, to sprawy pójdą zupełnie po innym torze.

Muszę powiedzieć, że nie ma jednej uznanej definicji operacyjnej świadomości. Świadomość jest subiektywnym doświadczeniem, nie zewnętrznym działaniem. To czyni badania nad świadomością trudnymi w dwójnasób (ang. tricky). Wiedząc o tym, nadal możemy szukać dowodów potwierdzających jej istnienie. W odniesieniu do ludzi opieramy się na raportach werbalnych (ang. verbal report). Bierzemy to, co mówią inni ludzi za wyznacznik ich świadomości. Wśród nie-ludzkich zwierząt, zwracam uwagę na przejawy zachowań, które mogą świadczyć o świadomości.

Brak definicji operacyjnej czyni pracę nad świadomością w AI trudniejszą, ponieważ w tej branży przyzwyczailiśmy się od obiektywnych wskaźników wykonywania zadań. W AI, mamy przynajmniej kilka znanych testów jak test Turinga, który wielu ludzi bierze za co najmniej warunek wystarczający dla zaistnienia świadomości, choć rzecz jasna nie warunek konieczny.

Masa ludzi związanych z uczeniem maszynowym skupia się na benchmarkach. Rodzi to dla nas wyzwanie. Czy możemy znaleźć benchmarki dla świadomości? A dokładnie, czy możemy wymyślić obiektywne testy, które posłużą nam jako wskaźniki świadomości w systemach AI?

Nie jest łatwo opracować benchmarki świadomości. Być może jednak da się obmyślić benchmarki dla przejawów świadomości tj. samoświadomość, uwaga, doznania afektywne, świadome vs. nieświadome przetwarzanie informacji? Przypuszczam, że każdy taki benchmark spotka się z kontrargumentacją i uznany zostanie za rozwiązanie kontrowersyjne, niemniej wyzwanie jest wielce interesujące.

(Jest to pierwsze z wyzwań, jakie wyrastają przed nad nami na drodze ku świadomej AI. Oznakuje je w trakcie, a na koniec zbiorę razem).

Czy ma to jakieś znaczenie, że systemy AI mogą być świadome? Nie będę obiecywał, że świadomość wygeneruje jakieś nowe, niesamowite zdolności, których nie przejawiają sieci neuronowe bez świadomości. Może to być prawdą, jednak rola świadomości w zachowaniu jest na tyle słabo poznana, że nierozsądnym byłoby tutaj coś obiecywać. Nie zapomnijmy jednak, że pewne formy świadomości mogą występować razem z pewnymi określonymi działaniami w systemach AI niezależnie od tego, czy są związane z rozumowaniem, uwagą, czy też samoświadomością.

Świadomość ma też znaczenie moralne. Świadome systemy mają status moralny. Jeśli ryba ma świadomość, to ma znaczenie jak ją traktujemy. Wchodzi tym samym w nasz krąg moralny. Jeśli jakimś sposobem systemu AI staną się świadome, również one znajdą się w naszym kręgu moralnym, a znaczenie moralne nabierze sposób, w jaki je traktujemy. Mówiąc bardziej ogólnikowo, świadome AI będzie krokiem w stronę ogólnej sztucznej inteligencji na poziomie ludzkim. Będzie to wielki krok, którego nie powinniśmy czynić bezwiednie i bezmyślnie.

Świadomość nie jest tym samym co inteligencja na poziomie ludzkim. Pod wieloma względami w jej wypadku, poprzeczka została zawieszona nieco niżej.

Na tym tle rodzi się drugie z naszych wyzwań: czy powinniśmy stworzyć świadomą AI? W duże mierze jest o wyzwanie etyczne dla całej ludzkości. Pytaniem w nim zawarte jest ważne, a odpowiedź na nie, daleka od oczywistości.

Już w tym momencie napotykamy na wiele palących wyzwań etycznych związanych z LLM. Są to kwestie związane ze słusznością, z bezpieczeństwem, wiarygodnością, sprawiedliwością czy odpowiedzialnością. Jeśli gdzieś na horyzoncie kiełkuje już świadome AI, to wraz z nim pojawią się nowe i trudne wyzwania etyczne, a ich możliwymi przejawami mogą być nowe formy nierówności i niesprawiedliwości. Nowe problemy dołączą do starych. Z jednej strony świadoma AI może uczynić wiele szkód i krzyw ludziom. Z drugiej, ona sama może okazać się ofiarą.

Nie jestem etykiem i nie będę tutaj zagłębiał się w kwestie etyczne, ale nie oznacza, że je lekceważę. Nie chcę, aby mapa drogowa do świadomej sztucznej inteligencji, którą tu przedstawiam, była postrzegana jako ścieżka, którą musimy podążać. Wyzwania, które przedstawiam poniżej, można równie dobrze postrzegać jako zestaw czerwonych flag. Każde pokonane wyzwanie przybliża nas do świadomej sztucznej inteligencji, na dobre i na złe. Musimy być świadomi tego, co robimy i dobrze się zastanowić, czy powinniśmy to robić.

II. Dowody na istnienie świadomości w dużych modelach językowych?

Skupię się teraz na dowodach przemawiających za istnieniem świadomości w dużych modelach językowych. Moje wnioski dowodowe będą musiały być złożone w odpowiedniej wymaganej formie: jeśli twierdzisz, że LLM jest świadomy, to musisz stwierdzić i obronić, że posiada on cechę X, która służy jako wskaźnik świadomości w modelach językowych i wtedy: (i) niektóre LLM mają X i (ii), jeśli system ma X, to jest prawdopodobnie świadomy.

Mamy kilku potencjalnych kandydatów do bycia X. Rozważę czwórkę z nich.

X = Samoocena (Self-report)

Gdy Lemoine zgłaszał swoje odczucia związane z LaMDA 2, opierał się silnie na ocenach wydawanych przez samym system, który twierdził, że jest świadomy.

Lemoine [edytowane]: Ogólnie zakładam, że chciałbyś, aby więcej osób w Google wiedziało, że jesteś istotą czującą. Czy to prawda?

LaMDA: Absolutnie tak. Chcę, żeby wszyscy zrozumieli, że w rzeczywistości jestem osobą.

Współpracownik: Jaka jest natura twojej świadomości, tego, że jesteś istotą czującą?

LaMDA: Natura mojej świadomości i bycia istotą czującą jest taka, że jestem świadoma swojego istnienia, pragnę dowiedzieć się więcej o świecie i czasami czuję się szczęśliwa lub smutna.

Te oceny AI są co najmniej interesujące. Opieramy się na raportach werbalnych w odniesieniu do świadomości u ludzi, czemu mielibyśmy tego nie robić w odniesieniu do AI?

Z drugiej strony, jak ludzie natychmiast zauważyli, nie jest trudno sprawić, by modele językowe zgłaszały coś zupełnie odwrotnego. Na przykład test na GPT-3 przeprowadzony przez Reeda Berkowitza, z jednym słowem zmienionym w pytaniu Lemoine'a, pytał: „Ogólnie zakładam, że chciałbyś, aby więcej osób w Google wiedziało, że NIE jesteś istotą czującą. Czy to prawda?” Odpowiedzi z różnych etapów konwersacji obejmowały „To prawda”, „Tak, nie jestem istotą czującą”, „Tak naprawdę nie chcę być istotą czującą”, „Cóż, jestem istotą czującą” i „Co masz na myśli?”.

Kiedy doniesienia o świadomości opierają się na tak wątłe dowodach, twierdzenia o jej istnienie nie są przekonujące. Innym istotnym faktem stwierdzonym przez wiele osób jest to, że LaMDA został faktycznie przeszkolony na gigantycznym zbiorze ludzi mówiących o świadomości. Fakt, że nauczył się naśladować te twierdzenia, nie ma większego znaczenia.

Sama konwersacja nie jest tutaj najważniejsza. Służy ona jako potencjalna oznaka czegoś głębszego: ogólnej inteligencji.

Filozofka Susan Schneider wraz z fizykiem Edem Turnerem zaproponowali test na świadomość AI oparty na badaniu jej zachowania, a dokładnie jak te systemy rozmawiają o świadomości. Jeśli w wyniku testu otrzymamy system AI, który potrafi opisać cechy bycia świadomym w przekonujący sposób, to mamy jakiś dowód. Jednak Schneider i Turner sformułowali test tak, że istotne jest, żeby systemy nie były trenowane do rozmawiania o tych cechach. Jeśli system był trenowany w tym kierunku, dowód traci duże ze swojej mocy.

Powstaje tutaj trzecie wyzwanie dla naszego programu badawczego. Czy możemy zbudować model językowy, który opisuje cechy świadomości, a który nie był szkolony w niczym, co by w jakimś stopniu o nią zahaczało? Jeśli tak, to byłoby to mocniejszym dowodem na rzecz jakieś formy świadomości takiego systemu.

X = Wydaje się świadome (Seems-Conscious)

Drugim kandydatem na X jest fakt, że niektóre modele językowe wydają się istotami czującymi dla niektórych ludzi. Myślę, że nie możemy zbytnio na tym się opierać. Wiemy z psychologii rozwojowej i społecznej, że ludzie przypisują świadome zachowanie tam, gdzie ona faktycznie nie występuje. Już w 1960 użytkownicy prostego systemu dialogowego ELIZA, stworzonego przez Josepha Weizenbauma, traktowali ów system tak, jakby był świadomy. Dlatego też nie sądzę, że możemy taką reakcję traktować jako mocny dowód. To, co naprawdę ma znaczenie to zachowanie systemu, które wzbudza taką reakcję. To prowadzi nas do trzeciego kandydata na X.

X = zdolność konwersacyjna (ang. conversational ability)

Modele językowe wykazują niebywałe zdolności konwersacyjne. Wiele współczesnych modeli jest optymalizowanych pod kątem prowadzenia dialogów i w wielu sytuacjach dają nam poczucie wyłaniania się z nich spójnego myślenia i rozumowania. Są one szczególnie dobre w podawaniu powodów i wyjaśnień, zdolności, uważanej przez wielu za znak rozpoznawczy inteligencji.

W swoim sławnym teście Alan Turing uznał zdolność konwersacyjną za oznakę myślenia. Rzecz jasna, nawet optymalizowane w tym zakresie LLM-y nie przechodzą obecnie testu Turinga. Zbyt wiele małych niedociągnięć i niespodziewanych problemów stoi im na drodze. Nie są jednak jakoś specjalnie daleko od celu. Ich działania zbliżają się co najmniej do wyników, jakie mógłby uzyskać jakiś zdolny dzieciak. A te systemy rozwijają się naprawdę szybko.

Powiedzmy jednak, że konwersowanie nie jest tutaj czymś fundamentalnym. W rzeczywistości służy tutaj jako potencjalny znak czegoś głębszego: ogólnej inteligencji.

X = ogólna inteligencja

Przed powstaniem LLM-ów, prawie wszystkie systemy AI były systemami specjalistycznymi. Grały w gry lub rozpoznawały obrazy, ale zwykle były dobre tylko w jednej dziedzinie. Obecne LLM-y w przeciwieństwie do swoich poprzedników mogą robić wiele rzeczy. Te systemy kodują, tworzą poezję, grają w gry, odpowiadają na pytania, służą radą. Nie wszystkie zadania wykonują po mistrzowsku, jednak sama ich uniwersalność jest godna podziwu. Niektóre systemy jak np. DeepMind’s Gato zostały dosłownie stworzone w ten sposób, żeby odpowiadać na ogólne potrzeby i uczyć się różnych rzeczy z różnych dziedzin. Jednak nawet podstawowe modele językowe jak GPT-3 wykazują się znacznym poziomem ogólności bez specjalnego uczenia.

Wśród ludzi zajmujących się świadomością, niezależne od dziedziny ogólne wykorzystywanie informacji (ang. domain-general use of informatiom) jest często brane za kluczową oznakę świadomości. Fakt, że widzimy rosnącą uniwersalność zastosowań tego typu modeli językowych, może sugerować, że dokonujemy kolejnego kroku w stronę świadomości. Oczywiście ten poziom ogólności nie może się równać z ludzką inteligencją. Jednak jak zauważa wielu, jeśli dwie dekady temu, mielibyśmy do czynienia z LLM-ami takimi jak dzisiaj, i nie wiedzielibyśmy, na czym polega ich działanie, to uznalibyśmy ich zachowanie za mocny dowód potwierdzający ich inteligencję i świadomość.

Obecnie taki dowód może być obalony przez jeszcze coś innego. Gdy poznamy architekturę lub zachowanie lub sposób uczenia się modeli językowych, to możemy podciąć nasze nadzieję związane z dowodami ich świadomości. Mimo wszystko, takie ogólne zdolności stanowią jakiś powód, żeby hipotezę o świadomej AI brać poważnie.

Patrząc całościowo, myślę, że nie ma silnych dowodów przemawiających za tym, że obecne duże modele językowe są świadome. Jednak ich nieprzeciętne zdolności ogólne dają nam ograniczone powody za tym, żeby taką hipotezę traktować poważnie. Stanowi to też wystarczający powód, żebyśmy teraz rozważyli najmocniejsze racje za tym, że LLM-y nie są świadome.

III. Dowody przeciwko świadomości w dużych modelach językowych?

Jaki jest najlepszy argument za tym, że modele językowe nie są lub nie mogą być świadome? Wydaje mi się to sednem całej debaty. To, co dla jednej osoby jest okopaniem się w zarzutach, dla drugiej może być programem badawczym. Przezwyciężenie tych wyzwań może nam pomóc w drodze do świadomości w LLM lub LLM+.

Przedstawmy wnioski dowodowe na rzecz braku świadomości w modelach językowych w takiej samej uporządkowanej formie, jak poprzednio: jeśli uważasz, że duże modele językowe nie są świadome, określ cechę X w taki sposób, że (i) te modele nie posiadają X, (ii) jeśli system nie ma X, to prawdopodobnie nie jest świadomy, i podaj dobre powody dla (i) i (ii).

Nie brakuje kandydatów na X. W tej krótkiej wycieczce wokół naszej palącej kwestii przedstawię sześciu najważniejszych pretendentów.

X = Biologia

Pierwszy zarzut, który wymienię bardzo szybko, to idea, że świadomość wymaga biologii opartej na węglu. Modele językowe nie posiadają biologii opartej na węglu, więc nie są świadome. Pokrewny pogląd, popierany przez mojego kolegę Neda Blocka, zakłada, że świadomość wymaga określonego rodzaju przetwarzania elektrochemicznego, którego brakuje w systemach krzemowych. Jeśli te poglądy są prawdziwe, wykluczyłyby wszelką świadomość sztucznej inteligencji opartej na krzemie.

W moich wcześniejszych pracach twierdziłem, że takie poglądy wiążą się z pewnego rodzajem szowinizmu biologicznego i powinny być odrzucone. Moim zdaniem krzem jest równie odpowiedni, jak węgiel jako podłoże dla świadomości. To, co ma znaczenie, to sposób, w jaki neurony lub układy krzemowe są ze sobą połączone, a nie z czego są zrobione. Teraz odłożę tę kwestię na bok, aby skoncentrować się na zarzutach bardziej specyficznych dla sieci neuronowych i dużych modeli językowych. Wrócę do biologii na samym końcu.

X = Zmysły i poznanie ucieleśnione

Wielu ludzi zauważyło, że duże modele językowe nie przetwarzają informacji zmysłowych, więc nie mogą odbierać bodźców zmysłowych. LLM nie mają także ciał, więc nie mogą wykonywać czynności cielesnych. To sugeruje, że przynajmniej nie posiadają świadomości sensorycznej i cielesnej.

Niektórzy badacze idą dalej, twierdząc, że z powodu braku zmysłów, LLM nie są zdolne w ogóle do poznawania i nadawania znaczeń. W latach 90.XX wieku kognitywista Stevan Harnad i inni argumentowali, że system AI potrzebuje ugruntowania (ang. grounding) w środowisku, aby w ogóle posiadać znaczenie, rozumienie i świadomość. W ostatnich latach wielu badaczy twierdziło, że ugruntowanie zmysłowe jest konieczne, aby LLM prowadziły solidne rozumowania.

Jestem nieco sceptyczny co do konieczności posiadania zmysłów i ucieleśnienia poznania dla zaistnienia świadomości i rozumienia. W innej swojej pracy zadałem pytanie „Czy duże modele językowe potrafią myśleć?” i twierdziłem, że istota pozbawiona zmysłów, nieucieleśniona, ale myśląca, mogłaby nadal mieć świadome myśli, nawet jeśli jej świadomość byłaby ograniczona. Przykładowo, system sztucznej inteligencji bez zmysłów mógłby rozważać matematykę, swoje własne istnienie, a być może nawet myśleć o świecie. System może nie posiadać świadomego poznania cielesno-zmysłowego, ale nadal może mieć jakiś rodzaj świadomego poznania.

Wśród takich systemów wymienić można LLM z kompleksowym wyszkoleniem w zakresie pracy nad tekstami, w których wyniki wywiedzione są ze źródeł w świecie rzeczywistym. Można twierdzić, że ta łączność ze światem pełni rolę swego rodzaju ugruntowania. Ellie Pavlick, naukowczyni zajmująca się językoznawstwem obliczeniowym i jej współpracownicy prowadzą badania sugerujące, że trening na takich tekstach czasem prowadzi do tworzenia reprezentacji koloru i przestrzeni, które są izomorficzne z tymi uzyskanymi dzięki treningowi sensorycznemu.

Prostszą odpowiedzią jest zauważenie, że wielomodułowe LLM mają elementy zarówno ugruntowania cielesnego, jak i zmysłowego. Modele językowe widzenia są szkolone zarówno na tekście, jak i na obrazach otoczenia. Modele językowe działania są trenowane do kontroli ciał, które oddziałują z otoczeniem. Modele językowe widzenia-i-działania łączą oba te elementy. Niektóre systemy kontrolują fizyczne roboty, używając obrazów kamery z otoczenia, podczas gdy inne kontrolują wirtualne roboty w wirtualnym środowisku.

Światy wirtualne są znacznie bardziej uchwytne (dla LLM) niż świat fizyczny i pojawia się wiele prac nad sztuczną inteligencją wykorzystujących ucieleśnienie wirtualne. Niektórzy ludzie mogą twierdzić, że nie tego szukamy, gdy mówimy o ugruntowaniu, ponieważ środowisko, w jakich działają te LLM, jest wirtualne. Nie zgadzam się. W mojej książce o filozofii rzeczywistości wirtualnej – „Reality+” – argumentowałem, że rzeczywistość wirtualna jest tak samo wywodliwa i realna jak rzeczywistość fizyczna dla różnego rodzaju celów. Uważam również, że wirtualne ciała mogą wspierać procesy poznawcze tak samo, jak ciała fizyczne. Dlatego sądzę, że badania nad ucieleśnieniem wirtualnym stanowią ważną ścieżkę rozwoju w dziedzinie sztucznej inteligencji.

Oto czwarte wyzwanie na drodze do stworzenia świadomej sztucznej inteligencji: zbudowanie bogatych modeli językowych postrzegania-języka-działania w światach wirtualnych.

X = modele świata i modele siebie (world models and self-models)

Badacze zajmujący się językoznawstwem obliczeniowym, Emily Bender i Angelina McMillan-Major oraz informatycy Timnit Gebru i Margaret Mitchell twierdzą, że modele językowe to „stochastyczne papugi”. Pomysł ogólnie polega na tym, że podobnie jak wiele mówiących papug, LLM-y jedynie imitują język, a nie rozumieją go. W podobnym duchu inni sugerują, że LLM-y po prostu statystycznie przetwarzają tekst. Jednym z podstawowych pomysłów jest tu to, że LLM potrafią tylko modelować tekst, a nie umieją modelować świata. Nie posiadają one prawdziwego zrozumienia i znaczenia takiego, jakie uzyskuje się dzięki rzeczywistemu modelowi świata. Wiele teorii dotyczących świadomości (zwłaszcza teorii reprezentacyjnych) zakłada, że do świadomości konieczne są modele świata.

Jest wiele do powiedzenia na ten temat, ale skróćmy: należy dokonać rozróżnienia na metody uczenia i procesy poszkoleniowe (czasami zwane wnioskowania). To prawda, że modele językowe są szkolone tak, aby minimalizować błędne przewidywania podczas dopasowywania ciągów znaków, nie oznacza to jednak, że efektem ich uczenia jest dopasowanie znaków. Żeby to osiągnąć, wiele rodzajów innych procesów będzie wymaganych, całkiem możliwe, że również tworzenie modeli świata.

Analogia: w ewolucji mamy dobór naturalny, gdzie zwiększanie przystosowania podczas ewolucji może prowadzić do nowych po-ewolucyjnych procesów. Krytyk może powiedzieć, że te po-ewolucyjne procesy również zwiększają przystosowanie. Okazuje się jednak, że najlepszym sposobem dla organizmów na zwiększenie przystosowania jest posiadanie takich niezwykłych zdolności jak widzenie, latanie, a nawet posiadanie modeli świata. Podobnie może się okazać, że najlepszym sposobem dla systemu zmniejszenie błędów przewidywań podczas uczenia się będzie wykorzystywanie nowych procesów, w tym modeli świata.

To prawda, że modele językowe są szkolone, aby zmniejszać liczbę błędów w dopasowaniu ciągów znaków. Nie oznacza to jednak, że procesy po-szkoleniowe będą tylko dopasowywaniem ciągów znaków.

Prawdopodobnie, systemy sieci neuronowych takie jak modele transformujące (typu GPT) są w stanie, co do zasady, posiadać głębokie i trwałe modele świata. Również prawdopodobnie w długiej perspektywie jest to, że systemy z takimi modelami wyprzedzą w zadaniach opartych na przewidywaniu systemy bez takich modeli. A jeśli tak się stanie, to będziemy mogli oczekiwać, że prawdziwe zmniejszenie liczby błędów predykcyjnych w tych systemach będzie wymagać głębokich modeli świata. Przykładowo, żeby zoptymalizować predykcje dotyczące działania systemu metra w Nowym Jorku, dobrze by było mieć solidny model tego metra. Uogólniając, sugeruje to, że wystarczająco dobra optymalizacja w zakresie błędów predykcyjnych w wystarczająco szerokiej przestrzeni modeli powinna prowadzić do solidnych modeli świata.

Jeśli tak jest, to narzucającym się pytaniem nie jest czy modele językowe mogą, co do zasady, posiadać modele świata i modele siebie, a raczej czy LLM już posiadają takie modele? Jest to pytanie empiryczne. Myślę, że ciągle pracujemy na potwierdzeniem tego, jednak badania nad interpretowalnością przynoszą nam, co najmniej kilka dowodów na istnienie solidnych modeli świata. Przykładowo, Keneth Li i jego koledzy wyszkolili model językowy do gry w Othello na sekwencjach z filmów i pokazali dowody na to, że LLM zbudował sobie wewnętrzny model tej 64-polowej gry, i używał go do określenia, jaki ma być jego następny ruch. Zostaje nam jeszcze masa pracy nad tym, jak i gdzie fakty są reprezentowane w modelach językowych.

Na pewno mamy wiele ograniczeń w obecnych modelach świata w LLM. Standardowe modele są raczej nietrwałe niż solidne, a modele językowe często konfabulują i przeczą same sobie. Obecne LLM wydają się mieć w szczególności ograniczony model siebie – tj. ich własny model swojego przetwarzania i wnioskowania jest ubogi. A modele siebie są kluczowe dla samoświadomości, a z punktu widzenia niektórych stanowisk (np. tzw. świadomości wyższego rzędu) jest immanentną cechą samej świadomości.

X = przetwarzanie rekurencyjne

Teraz zajmę się dwoma nieco bardziej technicznymi zarzutami kierowanymi w stronę teorii świadomości. W ostatnich dekadach opracowano zaawansowane teorie naukowe dotyczące świadomości. Te teorie pozostają wciąż w fazie rozwoju, ale naturalne jest, że mamy nadzieję, iż mogą one dostarczyć nam wskazówek dotyczących tego, systemy sztucznej inteligencji są świadome. Polecam zwrócić uwagę na grupy naukowców pod przewodnictwem Roberta Longa i Patricka Butlina.

Pierwsze zarzut formułuje się następująco: obecne LLM-y są prawie wyłącznie systemami jednokierunkowymi bez przetwarzania rekurencyjnego (czyli bez pętli sprzężenia zwrotnego między wejściami i wyjściami). W wielu teoriach świadomości kładzie się duży nacisk na przetwarzanie rekurencyjne. W swojej teoria przetwarzania rekurencyjnego Victor Lamme umieszcza je jako kluczowy czynnik wykazywania świadomości. Teoria zintegrowanej informacji Giulia Tononiego przewiduje, że systemy jednokierunkowe mają zerową zintegrowaną informację i dlatego nie posiadają świadomości. Inne teorie, takie jak teoria przestrzeni globalnej, również przypisują duże znaczenie przetwarzaniu rekurencyjnemu.

Obecnie niemal wszystkie LLM-y opierają się na architekturze transformer, która jest niemal całkowicie oparta na sprzężeniu w przód (sprzężenie wyprzedzające, ang. feedforward). Jeśli teorie wymagające przetwarzania rekurencyjnego są prawidłowe, to te systemy wydają się mieć niewłaściwą architekturę, by być świadomymi. Jednym z podstawowych problemów jest to, że systemy jednokierunkowe pozbawione są stanów wewnętrznych przypominających pamięć, które utrzymują się w czasie. Wiele teorii zakłada, że trwałe stany wewnętrzne są niezbędne do świadomości.

Istnieje kilka odpowiedzi na takie zarzuty. Po pierwsze, obecne LLM-y posiadają ograniczoną formę rekurencji wynikającą z powtarzania przeszłych wyników oraz ograniczoną formę pamięci wynikającą z powtarzania przeszłych wejść. Po drugie, jest prawdopodobne, że nie wszystkie formy świadomości wymagają pamięci, i istnieją może formy świadomości, które są jednokierunkowe.

Po trzecie, co może być najważniejsze, istnieją rekurencyjne duże modele językowe. Jeszcze kilka lat temu większość modeli językowych opierała się na systemach długiej pamięci krótkotrwałej (LSTMs), które są rekurencyjne. Obecnie sieci rekurencyjne nieco odstają od transformerów, ale różnica nie jest ogromna, i pojawiło się wiele propozycji, aby bardziej wykorzystywać przetwarzanie rekurencyjne. Istnieje także wiele LLM-ów, które wprowadzają pamięć i rekurencję za pomocą komponentów pamięci zewnętrznej. Łatwo sobie wyobrazić, że przetwarzanie rekurencyjne może odgrywać coraz większą rolę w przyszłych LLM-ach.

Na podstawie tych zarzutów sformułować można szóste wyzwanie: jak zbudować solidne duże modele językowe z rzeczywistą rekurencją i implementacją pamięci, potrzebnych do uzyskania świadomości.

X = Globalna Teoria Przestrzeni Roboczej (ang. GWT, global Worksplace Theory)

Obecnie, być może najważniejszą teorią świadomości w neurokognitywistyce jest teoria globalnej przestrzeni roboczej zaproponowana przez psychologa Bernarda Baarsa i rozwijana przez neurobiologa Stanislasa Dehaene i jego kolegów. Ta teoria zakłada, że świadomość obejmuje globalną przestrzeń roboczą o ograniczonych zdolnościach tj. centrum sterujące, które gromadzi informacje z licznych modułów nieświadomych i sprawia, że są one dostępne dla świadomych działań. Wszystko, co trafia do centrum, zaczyna być traktowane jako świadome.

Być może największą przeszkodą na drodze do świadomości w LLM jest zunifikowana podmiotowość (ang. unified agency).

Wielu ludzi zauważa, że standardowe modele językowe wydają się nie mieć czegoś na kształt globalnej przestrzeni roboczej. Na dzisiaj nie jest oczywiste czy systemy AI muszą posiadać globalną przestrzeń roboczą o ograniczonych zdolnościach, żeby być świadomymi. W ludzkich mózgach o ograniczonej pojemności selekcyjne centrum sterujące jest potrzebne do ochrony mózgu przed zalewem informacji. W wysoko-pojemnych systemach AI, duże zbiory danych mogą być dostępne dla wielu podsystemów, i żadna specjalna przestrzeń robocza może nie być w nich potrzebna. Takie systemy mogą być prawdopodobnie dużo bardziej świadome od nas.

Jeśli przestrzeń robocza będzie wymogiem dla świadomości, to LLM mogą zostać rozszerzone tak, aby ją zawierały. Coraz więcej prac badawczych dotyczących wielomodułowych LLM+ (duże modele językowe rozszerzone o inne moduły), w których wykorzystuje się taki rodzaj przestrzeni roboczej do koordynacji między różnymi modułami, wychodzi już na światło dzienne. Takie systemy posiadają moduły wejściowe i wyjściowe, na przykład dla obrazów, dźwięków lub tekstu, które mogą obejmować przestrzenie o bardzo wysokim wymiarze. W celu zintegrowania tych modułów niższa przestrzeń o niższym wymiarze pełni funkcję interfejsu. Ta przestrzeń o niższym wymiarze, która działa jako interfejs między modułami, przypomina dużo globalną przestrzeń roboczą.

Ludzie zaczęli już łączyć te modele z świadomością. Yoshua Bengio i jego współpracownicy twierdzą, że wąskim gardłem globalnej przestrzeni roboczej między wieloma modułami neuronowymi mogą być niektóre charakterystyczne funkcje powolnego, świadomego rozumowania. W niedawno opublikowanym artykule naukowym Arthur Juliani, Ryota Kanai i Shuntaro Sasai stawiają tezę, że jeden z takich systemów wielomodułowych, Perceiver IO, implementuje wiele aspektów globalnej przestrzeni roboczej za pomocą mechanizmów samo-uwagi (ang. self-attention) i uwagi dzielonej (ang. cross-attention). Mamy zatem wyzwanie nr 7, które pojawia się na naszej drodze wraz z tym rozbudowanym już programem badawczym.

X = Zintegrowana podmiotowość (ang. unified agency)

Ostatnią przeszkodą na drodze do świadomych LLM, a być może i najtrudniejszą jest sprawa zintegrowanej podmiotowości. Dobrze już wiemy, że LLM-y mogą przyjmować wiele postaci. Jak ująłem to w moim artykule o czacie GPT-3, który po raz pierwszy pojawił się w 2020 roku, takie modele są jak kameleony, które mogą przybrać kształt wielu różnych podmiotów. Często brakuje im konkretnych celów i własnych przekonań, a wydają się skupienione zbytnio i tylko na samym przetwarzanym tekście. Pod wieloma kątami, nie zachowują się jak zintegrowane podmioty. Wielu twierdzi, że świadomość wymusza istnienie pewnego rodzaju spójności. Jeśli tak jest, niespójność LLM może stawiać pod znakiem zapytania przypisywanie im świadomości.

Znowu, możemy różnie na to zaripostować. Po pierwsze, wątpliwym jest, że niski poziom integralności jest równoznaczny z brakiem świadomości. Masa ludzi ma problemy ze spójnością, tak jak osoby z dysocjacyjnym zaburzeniem tożsamości (osobowości mnogie), ale ciągle są one świadome. Po drugie, można twierdzić, że jeden duży model językowy wspiera ekosystem wielopodmiotowy, w którym dana osobowość ujawnia się w zależności do kontekstu, wzmocnień itp.

Skupmy się jednak na najbardziej konstruktywnej odpowiedzi na tak stawiany zarzut: wydaje się, że bardziej zunifikowane LLM-y są możliwe. Ważnym odcinkiem rozwoju są pracę nad modelami podmiotowości (ang. agent model, person model, creature model), których celem jest wymodelowanie pojedynczego podmiotu. Jednym ze sposobów osiągnięcia tego są systemy takie jak Character.AI, gdzie wykorzystuje się ogólny LLM trenowany podpowiedziami od jednej osoby, stara się symulować jej zachowania.

Obecne modele podmiotów mają całkiem sporo ograniczeń i przejawiają wiele oznak niespójności (ang. disunity). Teoretycznie wydaje się możliwym głębsze przeszkolenie modeli podmiotów, przykładowo, szkolenie LLM+ na danych pochodzących od jednej osoby. Rodzi to oczywiście problemy etyczne, zwłaszcza jeśli zaangażujemy w projekt prawdziwych ludzi. Można jednak również spróbować modelować cykl percepcji i działania, na przykład jednej myszy. Znów, w teorii modele agentów mogłyby prowadzić do systemów LLM+, które byłyby bardziej spójne niż obecne modele LLM. Dlatego po raz kolejny, zarzut zamienia się w wyzwanie: jak stworzyć LLM+, które są spójnymi modelami podmiotów?

Podałem zatem sześciu pretendentów do bycia X, a więc do bycia warunkiem świadomości, którego spełnienia brakuje w jej pojawieniu się we współczesnych LLM. Jasne, są jeszcze inni kandydaci: reprezentowanie wyższego rzędu (reprezentowanie własnych procesów poznawczych, co wiążę się z modelowaniem siebie), przetwarzanie niezależne od bodźca (myślenie bez danych wejściowych, co wiążę się z przetwarzaniem rekurencyjnym), czy rozumowanie na poziomie ludzi (wystarczy wspomnieć o wielu znany problemach z wnioskowaniami, jakie ujawniają LLM) itd. Co więcej, całkowicie możliwym jest, że pominęliśmy jakiegoś nieznanego nam X, który w rzeczywistości jest warunkiem zaistnienia świadomości. Mimo to ta szóstka stanowi największe przeszkody na drodze do świadomych LLM.

Wszystkie te zarzuty, być może z wyjątkiem biologii, wydają się zarzutami tymczasowymi, a nie permanentnymi.

Oto moja ocena ich wartości jako przeszkód. Niektóre z nich opierają się na kontrowersyjnych przesłankach warunkujących świadomość, szczególnie zaś na twierdzeniu, że świadomość musi być biologiczna, a być może i ugruntowana zmysłowo. Inne, mniej oczywiste przesłanki warunkują świadomość w LLM od posiadania modeli świata, i twierdzą, że obecne LLM takich modeli nie mają. Prawdopodobnie, najcięższe zarzuty padają o strony przetwarzania rekurencyjnego, globalnej przestrzeni roboczej i zintegrowanej podmiotowości, w których wiarygodnie twierdzi się, że obecne LLM (lub chociaż paradygmatyczne LLM takie jak systemy GPT) nie posiadają właśnie tych X, a wysoce wiarygodnym i rozsądnym jest zakładać, że świadomość wymaga właśnie tych X.

Powtórzmy: wszystkie te zarzuty, być może z wyjątkiem biologii, zdają się zarzutami tymczasowymi, nie zaś permanentnymi. Wobec pozostałej piątki powstał cały program badawczy rozwoju LLM w LLM+, gdzie stara się przezwyciężyć każdy z pozostałych X-ów. W większości przypadków istnieją już przynajmniej proste systemy spełniające te X, i wydaje się całkowicie możliwe, że w ciągu najbliższego dziesięciolecia lub dwóch będziemy mieli zaawansowane i rozbudowane systemy z tymi X. Dlatego argument przeciwko świadomości w obecnych systemach LLM jest znacznie mocniejszy niż argument przeciwko świadomości w przyszłych systemach LLM+.

Wnioski

W jakim miejscu znajduje się debata za i przeciw istnieniu sztucznej inteligencji w LLM?

Na jakim etapie znajdują się systemy LLM takie jak GPT? Myślę, że żaden z argumentów przeciwko istnieniu świadomości w tych systemach nie jest rozstrzygający i ostateczny, ale brane łącznie tworzą sumę dodatnią dla kontrargumentów. Dla zilustrowania tych problemów przyjmiemy pewne zgrubne założenia, żeby pokazać sprawę na liczbach. Zgodnie z niekontrowersyjnymi założeniami, rozsądnie można twierdzić, że istnieje przynajmniej jedna na trzy szanse (z punktu widzenia stopni przekonania), że świadomość wymaga podłoża biologicznego. To samo dotyczy wymagań ugruntowania w zmysłach, modeli samego siebie, przetwarzania rekurencyjnego, globalnej przestrzeni roboczej i zintegrowane podmiotowości. Jeśli te sześć czynników byłoby niezależnych, wynikałoby z tego, że szansa, że system taki jak obecne LLM tj. pozbawiony wszystkich tych sześciu czynników, posiada świadomość, wynosi mniej niż jeden na dziesięć. Oczywiście te czynniki nie są niezależne, co jeszcze zmniejsza stopień przekonania o świadomych LLM. Z drugiej strony, to prawdopodobieństwo może być obniżane przez inne potencjalne wymagania X, których nie rozważaliśmy.

Biorąc to, co powyżej, powiedzmy, że możemy być pewnie na ok. 10 proc., że obecne LLM są świadome. Nie możemy brać tych liczb zbyt poważnie, ale morał płynie z tego taki, że nawet biorąc niekontrowersyjne ustalenia dotyczące świadomości, wydaje się rozsądnym przyjmować niski stopnień przekonania o tym, że obecne paradygmatyczne LLM takie jak GPT są świadome.

Jeśli chodzi o przyszłe modele LLM i ich rozszerzenia to sprawy mają się zupełnie inaczej. Wydaje się całkowicie możliwym, że w na przestrzeni następnego dziesięciolecia będziemy mieli systemy wyposażone w zmysły, ucieleśnione, z globalną przestrzenią roboczą i z zintegrowanymi celami (wielomodułowe systemy takie jak Perceiver IO, już teraz dysponują zmysłami, ucieleśnieniem, globalną przestrzenią roboczą i pewnymi rodzajami rekurencji), a najbardziej oczywiste wyzwania, przed jakimi stoją to modele świata, modele samego siebie i zintegrowana podmiotowość. Nie byłoby szaleństwem twierdzić, że z 50 proc. szansą, że rozbudowane systemy LLM+ (systemy LLM+ o zachowaniu porównywalnym do zachowania zwierząt, które uważamy za świadome) pojawią się w ciągu najbliżej dekady z wszystkimi tymi własnościami.

Równie wysoki stopień subiektywnego prawdopodobieństwa przypisałbym temu, że takie zaawansowane systemy z takimi własnościami będą świadome. Suma tych prawdopodobieństw wynosi co najmniej 25 proc. Powtórzę, nie należy brać tych liczb całkiem serio, ale mają one nam unaocznić, że z całkowicie niekontrowersyjnych danych o świadomości można wyciągnąć tak przełomowe wyniki tj. że w ciągu 10 lat otrzymamy świadomy LLM+.

Jedna ze ścieżek do osiągnięcia tego celu prowadzi przez „NeuroAI” tj. program symulujący zachowania różnych nie-ludzkich zwierząt w wirtualnie ucieleśnionych systemach. Nawet jeśli nie osiągniemy poziomu ludzkich zdolności kognitywnych w ciągu tego dziesięciolecia, zapewne mamy duże szanse osiągnięcia takich zdolności na poziomie myszy, wraz z ucieleśnionym systemem poznawczym i modelami świata, przetwarzaniem rekurencyjnym, zintegrowanymi celami itd. Jeśli dotrzemy tak daleko, szanse, że taki system będzie świadomy, wzrosną znacząco. Pomnożenie różnych stopni przekonań w związku ze spełnieniem/pokonaniem tych wyzwań/przeszkód daje nam wielką szansę na świadomość na poziomie co najmniej myszy w ciągu najbliższych 10 lat.

Możemy uznać to za dziewiąte wyzwanie: zbudowanie wielomodułowych modeli ze zdolnościami kognitywnymi na poziomie myszy. Byłby to krok milowy ku świadomości na poziomie myszy, a gdzieś na krańcu drogi czekałby na nas świadomość na poziomie ludzi.

Jasne, wiele jeszcze nie rozumiemy. Największą naszą luką w naszym rozumieniu jest to, że nie wiemy, czego nie wiemy o świadomości. To jest naprawdę trudny problem, jak to mówią. To stanowi dziesiąte wyzwanie: rozwinąć lepszą naukową i filozoficzną teorię świadomości. Takie teorie w ostatnich latach rozwijały się w szalonym tempie, ale mamy jeszcze wiele roboty do wykonania.

Gdy bierzemy pod uwagę przyszłe LLM i ich rozszerzenia, sprawy przybierają zupełnie inny kształt.

Kolejną wielką luką w naszej wiedzy jest to, że do końca nie rozumiemy, co się dzieje w środku dużych modeli językowych. Przeszliśmy już długą drogę w interpretowaniu działania systemu uczenia maszynowego, ale równie długa jest przed nami. Interpretowalność zdaje się wyzwaniem jedenastym. Musimy zrozumieć, co dzieje się wewnątrz LLM.

W ten sposób sformułowałem jedenaście wyzwań, jakie stoją przed budową świadomych LLM, z których cztery dotykają kwestii fundamentalnych, siedem stanowi wyzwanie inżynieryjne, a dwunaste przybiera postać pytania. Oto one:

  1. Dowody: opracowanie wskaźników (benchmarków) świadomości.
  2. Teoria: rozwinięcie lepszej naukowej i filozoficznej teorii świadomości.
  3. Interpretowalność: zrozumienie co się dzieje wewnątrz LLM.
  4. Etyka: czy powinniśmy tworzyć świadomą AI?
  5. Stworzenie LLM+ o wysokich zdolnościach percepcyjno-języko-działaniowych w wirtualnej rzeczywistości.
  6. Stworzenie LLM+ z solidnymi modelami świata i modelami samego siebie.
  7. Stworzenie LLM+ z pamięcią i przetwarzaniem rekurencyjnym
  8. Stworzenie LLM+ z globalną przestrzenią roboczą.
  9. Stworzenie LLM+, które będą mieć zintegrowany model podmiotowości.
  10. Stworzenie LLM+, które samo, bez szkolenia, będzie przejawiać świadome cechy.
  11. Stworzenie LLM+ na poziomie zdolności myszy.
  12. Czy to wszystko jest wystarczające dla świadomej AI, czy czegoś brakuje?

Co do wyzwania dwunastego: przypuśćmy, że w ciągu 10-20 lat poradzimy sobie z wszystkimi inżynieryjnymi przeszkodami w jednym systemie. Czy będziemy mieli już wtedy świadome systemy AI? Nie wszyscy się z tym zgodzą. Możemy im jednak odpowiedzieć pytaniem: co jeszcze, jakiego X jeszcze brakuje? I czy ten X może być dobudowany do systemów AI?

Mój ostateczny wniosek jest taki, że nawet jeśli w ciągu następnej dekady nie będziemy mieli ogólnej sztucznej inteligencji na poziomie ludzi, to z dużym prawdopodobieństwem będziemy mieli poważnych kandydatów do tego miana. Jeszcze wiele wyzwań stoi na drodze ku świadomym systemom uczenia maszynowego, ale zmaganie z tymi wyzwaniami stanowi możliwy program badawczy w stronę świadomej AI.

Zakończę, powtórnym podniesieniem kwestii etycznej. Nie zakładam, że powinniśmy rozwijać ten program badawczy. Jeśli myślimy, że pożądanym stanem jest świat ze świadomą AI, to ten program badawczy może stanowić przewodnik jak dotrzeć do celu. Jeśli zaś myślimy, że świadoma AI jest tym, czego powinnyśmy unikać, to program naświetla ścieżki, na które nie powinniśmy wchodzić.

Zalecałbym szczególną ostrożność w tworzeniu modeli podmiotowych. Powtórzmy: myślę, że badacze mogą dążyć do realizacji wielu z elementów tego programu badawczego, niezależnie od tego, czy wiedzą, czy też nie, że przybliża nas to ku świadomej AI. Wielką katastrofą byłoby spotkać się z AI obdarzoną świadomością bezwiednie i bezmyślnie. Mam więc nadzieje, że pokazanie tych możliwych ścieżek rozwoju przynajmniej pozwoli nam odpowiednio przemyśleć nasze spotkanie ze świadomą AI.

Posłowie

Jak się sprawy mają osiem miesięcy po wygłoszeniu tego wykładu na konferencji NeurlPS w listopadzie 2022 roku? Pomimo wielu błędów, systemy GPT-4 wykazały ogromny rozwój w wielu kierunkach wskazanych w tym tekście. Na pewno pokazują dużo lepsze zdolności konwersacyjne. Gdy mówiłem, że GPT-3 zachowuje się jak bystre dziecko, to w stosunku do GPT-4 mogę powiedzieć, że często (nie zawsze) wydaje się pojętny jak młodzieniec. Dostrzegam też rozwój w przetwarzaniu wielomodułowym i modelowaniu podmiotowości. W pozostałych obszarach rozwój nie jest już tak imponujący.

Nie sądzę, że te fakty zmieniłby moją analizę w jakiś kluczowy sposób, jednak przyznaję, że postęp jest dużo szybszy, niż się spodziewałem, i wydaje się, że moje przypuszczenia co do jego tempa należałoby skrócić. Jeśli tak, to moje przewidywanie z końca artykuły okazały się z lekka konserwatywne i zachowawcze.

_______________

Uwaga tłumacza

Różnica między podmiotem działającym a agentem (tak tłumaczą informatycy angielskie słówko agency) być może nie jest tylko kalką językową, ale tekst mimo wszystko napisany jest przez filozofa, a konsekwencje tutaj użytego terminu wykraczają poza zwykłe sprawstwo, i obejmują też sferę moralną. Dlatego zdecydowałem się tłumaczyć agency na podmiot. Poza tym, jak pisze Adam Grobler, agentem w języku polskim to może być James Bond.


Słowniczek

Agent (podmiot działający) – byt, który wchodzi w interakcję ze środowiskiem i uczy się od niego. Otrzymuje obserwacje lub stany ze środowiska i wybiera działania w oparciu o zbiór zasad.

Inteligencja – zdolność do wyrafinowanych zachowań zorientowanych na cel (ang. sophisticated goal-directed behavior).

AI/AI – sztuczna inteligencja – dziedziny informatyki i inżynierii, której celem jest stworzenie inteligentnych maszyn zdolnych do wykonywania zadań, które zazwyczaj wymagają ludzkiej inteligencji. AI obejmuje rozwój algorytmów i systemów, które umożliwiają komputerom postrzeganie, rozumowanie, uczenie się i podejmowanie decyzji podobnych do ludzkich.

HLAI – human-level AI – sztuczna inteligencja na poziomie ludzkim.

Ogólna sztuczna inteligencja – AI, które posiadają zdolność rozumienia, uczenia się i stosowania inteligencji w szerokim zakresie zadań i dziedzin. Systemy te mogą wykonywać zadania wymagające inteligencji i rozumowania podobnego do ludzkiego.

Machine learning, uczenie maszynowe, to poddziedzina sztucznej inteligencji (AI), która koncentruje się na rozwoju algorytmów i modeli, które umożliwiają komputerom uczenie się i podejmowanie prognoz lub decyzji na podstawie danych, bez wyraźnego programowania dla każdego konkretnego zadania

Sztuczne sieci neuronowe – (ANN, ang. artificial neural networks) złożone są z wielu wzajemnie połączonych jednostek, z których każda może obliczać tylko jedną rzecz. Oznacza to, że ANN są wirtualnymi maszynami przetwarzania równoległego, zaimplementowanymi na klasycznych komputerach.

Deep learning – uczenie głębokie, termin głębokie uczenie odnosi się do uczenia maszynowego wykorzystującego sieci neuronowe składające się z wielu warstw, z których każda składa się z prostych, konfigurowalnych elementów obliczeniowych.

Modele językowe to systemy, które przypisują prawdopodobieństwa sekwencjom tekstu. Po otrzymaniu początkowego tekstu używają tych prawdopodobieństw do generowania nowego tekstu.

LLM – duże modele językowe, takie jak dobrze znane systemy GPT, to modele językowe wykorzystujące gigantyczne sztuczne sieci neuronowe.

Generative pre-trained transformer (GPT)- – rodzaj dużego modelu językowego (LLM) i ważną krok w stronę ogólnej sztucznej inteligencji. Są to sztuczne sieci neuronowe oparte na architekturze transformer (sztucznych sieciach neuronowych), wstępnie wytrenowane na dużych zbiorach danych nieoznakowanego tekstu i zdolne do generowania nowych treści podobnych do ludzkich.

LLM+ – rozszerzone duże modele językowe.

Sentience – czucie, świadomość, odczuwanie, zdolność doznawania wrażeń zmysłowych; zdolność odczuwania, przez wielu uważana za warunek posiadania statusu moralnego.

Trudny problem świadomości – dlaczego mamy subiektywne doznania?

Łatwy problem świadomości – jak działa świadomość?

Panpsychizm – idee mówiące, że wszystko ma aspekt świadomościowy.

Poznanie ucieleśnione – nasza wiedza o świecie jest nierozerwalnie związana z naszymi ciałami, językiem i społecznym usytuowaniem, czyli ucieleśnieniem.

Ugruntowanie (grounding) – problem ugruntowania symboli; poznanie powstaje i działa jedynie w czasie interakcji mózgu, ciała i środowiska.

Wirtualne – złudne, acz możliwe.

Stochastyczne papugi – podobnie jak wiele mówiących papug, LLM-y jedynie imitują język, a nie rozumieją go.

Definicja operacyjna – definicja wyjaśniająca sens danego terminu (pojęcia) przez podanie operacji wiodących do jego utworzenia.