Anna Amarowicz / pulsar
Struktura

Podkast 61. Marcin Andrychowicz: Ogólna sztuczna inteligencja już została osiągnięta

Jak się robi modele generatywne – improwizując czy trzymając się zasad? Czy generują one nową wiedzę, czy tylko kompilują istniejącą? Czym zaskakują twórców? Czy już dorównują ludziom? Do jakich zadań można je zaprzęgać? Odpowiada dr Marcin Andrychowicz, badacz systemów sztucznej inteligencji z Google Brain.

– To są rzeczy, które pięć lat temu były zupełnie niewyobrażalne – mówi Marcin Andrychowicz. Ma na myśli nadspodziewanie gwałtowny rozwój wielkich modeli językowych, najbardziej znanych z wcielenia o nazwie ChatGPT. Ta niewyobrażalność dotyczy raczej tempa owego rozwoju, a nie z pojawienia się nowych technik, metod, idei. Te od co najmniej kilku lat pozostają niezmienne. – Wszystkie używane obecnie modele, należące do głębokiego uczenia, są relatywnie podobne – mówi gość pulsara. Różne są głównie nakłady finansowe oraz moce obliczeniowe, jakie ich twórcy przeznaczają na badania.

Fascynujący jest sposób, w jaki modele przejrzały struktury języka naturalnego i osiągnęły zdolność do porozumiewania się z ludźmi. Ich twórcy działali bowiem metodą prób i błędów. Bez jasno ustalonych, pierwotnych zasad. – Rozwój sztucznej inteligencji przypomina próbę projektowania domu bez znajomości fizyki.

Jeśli uparcie szukać jakichś zaskoczeń, to gdzie indziej: w zderzeniu relatywnej prostoty modeli i łatwości, z jaką się uczą. Ta ostatnia w dużej mierze wynika z dużej gęstości informacji zawartych w języku. To dlatego jest on tak wydajnym materiałem do analizy. A przy tym łatwo dostępnym. – Z tym że w pewnym momencie dane nam się skończą – zauważa Andrychowicz. Jak brak świeżego surowca wpłynie na rozwój SI?

Czy modele takie jak GPT są w stanie generować nową wiedzę, czy tylko odnajdywać prawidłowości w już istniejącej, a stworzonej przez człowieka? – Nie widziałem na razie przypadku świadczącego o tym, że modele tworzą coś oryginalnego. To się jednak może zmienić. Mamy bowiem, zdaniem naszego gościa, skłonność do przeceniania obecnych możliwości SI przy jednoczesnym niedocenianiu ich możliwości przyszłych. Te z pewnością będą rosły – z paru przynajmniej powodów.

Wiele ludzkiej pracy intelektualnej można wyrazić w formie języka. Operujące więc nim systemy będą mogły robić dużo więcej niż dziś – mówi badacz. Będą też wypuszczać się na tereny jeszcze epistemologicznie niezmapowane. Już dziś są bowiem całkiem skuteczne w proponowaniu rozsądnych hipotez. Nie są jeszcze w stanie ich porównywać, weryfikować. – Spodziewałbym się jednak, że za kilka lat będą to umiały.

Czy osiągną poziom tzw. ogólnej sztucznej inteligencji? Zdaniem Andrychowicza, ChatGPT już spełnia jej kryteria. Przynajmniej te dawne, sprzed dwudziestu czy trzydziestu lat. – Można z dzisiejszymi modelami porozmawiać na dowolny temat, potrafią robić wiele rzeczy. Mam jednak wrażenie, że w miarę jak stawały się coraz lepsze, ludzie zaczęli tę poprzeczkę podnosić.

Ostatnio zaczęło się mówić, że ogólna SI będzie umieć robić albo większość, albo wszystko, co potrafią ludzie, i to na poziomie profesjonalnym. Do tego stanu nam jeszcze trochę brakuje – dodaje badacz. Czy jest to jakiś dramatyczny brak? Nie. Moce obliczeniowe zaprzęgane do obsługi modeli językowych są ogromne. – Nie widzę powodu, dla którego nie miałyby osiągnąć poziomu ludzkiego. I jeszcze lepszego.

Marcin Andrychowicz dowodzi, że nie wszystko, co ciekawe w badaniach sztucznej inteligencji, rozgrywa się w sferze języka. Modele generatywne wykorzystywane są z powodzeniem również w innych dziedzinach. Na przykład w prognozowaniu pogody. Tym właśnie zajmuje się nasz gość. – W przewidywaniu stanu atmosfery za 12–24 godzin systemy te działają nieporównanie lepiej niż oparte o symulatory fizyczne.

Symulacje są bardzo żarłoczne – wymagają potężnych komputerów i aktualnych danych zbieranych na ogromnych obszarach. Przygotowanie wiarygodnej 24-godzinnej prognozy dla Krakowa czy Warszawy nie jest możliwe bez znajomości stanu atmosfery w promieniu 1500 km. Żeby przewidzieć pogodę na kilka dni, trzeba znać stan atmosfery na całej planecie. Systemy oparte na modelach generatywnych tego nie potrzebują. Uczą się na przykładach. – Szybko i naturalnie interpretują niepewność tego, co się wydarzy.

Marcin Andrychowicz.Anna Amarowicz/pulsarMarcin Andrychowicz.

Cieszymy się, że słuchacie naszych podkastów. Powstają one także dzięki wsparciu naszych cyfrowych prenumeratorów.
Aby do nich dołączyć – i skorzystać w pełni z oferty pulsara, „Scientific American” oraz „Wiedzy i Życia” – zajrzyjcie tutaj.

WSZYSTKIE SYGNAŁY PULSARA ZNAJDZIECIE TUTAJ