AI: Słychać jęki zawodu, zapala się coraz więcej czerwonych lampek
Kiedy w połowie października Sam Altman – charyzmatyczny szef OpenAI, które stworzyło ChatGPT – zapowiedział na platformie społecznościowej X (d. Twitter), że jego firma zacznie „traktować dorosłych jak dorosłych”, czyli pozwoli AI generować treści erotyczne, w sieci zawrzało: tonący seksu się chwyta…
Jęk zawodu
Choć porównanie obecnej sytuacji OpenAI – start-upu wycenianego na rekordowe 500 mld dol. – do tonącej osoby wydaje się na razie przesadzone, to jednak mijający rok był dla niego wyjątkowo trudny. Szczególnie końcówka, kiedy stracił pozycję lidera w dziedzinie tzw. dużych modeli językowych (LLM; zalicza się do nich ChatGPT) na rzecz Google, który udostępnił swój najlepszy algorytm generatywnej sztucznej inteligencji: Gemini 3.0. W standardowych testach pokonał on niemal w każdym aspekcie ChatGPT-5 – model, na który z niecierpliwością czekano od marca 2023 r., czyli premiery słynnego ChatGPT-4.
To napięcie umiejętnie podgrzewał Altman, m.in. mówiąc podczas ubiegłorocznego spotkania ze studentami na Uniwersytecie Stanforda, że GPT-4 to zdecydowanie najgłupszy model, jakiego kiedykolwiek musiano używać. Czytaj: mamy w zanadrzu coś znacznie lepszego. A na początku tego roku pisał na firmowym blogu, że OpenAI już wie, jak zbudować AGI, czyli mityczną ogólną sztuczną inteligencję, która jest Świętym Graalem całej branży AI. Chodzi o system wykonujący zadania na poziomie ludzkich zdolności umysłowych, a nawet lepiej. Na tym jednak nie poprzestał, sugerując, że firma weszła właśnie na wyższy poziom, czyli tworzenia superinteligencji, która miałaby powstać w ciągu najbliższych kilku lat i być mądrzejsza niż umysły wszystkich ludzi razem wziętych.
Jednak gdy 7 sierpnia br. udostępniono ChatGPT-5, to zamiast zachwytów rozległ się gremialny jęk rozczarowania. Mimo zaklęć Altmana, że nowy model „to istotny krok naprzód w drodze do AGI”, użytkownicy nie szczędzili krytyki. Przede wszystkim za to, że nie przyniósł jakościowego skoku porównywalnego z przejściem z GPT-3.5 na GPT-4. Najnowsza odsłona modelu wprawdzie zawierała pewne ulepszenia i poprawki, ale część z nich okazała się nietrafiona, bo wielu użytkowników zażądało ponownego udostępnienia starszego modelu GPT-4o (co firma, kajając się, szybko zrobiła). GPT-5 odbierano bowiem jako bardziej „zimny” i mniej „przyjazny”. Dlatego 12 listopada pojawił się zaktualizowany model z numerem 5.1, który pod względem tonu udzielanych odpowiedzi bardziej przypomina poprzednika. Jednak poza tym nie wnosił nic szczególnie nowego.
Król przekarmiony
Wszystko to sprawiło, że w mediach i na forach internetowych wyraźnie zmienił się nastrój wokół AI. Dotychczasowy optymizm, a nawet hype (nakręcanie ogromnych oczekiwań) zaczął zamieniać się w sceptycyzm. A Gary Marcus – amerykański psycholog i kognitywista, emerytowany profesor Uniwersytetu Nowojorskiego i założyciel dwóch firm z branży AI – do tej pory uchodzący za dyżurnego malkontenta, którego cytowano raczej z dziennikarskiego obowiązku niż przekonania, niemal z dnia na dzień stał się tym, który jako pierwszy miał odwagę wołać: „Król jest nagi!”.
Na początku września na łamach „New York Timesa” obszernie wyjaśnił, dlaczego już w 2022 r. przewidywał porażkę OpenAI oraz dokąd zmierza AI oparta na generatywnych modelach językowych. Jego diagnoza była po raz kolejny bezlitosna dla technologicznych optymistów: strategia oparta na założeniu, że wystarczy „karmić” LLM-y coraz większą ilością danych i zaprzęgać do pracy więcej jeszcze mocniejszych procesorów (tzw. skalowanie), właśnie boleśnie zderzyła się z rzeczywistością.
Marcus przypomniał, że kiedy w głośnym eseju sprzed trzech lat „Deep Learning Is Hitting a Wall” (Uczenie głębokie dochodzi do ściany) ostrzegał, iż tzw. prawa skalowania nie są prawami fizyki – jak grawitacja – lecz jedynie hipotezami opartymi na historycznych trendach, spotkał się z lekceważeniem. Altman nazwał go wówczas „przeciętnym sceptykiem”, a Elon Musk wyśmiewał zamieszczanymi w mediach społecznościowych memami. Okazało się jednak, że owa „ściana”, czyli moment, kiedy zwiększanie liczby procesorów i danych przestaje przynosić znaczące efekty – stała się nieprzyjemnym faktem nie tylko dla OpenAI. Problem dotyczy bowiem całej branży: model Grok 4 od Muska (xAI) mimo stukrotnie „cięższego” treningu okazał się tylko umiarkowanie lepszy, a potężna Llama 4 od Meta (Facebook) została powszechnie uznana za porażkę.
Dlaczego tak się dzieje? Marcus argumentuje, że duże modele językowe to „podrasowane maszyny do statystycznego wypluwania treści”. Dodawanie im danych pomaga tylko do pewnego momentu, ale nie sprawia, że algorytmy zaczynają rozumieć pojęcia, którymi żonglują. Dlatego wciąż popełniają błędy (np. w prostej matematyce czy zagadkach logicznych) i halucynują (zmyślają). Szanse na osiągnięcie AGI do 2027 r. – jak zapowiadali niektórzy i co powtórzył m.in. amerykański wiceprezydent J.D. Vance – okazały się iluzoryczne.
Marcus nie ogranicza się jednak do tryumfalnego: „A nie mówiłem?”. Wskazuje na trzy kluczowe obszary mogące wyprowadzić AI z obecnego impasu. Po pierwsze, systemy muszą zacząć budować wewnętrzne „modele świata”. Chodzi o to, że np. ludzie, czytając powieść, tworzą w umyśle „bazę danych” o bohaterach i ich relacjach czy o świecie, w którym żyją. Tymczasem LLM-y jedynie naśladują tekst, dlatego np. proponują niedozwolone ruchy w szachach, bo nie pojmują zasad gry. Po drugie, zamiast uczyć maszyny wszystkiego od zera poprzez zasysanie danych z całego internetu, powinniśmy próbować wyposażyć je we „wrodzone” pojęcia, takie jak czas, przestrzeń czy przyczynowość. I wreszcie, inspirując się psychologicznymi teoriami prof. Daniela Kahnemana, potrzebujemy sztucznej inteligencji działającej dwutorowo. Powinna łączyć „szybkie”, wręcz odruchowe myślenie (domena obecnych LLM-ów) z wolniejszym, ale precyzyjnym rozumowaniem symbolicznym, czyli opartym na regułach logiki, algebry i programowania, a nie na statystycznym zgadywaniu kolejnego słowa. Dopiero takie połączenie da nam szansę na stworzenie systemów AI, którym będzie można zaufać.
Hossa w obiegu zamkniętym
Problem polega na tym, że na razie nie ma konkretnych pomysłów, jak to zrobić. I stąd m.in. coraz częstsze pytania, czy wielomiliardowe inwestycje koncernów technologicznych w AI i związana z tym rekordowa wycena producenta chipów Nvidia (stał się pierwszą w historii firmą giełdową wartą 5 bln dol., czyli z grubsza tyle, ile PKB Kanady) to nadmuchana bańka, która za chwilę pęknie z hukiem. Co z kolei wywoła kryzys podobny do „bańki internetowej” z przełomu XX i XXI w.
Odpowiedź nie jest prosta, ale zapala się coraz więcej czerwonych lampek. Sceptycy technologiczni punktują ograniczenia samej „inteligencji” algorytmów, analitycy finansowi zaś z niepokojem patrzą na księgi rachunkowe big techów. A tam straszy rozziew między nakładami z bieżących zysków na ogromne centra danych (infrastrukturę dla AI), a efektami, czyli zastosowaniami AI, przede wszystkim w biznesie, i chęcią firm do płacenia za takie usługi. Z badań firmy McKinsey wynika, że choć prawie 80 proc. przedsiębiorstw deklaruje korzystanie ze sztucznej inteligencji, to równie wysoki odsetek przyznaje, iż nie ma ona „żadnego znaczącego wpływu” na wyniki finansowe.
A pieniądze inwestowane w AI są wręcz niewyobrażalne. Analitycy Morgan Stanley szacują, że do 2028 r. firmy technologiczne i rządy zamierzają wydać blisko 3 bln dol. na same centra danych. OpenAI wraz z kilkoma partnerami ogłosiło projekt Stargate, którego koszt ma wynieść 500 mld dol. W przeliczeniu na dzisiejsze pieniądze kwota ta wystarczyłaby na 15-krotne sfinansowanie słynnego Projektu Manhattan, czyli budowę amerykańskiej bomby atomowej. Pokryłaby również dwa programy Apollo lotów na Księżyc. Co więcej, Altman zobowiązał swoją firmę do wydatków inwestycyjnych rzędu ponad 1 bln dol. w ciągu nadchodzącej dekady.
Skąd start-up – rekordowo wyceniany, ale nieprzynoszący zysków, a „przepalający” kolejne miliardy – weźmie na to środki? Tu dochodzimy do mechanizmu zwanego przez krytyków circular financing, co można przetłumaczyć jako „finansowanie o obiegu zamkniętym”, który niepokojąco przypomina pompowanie bańki. Najlepiej ukazuje go przypadek Nvidii. Firma, która niedawno pochwaliła się zyskiem kwartalnym na poziomie 32 mld dol. (wzrost o 65 proc. rok do roku), jednocześnie inwestuje gigantyczne sumy w swoich własnych klientów. Takich jak OpenAI, w które zamierza wpompować 100 mld dol. Tyle że wrócą one do Nvidii, bo start-up kupi za nie lub wypożyczy procesory potrzebne w centrach danych.
Podobne „cyrkularne” transakcje, przypominające kłębek splątanych zależności, łączą m.in. OpenAI z Microsoftem czy Oracle. Ta druga firma ma dostarczyć kalifornijskiemu start-upowi moc obliczeniową wartą 300 mld dol., ale żeby to zrobić, kupi chipy od Nvidii. Pieniądz krąży więc w niemal zamkniętym obiegu grupki firm, pompując na papierze ich przychody i wyceny giełdowe, choć realny popyt zewnętrzny na modele AI ze strony biznesu pozostaje zagadką. Goldman Sachs szacuje, że w przyszłym roku aż 15 proc. sprzedaży Nvidii może pochodzić właśnie z tego typu transakcji (nie dotyczy to Google, który korzysta z zaprojektowanych przez siebie chipów produkowanych przez tajwańską firmę TSMC).
Dwa promyki
Ta finansowa akrobatyka sprawia, że w przypadku pęknięcia bańki konsekwencje nie zamkną się w hermetycznym światku Doliny Krzemowej, lecz rozleją szeroką falą, tworząc tzw. ryzyko systemowe. Dziś giganci, tacy jak Nvidia, stanowią bowiem o sile indeksów giełdowych, więc krach uderzyłby bezpośrednio w fundusze emerytalne i oszczędności zwykłych ludzi. Jak wskazuje część ekspertów, w tej pajęczynie zależności problemem nie jest tylko to, że firmy ją tworzące są „zbyt duże, by upaść”, ale że stały się „zbyt wzajemnie powiązane, by upaść” – jak banki przed wielkim kryzysem finansowym w 2008 r., spowodowanym spekulacjami na rynku nieruchomości. Ciekawe więc, czy w razie krachu budżet Stanów Zjednoczonych – i tak już rekordowo zadłużony – po raz kolejny wyłoży setki miliardów dolarów, by tym razem ratować technologicznych gigantów.
Obraz branży AI malowałby się w ponurych barwach, gdyby 18 listopada nie pojawił się promyk nadziei w postaci wspomnianego Gemini 3 od Google. Jego sukces odczytano jako znak, że postęp jest jednak możliwy. Aczkolwiek sceptycy zauważają, że choć model wypadł w testach bardzo dobrze, to nie przyniósł jakiegoś przełomu. Nadal zdarza mu się głupio mylić czy halucynować, czyli obciążony jest wszystkimi wrodzonymi wadami LLM-ów.
Druga iskierka nadziei też wiąże się z Google (a dokładnie z jego londyńskim laboratorium DeepMind) i zastosowaniami AI w nauce. Dominacja koncernu w tym obszarze raczej nie dziwi, bo DeepMind kieruje wybitny badacz i wizjoner Demis Hassabis, który rok temu otrzymał Nagrodę Nobla za AlphaFold, czyli algorytm przewidujący strukturę przestrzenną białek (co jest niezwykle ważne w biologii i medycynie). To właśnie jego ludzie opracowali modele, które w tym roku osiągnęły poziom złotego medalisty bardzo trudnej Międzynarodowej Olimpiady Matematycznej dla uczniów szkół średnich.
Na liście priorytetów firmy znajduje się również lepsze prognozowanie pogody (co już się udaje) oraz fuzja jądrowa. A także uruchomiony w czerwcu projekt AlphaGenome, którego celem jest rozszyfrowanie długich fragmentów niekodującego ludzkiego DNA (nie zawiera instrukcji tworzenia białek) i przewidywanie ich funkcji. Wyzwanie to okazuje się jednak trudniejsze niż w przypadku słynnego AlphaFolda, gdyż każda taka niekodująca sekwencja może odpowiadać za wiele różnych zadań, co znacznie komplikuje proces przewidywania.
DeepMind pracuje też intensywnie nad wdrażaniem AI w medycynie. W połowie października zaprezentowało, wspólnie z Uniwersytetem Yale, model zajmujący się jednym z największych problemów immunoterapii. Chodzi o sprawienie, by guzy niewidoczne dla układu odpornościowego stały się „immunologicznie aktywne”. W tym celu AI przeprowadziła wirtualny przegląd ponad 4 tys. leków, poszukując substancji działającej jak „wzmacniacz”. Modelowi udało się ją znaleźć, przewidując jednocześnie, w jakich warunkach najlepiej zadziała. Była to zupełnie nowa hipoteza, której trafność wstępnie potwierdziły eksperymenty laboratoryjne na ludzkich komórkach nowotworowych – udało się istotnie zwiększyć ich „widzialność” dla układu odpornościowego. DeepMind wydzieliła też ze swoich struktur firmę Isomorphic Labs, która ma rozpocząć testy z udziałem ludzi pierwszego leku całkowicie zaprojektowanego przez AI.
Czekając na korektę
W lutym Google ogłosił też ogólny projekt dla nauki, czyli wirtualnego asystenta „AI co-scientist”. Nie jest to jednak kolejny chatbot streszczający specjalistyczne artykuły, lecz zaawansowany system mający grać rolę partnera w badaniach. Jego serce to tzw. architektura wieloagentowa: po otrzymaniu celu badawczego opisanego przez naukowca normalnym językiem system angażuje do pracy siedmiu niezależnych agentów AI. Działając równocześnie, przeczesują fachową literaturę, generują nowatorskie hipotezy, a następnie wzajemnie się recenzują i udoskonalają swoje pomysły, by na końcu przedstawić gotowy plan eksperymentu. Nie chodzi tu o zastąpienie naukowców algorytmami, lecz o odciążenie ich od żmudnej pracy analitycznej. Dzięki temu tempo odkryć – zwłaszcza w tak wymagających dziedzinach jak biomedycyna – ma znacząco przyspieszyć.
Oczywiście nie tylko DeepMind pracuje nad wykorzystaniem AI w nauce. Przykładem może być model AI-Newton, niedawno przedstawiony przez badaczy z Uniwersytetu Pekińskiego, który autonomicznie „odkrywa” prawa fizyki, w tym drugą zasadę dynamiki, analizując jedynie surowe dane eksperymentalne. Nie zmienia to jednak faktu, że pozycja amerykańskiego koncernu jest na razie dominująca, co potwierdził ubiegłoroczny Nobel. Pytanie jednak, czy zaspokoi to apetyty biznesowe Google, gdyż największe pieniądze może przynieść wykorzystanie AI w biznesie oraz przez indywidulanych użytkowników. Tych zaś najwięcej ma obecnie ChatGPT – ok. 800 mln (Gemini – ok. 650 mln) – ale gotowych płacić 20 dol. miesięcznie za najtańszą subskrypcję jest tylko ok. 5 proc. z nich.
I nie będzie ich więcej, jeśli nie pojawiają się jakieś przełomowe pomysły, które pchną LLM-y na nowe tory. Dlatego może nas czekać istotna korekta w branży AI, co samo w sobie nie byłoby złe, gdyż pozwoli oddzielić prawdziwe innowacje od spekulacji. Oby tylko cena za to nie okazała się podobnie wysoka, jak w 2008 r.