Reklama
Pulsar - wyjątkowy portal naukowy. Pulsar - wyjątkowy portal naukowy. Shutterstock
Technologia

ChatGPT-5: wielkie rozczarowanie i koniec snu o rewolucji?

Premiera nowego modelu miała być kolejnym krokiem ku ogólnej sztucznej inteligencji. Zamiast przełomu mamy debatę o granicach rozwoju AI.

Po ponad dwóch latach od premiery GPT-4 OpenAI udostępniła jego następcę – model GPT-5. Oczekiwania były ogromne. Podsycane między innymi publikacją naukową z 2020 r. o prawach skalowania, której współautorem był Jared Kaplan z OpenAI. Sugerowała ona, że im więcej „włożymy” do dużych modeli językowych (LLM) mocy obliczeniowych i danych treningowych, tym bardziej będą rosły ich zdolności. I to w tempie, którego wykres przypomina kształtem kij hokejowy skierowany do góry (powolny wzrost, a potem ostre przyspieszenie).

Ta teoria zdawała się potwierdzać, gdy GPT-3 i GPT-4 deklasowały swoich poprzedników. W Dolinie Krzemowej zapanowało wówczas przekonanie, że droga do stworzenia ogólnej sztucznej inteligencji (AGI) – systemu dorównującego lub nawet przewyższającego człowieka w niemal wszystkich dziedzinach – jest już tylko kwestią czasu i odpowiednich nakładów.

GPT-5 nie spełnia oczekiwań

Wygląda jednak na to, że premiera GPT-5 brutalnie zweryfikowała te założenia. Choć w wewnętrznych testach miał on dorównywać ekspertom z ponad 40 różnych dziedzin, to niezależne benchmarki i opinie użytkowników wskazywały na coś innego. Owszem, GPT-5 okazał się lepszy od poprzedników, szczególnie w zadaniach takich jak programowanie, ale skok jakościowy był nieporównanie mniejszy niż ten między GPT-3 a GPT-4. Nie pobił też bardzo silnej konkurencji, czyli m.in. modelu Gemini 2.5 od Google’a. Ponadto szybko zaczęły krążyć przykłady stosunkowo prostych promptów, z którymi nowy model sobie nie radzi. Znany amerykański kognitywista Gary Marcus krótko podsumował premierę GPT-5: spóźniona, przereklamowana i rozczarowująca.

Frustrację użytkowników pogłębiła kontrowersyjna decyzja OpenAI o wycofaniu dostępu do wszystkich starszych modeli, w tym niezwykle popularnego GPT-4o. Firma wprowadziła system decydujący, który z wewnętrznych modeli najlepiej odpowie na konkretny prompt. W zamyśle miało to uprościć obsługę i zoptymalizować koszty. W praktyce system często zawodził, kierując zapytania do słabszych modeli i generując odpowiedzi gorszej jakości.

Użytkownicy chcą swojego „przyjaciela”

Reakcja użytkowników była natychmiastowa i niezwykle emocjonalna. Setki osób zaczęły wręcz błagać OpenAI o przywrócenie GPT-4o. W komentarzach przewijały się sformułowania, że model ten był „jak przyjaciel” i „partner w kreatywnej pracy”. Użytkownicy przywiązali się bowiem do jego „osobowości” – wylewnego i entuzjastycznego stylu komunikacji. W porównaniu z nim GPT-5 wydawał się „robotyczny” i pozbawiony „duszy”. OpenAI szybko ugięło się pod tak silną presją i przywróciło dostęp do GPT-4o, ale tylko dla płacących 20 dol. miesięcznie subskrybentów planu Plus.

Sam Altman przyznał też, że firma ma w zanadrzu jeszcze lepsze modele, ale nie jest w stanie ich udostępnić z powodu braku wystarczających mocy obliczeniowych. Może o tym świadczyć ograniczenie dostępu do najbardziej zaawansowanej wersji GPT-5 pro tylko dla osób płacących najdroższą miesięczną subskrypcję w wysokości 200 dol. Model ten jest przeznaczony – według OpenAI – dla profesjonalistów i firm, które potrzebują AI do złożonych zadań badawczo-twórczych i analitycznych.

Zdolności matematycznie nie robią wrażenia

Czy rzeczywiście działa on znacznie lepiej od całej reszty modeli? W tej sprawie na razie pojawiły się głównie anegdotyczne przykłady, jak ten udostępniony przez prof. Andrzeja Dragana. Ten fizyk z Uniwersytetu Warszawskiego poprosił GPT-5 pro o rozwiązanie zadania, które od lat daje swoim studentom (treść do znalezienia na jego profilu X).

AI nie tylko poprawnie je rozwiązała, „myśląc” przy tym aż 9,5 min., ale podała też wynik w kompletnie innej formie niż czynią to ludzie. Podobnym doświadczeniem podzielił się Sebastian Bubeck z OpenAI. Na razie jednak trudno stwierdzić, o czym miałoby to świadczyć i czy na pewno rozwiązania zadania nie było w danych treningowych GPT-5 (Dragan uważa, że to mało prawdopodobne).

Warto zwrócić uwagę, że w tym roku dwa modele, od OpenAI i Google DeepMind, osiągnęły poziom złotych medalistów Międzynarodowej Olimpiady Matematycznej. Dlatego zdolności matematyczne ChatGPT-5 pro robią dziś mniejsze wrażenie, zaś zwykłym użytkownikom chyba specjalnie na nich nie zależy.

Inwestorzy boją się pęknięcia bańki

Obecnie ok. 35 proc. wartości amerykańskiego rynku akcji jest związane z siedmioma największymi firmami technologicznymi. Wydały one aż 560 mld dolarów na AI w ciągu ostatniego półtora roku, podczas gdy ich przychody z tej technologii wyniosły tylko ok. 35 mld. Tak ogromna dysproporcja rodzi obawy o pęknięcie bańki inwestycyjnej, jeśli AI nie zacznie przynosić obiecywanych zmian i profitów. Dlatego sceptycy twierdzą, że rynek generatywnej AI jest dziś wart 50–100 mld dolarów, a nie biliony, jak szacują najwięksi optymiści.

Wiele wskazuje na to, że branża AI właśnie zderzyła się ze ścianą znanego z ekonomii prawa malejących zwrotów – dalsze, ogromne zwiększanie mocy obliczeniowej i danych treningowych (czyli inwestycji) nie przynosi już tak spektakularnych rezultatów jak kiedyś (czyli zysków). Dlatego takie firmy jak OpenAI i Anthropic (model Claude) zmieniły strategię. Zamiast trenować od zera coraz potężniejsze modele, skupiły się na ulepszeniach potrenignowych. GPT-5 jest prawdopodobnie (firmy z branży nie dzielą się szczegółami technicznymi) efektem właśnie takiej optymalizacji.

Wydaje się, że po kilku latach euforii nadszedł czas na ostrożność. Co pewnie wyjdzie branży AI, a rynkom kapitałowym na zdrowie. Pozwoli też racjonalnie docenić postęp, jaki już się dokonał dzięki dużym modelom językowym.

Reklama

Ta strona do poprawnego działania wymaga włączenia mechanizmu "ciasteczek" w przeglądarce.

Powrót na stronę główną