Shutterstock
Technologia

Akuszer sztucznej inteligencji przechodzi do obozu maszynofobów

Zarząd OpenAI zwolnił Sama Altmana. Dlaczego?
Technologia

Zarząd OpenAI zwolnił Sama Altmana. Dlaczego?

Zamach stanu w firmie, która zainicjowała wyścig zbrojeń na polu sztucznej inteligencji, to próba zagnania dżina do butelki.

Geoffrey Hinton porzucił kierownicze stanowisko w Google’u, gdzie pracował nad sztuczną inteligencją, by z wolnej stopy krytykować niekontrolowany wyścig zbrojeń firm rozwijających SI.

To trochę tak, jakby Piotr Apostoł ogłosił się agnostykiem, a pułkownik Sanders, ten od kurczaków w panierce, wegetarianinem. 75-letni dziś Geoffrey Hinton, z pochodzenia Brytyjczyk, nazywany bywa ojcem chrzestnym sztucznej inteligencji. To jego teorie kładące fundament pod przyszły rozwój sieci neuronowych umożliwiły powstanie dzisiejszych, zaawansowanych modeli sztucznej inteligencji. Dość rzec, że jeden z dwóch studentów, z którymi jako profesor University of Toronto Hinton pracował w 2012 r. nad technikami uczenia maszynowego – Ilya Sutskever – został szefem zespołu naukowców firmy OpenAI, twórczyni ChatGPT i DALL-E. Geoffrey Hinton i jego asystenci stworzyli wtedy model sieci neuronowych zdolnych uczyć się rozpoznawania obiektów przedstawianych na zdjęciach. Robiły to tak sprawnie, że firma Google wykupiła ich startup za 44 mln USD.

Być może jednak należy zacząć tę opowieść od końca, czyli od ostatnich słów, jakie Hinton skierował do dziennikarza „MIT Technology Review” Willa Douglasa Heavena po godzinnej rozmowie w kuchni: „Baw się dobrze, bo może nie zostało ci już wiele czasu”.

Hinton, zanim zamknął drzwi, jeszcze się roześmiał. Optymiści wezmą to za wskazówkę, że żartował, pesymiści – za próbę złagodzenia napięcia wobec wagi wypowiedzianych słów. Realiści nie powinni tracić z oczu kontekstu. Hinton wyraźnie podkreśla, że dręczy go poczucie winy. Niewykluczone jest bowiem – jak wyznaje – że przyczynił się swą pracą do powstania technologii, która okaże się dla człowieka przekleństwem.

Hintona niepokoją dwie rzeczy. Po pierwsze, ów naukowiec, który zajmuje się teorią sztucznych sieci neuronowych już od 1972 r., jest zaskoczony szybkością ewolucji konstruktów SI, jak ChatGPT, którego najnowsza, czwarta generacja, przewyższa ludzką inteligencję już pod wieloma aspektami. Profesor sądził do niedawna, że sztuczna inteligencja będzie mogła osiągnąć ten poziom najwcześniej za parę dekad. Jak wysoko zatem wespnie się w kolejnych latach? Przede wszystkim jednak przeraża Geoffreya Hintona brak jakiegokolwiek skutecznego nadzoru nad rozwojem tej technologii. Szczególne zagrożenie widzi w wyścigu zbrojeń między Microsoftem, który ma udziały w OpenAI i wykorzystuje już ChatGPT w swoich produktach, a walczącym o przetrwanie Google’em, bo duże modele językowe zagrażają istnieniu jego flagowego produktu: wyszukiwarki internetowej.

Hinton obawia się, że jakakolwiek odgórna regulacja mająca zapewnić kontrolę nad rozwijaniem SI nie ma dużych szans na skuteczność. W przeciwieństwie bowiem do prac nad bronią jądrową, badania nad SI można prowadzić w ukryciu. A na świecie jest zbyt wielu potężnych graczy pozbawionych skrupułów. W tej perspektywie na przykład Putin, mogąc wysłać przeciw Ukraińcom roboty bojowe sterowane przez autonomiczną SI, na pewno by się – według Hintona – nie zawahał.

Wcześniej jednak zagrozi nam niebezpieczeństwo innego rodzaju. Zdolność SI do generowania przekonujących fałszywych treści sprawi, że zaczniemy tonąć w oceanie kłamstwa. Jeśli osoby o złych intencjach wykorzystają w tym celu potencjał SI, może to zatopić demokrację.

Najwięcej nadziei dałaby – twierdzi Hinton – ogólnoświatowa współpraca kluczowych naukowców, świadomych ewentualnych zagrożeń. I na to są jednak małe nadzieje. Trudno zakładać, że objęłaby chociażby naukowców z Korei Północnej lub Chin.

Geoffrey Hinton przyznaje, że przez czterdzieści lat uważał, że sztuczna inteligencja bazująca na sieciach neuronowych będzie się rozwijać, podążając tą drogą, którą pokonała inteligencja organizmów biologicznych. Fakt, że była to niezbyt imponująca próba mimikry, dawał mu poczucie komfortu. Dziś wie, że był w błędzie. „Ludzkie mózgi mają sto bilionów połączeń – mówił w rozmowie z Heavenem – a duże modele językowe do pół biliona, góra do biliona połączeń. A jednak GPT-4 ma wiedzę setki razy większą niż jakikolwiek człowiek”. Co być może oznacza – podsumowuje – że jego algorytmy działają sprawniej niż nasze. Co więcej, poszczególne sieci neuronowe mogą błyskawicznie przekazywać całą zdobytą wiedzę innym sieciom neuronowym. To niesłychanie przyspiesza ich rozwój.

Wniosek, do jakiego doszedł Hinton, może ucieszyć apologetów SI, większość ludzi chyba jednak przerazi: SI jest doskonalszą formą inteligencji od inteligencji biologicznej. Być może zatem ostatnie słowa, które skierował do dziennikarza „MIT Technology Review”, były szczerą, życzliwą radą.

Ta strona do poprawnego działania wymaga włączenia mechanizmu "ciasteczek" w przeglądarce.

Powrót na stronę główną