Konferencja w Asilomar w 1975 r. Konferencja w Asilomar w 1975 r. Archiwum
Technologia

Kontrolowana eksplozja SI? Zawracanie kijem Wisły

Apele o wstrzymanie kontrowersyjnych badań naukowych mają długą tradycję. Ale sukces moratorium na eksperymenty z DNA niekoniecznie da się powtórzyć w przypadku sztucznej inteligencji.

Pacific Grove to małe miasteczko położone ok. 120 km na południe od San Francisco. W jego zachodniej części znajduje się plaża Asilomar. Jej nazwa wielu osobom pewnie nic nie mówi, ale naukowcom, zwłaszcza biologom, kojarzy się jednoznacznie. W lutym 1975 r. w tamtejszym ośrodku konferencyjnym Asilomar doszło do jednego z najciekawszych spotkań w historii nauki. Poprzedził je opublikowany nieco ponad pół roku wcześniej w tygodniku „Science” list otwarty, który podpisało 11 uczonych, m.in. James Watson, laureat Nobla za rozszyfrowanie struktury DNA. Wzywali oni innych badaczy do dobrowolnego wstrzymania eksperymentów z użyciem nowych wówczas narzędzi inżynierii genetycznej. Takich, które pozwalały na cięcie, sklejanie, wstawianie, a nawet przenoszenie między organizmami fragmentów kwasu deoksyrybonukleinowego.

Rzecz bez precedensu w historii nauki

Głównym inicjatorem apelu był amerykański biochemik Paul Berg ze Stanford University (późniejszy Noblista). W 1971 r. udało mu się uzyskać pierwszą tzw. rekombinowaną (czyli zmodyfikowaną) cząsteczkę DNA. Tworząc ją, połączył materiał genetyczny małpiego wirusa SV40 z DNA bakteriofaga lambda (czyli wirusa atakującego bakterie). Kolejnym krokiem miało być wklejenie tej „hybrydowej” cząsteczki do materiału genetycznego bakterii Escherichia coli.

Berg jednak tego nie zrobił, bojąc się potencjalnie groźnych skutków eksperymentu, na które zwracali mu uwagę najbliżsi współpracownicy – szczególnie doktorantka Janet Mertz. Do naukowca zatelefonował również mocno przestraszony biolog Robert Pollack z Cold Spring Harbor Laboratory (powiadomiony przez Mertz), ostrzegając, że znajdują się „w sytuacji przed Hiroszimą”. Ich wielkie obawy budził fakt, że wirus SV40 potrafi wywoływać nowotwory u gryzoni, a w warunkach laboratoryjnych powodować rakowacenie niektórych ludzkich komórek hodowanych in vitro. Co by się zatem stało, gdyby zmodyfikowana genetycznie bakteria wydostała się do środowiska? Czy mogłaby wywołać epidemię nowotworów?

Dlatego sygnatariusze listu postulowali wprowadzenie moratorium na pewnego typu eksperymenty, aż do czasu zakończenia szerszej dyskusji wśród ekspertów. Choć nie wszyscy się z tym zgadzali, wydarzyła się rzecz bez precedensu: apel poskutkował.

Puszka Pandory zamknięta na pół wieku

Na zwołanym przez Berga spotkaniu w ośrodku Asilomar stawiło się 140 naukowców (w tym 60 z 12 krajów spoza USA) oraz lekarzy, prawników i 16 dziennikarzy. W owym zaszczytnym gronie znaleźli się też dwaj polscy genetycy – profesorowie Piotr Węgleński i Wacław Gajewski (związani z Uniwersytetem Warszawskim oraz Instytutem Biochemii i Biofizyki PAN). Ten pierwszy wspominał w 2014 r. w rozmowie z POLITYKĄ: „Wśród uczonych wyczuwalny był lęk, że oto otwieramy puszkę Pandory, z której nie wiadomo co wyskoczy. A jeśli będziemy mogli modyfikować wszystko, to w pewnym momencie zaczniemy modyfikować również człowieka”.

Na konferencji ustalono m.in., że doświadczenia zmieniające DNA metodami inżynierii genetycznej mogą być prowadzone, ale z zachowaniem odpowiednich środków ostrożności. Jeżeli np. ktoś pracuje nad genami chorobotwórczego wirusa, to musi to robić w laboratorium o najwyższej klasie zabezpieczeń. Gdy ktoś eksperymentuje z niegroźnymi bakteriami, do których np. wprowadzono gen odpowiadający za produkcję ludzkiej insuliny, to wystarczy normalne laboratorium biologiczne.

Konferencyjne konkluzje dały również impuls do sformułowania zasad etycznych, którymi do dziś kierują się badacze wykorzystujący narzędzia inżynierii genetycznej. Stały się też punktem odniesienia w kwestii otwartości dyskusji, do tamtej pory zazwyczaj ograniczanej do wąskiego grona specjalistów. Na przykład w 2015 r. naukowcy zwołali w Napa w Kalifornii spotkanie na wzór tego z 1975 r., podczas którego sformułowano nowy apel, również wydrukowany w „Science”. Nawoływał on do rozwagi i bardziej wnikliwych dyskusji wokół techniki edycji genomów CRISPR/Cas. Chodziło o nową, tanią, łatwą i bardzo precyzyjną metodę wprowadzania zmian w DNA. Największy niepokój uczonych budziły (i nadal budzą) możliwości jej stosowania w ludzkich komórkach rozrodczych, przez co modyfikacje stałyby się dziedziczne.

Fenomen Asilomar raczej nie do powtórzenia

Kiedy pod koniec marca 2023 r. opublikowany został głośny (podpisało go w internecie już prawie 10 tys. osób) otwarty apel o wstrzymanie, przynajmniej na pół roku, prac nad kolejnymi wersjami programów typu ChatGPT, od razu pojawiły się porównania z Asilomar. Zresztą jego inicjatorzy, organizacja The Future of Life Institute (FLI), już w 2017 r. zorganizowała – w tym samym ośrodku konferencyjnym, co Paul Berg – spotkanie „wszystkich świętych” od sztucznej inteligencji. Pojawił się na nim m.in. Sam Altman, szef mającego wówczas dopiero dwa lata laboratorium OpenAI, w którym rodził się ChatGPT.

Rezultatem kilkudniowych dyskusji było sformułowanie zestawu zasad dotyczących tworzenia systemów sztucznej inteligencji. Liczy on 23 krótkie punkty podzielone na trzy obszary zagadnień: badawczych, etyki i wartości oraz kwestii długoterminowych rozwoju SI. Nacisk położono w nich przede wszystkim na sprawy bezpieczeństwa, szczególnie kompatybilności z ogólnoludzkimi wartościami oraz wspieranie transparentności i kooperacji badaczy. „The Asilomar AI Principles” podpisało – również przez internet – 6 tys. osób, wśród nich Sam Altman.

Szef OpenAI nie poparł jednak wspomnianego apelu o półroczne moratorium w rozwijaniu tzw. wielkich modeli językowych, będących podstawą programów typu ChatGPT. Milczą też jego główni konkurenci, czyli Google, Amazon czy Facebook, również rozwijający własne systemy SI. Zatem historia z 1975 r. raczej się dziś nie powtórzy.

Nauka apelom się nie kłania

Trudno zresztą o proste analogie. Choćby dlatego, że przed prawie pół wiekiem hamulec wcisnęli liderzy badań nad zastosowaniami inżynierii genetycznej, pracujący w ośrodkach akademickich. Obecnie zaś rozwój systemów SI niemal całkowicie zdominowały prywatne firmy, które już wpompowały w nie grube miliardy dolarów (tylko w 2021 r. było to 340 mld na całym świecie). Wysysają z instytutów i uczelni najzdolniejszych ludzi. Dysponują mocami obliczeniowymi i bazami danych (Google, Twitter, Facebook czy WhatsApp), o których inni mogą tylko marzyć.

Krytycy apelu o moratorium zwracają też uwagę, że sztuczną inteligencję rozwijają Chiny, które raczej na żadną pauzę się nie zgodzą. Dlatego Amerykanie nie pozwolą sobie na przerwanie w wyścigu, który w tej dziedzinie tak przyspieszył, że pół roku to niemal cała epoka. A Dolina Krzemowa, podobnie jak klasa polityczna USA, ma nastawienie zdecydowanie antychińskie.

Choć więc apel raczej nie zostanie wprowadzony w życie, jego niewątpliwą zasługą jest wywołanie burzliwej publicznej dyskusji o rozwoju SI. Dotyka ona także fundamentalnego pytania, czy w ogóle da się zastopować postęp naukowo-techniczny? Nie ma bowiem przykładów takich sytuacji. Owszem, dziś nie klonuje się ludzi i nie modyfikuje DNA zarodków, ale rozwój technik klonowania czy edycji materiału genetycznego nie został zatrzymany. I niewykluczone, że w przyszłości będą zastosowane również w przypadku ludzi.

Wszyscy chcą pędzić do przodu

Stanisław Lem uważał, że nauka jest ludzką aktywnością niezależną od rzeczywistych potrzeb społecznych. W jednym z ostatnich wywiadów mówił: „Rozwój technologiczny jest zmienną niezależną rozwoju cywilizacji. Jak się dokona odkrycia, to go nie można zakryć. Jak się stworzy wynalazek, nie można go cofnąć. A jedno odkrycie pociąga za sobą przynajmniej kilka następnych. Jeden wynalazek pociąga za sobą kolejne. Roboty robią coraz doskonalsze roboty. Procesory opracowują coraz lepsze procesory. Tego się nie da zatrzymać. Wszyscy chcą pędzić do przodu i nikt nie wie dokąd”.

Próby zatrzymania czy nawet spowolnienia rozwoju sztucznej inteligencji byłyby zatem zawracaniem kijem Wisły. Otwartym pozostaje zaś pytanie, czy rzeki tej nie dałoby się choć trochę wyregulować, by nie spowodowała wielkiej powodzi.