Pulsar - wyjątkowy portal naukowy. Pulsar - wyjątkowy portal naukowy. Shutterstock
Technologia

Aby AI stała się przyjaźniejsza, musi umieć zapominać

Historia ucznia czarnoksiężnika, który obudził złe siły, a potem nie potrafił nad nimi zapanować, jest stara jak literatura. Technologia rodzi wiele takich obaw. Ale zamiast snuć katastroficzne scenariusze lub przejawiać nadmierny optymizm, zastanówmy się nad kluczowymi pytaniami.

Obserwuj nas. Pulsar na Facebooku:

www.facebook.com/projektpulsar

W nawale artykułów na temat sztucznej inteligencji, publikowanych w ostatnich miesiącach, pojawiają się regularnie katastroficzne nuty. Straszy zwłaszcza wizja ogólnej sztucznej inteligencji (artificial general intelligence, w skrócie AGI), czyli cyfrowego nadrozumu. Szczególnie dużo się o niej mówiło podczas listopadowego kryzysu przywództwa w firmie OpenAI, gdy ojciec sukcesu ChatGPT Sam Altman na chwilę przestał być jej kierującym, a potem wrócił na stanowisko. Spekulowano, że w tle jest właśnie AGI – i spór na najwyższych szczeblach, czy można po prostu wykorzystać ogólną sztuczną inteligencję jako maszynkę do zarabiania pieniędzy, czy należałoby ją raczej powoli rozwijać, aby nie wymknęła się spod kontroli.

Historia ucznia czarnoksiężnika, który obudził złe siły, a potem nie potrafił nad nimi zapanować, jest stara jak literatura. Także technologia rodzi wiele takich obaw – świetnie dokumentuje je historia sieci społecznościowych, które miały ułatwić kontakty między ludźmi, a doprowadziły do głębokich i trudnych do zasypania podziałów społecznych, epidemii samotności oraz depresji – o czym pisaliśmy w lipcu 2023 r. Ale zamiast snuć katastroficzne scenariusze lub też – odwrotnie – przejawiać nadmierny optymizm, spróbujmy zastanowić się nad znacznie ważniejszymi pytaniami: dlaczego regulować sztuczną inteligencję, jak to robić i czego powinniśmy się po takiej kontroli spodziewać.

Wszystkie kraje demokratyczne dostrzegają ryzyko związane ze sztuczną inteligencją, ale jednocześnie nie chcą spowolnić jej rozwoju – ostrożnie więc patrzą, co się dzieje, i dostosowują swoje prawo do zmieniających się okoliczności technologiczno-społecznych.ShutterstockWszystkie kraje demokratyczne dostrzegają ryzyko związane ze sztuczną inteligencją, ale jednocześnie nie chcą spowolnić jej rozwoju – ostrożnie więc patrzą, co się dzieje, i dostosowują swoje prawo do zmieniających się okoliczności technologiczno-społecznych.

Od Asimova do Unii Europejskiej

Temat ograniczania działań cyfrowych mózgów jest tak stary jak literatura science fiction. Isaac Asimov, twórca cyklu „Fundacja”, zapisał swoje trzy prawa robotyki w roku 1942. Warto przytoczyć je w całości:

1. Robot nie może zranić człowieka ani przez zaniechanie działania dopuścić do jego nieszczęścia.

2. Robot musi być posłuszny człowiekowi, chyba że stoi to w sprzeczności z pierwszym prawem.

3. Robot musi dbać o siebie, jeśli tylko nie stoi to w sprzeczności z pierwszym lub drugim prawem.

Później Asimov dodał jeszcze tzw. zerowe, wyższe prawo robotyki, w którego centrum postawił ludzkość:

0. Robot nie może skrzywdzić ludzkości lub poprzez zaniechanie działania doprowadzić do naruszenia dobra ludzkości.

To pierwszy „kodeks etyczny” sztucznej inteligencji; wbrew pozorom do dziś uznawany za aktualny, choć nigdy nie został skodyfikowany w postaci prawa. Jego wpływ de facto widzimy np. w regulacjach dotyczących pojazdów autonomicznych – chociaż już dziś posiadają mechanizmy zapewniające w wielu obszarach bezpieczeństwo wyższe niż to, które zapewnia człowiek, nadal nie są masowo produkowane i dopuszczone do ruchu.

A skoro o prawie mowa, warto powiedzieć, że pojawiły się pierwsze regulacje sztucznej inteligencji. Europejskie prawo dzieli sztuczną inteligencję na trzy poziomy: niebezpieczną, wysokiego ryzyka i ograniczonego ryzyka. Ta pierwsza jest niedopuszczalna. Sama regulacja nie precyzuje dokładnie technologii, natomiast charakteryzuje możliwe zastosowania: np. systemy tzw. kredytu społecznego, dzielące ludzi pod względem zachowania, statusu socjoekonomicznego albo wyglądu, systemy rozpoznawania twarzy w czasie rzeczywistym, niebezpieczne zabawki. Druga kategoria, systemy wysokiego ryzyka, obejmuje przede wszystkim sprawy wiążące się z bezpieczeństwem, np. w transporcie albo medycynie. Dodatkowo do tej grupy zaliczane są zastosowania różnicujące relacje państwo–obywatel: np. związane z edukacją, kontrolami granicznymi, wsparciem prawnym czy wnioskowaniem o świadczenia społeczne. Wszystkie te systemy powinny być ocenione pod kątem ryzyka przed wdrożeniem do pracy. Na końcu listy są systemy ograniczonego ryzyka. Te zasadniczo są dopuszczone, choć obowiązuje właściwe oznaczanie – np. obrazom czy filmom generowanym za pomocą sztucznej inteligencji powinno towarzyszyć wyraźne oznaczenie, że zostały wykreowane.

Podobne regulacje wdrożyły Wielka Brytania, Kanada, Australia i Japonia; Stany Zjednoczone na razie publikują tylko wytyczne. Wszystkie kraje demokratyczne dostrzegają ryzyko związane ze sztuczną inteligencją, ale jednocześnie nie chcą spowolnić jej rozwoju – ostrożnie więc patrzą, co się dzieje, i dostosowują swoje prawo do zmieniających się okoliczności technologiczno-społecznych. Kolejna wersja europejskiej regulacji dotyczącej sztucznej inteligencji jest akurat w przygotowaniu. Ma być precyzyjniejsza, tzn. koncentrować się na otwartości systemów, ich transparentności i audycie (jeśli w wyniku działania AI podjęta zostanie niebezpieczna lub krzywdząca decyzja, powinien istnieć ślad, w jaki sposób to nastąpiło) oraz wyłączać pewne typy identyfikacji biometrycznej, aby lepiej chronić prawo do prywatności. Wskaże także jednoznacznie instytucje odpowiedzialne za regulacje i interwencje, a także określi kary za nieprzestrzeganie prawa.

Pamiętajmy jednak: sztuczna inteligencja to trenowanie maszyn na dużych ilościach danych. AI będzie więc tak „dobra” albo „zła”, jak „dobre” albo „złe” są dane, które służą do jej trenowania.ShutterstockPamiętajmy jednak: sztuczna inteligencja to trenowanie maszyn na dużych ilościach danych. AI będzie więc tak „dobra” albo „zła”, jak „dobre” albo „złe” są dane, które służą do jej trenowania.

Brudne dane, brudne myśli

Pamiętajmy jednak: sztuczna inteligencja to trenowanie maszyn na dużych ilościach danych. AI będzie więc tak „dobra” albo „zła”, jak „dobre” albo „złe” są dane, które służą do jej trenowania. Tam, gdzie decyzje mogą realnie wpływać na ludzi, może się okazać, że skrzywienia albo uprzedzenia powstałe na etapie przygotowania danych rzutują na rzekomo obiektywne decyzje maszyny. Klasyczny przypadek, opisywany przez Cathy O’Neil w książce „Broń matematycznej zagłady” (oryginalny tytuł „Weapons of Math Destruction” lepiej oddaje ryzyka tkwiące w big data i sztucznej inteligencji), to dane policyjne w USA. Policja w Kalifornii zainstalowała system, który miał kierować patrole w dane rejony na podstawie historycznych danych o przestępstwach w dzielnicach. Tyle że dane te były silnie nacechowane rasizmem funkcjonariuszy. Wcześniej więcej przestępstw wykrywano w dzielnicach mniejszości etnicznych, bo za to, co w wypadku białego Amerykanina uchodziło na sucho i kończyło się najwyżej pouczeniem, czarnoskóry lub Latynos lądował na komisariacie. W rezultacie więcej patroli kierowano do dzielnic mniejszości, a więc policjanci wykrywali więcej przestępstw. W rezultacie zamiast obiektywnego systemu, opartego na algorytmach oraz danych, powstała samonapędzająca się maszyna uprzedzeń, bardzo realnie wpływająca na życie mieszkańców.

Podobny paradoks przejawiają systemy bankowe sprawdzające osobę wnioskującą o kredyt (tzw. systemy scoringowe). Masz niskie dochody i nie masz historii kredytowej? Dostaniesz kredyt na wysoki procent albo wcale. A ponieważ wysokie raty kredytu lub koszty najmu pochłoną twoje dochody, nie będziesz mieć zdolności kredytowej. A bez zdolności kredytowej możesz tylko pomarzyć o np. przeprowadzce do większego miasta, aby znaleźć lepszą pracę. Z pozoru wszystko jest stuprocentowo racjonalne; w rzeczywistości prowadzi do wzrostu podziałów i niepokojów społecznych, a to toruje drogę populistom.

Unia Europejska reguluje wykorzystanie danych. Rozporządzenie ogólne o danych osobowych, potocznie zwane RODO, wyłącza możliwość zbierania danych szczególnie wrażliwych, m.in. o poglądach politycznych, rasie, orientacji seksualnej czy działalności związkowej. Ale określa również dodatkowe prawa, takie jak prawo do określenia celów zbierania danych, prawo do ich pobrania lub usunięcia. W szczególności jest to prawo do bycia zapomnianym, istotne w dobie, gdy dane służą nie tylko do zbierania informacji o nas, ale również do trenowania modeli potrzebnych do innych celów. Czy wycofując zgodę na przetwarzanie swoich danych, wycofujemy także zgodę na „oduczenie” tej części sztucznej inteligencji, która została na ich podstawie nauczona? A jeśli tak, to jak dokładnie miałoby się to odbyć?

Ludzie niezdolni do zapominania są chorzy. Doskonała pamięć dawnych zdarzeń lub przeżyć nie jest błogosławieństwem, ale przekleństwem, np. gdy ktoś potrafi słowo po słowie odtworzyć ulotkę widzianą wiele lat wcześniej przez kilka sekund, za to nie może nauczyć się nowych umiejętności.ShutterstockLudzie niezdolni do zapominania są chorzy. Doskonała pamięć dawnych zdarzeń lub przeżyć nie jest błogosławieństwem, ale przekleństwem, np. gdy ktoś potrafi słowo po słowie odtworzyć ulotkę widzianą wiele lat wcześniej przez kilka sekund, za to nie może nauczyć się nowych umiejętności.

Uczenie maszynowe, maszynowe oduczanie

Kwestia zapominania danych ma wbrew pozorom ogromne znaczenie. Aby dobrze zrozumieć jej istotność w odniesieniu do maszyn, trzeba sobie przypomnieć, dlaczego ludzie zapominają. Wypadają nam z pamięci wydarzenia czy twarze, bo mózg chce zrobić miejsce na istotniejsze i świeższe skojarzenia. Zapominamy nieistotne czynności, aby nauczyć się nowych. Teoria zaproponowana przez Tomása Ryana z Trinity College w Dublinie oraz Paula Franklanda z University of Toronto sugeruje, że zapominanie to niezbędny element uczenia. Na poziomie komórkowym to po prostu odłączanie pewnych synaps od neuronów, sprawiające, że nie będą one już wpływać na podejmowane decyzje. Przede wszystkim prowadzi ono do uogólnień niezbędnych, aby efektywniej się uczyć. Codzienne doświadczenie zdaje się potwierdzać tę teorię: zapomnieliśmy już pewnie, kiedy w dzieciństwie oparzyliśmy się o rozgrzaną patelnię lub piec, i nie pamiętamy bólu i płaczu, którymi wtedy zareagowaliśmy. Pamiętamy jedynie, aby nie zbliżać palców do rozgrzanej patelni lub pieca. Co ciekawe, same wspomnienia jednak pozostają – pod wpływem nowego przeżycia neurony się uaktywniają, a inne, zarządzające obiegiem informacji w mózgu, mogą ponownie nadać im znaczenie.

Ludzie niezdolni do zapominania są chorzy. Doskonała pamięć dawnych zdarzeń lub przeżyć nie jest błogosławieństwem, ale przekleństwem, np. gdy ktoś potrafi słowo po słowie odtworzyć ulotkę widzianą wiele lat wcześniej przez kilka sekund, za to nie może nauczyć się nowych umiejętności. Podobnie jest z osobami cierpiącymi na chorobę Alzheimera: potrafią przywołać z pamięci zdarzenia sprzed dekad, nie pamiętają jednak, że łyżkę po umyciu należy odłożyć do szuflady.

Maszyny, które nie potrafią się oduczać, są podatniejsze na naruszenie bezpieczeństwa i prywatności. Badacze z Google poprosili ChatGPT, aby powtarzał słowo poem bez końca. ChatGPT najpierw pisał poem poem poem poem… ale w którymś momencie zaczął wyrzucać przypadkowe dane, w tym poufne informacje zawierające nazwiska, numery telefonów i adresy. Jak to się stało? Prawdopodobnie gdzieś w strukturach maszynowych wykreowanych przez proces uczenia te dane znalazły się bardzo głęboko, ale kiedy tam sięgnięto, wypłynęły. To, co Marcel Proust opisał jako strumień świadomości – gdzie jedne wspomnienia przywodzą kolejne, a te znowu następne – najwyraźniej dotyczy także sztucznej inteligencji. Trochę jak w filmie „Incepcja” – pod „świadomością” maszynową istnieje kolejna subświadomość, pod nią następna, a na samym dnie elementarne dane, którymi posłużono się do jej wykreowania.

Tego już się nie da odzobaczyć!

Czy możliwe jest więc maszynowe oduczanie? Czy można przekonać sztuczną inteligencję, aby odzobaczyła rzeczy, które kiedyś zobaczyła? Zapomniała to, co kiedyś przeczytała, chroniąc jednocześnie poufność zdarzeń, integralność danych i prywatność osób? Pytanie wydaje się istotne. Nie tylko filozoficznie, ale praktycznie, a dokładniej – obliczeniowo. Usuwanie pojedynczych szczegółów ze zbiorów danych jest bardzo trudne i nieopłacalne – wymaga dogrzebania się do nich i usunięcia, a potem ponownego przeliczenia całego modelu. Jeśli danych nie oczyszczono na początku (informatycy nazywają to sanityzowaniem i nie bez powodu to słowo wykazuje pokrewieństwo zarówno z sanitariatem, jak i ze słowem sanity, oznaczającym bycie w pełni rozumnym), pozostaje ich odcięcie, uogólnienie lub wprowadzenie do nich sztucznego szumu.

Co ciekawe, eksperymenty pokazują, że modele sztucznej inteligencji po „oduczaniu” lub też „oczyszczeniu” radzą sobie lepiej z praktycznymi problemami niż te, które pozostały niezmienione. Badacze z Google DeepMind nauczyli sztuczną inteligencję grania w stare gry na ośmio- i szesnastobitowe komputery Atari, pisane w latach 80. i 90. Było to o tyle łatwe, że gry były w tamtym czasie stosunkowo proste, a na świecie jest wielu fanów starych platform, którzy – grając na emulatorach – dostarczyli danych źródłowych. W krótkim czasie sztuczna inteligencja nauczyła się więc grać równie dobrze jak oni. Ale kiedy odcięto część danych źródłowych, umieszczając w ich miejsce generalizacje, a potem sztucznie uwypuklono znaczenie nietypowych sytuacji (gdy rozwój zdarzeń w grze odbiegał od przyjętych schematów), sztuczna inteligencja zaczęła radzić sobie… lepiej. Z dobrego gracza stała się wyjątkowo dobrym graczem. Na dodatek jej zdolności rosły szybciej niż podczas typowego uczenia.

I tu znowu warto odwołać się do analogii z ludzką inteligencją. Ludzkość popychają naprzód nie tylko wybitni naukowcy z rozległą wiedzą umożliwiającą wymyślanie nowych teorii i wyprowadzanie kolejnych równań. Również zdarza się to osobom, które nie należą do grona certyfikowanych badaczy, za to realnie praktykują daną dziedzinę i kwestionują stan rzeczy. Gdyby bracia Wrightowie, właściciele warsztatu rowerowego z Kitty Hawk, znali słowa lorda Kelvina, że maszyna cięższa od powietrza nie będzie w stanie latać, zapewne nie eksperymentowaliby z konstrukcjami zasilanymi silnikiem spalinowym, z których ostatecznie narodziło się współczesne lotnictwo. Gdyby na łamy „Annalen der Physik” wpuszczano jedynie naukowców, nie ukazałaby się tam praca nikomu wcześniej nieznanego urzędnika patentowego nazwiskiem Einstein. Jego koncepcje wywróciły świat fizyki do góry nogami i otworzyły nową erę w badaniach i cywilizacji.

Sztuczna inteligencja nie tylko więc powinna, ale wręcz musi nauczyć się oduczania. Pytanie o regulacje sztucznej inteligencji i jej zdolność zapominania jest też w gruncie rzeczy pytaniem o spokój społeczny oraz utrzymanie demokracji.ShutterstockSztuczna inteligencja nie tylko więc powinna, ale wręcz musi nauczyć się oduczania. Pytanie o regulacje sztucznej inteligencji i jej zdolność zapominania jest też w gruncie rzeczy pytaniem o spokój społeczny oraz utrzymanie demokracji.

Kto potrzebuje demokracji, skoro mamy dane?

Sztuczna inteligencja nie tylko więc powinna, ale wręcz musi nauczyć się oduczania. Pytanie o regulacje sztucznej inteligencji i jej zdolność zapominania jest też w gruncie rzeczy pytaniem o spokój społeczny oraz utrzymanie demokracji. Pokusa superinteligentnego Lewiatana, który – zasilony odpowiednią ilością obiektywnych danych i wyposażony w odpowiednie moce obliczeniowe oraz decyzyjne – będzie organizował życie, dzielił dobra, planował aktywność społeczną, a potem sprawiedliwie rozstrzygał spory i zadośćuczyni krzywdom, jest tyleż idealistyczna, ile koszmarna. Dodajmy, że taką ideą kierują się reżimy autorytarne, wykorzystujące zdobycze technologii (w tym sztucznej inteligencji) do utrzymania władzy. „Któż potrzebuje demokracji, skoro mamy dane?” – pyta Christina Larson z bostońskiego MIT, opisując system chińskiej kontroli społecznej. Po krótkiej i lekkiej odwilży demokratycznej w 2012 r. chińscy komuniści postawili raczej na kontrolę elektroniczną. Przymus technicznej personalizacji większości usług (dostępu do telewizji, internetu, przejazdów komunikacją itd.) oznaczał, że państwo wie, co kto robi i jakie potrzeby zgłasza. A więc nie tylko czerpie informacje o zachowaniach społecznych, ale może je wymuszać.

Teoretycznie powinno to oznaczać, że władze są w stanie reagować na potrzeby społeczne bez czekania na cykl wyborczy i ponoszenia kosztów związanych z wyłonieniem nowych rządzących oraz przekazaniem władzy. W praktyce prowadzi to do tego, że jeśli ktoś nie jest dostatecznie standardowy w przejawianych zachowaniach i prawomyślny w poglądach, może mieć problemy. Turbodoładowanie temu systemowi dała pandemia: polityka zero covid zobowiązała obywateli do posiadania przy sobie apki, która umożliwiała im (lub nie) wychodzenie na zewnątrz. Kary za nieprzestrzeganie jej zaleceń były bardzo surowe, od finansowych po przymusową kwarantannę i „zniknięcia”.

W rezultacie zamiast służebnej władzy błyskawicznie realizującej wolę społeczną na podstawie danych i maszynowego uczenia mamy jednostkę totalnie podporządkowaną woli władzy. Można oczywiście zwodzić się, że w zachodniej myśli politycznej i społecznej, opartej na liberalizmie, dałoby się to zrobić dobrze. Ale nie bądźmy tego pewni, dopóki nie sprawdzimy – a dotychczasowe eksperymenty z wyposażaniem organów państwa w nadmierne i niekontrolowane uprawnienia (np. polska afera Pegasusa) pokazują, że na liście priorytetów polityków dobro obywateli będzie zawsze daleko za pokusą wykorzystania elektronicznych instrumentów władzy do inwigilacji przeciwników i kontroli społecznej. Pokusa inwigilacji może dotyczyć spraw o wiele bardziej przyziemnych – np. zatroskani ojcowie sprawdzali, z kim randkuje córka i co dokładnie podczas tych randek robi (do tego właśnie wykorzystywano systemy amerykańskiej NSA).

Stąd też bardzo pilna jest potrzeba regulacji sztucznej inteligencji oraz konieczna dbałość o to, by dane, na których się uczy, były dobrej jakości oraz pozbawione uprzedzeń i skrzywień. A także by jej użycie było cały czas pod kontrolą demokratycznie wyłonionych rządów oraz wyposażonych w odpowiednie kompetencje regulatorów.

Wiedza i Życie 2/2024 (1070) z dnia 01.02.2024; Sztuczna inteligencja; s. 38

Ta strona do poprawnego działania wymaga włączenia mechanizmu "ciasteczek" w przeglądarce.

Powrót na stronę główną