William MacAskill „Co jesteśmy winni przyszłości. Longtermizm jako filozofia jutra” William MacAskill „Co jesteśmy winni przyszłości. Longtermizm jako filozofia jutra” mat. pr.
Książki

Pulsar promuje. Fragment książki: William MacAskill „Co jesteśmy winni przyszłości. Longtermizm jako filozofia jutra”

Pulsar promuje: William MacAskill, „Co jesteśmy winni przyszłości. Longtermizm jako filozofia jutra”
Książki

Pulsar promuje: William MacAskill, „Co jesteśmy winni przyszłości. Longtermizm jako filozofia jutra”

W tej książce roi się od dylematów żywcem wziętych nie tylko z odległej historii, ale bezpośrednio dotyczących życia w trzeciej dekadzie XXI w.

Z wielu względów przyszłość napawa nas głęboką niepewnością.

Po pierwsze, w niektórych budzących kontrowersje zagadnieniach obie strony sporu dysponują silnymi argumentami i po prostu nie wiem, jak określić, które z nich mają większą wagę. Dotyczy to choćby pewnych strategicznych aspektów sztucznej inteligencji. Weźmy choćby pytanie o to, czy przyspieszenie rozwoju AI jest dobre, czy złe. Z jednej strony spowolnienie tego procesu dałoby nam więcej czasu, żeby przygotować się na pojawienie ogólnej sztucznej inteligencji. Z drugiej zaś przyspieszenie go mogłoby zmniejszyć ryzyko stagnacji technologicznej. Podjęcie niewłaściwych działań w tym zakresie może nie tylko sprawić, że nasze wysiłki pójdą na marne – może okazać się wręcz katastrofalne w skutkach.

Drażliwości, jaką budzą te kwestie, nie zmniejsza znaczna różnica zdań wśród specjalistów. Niedawno siedemdziesięciu pięciu naukowcom pracującym dla czołowych organizacji zajmujących się bezpieczeństwem i zarządzaniem AI zadano pytanie: „Jeśli założymy, że AI doprowadzi do katastrofy zagrażającej istnieniu naszego gatunku, jak sądzisz, co będzie jej przyczyną?”. Ankietowani mogli wybrać spośród sześciu scenariuszy: w pierwszym, jak w Superinteligencji Nicka Bostroma, pojedynczy system AI szybko przejmuje władzę nad światem, w drugim i trzecim władzę przejmuje wiele osobnych systemów AI rozwijających się nieco mniej skokowo, w czwartym AI zwiększa ryzyko związane z wojną, w piątym ludzie wykorzystują ją w niecnych celach (co szczegółowo opisałem to w rozdziale czwartym), szósty zaś to „inne”.

Typowy respondent przypisywał podobne prawdopodobieństwo wszystkim pięciu pierwszym scenariuszom; „innemu” dawano szanse jeden na pięć. Poszczególne odpowiedzi jednak bardzo różniły się od siebie, a samoocena pewności co do wskazywanych szacunków była niska: mediana poziomu przekonania wynosiła 2 w skali od 0 do 6. Olbrzymie rozbieżności dotyczyły nawet oceny samej rangi potencjalnego zagrożenia: odpowiedzi dotyczące egzystencjalnego ryzyka związanego z AI wahały się od 0,1% do 95%.

Podobnie rzecz się ma w sprawach związanych z zarządzaniem AI. W 2021 roku Luke Muehlhauser, jeden z ludzi odpowiedzialnych za przyznawanie grantów z zakresu zarządzania AI w Open Philanthropy, skomentował to w ten sposób: „W ciągu ostatnich kilku lat spędziłem setki godzin na dyskusjach dotyczących możliwych pośrednich celów o dużej wartości z innymi »weteranami« longtermistycznego zarządzania sztuczną inteligencją. Na tej podstawie mogę z pewną dozą pewności stwierdzić, że konsensus co do tego, które pośrednie cele mają dodatnią wartość netto, jest znikomy”.

Drugim powodem, dla którego musimy mierzyć się z tak dojmującą niepewnością, jest fakt, że oprócz konieczności porównywania konkurujących ze sobą czynników musimy wziąć pod uwagę również te, o których jeszcze nie pomyśleliśmy. W 2002 roku w trakcie dyskusji o braku dowodów na to, że Irakijczycy dysponują bronią masowego rażenia, ówczesny sekretarz obrony USA Donald Rumsfeld oznajmił, że „istnieją znane wiadome, czyli kwestie, o których wiemy, że je wiemy. Są też znane niewiadome; innymi słowy wiemy, że są pewne rzeczy, których nie wiemy. Ale istnieją także nieznane niewiadome – czyli to, o czym nie wiemy, że tego nie wiemy”.

Rumsfeld został z miejsca wyśmiany, a jego komentarz wzięto za dowód ciemnoty; polityk zdobył nawet Foot in Mouth Award, nagrodę corocznie przyznawaną przez Plain English Campaign osobom publicznym za „budzący konsternację komentarz”. Tak naprawdę jednak Rumsfeld zwracał uwagę na doniosły problem filozoficzny: powinniśmy stale mieć na uwadze, że wielu okoliczności możemy w ogóle nie być świadomi.

Wyobraźmy sobie, że jakiś wykształcony człowiek żyjący w 1500 roku pragnąłby sprawić, by długofalowa przyszłość miała pomyślny przebieg. Zdawałby on sobie sprawę z wagi niektórych istotnych czynników, które mogą na nią wpłynąć, na przykład trwałości praw, religii czy instytucji politycznych. Na inne rzeczy jednak by nie wpadł. Idea, że Ziemia może nadawać się do życia przez miliard lat albo że wszechświat może mieć tak kolosalne rozmiary, a przy tym być niemal całkowicie niezamieszkany, nie przyszłaby mu do głowy. Narzędzia pojęciowe kluczowe dla radzenia sobie w warunkach niepewności, takie jak teoria prawdopodobieństwa albo teoria wartości oczekiwanej, jeszcze nie zostałyby opracowane. Osoba ta nigdy nie zetknęłaby się z argumentami przemawiającymi na rzecz światopoglądu, w którym interesy wszystkich ludzi są równie ważne – nie wiedziałaby zatem, czego nie wie.

Trzecią przyczyną, dla której stajemy w obliczu tak wielkiej niepewności, jest fakt, że nawet gdy wiemy, że dobrze jest doprowadzić do jakiegoś konkretnego rezultatu, bardzo trudno jest zrobić to w przewidywalny sposób. Każde działanie, jakie podejmujemy, niesie ze sobą mnóstwo różnych konsekwencji: niektóre z nich są dobre, inne złe, wiele zaś nie ma jasno sprecyzowanej wartości.

Mimo tego w idealnych warunkach należałoby podjąć próbę wzięcia ich wszystkich pod uwagę w momencie podejmowania decyzji. W obliczu empirycznej i ewaluacyjnej złożoności łatwo jest poczuć się bezradnym, jakby nie było się w stanie nic zrobić. To podejście jest jednak zbyt pesymistyczne. Nawet jeśli wkraczamy w przyszłość tyłem – i nawet jeśli chodzimy po niezbadanym terenie po ciemku i we mgle, mogąc liczyć tylko na garstkę wskazówek – nadal niektóre plany są mądrzejsze niż inne. Możemy wdrożyć trzy sprawdzone reguły postępowania.

Po pierwsze, powinniśmy robić to, co ze względnie dużą dozą pewności możemy uznać za dobre. Kiedy odkrywamy nieznane ziemie, wiemy, że hubka i krzesiwo albo zapałki, ostry nóż i apteczka pierwszej pomocy przydadzą nam się w bardzo różnych okolicznościach. Nawet jeśli nie mamy pojęcia, co nas spotka, te przedmioty będą użyteczne.

Po drugie, trzeba spróbować zwiększyć liczbę dostępnych nam opcji. W trakcie ekspedycji będziemy chcieli uniknąć utknięcia w wąwozie, z którego nie będziemy umieli się wydostać, a jeśli nie jesteśmy pewni, gdzie znajduje się nasz cel, lepiej wybierać trasy, które pozostawiają większą liczbę alternatywnych ścieżek. Po trzecie, należy się więcej dowiedzieć. Nasi zwiadowcy mogą wspiąć się na wzgórze, by zyskać lepszy ogląd terenu, albo zrobić rekonesans różnych dróg, które mamy przed sobą.

Te trzy reguły – podejmuj zdecydowanie dobre działania, zwiększaj liczbę opcji i dowiedz się więcej – mogą pomóc nam obrać właściwy kierunek podczas prób wywarcia pozytywnego wpływu na długofalową przyszłość. Po pierwsze, niektóre posunięcia dodatnio wpływają na długofalową przyszłość w szerokim zakresie możliwych scenariuszy. Weźmy choćby promowanie innowacji w czystych technologiach – pomaga ono zachować paliwa kopalne w ziemi, co daje nam większe szanse na odbudowę po cywilizacyjnej zapaści; łagodzi wpływ zmian klimatu; sprzyja postępowi technologicznemu, redukując tym samym ryzyko stagnacji, i przynosi ogromne natychmiastowe korzyści, zmniejszając śmiertelność spowodowaną oddychaniem powietrzem zanieczyszczonym wskutek spalania paliw kopalnych.

Po drugie, niektóre ścieżki dają nam znacznie więcej możliwości niż inne. Jest to niewątpliwie prawda na poziomie indywidualnym: podążając niektórymi ścieżkami kariery, zdobędziemy wiedzę i umiejętności, które zapewnią nam sporą elastyczność na rynku pracy. Choć mój rozwój zawodowy był dla mnie źródłem wielkiego szczęścia, zasadniczo doktorat z ekonomii czy statystyki daje znacznie szersze perspektywy na przyszłość niż doktorat z filozofii. Jak wspominałem już w rozdziale czwartym, utrzymywanie jak największego wachlarza opcji jest istotne także na poziomie społecznym. Zachowanie różnorodności kultur i systemów politycznych umożliwia cywilizacji skorzystanie z wielu potencjalnych trajektorii; w jeszcze większym stopniu ma to znaczenie dla zapewnienia cywilizacji przetrwania jako takiego.

Po trzecie, możemy dowiedzieć się więcej. Jako jednostki możemy lepiej pojąć różne kwestie, które poruszałem w tej książce, i zgromadzić wiedzę na temat związanych z nimi aspektów świata. Obecnie jedynie kilka prognoz dotyczy zmian, jakie mogą zajść w polityce, technologii, ekonomii i społeczeństwie za więcej niż dekadę, takie zaś, które mówiłyby o przyszłości za ponad sto lat, niemal nie istnieją. Jako cywilizacja możemy przeznaczyć środki na polepszenie tej sytuacji – na stworzenie luster, które umożliwiłyby nam dojrzenie choćby mglistej przyszłości, która znajduje się za nami.

„Co jesteśmy winni przyszłości. Longtermizm jako filozofia jutra”
William MacAskill
przekład Zuzanna Łamża
Feeria, Łódź 2024 r.|
323-327 str.
zamówienia: tutaj


Materiał przygotowany przez Wydawnictwo Feeria.