Obraz wygenerowany za pomocą modelu DALL-E 2 na postawie opisu „archetyp pięknej kobiecej twarzy widziany przez sztuczną inteligencję”. Obraz wygenerowany za pomocą modelu DALL-E 2 na postawie opisu „archetyp pięknej kobiecej twarzy widziany przez sztuczną inteligencję”. Shutterstock
Technologia

Kulturowe maszyny technologicznych gigantów kształtują kanony piękna

Wchodzimy w erę cyfrowej kolonizacji spojrzenia. Ideały estetyczne kształtowane są przez algorytmy wielkich korporacji. Jak się oswoić z automatyzacją oceny piękna?

Maszyny patrzą. Przywykliśmy do tego w dobie stałej, masowej inwigilacji, wszechobecności kamer przemysłowych i smartfonów. Nawet ostrożne szacunki wskazują, że ilość cyfrowych oczu porównywalna jest już z kolektywnym spojrzeniem całego naszego gatunku. Do niedawna automatyczne oko jedynie konwertowało fotony na impulsy elektryczne. Teraz postępującej automatyzacji ulega także sam akt widzenia.

Postęp technologiczny w tej dziedzinie następuje analogicznie do ewolucji widzenia u organizmów żywych – od prymitywnych komórek światłoczułych, przez układy detekcji ruchu i podstawowych kształtów, po postrzeganie trójwymiarowych relacji przestrzennych i klasyfikację obiektów. Trylobity posiadły niektóre z tych umiejętności już 500 mln lat temu.

Około 300 tys. lat temu, gdzieś na rozgrzanej słońcem sawannie spotkało się spojrzenie dwojga przedstawicieli Homo sapiens. Nie mogli oderwać od siebie wzroku. Musiało jednak upłynąć jeszcze ok. 150 tys. lat, by – prawdopodobnie dzięki mutacji genu FOXP2 – mogli wyartykułować, że jawią się sobie jako piękni przedstawiciele gatunku.

Podstawowe technologie i algorytmy maszynowego widzenia ludzie zaczęli opracowywać ledwie pół miliarda lat później, w latach 60.–70. XX w.

W roku 2016 projekt Beauty. AI zorganizował pierwszy konkurs piękności, w którym w roli jurora wystąpiła „głęboka sieć neuronowa”. Wybuchło powszechne oburzenie. Okazało się bowiem, że praktycznie wszystkie z 44 najwyżej ocenianych twarzy należą do osób o jasnym kolorze skóry.

Przywykliśmy już do myśli, że maszyny potrafią sprawnie wykrywać na zdjęciach kotki, rozróżniać znaki drogowe czy diagnozować nowotwory. Trudniej oswoić się z tym, że mogą również oceniać piękno.

Ukryta rzeczywistość

Wyobraźmy sobie scenę: dwoje ludzi stoi w muzeum przed obrazem Marka Rothko „Orange and Yellow”. Oboje zgadzają się, że widzą obraz składający się z dwóch płaszczyzn – żółtej i czerwonej – na pomarańczowym tle. Jak jednak odpowiedzą na pytanie, czy obraz jest piękny? Można powiedzieć, że to pojęcie jest czysto efemeryczne. Zaprośmy jednak kolejną osobę, cierpiącą na daltonizm, i zapytajmy, jak jej jawią się „obiektywne” kolory obrazu. Zaprośmy też stado nietoperzy i – pomijając pewne trudności lingwistyczne – je również zapytajmy o piękno. Statystycznie rzecz ujmując, zgodność odpowiedzi pomiędzy przedstawicielami danego gatunku będzie najpewniej większa niż ta międzygatunkowa.

Fakt, że świat zasadniczo jawi się wszystkim ludziom z grubsza tak samo, jest efektem adaptacji człowieka. Doświadczenie rzeczywistości, wraz ze wszystkimi odnoszącymi się doń sądami, wywodzi się z naszego układu nerwowego, a ten ewoluował tak, by przyczyniać się do jak najskuteczniejszej propagacji genów.

Przywołajmy tu książkę kognitywisty Donalda Hoffmana „The Case Against Reality” („Sprawa przeciwko rzeczywistości”). Jej centralna teza głosi, że dobór naturalny wręcz wymusza ukrycie realnej struktury rzeczywistości za efektywnym przystosowawczo modelem (na tej samej zasadzie interfejs graficzny naszych komputerów ukrywa przed nami bramki logiczne procesora). Hoffman posuwa się dość daleko, twierdząc, że de facto czasoprzestrzeń jest jedynie czterowymiarowym interfejsem naszej percepcji.

Z tej perspektywy pytanie o piękno dotyczy jego reprezentacji wewnątrz danego interfejsu poznawczego i nie jest jakościowo różne od pytania o jakąkolwiek inną właściwość, którą możemy w ramach tego interfejsu reprezentować. Z tą tylko różnicą, że ludzie będą udzielać bardziej spójnych odpowiedzi w odniesieniu do bardziej podstawowych i stabilnych reprezentacji (kolor) niż tych bardziej złożonych (piękno). Możemy zatem przyjąć, że ocena piękna nie jest ani czymś nieuchwytnym i „nieobliczalnym”, ani nie jest odwołaniem do jakiejś efemerycznej, transcendentnej platońskiej idei. Nic nie stoi na przeszkodzie, by stworzyć jej model.

Oczywiście piękno niejedno ma imię. Dla uproszczenia do tej pory posługiwałem się tym pojęciem w rozumieniu uniwersalnym. Jednak neuronauka, a ściślej rzecz biorąc, nowa dyscyplina, jaką jest neuroestetyka, wskazuje, że nie istnieje jeden ośrodek piękna w naszym mózgu – jest on raczej rozproszony. Jesteśmy w stanie wyróżnić obszary odpowiedzialne za dane funkcje poznawcze: są wyspecjalizowane ośrodki analizujący twarze, miejsca, obiekty, ludzkie ciała. Wiele wskazuje na to, że biorą również udział w ocenie tych kategorii. W sprzężeniu z ośrodkiem nagrody wywołują u nas adekwatne stany emocjonalne – od obrzydzenia aż po zachwyt.

Jedną z najważniejszych „ikon” w ramach naszego interfejsu poznawczego jest twarz. Symbolizuje potencjał reprodukcyjny i niesie informację o zagrożeniu dla naszej egzystencji, gdy ktoś wykrzywia się przy nas agresywnie. Ocena jej piękna, będąc tak silnie powiązaną z presjami ewolucyjnymi, jest zatem idealną kandydatką do modelowania w sposób dość uniwersalny dla naszego gatunku. Tym bardziej że wyniki badań wskazują, że model piękna ludzkiej twarzy jest dość stabilny i uniwersalny.

Czy jest coś kontrowersyjnego w fakcie, że cyfrowi giganci tworzą i wdrażają modele piękna? Nie mamy przecież nic przeciwko modelowaniu zjawisk atmosferycznych.

Agresywny algorytm

Inżynier i filozof Alfred Korzybski mawiał, że „mapa to nie terytorium”. Żaden model nie oddaje w pełni rzeczywistości – to tylko użyteczna fikcja. Jako że reprezentacja oceny estetycznej jest jednak mniej stabilna niż np. percepcja koloru, znacząco rośnie ryzyko istotnych przekłamań i uprzedzeń, które mogą zostać zaszyte w modelu. Sam efekt „czystej ekspozycji” sprawia, że mamy tendencję do preferowania bodźców, z którymi mamy częsty kontakt. Przykład: przedstawiciele danej grupy etnicznej często oceniają podobne twarze lepiej niż innych.

Projekt The BeholderMaciej Jędrzejewski/pulsarProjekt The Beholder

Piękno jest w oku patrzącego

Wizja zimnego, wykalkulowanego spojrzenia maszyn skłoniła mnie do refleksji i stworzenia obiektu, który zwróciłby uwagę na to zagadnienie. Mój projekt The Beholder (nawiązanie do anglojęzycznego powiedzenia „beauty is in the eye of the beholder”) ma formę ramy, która oprawia ekran i gnieździ oko cyfrowej kamery. Jego oprogramowanie zawiera model moich upodobań w odniesieniu do twarzy – wytrenowany przez Wojciecha Stokowca z Google DeepMind na podstawie ok. 10 tys. zdjęć, którym przyznawałem punkty atrakcyjności w skali 1–5. The Beholder pozwala odbiorcom stanąć oko w oko z maszyną, która oceni jego piękno.Ze względu na stosunkowo małą ilość danych i ich kiepską normalizację (duże różnice w oświetleniu, rodzajach ujęć, szumie etc.) model ten ma oczywiście stosunkowo niewielką dokładność. Nie było jednak moim celem prześcignięcie cyfrowych goliatów, a raczej czysto polemiczny strzał z procy. Na ile celny, można ocenić samodzielnie. Z Beholderem można skonfrontować się na wystawie „Przyszłość jest dziś” w warszawskim Centrum Nauki Kopernik. (jk)

To zdaje się tłumaczyć kontrowersyjne preferencje zaszyte w ocenach piękna formułowanych przez Beauty. AI. Sektor technologii cyfrowych zdominowany jest przez białych młodych mężczyzn, a dane posiadały najprawdopodobniej nadreprezentację ocen tej właśnie grupy etnicznej. Niestety, wiele wskazuje na to, że nie jest to przypadek odosobniony.

Modele i bazujące na nich algorytmy poddające ocenie naszą atrakcyjność przenikają już do wielu aplikacji i serwisów społecznościowych – i to raczej w sposób niejawny. Oficjalnie Meta (Facebook, Instagram) nie przyznaje się do stosowania takich rozwiązań, ale np. TikTok rozesłał w 2020 r. wewnętrzne memo do moderatorów treści, w którym nawoływał do ograniczenia wyświetleń filmów i wideo zawierających „brzydkie oblicza”. Z rozmów z twórcami systemów detekcji i oceny twarzy jasno wynika, że ich głównymi klientami, obok branży kosmetycznej, są platformy społecznościowe i aplikacje randkowe.

Algorytmy nie są bierne i neutralne. To skomplikowane „kulturowe maszyny”, które mają moc aktywnego kształtowania rzeczywistości. To, co i jak widzimy w sieci, jest w dużej mierze produktem sprzężenia zwrotnego między modelami tworzonymi na podstawie naszych zachowań a zachowaniami wzmacnianymi poprzez te algorytmy.

TikTok z jednej strony dba o to, byśmy oglądali ładne twarze, z drugiej strony podsuwa nam narzędzia (tzw. filtry upiększające), które pozwalają naszym własnym zbliżyć się do algorytmicznego ideału. To opisywany przez neuroestetykę „peak shift”, czyli zjawisko, wedle którego reagujemy mocniej na przerysowane wersje naturalnie stymulujących bodźców, a tym samym zmieniamy punkt odniesienia w ich ocenie. Ekstremalnie powiększone oczy, zmniejszone nosy, nadmuchane usta, które widzimy w mediach społecznościowych, to nic innego, jak efekt działania algorytmów wpinających się bezpośrednio w nasze naturalne, ewolucyjnie uzasadnione preferencje i podkręcające je do maksimum. Celem jest zwiększenie liczby kliknięć i czasu, jaki spędzamy przed ekranem, konsumując reklamy.

Tak oto wchodzimy w erę cyfrowej kolonizacji spojrzenia. W niej ideały piękna kształtowane są przez algorytmy, będące we władaniu kilku największych cyfrowych korporacji, kierujących się jedynie wolnorynkowym imperatywem maksymalizacji zysku.

Krytyczne oko

Dziga Wiertow, jeden z najwybitniejszych twórców i teoretyków kina reprezentujących radziecką szkołę montażu, mówił w filmie „Człowiek z kamerą”: „Jestem mechanicznym okiem. Ja, maszyna, pokazuję wam świat taki, jaki tylko ja widzę. Moja droga prowadzi do stworzenia nowego spojrzenia na świat”. Jego słowa pasują tu w dwójnasób.

Po pierwsze, reżyser, podobnie jak współcześni apologeci technologii z Doliny Krzemowej, naiwnie wierzył, że technologia pozwoli wyzwolić się z ludzkich ułomności i zbliżyć do uniwersalnej, obiektywnej prawdy o świecie. Po drugie, był twórcą zaangażowanym ideologicznie. Traktował nowe medium do kształtowania nowej rzeczywistości społecznej. Trudno nie dostrzec analogii ze współczesnymi dyskusjami o wizjach świata prowadzonymi przez szeroko rozumianą opcję konserwatywną a progresywną.

Obecnie jednak to nie programy partii czy państw mają kluczowy wpływ na postawy, gusty i wartości – a algorytmy kreowane i dostarczane przez gigantów IT. Automatyzuje się spojrzenie, ale i polityka widzenia.

W jakim stopniu w modelach dokonujących oceny naszych twarzy uwzględnione zostaną postulaty płynności identyfikacji płciowej? Czy nasza atrakcyjność oceniana będzie z perspektywy heteronormatywnej, czy też uwzględni alternatywne perspektywy? Czy w modelach znajdzie się miejsce na perspektywę feminizmu i krytykę „męskiego spojrzenia”? Czy powinniśmy domagać się algorytmicznego pluralizmu, konfrontującego różne modele i dającego możliwość świadomego wyboru najodpowiedniejszego? Jakie mechanizmy kontroli i nadzoru stosować do minimalizowania uprzedzeń zaszytych w oprogramowaniu?

Musimy mieć oczy szeroko otwarte i przyglądać się krytycznie temu, co parzy na nas.

Ta strona do poprawnego działania wymaga włączenia mechanizmu "ciasteczek" w przeglądarce.

Powrót na stronę główną