Kamil Mamak Kamil Mamak Leszek Zych / Polityka
Technologia

Czy można kopnąć robota? Jakie ma prawa? Rozmowa z prawnikiem i filozofem dr. Kamilem Mamakiem

Czym jest przemoc wobec maszyn? Jak powinna być skodyfikowana? Tymi kwestiami zajmuje się dr Kamil Mamak, laureat Nagrody Naukowej POLITYKI 2023 w kategorii Nauki humanistyczne.

Dr Kamil Mamak, jest prawnikiem i filozofem, asystentem w Katedrze Prawa Karnego Wydziału Prawa i Administracji Uniwersytetu Jagiellońskiego i pracownikiem Helsingin Yliopisto (Uniwersytet Helsiński). Zajmuje się etycznym i filozoficznym wymiarem technologii oraz tym, jak zorganizować prawo, aby jak najlepiej chronić ludzkie wartości.

|||||||||

Nie odczuwają bólu. Są efektami pomysłowości i umiejętności człowieka. Nie przysługują im więc prawa, jakimi cieszą się ludzie. A jednak odpowiedź na pytanie: „Czy można kopnąć robota?”, które zadaje dr Kamil Mamak, nie jest oczywista.

Paragraf 1. Symulacja

Intencjonalna dewastacja maszyny nie pociąga za sobą konsekwencji prawnych, jeśli sprawcą jest właściciel. Kodeks karny w art. 288 § 1 mówi bowiem wyraźnie, że karze podlega ten, kto „niszczy, uszkadza lub czyni niezdatną do użytku” rzecz cudzą. Wysokość wyroku zależy w tym przypadku od wartości przedmiotu. – Przy czym im starszy obiekt, tym jest ona niższa – mówi badacz. – Gdy chodzi o kilkunastoletniego robota, wycena będzie na poziomie złomu. Jednak w przypadku niektórych maszyn można mówić o wartościach emocjonalnych. Między człowiekiem a np. robotem opiekuńczym, który wspomaga w codziennej egzystencji, może zrodzić się więź niemal przyjacielska lub miłosna. Podobnie może być w przypadku sekslalek. Tym bardziej że to już maszyny humanoidalne. Wiele osób – starszych, samotnych, z niepełnosprawnościami – nie widzi lub nie ma innego sposobu na zaspokajanie zwyczajnych potrzeb seksualnych. To nie budzi specjalnych zastrzeżeń.

Zdarza się jednak – i to jest ciemna strona tego medalu – że sekslalki są wykorzystywane do symulacji gwałtu. Polskie prawo nie penalizuje tego typu zachowań, bo one nie mają statusu osoby. – Huraoptymiści wskazują na to, że lepiej, aby osoba o takich skłonnościach realizowała je właśnie na nich – mówi dr Mamak. – Ja się obawiam, że taka ekspozycja na sposobność gwałtu sprawiłaby, że raczej zechce spróbować tego na osobie. A często satysfakcję i pożądane poczucie władzy nad innym człowiekiem daje napastnikowi właśnie opór napadniętej. A nawet wyjątkowo zaawansowane technologicznie lalki nie są do niego zdolne. Kłopot w tym, że nie ma sposobu na to, by naukowo taką ewentualną korelację sprawdzić. Eksperymenty są w tym wypadku z oczywistych względów nie do przeprowadzenia. – A nawet jeśli można by je przeprowadzić, to wyniki mogą być tak niejednoznaczne, jak w przypadku badań nad tym, czy gry komputerowe wzmagają, czy redukują poziom przemocy.

Przykładów jest więcej. I będzie ich przybywać. Chociażby dlatego, że coraz więcej robotów będzie wyglądać jak istoty żywe.

Paragraf 2. Niejasność

Dr Mamak jest zdania, że w niektórych kontekstach funkcjonowanie maszyn o ludzkim wyglądzie może być problematyczne lub niebezpieczne. – W zasadzie powinniśmy przecież traktować roboty jako przedmioty. Byłoby to na poziomie etycznym o wiele prostsze. Widzenie w nich czegoś w rodzaju człowieka, ubieranie ich w ludzkie szaty zaburza nasze widzenie. I sprawia, że będziemy się mierzyć (o ile już tego nie robimy) z problemami etycznymi i negatywnymi tego skutkami – mówi. Roboty militarne mogłyby budzić problem dla żołnierzy. – Trudno im – i jest to psychologicznie całkowicie uzasadnione – nie traktować takich maszyn jak towarzyszy broni, których w sytuacji zagrożenia się nie zostawia. I zmarnować sekundy cenne dla ratowania własnego, prawdziwego życia. Łudzące podobieństwo humanoidalnych gadżetów seksualnych do osób, może w zaburzonym umyśle całkowicie zatrzeć różnicę między nimi. – A od tego – jak zdarza się twierdzić badaczom – już tylko krok do uprzedmiotowienia każdej kobiety.

Postulat zakazu wytwarzania maszyn na podobieństwo człowieka jest trudny do wyegzekwowania. Właściwie niemożliwy – biorąc pod uwagę ekonomicznie uzasadnioną chęć producentów zaspokojenia oczekiwań klientów. Badacz doskonale zdaje sobie z tego sprawę. – Powinno się przynajmniej opracować jakieś proste wizualne sposoby na odróżnianie jednych od drugich – stwierdza. Skupia się jednak na rozwiązaniach, które nieuchronne współistnienie ludzi i maszyn mogłyby uregulować. Spotyka się co prawda z opiniami, że na razie nie ma co się takimi kwestiami przejmować. – Możliwe też, że nigdy nie dojdziemy do etapu, kiedy maszyny zostaną wyposażone choćby w namiastkę emocji czy zdolności, jakie są udziałem człowieka – mówi. – Stają się one jednak elementem naszego życia społecznego. Musimy jakoś zdefiniować nasze relacje także z tymi bytami.

Mówi np. o obligatoryjnym wyposażaniu lalek miłosnych w oprogramowanie, dzięki któremu czasami odmawiałyby seksu. Podobieństwo do kobiety byłoby być może jeszcze wyraźniejsze, ale też poczucie kontaktu z bytem decydującym o sobie większe. W książce „Robotics, AI and Criminal Law: Crimes Against Robots” (Routledge 2023) proponuje zaś postrzeganie agresji wobec maszyn jak atak na wartości pozafinansowe, które istotne są dla konkretnych ludzi. Prawo na razie brania pod uwagę także tego aspektu nie przewiduje. – Nie postuluje bynajmniej, żeby roboty traktować jak ludzi – zastrzega.

Paragraf 3. Kara

Dr Mamak nie uważa jednak, by wprowadzenie kar pozbawienia wolności za uszkodzenie lub „zabicie” maszyny przyniosło pozytywny skutek. Praktykował w Biurze Rzecznika Praw Obywatelskich i Helsińskiej Fundacji Praw Człowieka, wiele lat pracował w Studenckiej Poradni Prawnej Uniwersytetu Jagiellońskiego – miał dzięki temu kontakt m.in. z osadzonymi. – Dzięki temu wiem, że wizja więzienia w zasadzie w ogóle nie ma efektu odstraszającego. Jest raczej za symbolicznymi sankcjami. Nie zamierza ich określać – to nie jego rola – ale przychodzi mu na myśl coś w rodzaju „cyfrowego wygnania”, czyli czasowego zakazu używania internetu dla hejterów. I oczywiście edukacja.

Optuje za to – temu poświęci kolejny grant – żeby przed sądem stawał robot, jeśli zrobi coś, co krzywdzi człowieka. – Robot rzecz jasna nie odczuwa bólu, a to warunek konieczny, żeby kara miała jakikolwiek sens – tłumaczy. – Myślę o tym raczej jak o swoistym teatrze. Żeby ludzie mieli poczucie, że jest jakaś odpowiedź aparatu państwa na zło. Żeby zobaczyli – dzięki symbolicznym działaniom sądowym – że właśnie dzieje się sprawiedliwość.

Z drugiej strony dr Mamak byłby skłonny uznać, że maszyny byłyby pomocne w pracy sędziów lub prokuratorów. – Ich obiektywizm być może pozwoliłby uniknąć sytuacji, kiedy prawnicy znajdują się pod presją mediów czy – co zdarza się znacznie częściej – polityków. Z tą drugą rzeczywistością sam się zresztą zetknął. – Wydawało mi się, że pewne są zasady, które nigdy nie mogą być złamane i podeptane – opowiada. – I nagle się okazało, że to nieprawda. Czułem się sfrustrowany, więc zdecydowałem się na ucieczkę. Nie bałem się jakichś szykan, miałem po prostu większą satysfakcję z tego, że się mogę zająć „problemami przyszłości”.

Paragraf 4. Moralność

Teraz więc odpowiada na pytanie: Czy można kopnąć robota? – Powiedziałbym, że w przestrzeni prywatnej tak. Można to odczytać jako brak sprzeciwu wobec przemocy domowej? – Te dwie sytuacje do siebie mimo wszystko nie przystają – mówi badacz. I tłumaczy, że, po pierwsze, robot nie czuje, więc trudno byłoby oskarżać kogoś o znęcanie się nad nim. Po drugie, próba ingerencji w takie zachowania byłaby naruszeniem czyjejś prywatności. – Chociaż wyżywanie się na przedmiotach nie świadczy najlepiej o osobie, która to robi. Pokazuje jakąś ułomność jej charakteru. Bardziej odpowiednią analogią jest według Mamaka nagość: w domu możemy chodzić bez ubrania, na ulicy się tak nie pokażemy. – A jeszcze lepiej porównać tę sytuację do postępowania ze śmieciami. Rzucanie papierków od cukierków pod własną kanapę szkodzi tylko nam. Śmiecenie na ulicy powoduje wielorakie konsekwencje. Niektórzy obserwatorzy uznają, że tak można, i będą postępowali tak samo. U innych spowoduje dyskomfort z powodu naruszania pewnych norm społecznych.

Najważniejsze jednak jest to, że agresywne zachowania w przestrzeni publicznej, za które sprawcy nie grozi żadna kara, jest druzgocące dla społeczności. – Złe traktowanie robota powoduje, że wartości, jakim hołduje, będą zagrożone.

I nie chodzi tu wyłącznie o brak poczucia bezpieczeństwa wynikający z niepewności, czy przyzwolenie na przemoc wobec robota nie przełoży się na zgodę na agresję wobec ludzi. W Japonii są roboty wykorzystywane jako mistrzowie ceremonii pogrzebowych. W miasteczku Tating w Niemczech sztuczna inteligencja (co prawda z ekranu, ale o wyglądzie człowieka) została umieszczona na ołtarzu i rozmawia z wiernymi. – Atak na tego rodzaju maszynę byłby – także w polskim kontekście – odczytywany jako naruszenie wolności religijnej, choć można stawiać pytanie, czy jej ochrona powinna się znajdować w Kodeksie karnym, czy nie. Przemalowane na niebiesko przypominające psy roboty firmy Boston Dynamics „pracują” dla nowojorskiej policji. Były dosłownie kopane, co zresztą zaowocowało zawiadomieniem organizacji broniącej praw zwierząt. – Co ważniejsze jednak, agresja wobec nich była niczym cios wymierzony w funkcjonariusza, czyli w przedstawiciela służby państwa.

Robot oczywiście nie może się cieszyć prawami takimi, jakie przynależą ludziom – podsumowuje badacz. Prawa robotów są jednak w jego oczach w pewien sposób prawami człowieka. Zabieganie o właściwy stosunek do nich jest bowiem sposobem na dbałość o moralność istoty ludzkiej.

Partnerzy|||Partnerzy

Ta strona do poprawnego działania wymaga włączenia mechanizmu "ciasteczek" w przeglądarce.

Powrót na stronę główną