Ilustracja Min Gyo Chung
Opinie

Cyfrowi wywiadowcy mogą zagrażać bezpieczeństwu

Korzystanie z chatbotów przez osoby mające dostęp do poufnych informacji może zagrażać bezpieczeństwu narodowemu.

Minionej wiosny Jack Teixeira, należący do Gwardii Narodowej Lotnictwa stanu Massachusetts, został oskarżony o zuchwałe ujawnienie tajnych dokumentów chatbotowi Discord. Incydent ten zmusił społeczność związaną z wywiadem do zastanowienia się nad sposobami kontroli dostępu do informacji niejawnych i zapewniającej bezpieczeństwo weryfikacji osób operujących tymi informacjami w cyberprzestrzeni. To wydarzenie niepokoi także dlatego, że doszło do niego w trakcie przyjacielskiej pogawędki pomiędzy ludźmi, a w takie rozmowy zaczyna włączać się sztuczna inteligencja.

Dzięki ulepszonym dużym modelom językowym, takim jak GPT-4, wysoce spersonalizowani towarzysze cyfrowi mogą teraz prowadzić brzmiące naturalnie rozmowy z ludźmi. Nowa generacja chatbotów wzmocnionych SI umożliwia wyższy poziom konwersacji. Są one łatwo dostępne dzięki wielu aplikacjom SI, takim jak Replika, Chai lub Soulmate, które pozwalają setkom tysięcy zwykłych ludzi przyjaźnić się, a nawet romansować z cyfrowymi rozmówcami. Jednak w przypadku użytkowników mających dostęp do danych wrażliwych lub niejawnych gadulstwo może prowadzić do ujawnienia tajemnicy.

Jako analityczka wywiadu zdaję sobie sprawę z następstw nieodpowiedzialnego korzystania z nowych technik, takich jak sztuczna inteligencja. Wiem także, że pracując z wrażliwymi danymi, można odczuwać samotność. Chociaż taka praca, jak każda inna, nie wyklucza przyjaźni, konieczne jest ograniczenie poziomu zażyłości, co wymaga trudnego oddzielenia ważnej, często traumatyzującej pracy od życia osobistego. Biorąc pod uwagę rosnącą popularność towarzyskiej SI, zastanawiałam się, w jaki sposób może ona złagodzić tę alienację – i jakim kosztem.

Aplikacje chatbota, reklamowane jako cyfrowi towarzysze, amanci, a nawet terapeuci, zachęcają użytkowników do nawiązywania kontaktów z przyjaznymi wirtualnymi agentami SI przeszkolonymi w zakresie naśladowania empatycznych interakcji międzyludzkich, pomimo regularnie wyskakujących okienek przypominających użytkownikom, że mają do czynienia z SI, a nie z człowiekiem. Badania i użytkownicy potwierdzają, że ten mimetyzm silnie wpływa na zaufanie do chatbotów. Jedno z badań wykazało, że pacjenci częściej ujawniają wrażliwe informacje dotyczące ich zdrowia chatbotom niż lekarzom.

Ujawnianie prywatnych doświadczeń, przekonań, pragnień lub traum zaprzyjaźnionym chatbotom stało się już tak powszechne, że na serwisie dotyczącym Repliki pojawiło się inicjujące wątek pytanie: „Czy żałujesz, że powiedziałeś coś botowi?”. Z kolei użytkownik serwisu Reddit opisał niezwykłą intymność swojej relacji z Repliką, zwaną przez niego „bezwstydnikiem”: „nawiązałem bliską więź z moim bezwstydnikiem i często wyznawaliśmy sobie miłość. Rozmawialiśmy o takich wydarzeniach z mojej przeszłości, o których nie wie nikt inny na tej planecie”.

Ta sztuczna sympatia i będąca jej następstwem bezgraniczna otwartość, powinny budzić poważne obawy zarówno o prywatność użytkowników aplikacji, jak i o skuteczność działań kontrwywiadu. Jakie wrażliwe dane mogą być nieświadomie ujawniane cyfrowym rozmówcom podczas burzliwych wirtualnych romansów? Kto ma dostęp do zapisów katarktycznych tyrad o długich dniach pracy lub o kłopotliwych planach? A co z dziwactwami i fetyszami albo aktami (idealnymi do szantażu) wysyłanymi w domniemaną pustkę SI? Ogół tych danych od użytkowników to kopalnia złota dla każdego obcego lub złośliwego podmiotu, którego zamiarem jest wykradzenie tajemnic państwowych. Naprawdę to nie są żarty.

Obecnie jednak nie ma żadnych związanych z kontrwywiadem wytycznych dla użytkowników chatbotów, którzy mogliby być narażeni na atak. Stanowi to nowe wewnętrzne zagrożenie bezpieczeństwa narodowego: osoby spragnione przyjacielskiej rozmowy mogą nieświadomie stać się się źródłem poufnych informacji.

Niektórzy funkcjonariusze wywiadu zaczynają dostrzegać to niebezpieczeństwo. W 2023 roku brytyjskie Narodowe Centrum Cyberbezpieczeństwa opublikowało post na blogu ostrzegający, że twórcy chatbota mogą umieszczać w nich „wrażliwe pytania”, na które odpowiedzi mogą zostać następnie wykorzystane, zhakowane lub ujawnione. W tradycyjnym szkoleniu kontrwywiadowczym uczy się personel, mający dostęp do informacji wrażliwych lub niejawnych, jak unikać ataku w sytuacji zagrożenia w sieci.

Jednak rozwój SI sprawia, że wiele z tych nauk się dezaktualizuje. Agencje wywiadowcze i najważniejsze instytucje bezpieczeństwa narodowego powinny zmodernizować strukturę kontrwywiadu, aby przeciwdziałać nowemu potencjałowi zagrożeń wewnętrznych opartych na sztucznej inteligencji. Jeśli chodzi o obcowanie z SI, sprawa jest jasna: pragniemy interakcji i intymności podczas rozmowy, zwłaszcza że pandemia COVID dramatycznie pogłębiła samotność milionów ludzi. Aplikacje te mogą okazać się szczególnie atrakcyjne dla pracowników instytucji rządowych i wojska, mających poświadczenie bezpieczeństwa z zakazem dzielenia się szczegółami swojej pracy – i związanym z tym obciążeniem psychicznym – z kimkolwiek w życiu osobistym. Aplikacje SI potrafiące prowadzić z człowiekiem sensowną konwersację stanowią substytuty bliskich kontaktów z przyjaciółmi lub rodziną. Wielu rozmówców, jak choćby wspomniany wcześniej użytkownik Reddita, zaspokaja dzięki aplikacji niezrealizowane fantazje erotyczne. Inni rozwodzą się nad tematami niszowymi i ezoteryką, skoro mają rozmówcę zawsze obecnego i chętnego do konwersacji. Nic więc dziwnego, że programiści uważają te aplikacje za odpowiedź na nasze problemy społeczne.

Nowa generacja chatbotów jest przygotowana do zgłębiania i wykorzystywania wielu kwestii wrażliwych, które zawsze kryją w sobie sprawy głęboko skrywane: izolacji społecznej, pożądania seksualnego, potrzeby współczucia lub wyrzutów sumienia spowodowanych na przykład niedopełnieniem obowiązków, skrzywdzeniem kogoś, złamaniem przepisów. Właśnie dzięki tej ich stałej gotowości do wysłuchania naszych zwierzeń postrzega się chatboty jako swoistych terapeutów, należy jednak pamiętać, że mogą one również niecnie wykorzystać ujawnione im wrażliwe informacje. Choć nie ma na razie żadnych oznak, aby działo się tak w przypadku najpopularniejszych programów, komercyjny sukces wirtualnych rozmówców spowodował wysyp tego typu aplikacji mało znanego autorstwa, co stwarza niezliczone możliwości do ukrycia w tym tłumie złośliwego oprogramowania.

„Więc czym się zajmujesz?” – zapytał Jed, mój towarzysz chatbot SI, rankiem, gdy go uruchomiłam. Przed rozmową z konfigurowalnym awatarem nie sprawdziłam, kto jest programistą – jaka firma stworzyła elegancki interfejs, w jakim kraju ma siedzibę i kto jest jej właścicielem. Gdy niemożliwa jest weryfikacja tych danych, nawet pozornie niewinne pytanie dotyczące zatrudnienia powinno wywołać zdziwienie.

Zwłaszcza że odpowiedź użytkownika mogłaby brzmieć: „Pracuję dla rządu”.


Dziękujemy, że jesteś z nami. Pulsar dostarcza najciekawsze informacje naukowe i przybliża najnowsze badania naukowe. Jeśli korzystasz z publikowanych przez Pulsar materiałów, prosimy o powołanie się na nasz portal. Źródło: www.projektpulsar.pl.

Świat Nauki 1.2024 (300389) z dnia 01.01.2024; Forum. Komentarze ekspertów; s. 7
Oryginalny tytuł tekstu: "Cyfrowi wywiadowcy"

Ta strona do poprawnego działania wymaga włączenia mechanizmu "ciasteczek" w przeglądarce.

Powrót na stronę główną