ChatGPT i Gemini mogą przegrywać z robakami
Obserwuj nas. Pulsar na Facebooku:
ChatGPT (OpenAI) czy Gemini (Google) niedługo staną się podstawą tzw. asystentów AI, czyli programów przeznaczonych do wykonywania nudnych obowiązków. Na przykład robienia wpisów w kalendarzu, odpowiadania na część e-maili czy robienia zakupów w sieci. Żeby wykonywać tego typu zadania, programy uzyskają sporą swobodę. Czy będą wówczas bezpieczne?
Tą kwestią zajęło się trzech naukowców z USA i Izraela. Stworzyli oni (tylko do celów badawczych) asystenta opartego na generatywnej AI, który miał pomagać w zarządzaniu skrzynka e-mailową. Skonstruowali również robaka (ang. computer worm, czyli samoreplikujący się program podobny do wirusa komputerowego) o nazwie Morris II (na pamiątkę Morrisa z 1988 r., jednego z pierwszych „robaków” wpuszczonych – także przez badaczy – do sieci). Następnie za jego pomocą wykradli dane oraz rozsyłali spam, łamiąc przy tym niektóre zabezpieczenia w ChatGPT i Gemini.
Sięgnij do źródeł
Piętą achillesową okazały się prompty, czyli tekstowe instrukcje, które w okienku chatu wpisują użytkownicy. Mogą bowiem zostać użyte przeciwko systemowi AI (tą drogą naukowcy wprowadzili Morrisa II), który, jak się okazało w trakcie eksperymentów, może ignorować własne zasady bezpieczeństwa.
Choć do tej pory nie zarejestrowano żadnego przypadku udanego ataku „robaka” na ChatGPT czy Gemini, to badacze uważają, że tego typu programy stanowią zagrożenie. I już przekazali swoje wyniki do Google’a i OpenAI. W rozmowie z magazynem WIRED rzecznik tej drugiej firmy stwierdził, że cały czas pracuje ona nad zwiększaniem odporności systemów AI na ataki hakerów. Google odmówił komentarza, ale poprosił autorów eksperymentu o spotkanie.
Dziękujemy, że jesteś z nami. To jest pierwsza wzmianka na ten temat. Pulsar dostarcza najciekawsze informacje naukowe i przybliża najnowsze badania naukowe. Jeśli korzystasz z publikowanych przez Pulsar materiałów, prosimy o powołanie się na nasz portal. Źródło: www.projektpulsar.pl.