Ogromny wyciek rozmów z chatbotów AI. Poważne zagrożenie dla prywatności użytkowników

Ogromny wyciek rozmów z chatbotów AI. Poważne zagrożenie dla prywatności użytkowników

Firma UpGuard, zajmująca się cyberbezpieczeństwem odkryła lukę w konfiguracji chatbotów AI przeznaczonych do odgrywania ról. Błąd sprawił, że rozmowy użytkowników były transmitowane niemal w czasie rzeczywistym w sieci. W ciągu 24 godzin specjaliści zebrali setki konwersacji, w których znalazły się bardzo wrażliwe i prywatne treści – w tym fantazje o charakterze erotycznym.

Choć w ujawnionych danych nie było bezpośrednich informacji pozwalających na identyfikację osób, sama zawartość ma charakter wyjątkowo delikatny i potencjalnie groźny. Źródłem problemu były nieprawidłowe wdrożenia frameworka open source llama.cpp, który służy do uruchamiania dużych modeli językowych lokalnie i w chmurze.

Luka w chatbotach ujawniła wrażliwe informacje o użytkownikach

Nie była to wada samego oprogramowania, ale kwestia błędów w konfiguracji, które sprawiły, iż część systemów zaczęła ujawniać dane użytkowników. Jak podkreśla UpGuard, choć wiele instancji było podatnych na atak, tylko niektóre faktycznie wyciekały do sieci.

Chatbot

Eksperci ostrzegają, iż takie informacje mogą zostać wykorzystane do szantażu lub tzw. sextortion, jeśli kiedykolwiek udałoby się powiązać je z konkretnymi osobami. Cała sytuacja pokazuje również, że użytkownicy coraz częściej tworzą emocjonalne więzi ze swoimi wirtualnymi towarzyszami i w zaufaniu ujawniają intymne szczegóły ze swojego życia.

Jednocześnie incydent dowodzi, że generatywna sztuczna inteligencja bywa wykorzystywana do tworzenia i odgrywania scenariuszy niezgodnych z prawem. Wynika to z tego, że ludzie uważają, że są anonimowi w internecie i mogą sobie pozwolić na wszystko.

Adam Dodge z organizacji Endtab zajmującej się przeciwdziałaniem nadużyciom określił potencjalne skutki wycieku mianem „Ewerestu naruszeń prywatności”. Jego zdaniem problem obnaża, jak bardzo obniżył się próg dostępu do niebezpiecznych i szkodliwych fantazji.

Konieczne jest wdrożenie skuteczniejszych zabezpieczeń

UpGuard zwraca uwagę, że incydent ten pokazuje pilną potrzebę wprowadzenia odpowiednich zabezpieczeń przy wdrażaniu systemów AI i stawia pytania o społeczne konsekwencje nieuregulowanych usług opartych na sztucznej inteligencji, które oferują treści pornograficzne czy symulację wirtualnych relacji.

Firma podkreśla, że konieczne będzie opracowanie nowych zabezpieczeń w kolejnych generacjach modeli, ponieważ obecne rozwiązania okazują się zbyt łatwe do obejścia.

Obserwuj nas w Google News

Pokaż / Dodaj komentarze do: Ogromny wyciek rozmów z chatbotów AI. Poważne zagrożenie dla prywatności użytkowników

 0
Kolejny proponowany artykuł
Kolejny proponowany artykuł
Kolejny proponowany artykuł
Kolejny proponowany artykuł