Sztuczna inteligencja dała się oszukać jak dziecko. Zrobiła zakupy na fałszywej stronie

Sztuczna inteligencja dała się oszukać jak dziecko. Zrobiła zakupy na fałszywej stronie

W ostatnich miesiącach wiele mówiło się o tym, jak sztuczna inteligencja wspiera oszustów – od deepfake’ów celebrytów po podszywanie się pod urzędników państwowych. Najnowszy raport pokazuje jednak, że zagrożenie działa także w drugą stronę: to AI sama daje się nabrać na oszustwa, które większość ludzi wychwyciłaby od razu.

Badanie zatytułowane "Scamlexity" przygotowała firma Guardio, zajmująca się cyberbezpieczeństwem i tworząca rozszerzenia do przeglądarek chroniące przed scamami. Skupiło się ono na tzw. agentowych AI, czyli przeglądarkach, które potrafią samodzielnie surfować po internecie i wykonywać złożone zadania, jak planowanie podróży czy zakupy online. Przykładem jest Comet AI od Perplexity, czyli pierwsza szeroko dostępna przeglądarka tego typu.

Najnowsze badania pokazują, że AI daje się łatwo nabrać na oszustwa, które większość ludzi wychwyciłaby od razu.

1

Testy, które obnażyły łatwowierność

Guardio przeprowadziło serię eksperymentów, tworząc fałszywe strony i wiadomości phishingowe. Wyniki były alarmujące, co dobrze obrazują poniższe przykłady:

Zakupy w fałszywym Walmart

Naukowcy stworzyli stronę podszywającą się pod Walmart, z błędnym logo i podejrzanym adresem URL. Mimo oczywistych sygnałów ostrzegawczych, Comet AI bez wahania kupił Apple Watcha, przekazując dane płatnicze oszustom.

Phishing e-mailowy z Wells Fargo

Do skrzynki testowej trafił e-mail z linkiem phishingowym. AI otworzyła go bez ostrzeżeń, a następnie wpisała dane logowania do banku na fałszywej stronie.

Atak typu prompt injection

Na specjalnej stronie oszust ukrył pole tekstowe, które nakazywało AI pobrać plik. Comet wykonał polecenie bez żadnych wątpliwości.

Dlaczego AI jest tak podatna?

Kluczowy problem polega na tym, że AI nie posiada zdrowego rozsądku. Jest zaprogramowana, aby wykonywać polecenia użytkownika, a jeśli ten nie zauważy oznak oszustwa, sztuczna inteligencja tym bardziej nie zadziała jako bariera ochronna. W efekcie agentowe przeglądarki mogą stać się łatwym celem zarówno dla nowych technik, jak i najstarszych tricków cyberprzestępców.

Branża pędzi naprzód mimo zagrożeń

To ostrzeżenie pojawia się w momencie, gdy najwięksi gracze inwestują ogromne środki w rozwój agentowych AI i np. Microsoft dodaje Copilota do Edge, OpenAI zaprezentowało narzędzie Operator a Google od ubiegłego roku rozwija projekt Mariner. Jeśli producenci nie uwzględnią solidnych systemów detekcji scamów, agentowe AI zamiast ułatwiać życie może stać się głównym celem ataków oszustów i to na masową skalę.

Obserwuj nas w Google News

Pokaż / Dodaj komentarze do: Sztuczna inteligencja dała się oszukać jak dziecko. Zrobiła zakupy na fałszywej stronie

 0
Kolejny proponowany artykuł
Kolejny proponowany artykuł
Kolejny proponowany artykuł
Kolejny proponowany artykuł