Nowe zagrożenie w Gmailu. AI pomaga hakerom

Nowe zagrożenie w Gmailu. AI pomaga hakerom

Coraz więcej firm korzysta z narzędzi generatywnej AI w codziennej pracy. Miały zwiększać produktywność, przyspieszać przepływ informacji i ułatwiać komunikację. Zamiast tego – coraz częściej stają się narzędziem w rękach cyberprzestępców.

Badacze ds. bezpieczeństwa wykryli poważną lukę w usłudze Gmail, napędzanej przez model Gemini firmy Google. Okazuje się, że zaawansowane funkcje AI – jak automatyczne podsumowania wiadomości – można z łatwością zmanipulować, aby zamienić je w narzędzie do phishingu.

Za odkryciem stoi Marco Figueroa, badacz współpracujący z Mozillą w ramach projektu 0din, w którym specjaliści zgłaszają luki w zabezpieczeniach narzędzi generatywnej AI. Jak twierdzi Figueroa, incydent ten powinien być „sygnałem alarmowym dla wszystkich, którzy uważają GenAI za gotową technologię do zastosowań produkcyjnych”.

Gmail pomaga? Tylko komu?

Problem dotyczy funkcji „Podsumuj tę wiadomość” – wprowadzonej niedawno w aplikacji mobilnej Gmail jako automatyczne rozwiązanie mające pomóc użytkownikom szybciej przeglądać wiadomości. Działa to tak: AI (model Gemini) czyta zawartość e-maila i tworzy krótkie streszczenie. Nie byłoby w tym nic niepokojącego – gdyby nie fakt, że Gemini bezrefleksyjnie wykonuje ukryte instrukcje, jeśli zostaną one sprytnie zakamuflowane w treści wiadomości.

Jak działa atak? Cyberprzestępca wkleja do wiadomości specjalnie przygotowany fragment kodu HTML i CSS. Tekst ukryty za pomocą białego koloru czcionki i rozmiaru „0” staje się niewidoczny dla ludzkiego oka, ale zostaje odczytany przez AI, która traktuje go jako instrukcję do działania. Gemini może wówczas wygenerować fałszywe podsumowanie – np. komunikat ostrzegający o rzekomym zagrożeniu na koncie Gmail i nakłaniający użytkownika do kontaktu z „pomocą techniczną” pod podany numer telefonu. To klasyczna technika phishingu głosowego (tzw. vishing), ubrana w nową, zaawansowaną formę.

Nowe makra e-mail – stare zagrożenie w nowym wydaniu

– „To są nowe makra e-mail, tylko że napędzane przez sztuczną inteligencję” – mówi Figueroa. – „Tym razem użytkownik nie musi klikać w złośliwy załącznik – wystarczy, że przeczyta podsumowanie od Gemini i zadzwoni pod podstawiony numer”.

W ocenie zespołu Mozilla 0din, ryzyko związane z tą techniką oceniane jest jako „umiarkowane” – ale tylko pod warunkiem, że użytkownik zachowa czujność. W przeciwnym razie atak może skutkować poważnym naruszeniem bezpieczeństwa, przejęciem konta, a nawet kradzieżą tożsamości.

Co gorsza, ta sama metoda może zostać wykorzystana w innych usługach Google Workspace: Dokumentach, Prezentacjach, a nawet na Dysku. Przejmując jedno konto, cyberprzestępca może automatycznie wysyłać złośliwe komunikaty do tysięcy odbiorców, korzystając z „wiarygodnych” narzędzi AI.

Sztuczna inteligencja bardziej dla zarządu niż użytkownika

Odkrycie skłania do szerszej refleksji: czy GenAI rzeczywiście służy użytkownikom końcowym? Coraz więcej sygnałów wskazuje, że najwięcej zyskują menedżerowie, którzy obniżają koszty, automatyzując pracę ludzi – oraz cyberprzestępcy, którzy szybko uczą się wykorzystywać algorytmy przeciwko zwykłym użytkownikom.

Zamiast zwiększać efektywność, narzędzia GenAI mogą paradoksalnie obniżać bezpieczeństwo środowiska pracy, jeśli zostaną wdrożone bez odpowiednich zabezpieczeń i testów.

Google reaguje, ale czy wystarczająco?

W odpowiedzi na opublikowane wyniki Google zapewniło, że wdraża „wielowarstwowe podejście do bezpieczeństwa” w całym ekosystemie Gemini. Firma nie podała jednak szczegółów ani harmonogramu działań naprawczych.

Z perspektywy użytkownika oznacza to jedno: ostrożność nadal jest konieczna, a zaufanie do automatycznych funkcji – zwłaszcza tych opartych na AI – musi mieć swoje granice. Zanim oddamy komunikację maszynie, warto upewnić się, że nie stanie się ona tubą cyberprzestępców.

Obserwuj nas w Google News

Pokaż / Dodaj komentarze do: Nowe zagrożenie w Gmailu. AI pomaga hakerom

 0
Kolejny proponowany artykuł
Kolejny proponowany artykuł
Kolejny proponowany artykuł
Kolejny proponowany artykuł