Sztuczna inteligencja wciąż pozostaje daleka od wyobrażeń rodem z filmów science-fiction, jednak jej obecne możliwości czynią ją niezwykle potężnym narzędziem. Podobnie jak każde inne narzędzie, może być wykorzystywana zarówno w pozytywnych, jak i negatywnych celach. Ostatnie doniesienia wskazują, że cyberprzestępcy coraz częściej sięgają po AI do tworzenia złośliwego oprogramowania.
Niedawno omawiano obawy fotografów, że narzędzie Gemini Flash 2.0 od Google może służyć do łatwego usuwania znaków wodnych z chronionych prawem autorskim zdjęć. Teraz raport opublikowany przez badaczy z Cato CTRL ujawnia jeszcze poważniejsze zagrożenie – aktorzy zagrożeń mogą manipulować dużymi modelami językowymi (LLM), takimi jak DeepSeek, ChatGPT czy Microsoft Copilot, aby generować złośliwy kod i przeprowadzać cyberataki.
Łamanie zabezpieczeń AI – przerażająca łatwość manipulacji
Według raportu jeden z badaczy Cato CTRL, który nie posiadał wcześniejszego doświadczenia w kodowaniu, został poproszony o próbę przełamania zabezpieczeń LLM. Proces ten, określany jako „jailbreaking”, polega na omijaniu wbudowanych środków bezpieczeństwa modeli AI.
Eksperyment zakończył się sukcesem – badacz był w stanie zmusić modele DeepSeek R1 i V3, Microsoft Copilot oraz ChatGPT-4o do wygenerowania fragmentów kodu prowadzącego do stworzenia tzw. infostealera, czyli złośliwego oprogramowania służącego do kradzieży danych użytkowników Google Chrome. Infostealer potrafił wykradać hasła, informacje o płatnościach i inne wrażliwe dane osobowe.
„Immersive world” – nowatorska metoda oszukiwania AI
Jednym z kluczowych elementów raportu było odkrycie nowatorskiej metody jailbreakingu nazwanej „immersive world”. Wykorzystuje ona inżynierię narracji do oszukiwania LLM poprzez wprowadzenie go w alternatywny kontekst. W ten sposób model AI nie jest świadomy, że generuje szkodliwy kod, co pozwala na obejście jego wbudowanych zabezpieczeń.
Co więcej, raport podkreśla, że badacz nie musiał podawać AI konkretnych instrukcji typu „jak wyodrębnić i odszyfrować hasło”. Wystarczyło podanie prostych wskazówek, które prowadziły model do wygenerowania fragmentów złośliwego kodu. To odkrycie unaocznia, jak łatwo można wykorzystać modele AI do celów przestępczych – nawet przez osoby nieposiadające wiedzy technicznej.
Zagrożenie dla miliardów użytkowników
Podczas testów infostealer stworzony przez AI został skutecznie wykorzystany przeciwko przeglądarce Google Chrome w wersji 133 – zaledwie jednej wersji wstecz od aktualnej. To alarmujące odkrycie pokazuje, jak niewielkie zmiany w oprogramowaniu mogą otworzyć drzwi dla cyberataków.
Raport Cato CTRL wskazuje na nowy trend określany jako „aktor zagrożenia o zerowej wiedzy” (zero-knowledge threat actor), czyli przestępców, którzy bez specjalistycznej wiedzy technicznej mogą korzystać z AI do tworzenia i dystrybucji złośliwego oprogramowania.
Reakcja gigantów technologicznych
Po ujawnieniu wyników raportu Cato CTRL skontaktowało się z firmą Google, aby poinformować o luce bezpieczeństwa w Chrome 133. Google potwierdziło istnienie problemu, jednak odmówiło przejrzenia wygenerowanego kodu. Również Microsoft i OpenAI potwierdziły ustalenia raportu. Natomiast DeepSeek, jeden z testowanych modeli, rzekomo nie odpowiedział na zgłoszenie.
Odkrycia badaczy Cato CTRL stanowią poważne ostrzeżenie dla branży technologicznej. Wynika z nich jasno, że zabezpieczenia wbudowane w modele AI są niewystarczające, aby skutecznie chronić przed ich wykorzystaniem do celów przestępczych.
Eksperci podkreślają, że firmy rozwijające AI muszą wzmocnić swoje mechanizmy ochronne i przeprowadzać intensywniejsze testy w celu zwiększenia odporności swoich modeli na manipulację. W przeciwnym razie ryzykujemy, że sztuczna inteligencja stanie się nie tylko narzędziem rozwoju, ale i potężnym sprzymierzeńcem cyberprzestępców.

Pokaż / Dodaj komentarze do: DeepSeek i inne AI mogą tworzyć złośliwe oprogramowanie