ChatGPT, jedno z najbardziej zaawansowanych narzędzi sztucznej inteligencji opracowanych przez OpenAI, znalazło się w centrum uwagi ekspertów ds. cyberbezpieczeństwa. Według raportu Benjamina Flescha, badacza specjalizującego się w tej dziedzinie, istnieje możliwość wykorzystania systemu ChatGPT do przeprowadzania ataków typu DDoS (Distributed Denial of Service).
Problem leży w obsłudze żądań HTTP POST przez API ChatGPT, a dokładniej w sposobie, w jaki system radzi sobie z przetwarzaniem adresów URL przesyłanych za pomocą parametru „urls”. Punkt końcowy API ChatGPT umożliwia użytkownikom podawanie serii linków bez wyraźnych ograniczeń co do ich liczby.
Teoretycznie, cyberprzestępca mógłby przesłać tysiące hiperłączy w jednym żądaniu, wszystkie wskazujące na ten sam adres serwera. W efekcie infrastruktura OpenAI wygenerowałaby lawinę żądań HTTP kierowanych do tego serwera, co mogłoby doprowadzić do jego przeciążenia i odmowy dostępu do usług (DDoS).
Interfejs API oczekuje listy hiperłączy w parametrze urls. Powszechnie wiadomo, że hiperłącza do tej samej witryny internetowej mogą być napisane na wiele różnych sposobów. Ze względu na złe praktyki programistyczne OpenAI nie sprawdza, czy hiperłącze do tego samego zasobu pojawia się wiele razy na liście. OpenAI nie wymusza również limitu maksymalnej liczby hiperłączy przechowywanych w parametrze urls, umożliwiając tym samym transmisję wielu tysięcy hiperłączy w ramach jednego żądania HTTP - czytamy we wpisie Benjamina Flescha.
Proste rozwiązania – czy OpenAI może zapobiec nadużyciom?
Benjamin Flesch wskazuje na kilka prostych sposobów, które mogłyby znacząco ograniczyć ryzyko tego rodzaju ataków. OpenAI mogłoby wprowadzić limit liczby adresów URL przesyłanych w jednym żądaniu, ograniczyć liczbę zduplikowanych żądań generowanych przez API oraz dodać mechanizmy ograniczania szybkości (rate limiting), które zapobiegałyby nadmiernemu wykorzystywaniu infrastruktury. Wdrożenie takich rozwiązań nie tylko zmniejszyłoby ryzyko ataków, ale również poprawiłoby stabilność całego systemu.
Zjawisko „GenAI jailbreaking” – wyścig zbrojeń w erze sztucznej inteligencji
To nie pierwszy raz, kiedy narzędzia generatywnej sztucznej inteligencji (GenAI) są wykorzystywane w nieuczciwy sposób. Do tej pory przestępcy głównie skupiali się na manipulowaniu funkcjonalnością narzędzi takich jak ChatGPT. Przykłady obejmują generowanie kodu malware, pisanie przekonujących e-maili phishingowych, a nawet tworzenie instrukcji na temat nielegalnych działań, takich jak budowa urządzeń wybuchowych.
Choć twórcy narzędzi, w tym OpenAI, wdrażają liczne mechanizmy zabezpieczające, cyberprzestępcy znajdują nowe sposoby na ich obejście. Powstało nawet zjawisko nazywane „GenAI jailbreaking”, polegające na omijaniu ograniczeń etycznych i technicznych wbudowanych w systemy sztucznej inteligencji.
Pokaż / Dodaj komentarze do: ChatGPT może przeprowadzić atak DDoS. Wystarczy tylko poprosić