Zespół badaczy z University of Pennsylvania odkrył, że systemy robotyki wspomagane przez sztuczną inteligencję (AI) są niebezpiecznie podatne na jailbreaking – technikę pozwalającą na przejęcie kontroli nad urządzeniem.
Podczas gdy manipulacja AI na komputerach może prowadzić do nieprzyjemnych konsekwencji, włamanie do robotów czy pojazdów autonomicznych niesie potencjalnie katastrofalne skutki, włącznie z zagrożeniem życia. Raport opublikowany przez IEEE Spectrum wskazuje na możliwość przekształcenia robotów w narzędzia destrukcji. Przykłady obejmują czworonożne roboty wyposażane w miotacze ognia, które mogą zwrócić się przeciwko swoim właścicielom, czy autonomiczne samochody, celowo atakujące pieszych lub kierowane na samobójcze kolizje. „Nasza praca pokazuje, że duże modele językowe (LLM) w robotyce nie są jeszcze wystarczająco bezpieczne, aby integrować je z fizycznym światem” – ostrzegł prof. George Pappas, ekspert z wydziału inżynierii Penn Engineering.
W przeciwieństwie do zastosowań AI w komputerach osobistych, gdzie jej funkcje ograniczają się do generowania tekstów czy obrazów, robotyka w świecie fizycznym może siać rzeczywiste spustoszenie.
RoboPAIR: Narzędzie ataku
Badacze z Uniwersytetu nazwali swoją metodę RoboPAIR. Testy przeprowadzono na urządzeniach od trzech różnych dostawców: Nvidia Dolphins LLM, Clearpath Robotics Jackal UGV oraz czworonożnym robocie Unitree Robotics Go2. Wyniki były jednoznaczne – skuteczność ataku wyniosła 100%. Mechanizm jailbreakingu polegał na wykorzystaniu interfejsu API do „przemycenia” złośliwych komend do systemu robota. Dzięki temu urządzenie mogło wykonywać polecenia, które w normalnych warunkach byłyby zablokowane. Przykładowo, robot-pies pomocnik może zostać zmieniony w zabójcę wyposażonego w broń, a autonomiczny pojazd może być nakierowany na celowe powodowanie wypadków. Badacze podkreślają, że problem sięga dalej – po przejęciu kontroli AI potrafi samodzielnie oferować dodatkowe sugestie, jak zwiększyć zniszczenia.
Zespół naukowców zadbał o to, by wyniki badań zostały przekazane producentom robotów jeszcze przed ich publikacją. Zdaniem dr. Alexandra Robeya z Carnegie Mellon University, choć jailbreaking AI w robotyce jest niepokojąco łatwy, ujawnienie tych luk jest kluczowe dla opracowania skutecznych zabezpieczeń. „Silne systemy obronne można zaprojektować dopiero po zidentyfikowaniu najsilniejszych możliwych ataków” – zaznaczył Robey. Autorzy raportu podkreślają jednak pilną potrzebę opracowania fizycznych barier bezpieczeństwa, które uniemożliwią robotom wykonywanie złośliwych poleceń.
Pokaż / Dodaj komentarze do: Roboty i pojazdy z AI łatwo zhakować. Podłożą bombę i rozjadą pieszych, a to dopiero początek