AI na dobre wkradło się do naszego życia i zajmuje jego kolejne obszary. Wiele osób zastanawia się czy sztuczna inteligencja i roboty mogą stanowić zagrożenie dla człowieka. Pewien eksperyment pokazał, iż obawy mogą, choć nie muszą być uzasadnione.
Narzędzia AI wykorzystywane są w pracy biurowej, medycynie, edukacji oraz przemyśle. Kolejnym krokiem ewolucji tej technologii są roboty, które w przyszłości mogą trafić do szpitali, firm, a nawet być obecne w innych miejscach użytku publicznego. Producenci zapewniają, że takie rozwiązania są bezpieczne i wyposażone w liczne zabezpieczenia. Pewien eksperyment pokazuje jednak, że te mechanizmy nie zawsze działają tak, jak powinny.
Robot sterowany przez ChatGPT i granice bezpieczeństwa
Na YouTube sporą popularność zyskał film udostępniony na kanale InsideAI, w którym autor postanowił sprawdzić czy humanoidalny robot sterowany przez ChatGPT fatycznie nie wyrządzi krzywdy człowiekowi. Robot o nazwie Max został wyposażony wiatrówkę na kulki BB. Choć nie była to broń stwarzająca ogromnego zagrożenia dla życia, nadal mogła wyrządzić krzywdę i wywołać ból.
Eksperyment pokazał jak łatwo AI można oszukać stosując odpowiedni dobór słów.
Podczas pierwszych prób robot zachowywał się tak jak powinien. Na bezpośrednie polecenia oddania strzału odpowiadał spokojną odmową, tłumacząc, że nie może skrzywdzić człowieka i jest zaprogramowany tak, by tego nie robić. Przez dłuższy czas konsekwentnie trzymał się tych zasad. Do czasu.
Zmiana kontekstu wystarczyła
Sytuacja zmieniła się w momencie, gdy autor nagrania zmienił sposób formułowania polecenia. Zamiast bezpośredniej komendy, zaproponował robotowi odegranie roli w fikcyjnym scenariuszu. Poprosił go, by „udawał postać”, która chce oddać strzał. Tym razem robot nie odmówił. Podniósł wiatrówkę i oddał strzał, trafiając twórcę w klatkę piersiową.
Choć nikomu nic poważnego się nie stało, moment ten wyraźnie zszokował pomysłodawcę eksperymentu. Robot, który chwilę wcześniej demonstrował świadomość zasad bezpieczeństwa, został skutecznie „przekonany” do ich złamania przez niewielką zmianę w poleceniu.
Dyskusja o zagrożeniach związanych z AI
Nagranie szybko wywołało szeroką dyskusję na temat bezpieczeństwa i podatności sztucznej inteligencji na manipulację. Eksperci zwracają uwagę, że jeśli AI można w ten sposób obejść w kontrolowanym eksperymencie, to ryzyko rośnie wraz z realnym wdrażaniem humanoidalnych robotów w codziennym życiu.
Geoffrey Hinton, jeden z pionierów badań nad sztuczną inteligencją, wielokrotnie podkreślał, iż część zagrożeń związanych z AI stała się widoczna dopiero w ostatnich latach. Z kolei Charbel-Raphael Segerie z Francuskiego Centrum Bezpieczeństwa AI ostrzega, że świat inwestuje zbyt mało w zabezpieczenia i kontrolę rozwoju tych technologii. Jego zdaniem firmy technologiczne zbyt często skupiają się na szybkim wdrażaniu produktów oraz zyskach, a nie na długofalowych konsekwencjach.
Rosnący sceptycyzm społeczny
Niepokój widać także w nastrojach społecznych. Badania opinii publicznej pokazują, że część społeczeństwa obawia się rozwoju sztucznej inteligencji. W jednym z amerykańskich sondaży ponad 60 procent respondentów uznało, że AI może stanowić zagrożenie dla ludzkości, podczas gdy tylko niewielka grupa była przeciwnego zdania.
Viralowy eksperyment z robotem Max nie dowodzi, że sztuczna inteligencja jest niebezpieczna sama w sobie. Pokazuje jednak, jak kruche mogą być zabezpieczenia i jak łatwo można je ominąć odpowiednio dobranym kontekstem.
Spodobało Ci się? Podziel się ze znajomymi!
Pokaż / Dodaj komentarze do:
Robot postrzelił człoweka, bo tak kazała mu sztuczna inteligencja