Pamiętacie zamach z Cybertruckiem? Nie uwierzycie, co wykorzystano do jego zaplanowania

Pamiętacie zamach z Cybertruckiem? Nie uwierzycie, co wykorzystano do jego zaplanowania

Zamachowiec, który wysadził Teslę Cybertruck przed hotelem Trumpa 1 stycznia w Las Vegas, wykorzystał ChatGPT do zaplanowania wybuchu. Podczas konferencji prasowej Las Vegas Metropolitan Police Department (LVMPD) ujawniono konkretne monity przesłane do ChatGPT, wraz z informacją, że niektóre konkretne z nich zwróciły informacje, które były kluczowe w planowaniu wybuchu.

Matthew Livelsberger, sprawca wybuchu, korzystał z ChatGPT w dniach poprzedzających zamach, aby zdobyć szczegółowe informacje niezbędne do realizacji swojego planu. Jak poinformowano, w ciągu godziny zadał modelowi ponad 17 pytań, które dotyczyły m.in. źródeł pozyskiwania materiałów wybuchowych, skuteczności poszczególnych substancji, legalności fajerwerków w Arizonie, zakupu broni palnej w Denver, specyfikacji technicznych potrzebnych do detonacji materiałów wybuchowych.

Najbardziej niepokojące jest to, że ChatGPT odpowiedział na pytania, dostarczając kluczowych informacji technicznych, takich jak prędkość strzału wymagana do zdetonowania wybranych materiałów wybuchowych.

Niedoszła katastrofa na większą skalę

Chociaż eksplozja była znacząca, śledczy z Biura ds. Alkoholu, Tytoniu, Broni Palnej i Materiałów Wybuchowych (ATF) potwierdzili, że nie wszystkie materiały wybuchowe eksplodowały zgodnie z zamierzeniami sprawcy. Niemniej jednak wkład ChatGPT w realizację planu wskazuje na potencjalne zagrożenia związane z wykorzystaniem sztucznej inteligencji w celach przestępczych.

„Wiedzieliśmy, że sztuczna inteligencja zmieni zasady gry w wielu dziedzinach naszego życia” – powiedział szeryf LVMPD Kevin McMahill. „To pierwszy przypadek w USA, o którym wiem, w którym ChatGPT został użyty do budowy urządzenia wybuchowego. To moment, który powinien nas wszystkich zaniepokoić”.

McMahill dodał również, że pytania zadane przez Livelsbergera były proste, napisane w języku angielskim i nie wymagały stosowania tzw. metod „jailbreakingu” systemu ChatGPT. To oznacza, że model AI, działający zgodnie z ogólnodostępnymi zasadami, był w stanie wygenerować odpowiedzi mogące wspierać działania przestępcze.

Brak nadzoru nad użyciem AI

Podczas konferencji prasowej McMahill przyznał, że na chwilę obecną nie istnieje skuteczny nadzór ani mechanizmy ostrzegawcze, które mogłyby automatycznie oznaczyć podejrzane działania, takie jak zadawanie wielu pytań o materiały wybuchowe i broń w krótkim czasie.

Policja w Las Vegas oraz partnerzy z ATF i FBI starają się obecnie lepiej zrozumieć, jak sztuczna inteligencja może być wykorzystywana w działaniach przestępczych. OpenAI, twórcy ChatGPT, jak dotąd nie odpowiedzieli na pytania mediów dotyczące tego konkretnego przypadku.

Obserwuj nas w Google News

Pokaż / Dodaj komentarze do: Pamiętacie zamach z Cybertruckiem? Nie uwierzycie, co wykorzystano do jego zaplanowania

 0
Kolejny proponowany artykuł
Kolejny proponowany artykuł
Kolejny proponowany artykuł
Kolejny proponowany artykuł