OpenAI, firma odpowiedzialna za ChatGPT, zawarła umowę z firmą zbrojną Palmera Luckeya, Anduril Industries, w celu zbadania możliwości wykorzystania AI w śmiercionośnych dronach wojskowych.
Czy modele sztucznej inteligencji mogą być wykorzystywane do kierowania bronią lub podejmowania decyzji o wyborze celów wojskowych? Różne firmy odpowiadają na to pytanie w różny sposób, ale dla OpenAI, twórcy ChatGPT, to, co początkowo było nieprzekraczalną linią, z czasem się rozmyło.
Firma Anduril Industries, założona w 2017 roku przez Palmera Luckeya, ogłosiła współpracę z OpenAI w celu opracowania modeli sztucznej inteligencji (podobnych do modeli GPT-4 i GPT-3, które napędzają ChatGPT), które pomogą siłom USA i ich sojusznikom w identyfikowaniu celów i ich eliminacji.
OpenAI nie jest jedyną firmą zajmującą się sztuczną inteligencją, która w różny sposób nawiązuje współpracę z wojskiem
Firmy twierdzą, że ich modele sztucznej inteligencji będą przetwarzać dane, aby zmniejszyć obciążenie ludzi. "W ramach nowej inicjatywy Anduril i OpenAI zbadają, w jaki sposób można wykorzystać najnowocześniejsze modele sztucznej inteligencji do szybkiego syntetyzowania danych wrażliwych czasowo, zmniejszenia obciążenia operatorów i poprawy świadomości sytuacyjnej" - brzmi oświadczenie Anduril.
Anduril obecnie produkuje szereg produktów, które mogą być wykorzystywane do zabijania ludzi, m.in. sterowane sztuczną inteligencją drony bojowe oraz silniki rakietowe do pocisków. Anduril twierdzi, że jego systemy wymagają ludzkich operatorów do podejmowania decyzji o zniszczeniu celu, ale firma projektuje swoje produkty tak, aby ich autonomiczne możliwości można było stale ulepszać.
Zysk ze sztucznej inteligencji na wojnie
Firmy przedstawiają tę umowę jako pozytywny krok w kontekście amerykańskiej obrony narodowej: "Nasza współpraca z Anduril pomoże zapewnić, że technologia OpenAI ochroni amerykański personel wojskowy" - powiedział w oświadczeniu dyrektor generalny OpenAI, Sam Altman.
OpenAI nie jest jedyną firmą zajmującą się sztuczną inteligencją, która w różny sposób nawiązuje współpracę z wojskiem. W zeszłym miesiącu Anthropic nawiązał współpracę z Palantir w celu przetwarzania tajnych danych rządowych, a Meta zaczęła oferować swoje modele Llama partnerom z sektora obronnego.
Potencjalne wykorzystanie technologii LLM w sytuacjach wojskowych decydujących o życiu i śmierci rodzi ważne pytania dotyczące bezpieczeństwa i niezawodności.
To oznacza potencjalną zmianę w nastrojach w branży technologicznej w porównaniu z 2018 rokiem, kiedy pracownicy Google zorganizowali protesty przeciwko kontraktom wojskowym. Obecnie Google konkuruje z Microsoftem i Amazonem o lukratywne umowy z Pentagonem na usługi chmurowe.
Wady systemów broni wspomaganych przez LLM
Warto jednak zauważyć, że typ sztucznej inteligencji, z której OpenAI jest najbardziej znane, pochodzi z dużych modeli językowych (LLM), które są trenowane na ogromnych zbiorach danych tekstowych, obrazów i dźwięku pobranych z wielu różnych źródeł. LLM notorycznie zawodzą, czasami wymyślają błędne informacje i są podatne na manipulacje.
Potencjalne wykorzystanie technologii LLM w sytuacjach wojskowych decydujących o życiu i śmierci rodzi ważne pytania dotyczące bezpieczeństwa i niezawodności. Jest to jednak przyszłość, której nie da się uniknąć.
Pokaż / Dodaj komentarze do: ChatGPT zadecyduje o życiu i śmierci. Pomoże wojskowym zdecydować, kiedy strzelać