Współpraca amerykańskiego Departamentu Obrony z jedną z najważniejszych firm rozwijających sztuczną inteligencję znalazła się w poważnym kryzysie. Jak informuje agencja Reuters, kontrakt pomiędzy Pentagonem a firmą Anthropic, wyceniany na około 200 milionów dolarów, może zostać zerwany po tym, jak negocjacje utknęły w martwym punkcie pod koniec stycznia 2026 roku. Źródłem napięć są rozbieżności dotyczące sposobu wykorzystania zaawansowanych modeli językowych w środowisku wojskowym.
Umowa podpisana latem 2025 roku zakładała integrację modeli Claude AI z amerykańskimi systemami informatycznymi w sektorze obronnym. Według Reutersa problemy pojawiły się niemal natychmiast po sfinalizowaniu kontraktu. Anthropic, firma założona przez byłych pracowników OpenAI, od początku narzuca restrykcyjne zasady użytkowania swoich modeli, szczególnie w kontekście inwigilacji oraz zastosowań militarnych.
Programiści Anthropic wyrażają obawy, że ich sieci neuronowe mogłyby zostać wykorzystane do obserwacji obywateli Stanów Zjednoczonych lub do wsparcia operacji ofensywnych, w tym namierzania celów dla systemów rakietowych. Takie scenariusze stoją w sprzeczności z wewnętrznymi zasadami firmy, które zakazują użycia technologii do masowego nadzoru oraz działań o ograniczonym udziale człowieka.
Spór nie dotyczy wyłącznie pieniędzy, lecz fundamentalnych pytań o kontrolę, odpowiedzialność i granice wykorzystania technologii, która coraz szybciej przenika do obszarów kluczowych dla bezpieczeństwa państw.
Pentagon kontra polityka firm technologicznych
Z perspektywy Departamentu Obrony sytuacja wygląda inaczej. Według źródeł Reutersa przedstawiciele Pentagonu są niezadowoleni z ograniczeń narzucanych przez Anthropic i uważają, że instytucje państwowe powinny mieć swobodę wdrażania komercyjnych technologii, o ile odbywa się to w granicach amerykańskiego prawa. W ich ocenie polityki użytkowania opracowane przez prywatne firmy nie powinny blokować zastosowań uznawanych za legalne i niezbędne dla bezpieczeństwa narodowego.
Anthropic deklaruje, że jej modele są trenowane w sposób nastawiony na unikanie potencjalnie szkodliwych działań. Źródła agencji informują, że pracownicy firmy mieli przekonfigurowywać systemy Claude specjalnie na potrzeby Pentagonu, jednak narastające różnice interpretacyjne dotyczące zakresu dopuszczalnych zastosowań doprowadziły do impasu.
Głos prezesa i ostrzeżenie przed przyszłością
Na tle sporu wybrzmiewają niedawne wypowiedzi prezesa Anthropic, Daria Amodeia. Pod koniec stycznia 2026 roku stwierdził on, że ludzkość wchodzi w epokę niewyobrażalnej potęgi technologicznej, a istniejące systemy społeczne i polityczne mogą nie być gotowe na jej konsekwencje. W swoim eseju podkreślił, że sztuczna inteligencja powinna wspierać obronę narodową, z wyjątkiem zastosowań, które upodabniają demokratyczne państwa do ich autorytarnych rywali.
Anthropic i OpenAI na froncie rozwoju AI
Anthropic, podobnie jak OpenAI, należy do ścisłej czołówki firm rozwijających wielkoskalowe modele językowe ogólnego przeznaczenia. W 2026 roku technologie tych spółek napędzają chatboty i asystentów zdolnych do prowadzenia złożonych rozmów, pisania kodu oraz analizowania danych. Podczas gdy OpenAI zbudowało globalną rozpoznawalność dzięki ChatGPT i modelom GPT-3 oraz GPT-4, Anthropic konsekwentnie buduje wizerunek firmy skoncentrowanej na bezpieczeństwie i sterowalności sztucznej inteligencji.
Rosnący niepokój społeczny wobec AI
Kontrowersje wokół kontraktu z Pentagonem to kolejny przejaw globalnych obaw związanych z rozwojem sztucznej inteligencji. Badania Pew Research Center z jesieni 2025 roku pokazują, że w wielu krajach dominuje niepokój związany z wpływem sieci neuronowych na kreatywność i relacje międzyludzkie. W Stanach Zjednoczonych i we Włoszech połowa respondentów deklarowała większe obawy niż entuzjazm wobec rosnącej obecności AI w codziennym życiu.
Dane z 25 państw wskazują na zróżnicowane nastroje społeczne. W części krajów, takich jak Australia, Brazylia czy Kanada, odsetek osób zaniepokojonych rozwojem AI zbliża się do połowy populacji. Z kolei w Korei Południowej i Indiach dominuje znacznie większy spokój wobec nowych technologii. Jednocześnie badanie pokazuje wysoki poziom świadomości istnienia AI, choć tylko jedna trzecia respondentów uważa, że posiada solidną wiedzę na jej temat.
Spodobało Ci się? Podziel się ze znajomymi!
Pokaż / Dodaj komentarze do:
Anthropic zerwie kontrakt z Pentagonem. Nie chcą militarnego użycia AI