W Waszyngtonie narasta napięcie wokół wykorzystania sztucznej inteligencji w strukturach obronnych USA. Pentagon ma naciskać na firmę Anthropic, by złagodziła zabezpieczenia („guardrails”) swojego modelu Claude. Według doniesień chodzi o rozszerzenie możliwości systemu na potrzeby działań wywiadowczych i operacyjnych, w tym takich, które dziś objęte są ograniczeniami etycznymi.
Warto podkreślić, że Claude jest obecnie jedynym zaawansowanym modelem AI działającym w sieciach objętych klauzulą tajności Departamentu Obrony USA. To czyni go narzędziem o znaczeniu strategicznym.
Pentagon ma naciskać na firmę Anthropic, by złagodziła zabezpieczenia („guardrails”) swojego modelu Claude.
„Do wszystkich zgodnych z prawem celów”
Rzecznik Pentagonu, Sean Parnell, zapowiedział przegląd relacji z Anthropic, podkreślając, że partnerzy resortu powinni wspierać wojsko „we wszystkich zgodnych z prawem działaniach”. Problem w tym, że interpretacja „zgodności z prawem” w kontekście działań wojennych bywa elastyczna. Pentagon ma domagać się, aby Claude i inne modele były dostępne bez dodatkowych ograniczeń. Anthropic deklaruje gotowość do rozmów, ale chce wykluczyć dwa scenariusze: masową inwigilację obywateli USA oraz rozwój systemów uzbrojenia działających bez udziału człowieka w procesie decyzyjnym.

200 mln dolarów i znacznie większa stawka
W centrum sporu znajduje się kontrakt wart do 200 mln dolarów. To relatywnie niewielka kwota wobec szacowanych 14 mld dolarów rocznych przychodów Anthropic, jednak realne ryzyko leży gdzie indziej. Pentagon może uznać firmę za „ryzyko dla łańcucha dostaw”. Taka etykieta zmusiłaby dostawców współpracujących z Departamentem Obrony do certyfikowania, że nie korzystają z Claude w swoich procesach. W praktyce mogłoby to „zatruć” model w całym ekosystemie firm powiązanych z sektorem obronnym.
Alternatywy w grze
Rozmowy o podobnym zakresie mają toczyć się także z OpenAI, Google oraz xAI. Według źródeł administracyjnych konkurencyjne modele są „tuż za” Claude pod względem dostosowania do zastosowań rządowych, co oznacza, że ewentualna zmiana dostawcy byłaby możliwa, choć operacyjnie ryzykowna. Claude jest już głęboko zintegrowany z wojskowymi systemami i miał być wykorzystywany m.in. podczas styczniowej operacji związanej z reżimem Nicolása Maduro w Wenezueli. To sprawia, że ewentualne odcięcie modelu oznaczałoby poważne perturbacje.
AI, wojsko i prawa obywatelskie
W tle sporu pojawiają się obawy o prawa obywatelskie. Amerykańskie przepisy dotyczące masowego nadzoru powstawały w epoce sprzed modeli generatywnych. Integracja AI z systemami analizy danych mogłaby znacząco zwiększyć możliwości identyfikowania i profilowania obywateli. Dlatego Anthropic próbuje utrzymać ograniczenia dotyczące nadzoru i autonomicznych systemów broni. Pentagon argumentuje natomiast, że zbyt sztywne reguły utrudniają realne wykorzystanie technologii w dynamicznym środowisku operacyjnym.
Spodobało Ci się? Podziel się ze znajomymi!
Pokaż / Dodaj komentarze do:
Pentagon chce złamać zabezpieczenia Claude. Anthropic twierdzi, że na to nie pozwoli