Ten tydzień przyniósł dwie informacje, które w zestawieniu budzą poważny niepokój o kierunek rozwoju sztucznej inteligencji.
Z jednej strony najpierw pojawiły się doniesienia o naciskach ze strony Pentagonu na twórcę modelu Claude. Z drugiej, firma ogłosiła właśnie złagodzenie swojej kluczowej polityki bezpieczeństwa, dotąd uznawanej za jedną z najbardziej restrykcyjnych w branży AI. Zbieg okoliczności? A może sygnał, że realpolitik zaczyna wygrywać z deklarowanymi wartościami.
Według informacji medialnych sekretarz obrony USA, Pete Hegseth, miał postawić firmie ultimatum: albo umożliwi wojsku nieograniczony dostęp do modelu Claude, albo poniesie konsekwencje.
Pentagon chce „pełnego dostępu” do Claude
Według informacji medialnych sekretarz obrony USA, Pete Hegseth, miał postawić firmie ultimatum: albo umożliwi wojsku nieograniczony dostęp do modelu Claude, albo poniesie konsekwencje. Stawką są potencjalne sankcje administracyjne, a nawet wykorzystanie przepisów takich jak Defense Production Act, które pozwalają rządowi nakazać prywatnym firmom realizację określonych kontraktów w imię bezpieczeństwa narodowego.
Anthropic miało zaproponować przyjęcie swoich zasad użytkowania w ramach współpracy z Pentagonem, jednak odmówiło zgody na wykorzystanie modelu do masowej inwigilacji obywateli USA czy do systemów uzbrojenia działających bez udziału człowieka. Warto podkreślić, że Claude to obecnie jedyny model AI wykorzystywany przy najbardziej wrażliwych projektach wojskowych. Jego możliwości, szczególnie w analizie i generowaniu kodu, sprawiły, że stał się narzędziem o strategicznym znaczeniu.

Koniec twardych „czerwonych linii”
Tego samego dnia firma ogłosiła modyfikację swojej Responsible Scaling Policy (RSP). Do tej pory Anthropic deklarowało, że nie będzie trenować nowych modeli, jeśli nie będzie w stanie zagwarantować spełnienia określonych wymogów bezpieczeństwa. Polityka zawierała jasno zdefiniowane „wyłączniki awaryjne”, które miały zatrzymać rozwój w przypadku przekroczenia określonych progów ryzyka.
Teraz firma odchodzi od sztywnych barier na rzecz bardziej elastycznego podejścia. W miejsce twardych ograniczeń pojawią się „Risk Reports” oraz „Frontier Safety Roadmaps”, czyli raporty ryzyka i publiczne harmonogramy bezpieczeństwa. W praktyce oznacza to przesunięcie z modelu o sztywnych zasadach i granicach na model ciągłej oceny i transparentności. Oficjalnie w w imię realizmu i konkurencyjności.
„Nie możemy zatrzymać się sami”
W wywiadzie dla Time Jared Kaplan z Anthropic przekonywał, że jednostronne wstrzymanie rozwoju nie miałoby sensu w świecie, w którym konkurenci przyspieszają. Trudno nie odczytać tego jako odniesienia do takich graczy jak OpenAI, którego wycena przekracza już 850 mld dolarów. Zresztą Anthropic samo w lutym pozyskało 30 mld dolarów finansowania, osiągając wycenę 380 mld dolarów. Rosnące oczekiwania inwestorów i presja rynku sprawiają, że etyczne deklaracje sprzed kilku lat zaczynają brzmieć mniej stanowczo.
To klasyczny dylemat: czy firma może pozwolić sobie na bycie „najbardziej odpowiedzialną”, jeśli konkurencja nie zamierza zwalniać?
Problem zbiorowego działania czy wygodna narracja?
W nowej wersji RSP Anthropic wskazuje na „problem zbiorowego działania”. Jeśli jeden podmiot wstrzyma rozwój w imię bezpieczeństwa, a inni będą trenować coraz potężniejsze modele bez wystarczających zabezpieczeń, świat może stać się mniej bezpieczny - argumentuje firma. To racjonalne stanowisko, ale niesie też ryzyko rozmycia odpowiedzialności. Skoro wszyscy biegną, nikt nie chce być tym, który się zatrzyma.
Chris Painter z organizacji METR ocenił zmiany jako zrozumiałe, lecz potencjalnie niepokojące. Ostrzegł przed efektem „gotującej się żaby”, czyli stopniowym oswajaniem coraz większego ryzyka poprzez serię pozornie rozsądnych kompromisów.
Wojskowa dźwignia nacisku
Presja Pentagonu dodaje całej sprawie dodatkowego ciężaru. Jeśli administracja uzna Anthropic za „ryzyko łańcucha dostaw”, inne firmy współpracujące z Departamentem Obrony mogłyby zostać zmuszone do certyfikowania, że Claude nie jest używany w ich procesach. To potężne narzędzie nacisku na startup, który mimo astronomicznej wyceny wciąż funkcjonuje w realiach komercyjnych. Pojawia się pytanie: czy firma zdecyduje się na sądową batalię z rządem, czy wybierze pragmatyczne dostosowanie się do oczekiwań kluczowego klienta? Wygląda na to, że wybór padł na tę drugą opcję.
Spodobało Ci się? Podziel się ze znajomymi!
Pokaż / Dodaj komentarze do:
AI dla armii bez ograniczeń? Pentagon naciska, Anthropic luzuje zasady