Anthropic ma sekretny model AI, który chowa przed ludźmi. Oto co potrafi


Anthropic ma sekretny model AI, który chowa przed ludźmi. Oto co potrafi

Anthropic ogłosiło start Project Glasswing, obejmujący najgroźniejszy model AI firmy, który nie zostanie udostępniony publicznie. Jego celem jest wykrywanie i łatanie luk bezpieczeństwa w najbardziej krytycznej infrastrukturze programistycznej świata, zanim wykorzystają je cyberprzestępcy.

Do koalicji dołączyli najwięksi gracze rynku, w tym Apple, AWS, Broadcom, Cisco, CrowdStrike, Google, Microsoft, NVIDIA oraz Palo Alto Networks. Skala partnerstwa pokazuje jak istotny jest to projekt, a Anthropic podkreśla, że temat nie dotyczy jedynie pojedynczego produktu, lecz fundamentów bezpieczeństwa współczesnego internetu.

Anthropic ogłosiło start Project Glasswing, obejmujący najgroźniejszy model AI firmy, który nie zostanie udostępniony publicznie.

Claude Mythos Preview nie trafi do wszystkich

Centralnym elementem projektu jest Claude Mythos Preview, czyli nowy model AI klasy frontier, którego Anthropic celowo nie udostępnia szerokiej publiczności. Powód jest prosty: jego możliwości są zbyt potężne, by traktować go jak standardowe narzędzie. Według firmy model samodzielnie wykrył tysiące krytycznych luk typu zero-day w głównych systemach operacyjnych i przeglądarkach. To oznacza, że AI potrafi nie tylko analizować kod, ale realnie odnajdywać błędy, które przez lata umykały ekspertom i automatycznym testom.

Nawet OpenBSD i FFmpeg nie były bezpieczne

Anthropic podało kilka wyjątkowo mocnych przykładów. Mythos Preview miał znaleźć zdalną lukę powodującą awarię w OpenBSD - systemie słynącym z bardzo wysokiego poziomu zabezpieczeń. Problem miał pozostawać niezauważony przez 27 lat. Jeszcze bardziej wymowny jest przypadek FFmpeg, gdzie nowy model wykrył krytyczny błąd ukryty w fragmencie kodu, który przez 16 lat był pomijany przez narzędzia testowe, mimo że analizowano go miliony razy. AI miała też samodzielnie połączyć kilka exploitów jądra Linuxa, uzyskując pełne przejęcie maszyny.

Potężne narzędzie, ale też ogromne ryzyko

To właśnie tutaj pojawia się największy problem. Modele zdolne do zaawansowanego rozumowania i programowania mogą wzmacniać obrońców, ale równie łatwo mogłyby zostać wykorzystane do automatyzacji ataków zero-day. Anthropic otwarcie przyznaje, że barierą wejścia do cyberataków była dotąd wiedza ekspercka. Jeśli AI przejmie tę rolę, próg wejścia może gwałtownie spaść.

Dlatego firma chce dać przewagę stronie defensywnej. Claude Mythos Preview trafi do ponad 40 partnerów i opiekunów kluczowej infrastruktury. Anthropic przeznaczy też do 100 mln dolarów w kredytach na korzystanie z modelu oraz 4 mln dolarów wsparcia dla organizacji open source, m.in. związanych z bezpieczeństwem Linuksa i Apache.

Spodobało Ci się? Podziel się ze znajomymi!

Pokaż / Dodaj komentarze do:

Anthropic ma sekretny model AI, który chowa przed ludźmi. Oto co potrafi
 0