Przez ostatnie tygodnie branża bezpieczeństwa żyła jedną historią. Anthropic stworzył system AI o nazwie Mythos, który miał być tak skuteczny w wyszukiwaniu luk w oprogramowaniu, że firma nie chciała go szeroko udostępniać. W sieci zaczęły pojawiać się sugestie o przełomie, który może wywrócić świat cyberbezpieczeństwa do góry nogami. Teraz głos zabrał człowiek, którego kod działa praktycznie wszędzie w internecie. I jego ocena jest bezlitosna.
Daniel Stenberg, twórca cURL, postanowił sprawdzić możliwości tajemniczego modelu AI. Efekt? Po całym medialnym szumie Mythos znalazł jedną lukę bezpieczeństwa o niskim poziomie zagrożenia.
To nie jest zwykły projekt open source. cURL od niemal trzech dekad stanowi fundament komunikacji internetowej i znajduje się w milionach urządzeń, aplikacji oraz serwerów na całym świecie. Jeśli istnieje miejsce, w którym sztuczna inteligencja mogłaby udowodnić swoją przewagę w analizie kodu, właśnie tam miała idealne warunki.
Mythos miał być postrachem programistów
Anthropic budował wokół Mythos aurę niemal legendarnego narzędzia. Według doniesień model miał wykrywać błędy bezpieczeństwa skuteczniej od ludzi i klasycznych skanerów kodu. Branża AI zaczęła mówić o nowej erze automatycznego wyszukiwania podatności.
Daniel Stenberg otrzymał możliwość przetestowania systemu w ramach programu Project Glasswing współtworzonego z Linux Foundation. Problem w tym, że nigdy nie dostał bezpośredniego dostępu do samego modelu. Ktoś inny uruchomił analizę kodu cURL i przesłał mu gotowy raport.
Już wtedy twórca cURL spodziewał się długiej listy odkrytych błędów. Projekt był wielokrotnie analizowany przez różne systemy AI, ale medialna narracja wokół Mythos sugerowała coś znacznie potężniejszego. Rzeczywistość okazała się wyjątkowo daleka od oczekiwań.
Pięć błędów, cztery rozczarowania
Raport wygenerowany przez Mythos wskazał pięć potencjalnych luk bezpieczeństwa w kodzie cURL. Zespół Stenberga przeanalizował każde zgłoszenie bardzo dokładnie. Trzy przypadki okazały się fałszywymi alarmami. AI wskazała zachowania już wcześniej opisane w dokumentacji API. Czwarty problem został sklasyfikowany jako zwykły błąd programistyczny bez znaczenia dla bezpieczeństwa.
Ostatecznie pozostała jedna realna podatność
Sam Stenberg podkreślił jednak, że chodzi o lukę o bardzo niskim poziomie zagrożenia. Poprawka ma trafić do wersji cURL 8.21.0 pod koniec czerwca. Programista nie krył ironii, pisząc wprost, że „ta luka nikogo nie zachwyci”. To właśnie wtedy padły słowa, które błyskawicznie obiegły branżę technologii.
„Cały szum wokół Mythos to głównie marketing” – stwierdził twórca cURL.
AI już wcześniej analizowała cURL
Najciekawsze w całej historii jest to, że cURL od dawna znajduje się pod nieustanną obserwacją systemów AI. Projekt był testowany przez narzędzia takie jak AISLE, Zeropath czy OpenAI Codex Security.
Według Stenberga wcześniejsze analizy doprowadziły do odkrycia od 200 do 300 błędów w ciągu ostatnich miesięcy. Wiele z nich zakończyło się publikacją oficjalnych podatności CVE.
To właśnie dlatego doświadczenie z Mythos wywołało tak duże rozczarowanie. Jeśli nowy model miał być przełomem, jego przewaga nad istniejącymi rozwiązaniami powinna być widoczna natychmiast.
Zamiast tego Anthropic otrzymał publiczną recenzję sugerującą, że Mythos nie oferuje niczego wyjątkowego ponad to, co już potrafią współczesne modele AI.
Branża AI obiecywała więcej
W ostatnich miesiącach firmy rozwijające sztuczną inteligencję coraz agresywniej promują narzędzia do automatycznej analizy kodu. Padają sugestie o przyszłości, w której AI samodzielnie wykrywa zagrożenia szybciej niż zespoły bezpieczeństwa.
Stenberg uważa jednak, że obecna generacja takich systemów działa znacznie bardziej przewidywalnie, niż sugeruje marketing. Według niego modele AI dobrze odnajdują znane typy błędów i powtarzalne schematy podatności. Problem pojawia się przy próbie odkrywania czegoś naprawdę nowego.
Twórca cURL zwraca uwagę, że sztuczna inteligencja nadal bazuje na wiedzy dostarczonej przez ludzi. Jeśli wcześniej nie opisano danego rodzaju luki bezpieczeństwa, modele mają ogromny problem z samodzielnym dojściem do nowych kategorii zagrożeń. AI może przyspieszać pracę ekspertów, ale nie zastępuje kreatywności doświadczonych badaczy.
AI generuje także gigantyczny problem
Daniel Stenberg od dawna należy do osób głośno mówiących o ciemnej stronie boomu na sztuczną inteligencję w open source. Kilka miesięcy temu zamknął program bug bounty dla cURL po zalaniu projektu fatalnej jakości raportami wygenerowanymi przez AI.
Twórcy open source coraz częściej skarżą się, że zamiast realnej pomocy dostają tysiące automatycznie produkowanych zgłoszeń pełnych fałszywych alarmów. W praktyce oznacza to dodatkową pracę i marnowanie czasu zespołów bezpieczeństwa.
Paradoks polega na tym, że Stenberg nie jest przeciwnikiem AI. Wręcz przeciwnie, uważa nowoczesne analizatory kodu za najlepsze narzędzia, jakie kiedykolwiek pojawiły się w branży bezpieczeństwa. Jego problem dotyczy głównie narracji budowanej wokół takich systemów.
Według niego firmy AI próbują sprzedawać wizję technologicznej rewolucji, podczas gdy rzeczywistość wygląda znacznie bardziej przyziemnie.
Spodobało Ci się? Podziel się ze znajomymi!

Pokaż / Dodaj komentarze do:
Twórca cURL sprawdził „najgroźniejszą AI świata”. Wynik okazał się kompromitacją