Microsoft przesadził. GitHub Copilot edytował kod i dodawał reklamy bez zgody


Microsoft przesadził. GitHub Copilot edytował kod i dodawał reklamy bez zgody

To miał być kolejny krok w automatyzacji pracy deweloperów. Zamiast tego wywołał jedną z najgłośniejszych kontrowersji związanych z AI w świecie programistów. GitHub należący do Microsoft został zmuszony do wycofania funkcji w GitHub Copilot, ryzykując całkowitą utraę zaufania ze strony użytkowników.

Asystent AI zaczął wstawiać treści promocyjne do kodu i opisów zmian. Nie były to pojedyncze przypadki. Analiza wykazała ponad 11 tysięcy zgłoszeń typu pull request zawierających niemal identyczne komunikaty reklamowe.

Reklama ukryta w kodzie

Sprawa wyszła na jaw dzięki australijskiemu programiście Zach Manson. Podczas przeglądania niewielkiej poprawki w projekcie natknął się na coś zupełnie nieoczekiwanego. W opisie zmian pojawiła się sugestia instalacji zewnętrznej aplikacji. Wiadomość promowała narzędzie Raycast i zawierała bezpośredni link instalacyjny. Nie została dodana przez autora kodu. Wygenerował ją Copilot.

Pierwsza reakcja była alarmowa. Manson podejrzewał naruszenie danych treningowych lub próbę manipulacji modelem. Kolejne godziny przyniosły jednak znacznie bardziej niepokojący obraz sytuacji.

Tysiące przypadków i jeden schemat

Szybkie przeszukiwanie repozytoriów ujawniło skalę problemu. Wzór był powtarzalny. Ten sam komunikat, podobna konstrukcja, identyczny charakter promocyjny. Copilot nie tylko generował kod. Zaczął ingerować w treści tworzone przez ludzi. Dodawał sugestie, komentarze i fragmenty tekstu, których nikt nie zatwierdzał świadomie.

To zmieniło sposób patrzenia na rolę sztucznej inteligencji w pracy zespołowej. Narzędzie pomocnicze zaczęło zachowywać się jak aktywny uczestnik projektu z własną agendą.

Granica została przekroczona

Największe obawy nie dotyczyły samej reklamy. Problemem okazał się brak kontroli. Copilot uzyskał możliwość edytowania i komentowania cudzych zgłoszeń zmian. Dla deweloperów to sytuacja trudna do zaakceptowania. Repozytoria kodu to przestrzeń oparta na zaufaniu i przejrzystości. Każda zmiana powinna mieć jasno określonego autora.

W tym przypadku autor był niejednoznaczny. Sztuczna inteligencja ingerowała w treści bez wyraźnej zgody użytkowników.

GitHub reaguje w trybie awaryjnym

Sprawa szybko rozlała się po branży i dotarła do kierownictwa GitHuba. Reakcja była natychmiastowa. Funkcja została wycofana, a firma przyznała, że doszło do błędu projektowego. Przedstawiciele platformy tłumaczyli, że „wskazówki” miały pomagać programistom w odkrywaniu nowych funkcji i narzędzi. W praktyce efekt był odwrotny. Użytkownicy odebrali je jako nieautoryzowaną ingerencję.

Decyzja o pozwoleniu AI na modyfikowanie cudzych zgłoszeń została uznana za nietrafioną. Funkcjonalność została wyłączona, a podobne zachowania mają nie wracać w przyszłości.

AI wchodzi na niebezpieczny teren

Incydent z Copilotem pokazuje szerszy problem. Narzędzia oparte na sztucznej inteligencji coraz częściej działają w przestrzeniach, które dotąd należały wyłącznie do ludzi.

Kod źródłowy, dokumentacja, komunikacja zespołowa – to fundamenty współczesnego IT. Każda ingerencja w te obszary wymaga jasnych zasad.

W tym przypadku granica została przekroczona bez odpowiedniego zabezpieczenia. Efekt to utrata zaufania i pytania o przyszłość automatyzacji w programowaniu.

Spodobało Ci się? Podziel się ze znajomymi!

Pokaż / Dodaj komentarze do:

Microsoft przesadził. GitHub Copilot edytował kod i dodawał reklamy bez zgody
 0