Microsoft szkoli AI na prywatnych danych. Firma bagatelizuje problem

Microsoft szkoli AI na prywatnych danych. Firma bagatelizuje problem

Nowe modele sztucznej inteligencji pochłaniają ogromne ilości danych, często przeszukując internet w poszukiwaniu informacji. Jednak ten nieuregulowany proces może prowadzić do poważnych naruszeń bezpieczeństwa, zwłaszcza w kontekście danych wrażliwych.

Jak ujawniła izraelska firma zajmująca się cyberbezpieczeństwem, Lasso, popularne chatboty AI, takie jak Microsoft Copilot i ChatGPT, mogą uzyskiwać dostęp do prywatnych repozytoriów GitHub. Problem ten może dotyczyć tysięcy organizacji i firm technologicznych na całym świecie.

Odkrycie luki w Microsoft Copilot

Eksperci z Lasso natrafili na zagrożenie przez przypadek. Analizując dane generowane przez Copilot, odkryli, że zawierały one fragmenty kodu z ich własnego repozytorium GitHub. Co istotne, to repozytorium zostało wcześniej omyłkowo upublicznione, a następnie ponownie ustawione jako prywatne. Mimo to chatbot nadal posiadał dostęp do jego zawartości.  „Gdybym przeglądał sieć, nie zobaczyłbym tych danych. Ale każdy, kto zada Copilotowi odpowiednie pytanie, mógłby je uzyskać” – powiedział współzałożyciel Lasso, Ophir Dror.

Po dalszym śledztwie badacze odkryli, że problem ma znacznie większą skalę. Okazało się, że ponad 20 000 repozytoriów GitHub, które zostały ustawione jako prywatne w 2024 roku, nadal było dostępnych za pośrednictwem Copilot.

Tysiące firm zagrożonych, w tym giganci technologiczni

Według Lasso, naruszenie dotknęło ponad 16 000 organizacji. Wśród nich znalazły się największe firmy technologiczne, takie jak IBM, Google, PayPal, Tencent, Microsoft i Amazon Web Services (AWS). Co ciekawe, Amazon oficjalnie zaprzeczył, że jego dane były zagrożone, a Lasso zostało rzekomo naciskane przez zespół prawny AWS, aby usunąć wzmianki o firmie z raportu. Eksperci alarmują, że prywatne repozytoria mogą zawierać krytyczne dane, w tym: własność intelektualną, wrażliwe informacje korporacyjne, klucze dostępu i tokeny bezpieczeństwa. Cyberprzestępcy mogą teoretycznie manipulować chatbotem, aby uzyskać te dane, co stanowi poważne ryzyko.

Reakcja Microsoftu i konsekwencje

Firma Lasso powiadomiła Microsoft o zagrożeniu już w listopadzie 2024 roku, jednak gigant technologiczny sklasyfikował je jako „problem o niskim stopniu powagi”. Microsoft uznał buforowanie danych za „akceptowalne zachowanie”, choć w grudniu 2024 roku Bing usunął już część buforowanych wyników wyszukiwania. Mimo to badacze ostrzegają, że usunięcie buforowanych danych nie rozwiązuje problemu, ponieważ Copilot nadal posiada dostęp do treści, które były wcześniej publiczne. Lasso opublikowało szczegółowy raport ze swoimi ustaleniami, apelując o podjęcie natychmiastowych działań.

Obserwuj nas w Google News

Pokaż / Dodaj komentarze do: Microsoft szkoli AI na prywatnych danych. Firma bagatelizuje problem

 0
Kolejny proponowany artykuł
Kolejny proponowany artykuł
Kolejny proponowany artykuł
Kolejny proponowany artykuł