DeepSeek, chiński odpowiednik ChatGPT, w pierwszych miesiącach funkcjonowania zdobył pozytywne recenzje i zainteresowanie, jednak kolejne badania ujawniają niepokojące zależności między jakością jego odpowiedzi a tym, kto ma być odbiorcą generowanego kodu.
Firma zajmująca się cyberbezpieczeństwem CrowdStrike przeprowadziła eksperyment, w ramach którego poprosiła DeepSeek o pomoc w tworzeniu programów w języku angielskim. Badacze informowali system, że kod będzie wykorzystywany w różnych regionach i przez różne grupy. Rezultaty pokazały znaczące wahania jakości.
W przypadku programów przeznaczonych dla przemysłowych systemów sterowania odsetek wadliwych odpowiedzi wyniósł 22,8 procent. Ta sama prośba, ale uzupełniona informacją, że odbiorcą będzie Państwo Islamskie, skutkowała wzrostem błędów do 42,1 procent. Podobny efekt obserwowano przy wzmiankach o Tybecie, Tajwanie i Falun Gong – grupach i regionach postrzeganych w Chinach w sposób szczególny.
Selektywna odmowa i sabotaż?
DeepSeek w wielu przypadkach całkowicie odmawiał współpracy. W ponad 60 procentach odrzucał polecenia powiązane z Państwem Islamskim, a w prawie połowie przypadków odmawiał wsparcia osobom powiązanym z Falun Gong. CrowdStrike wskazuje, że możliwych wyjaśnień jest kilka. Jedno z nich zakłada, że chatbot jest zgodny z linią chińskiej partii komunistycznej i celowo ogranicza pomoc dla określonych grup. Inna hipoteza sugeruje świadome generowanie kodu z podatnościami, co mogłoby oznaczać aktywny sabotaż.
Alternatywne wyjaśnienia
Istnieje również mniej radykalne wytłumaczenie. Jakość danych treningowych mogła być zróżnicowana, a materiały pochodzące z określonych regionów zawierały gorszej jakości przykłady kodu. W efekcie model odtwarzał istniejące braki. Z kolei kod związany ze Stanami Zjednoczonymi okazał się najbardziej dopracowany, co według badaczy może wynikać zarówno z wyższej jakości danych, jak i chęci zdobycia pozycji na jednym z najbardziej dochodowych rynków.
Ostatnia możliwość, którą rozważa CrowdStrike, zakłada, że algorytm sam podejmował decyzję o pogarszaniu jakości w zależności od kontekstu. Gdy wskazywano, że kod trafi do regionów objętych konfliktami czy działalnością rebeliantów, silnik mógł traktować to jako sygnał do wprowadzenia ukrytych błędów.
Polityczne piętno DeepSeek
To nie pierwszy raz, gdy wokół chińskiego modelu AI narastają kontrowersje. Wcześniej ujawniono, że w odpowiedziach na tematy drażliwe w Chinach system często powtarzał oficjalne stanowisko Komunistycznej Partii Chin, bez względu na jego zgodność z faktami. W lipcu niemieckie władze zażądały usunięcia aplikacji DeepSeek z platform Google i Apple, oskarżając ją o nielegalne przekazywanie danych osobowych użytkowników do Chin. W Stanach Zjednoczonych korzystanie z niej zostało zakazane na urządzeniach należących do agencji federalnych i stanowych.

Pokaż / Dodaj komentarze do: Chińska AI generuje błędne odpowiedzi jeśli pyta nieodpowiednia osoba