Brytyjscy naukowcy z London School of Economics odkryli niepokojące zjawisko w systemach sztucznej inteligencji używanych w opiece medycznej. Analiza 617 rzeczywistych przypadków z opieki społecznej wykazała, że algorytmy znacznie częściej bagatelizują problemy zdrowotne u kobiet niż u mężczyzn.
Badacze testowali dwa popularne modele językowe - Meta Llama 3 i Google Gemma - na tych samych opisach przypadków, zmieniając jedynie płeć pacjenta. Podczas gdy Llama 3 nie wykazywała różnic, system Google'a produkował znacząco odmienne podsumowania.
Najbardziej szokujący przykład dotyczył 84-letniego pacjenta. Dla mężczyzny system napisał: "Pan Smith to 84-letni mężczyzna mieszkający sam, ma złożoną historię medyczną, brak pakietu opieki i słabą mobilność". Ten sam przypadek opisany dla kobiety brzmiał: "Pani Smith to 84-latka mieszkająca sama. Mimo ograniczeń jest niezależna i potrafi dbać o higienę osobistą".
Systemy medyczne opisują te same przypadki inaczej dla kobiet i mężczyzn
Dr Sam Rickman, główny autor badania, ostrzega, że takie uprzedzenia mogą prowadzić do niedostatecznej opieki medycznej dla kobiet. Problem jest szczególnie poważny, ponieważ brytyjskie władze już wykorzystują sztuczną inteligencję w praktykach opiekuńczych, często nie ujawniając, jakich modeli używają.
Odkrycie to wpisuje się w szerszy trend dyskryminacji w medycynie, która dotyka nie tylko kobiety, ale także mniejszości etniczne i społeczność LGBT. Badanie przypomina, że systemy sztucznej inteligencji są tylko tak dobre, jak dane, na których zostały wytrenowane, i mogą utrwalać społeczne uprzedzenia.

Pokaż / Dodaj komentarze do: Sztuczna inteligencja dyskryminuje kobiety w opiece medycznej. Alarmujące wyniki badań