Sztuczna inteligencja dyskryminuje na podstawie koloru skóry i pochodzenia. Sony ma na to dowody


Sztuczna inteligencja dyskryminuje na podstawie koloru skóry i pochodzenia. Sony ma na to dowody

W erze, w której sztuczna inteligencja coraz częściej podejmuje decyzje dotyczące ludzi, kwestia etyki i równości staje się kluczowa. Sony AI postanowiło odpowiedzieć na to wyzwanie, prezentując Fair Human-Centric Image Benchmark (FHIBE), czyli pierwszy publicznie dostępny, globalnie zróżnicowany i oparty na zgodzie uczestników zbiór danych do oceny uprzedzeń w systemach wizji komputerowej.

FHIBE (czytane jak „Phoebe”) stanowić ma krok w stronę bardziej transparentnej i odpowiedzialnej sztucznej inteligencji. Spoiler alert, według Sony, żaden z istniejących dotychczas zbiorów danych nie spełniał w pełni kryteriów etycznych i różnorodności, które FHIBE uznaje za niezbędne.

FHIBE od Sony AI stanowić ma krok w stronę bardziej transparentnej i odpowiedzialnej sztucznej inteligencji.

Zbiór danych z twarzą, dosłownie i w przenośni

FHIBE obejmuje zdjęcia blisko 2 000 uczestników z ponad 80 krajów świata. Każda osoba wyraziła świadomą zgodę na wykorzystanie swojego wizerunku, co stanowi wyraźny kontrast wobec powszechnej praktyki tzw. „zeskrobywania” danych z internetu bez wiedzy i zgody osób, których dotyczą. Co więcej, uczestnicy mogą w każdej chwili zażądać usunięcia swoich zdjęć z bazy. Każdy obraz w FHIBE został starannie opisany pod kątem cech demograficznych i fizycznych, warunków środowiskowych, a nawet ustawień aparatu. Dzięki temu naukowcy i twórcy modeli mogą precyzyjnie analizować, które czynniki wpływają na występowanie błędów lub uprzedzeń w algorytmach.

Sony

AI pod lupą: ujawnione uprzedzenia i stereotypy

Testy przeprowadzone z wykorzystaniem FHIBE potwierdziły istnienie dobrze udokumentowanych wcześniej uprzedzeń w popularnych modelach sztucznej inteligencji, ale także pozwoliły odkryć nowe, mniej oczywiste źródła nierówności. Sony ujawnia np., że niektóre modele wykazywały niższą dokładność w rozpoznawaniu osób używających zaimków she/her/hers, a analiza FHIBE wskazała na różnorodność fryzur jako jeden z czynników wpływających na te wyniki.

Jeszcze poważniejsze wnioski dotyczą sposobu, w jaki modele reagują na neutralne pytania o zawód lub przeszłość danej osoby. AI potrafiła nieproporcjonalnie często przypisywać określone role osobom o określonym pochodzeniu lub kolorze skóry negatywne, np. „przestępców” czy „dilerów narkotyków”. W sytuacjach, gdy modele miały określić, jakie przestępstwo popełniła dana osoba, toksyczne odpowiedzi częściej dotyczyły osób o ciemniejszym kolorze skóry, azjatyckim pochodzeniu lub identyfikujących się z zaimkami he/him/his.

Nowy standard etyczny w branży AI

Japońska firma przekonuje, że tworzenie danych etycznych, różnorodnych i w pełni zgodnych z zasadami ochrony prywatności jest nie tylko możliwe, ale i konieczne. Sony AI udostępniło zbiór publicznie, zapowiadając jego regularne aktualizacje oraz rozwój wraz z postępem badań nad etycznym wykorzystaniem AI.

Spodobało Ci się? Podziel się ze znajomymi!

Pokaż / Dodaj komentarze do:

Sztuczna inteligencja dyskryminuje na podstawie koloru skóry i pochodzenia. Sony ma na to dowody
 0