Modele AI pozostają rasistowskie pomimo zróżnicowania w danych

Modele AI pozostają rasistowskie pomimo zróżnicowania w danych

Według nowych badań, algorytmy sztucznej inteligencji mogą być obciążone uprzedzeniami rasowymi, nawet jeśli są trenowane na danych bardziej reprezentatywnych dla różnych grup etnicznych.

Międzynarodowy zespół badaczy przeanalizował, jak dokładne były algorytmy w przewidywaniu różnych zachowań poznawczych i pomiarów stanu zdrowia na podstawie skanów fMRI mózgu. Naukowcy chcieli wykazać, czy odpowiednia reprezentacja różnych grup ludności, może wpłynąć na zmniejszenie niepożądanych zachowań względem Afroamerykanów.  Przeprowadzono eksperymenty z dwoma zbiorami danych, które obejmowały  dziesiątki tysięcy skanów fMRI ludzkich mózgów.  Aby zbadać, w jaki sposób różnice rasowe wpływają na działanie modeli predykcyjnych, próbowano zminimalizować wpływ innych zmiennych, takich jak wiek czy płeć. Wyniki badań opublikowano Science Advances.
"Kiedy modele predykcyjne były trenowane na danych zdominowanych przez białych Amerykanów (WA), błędy predykcji poza próbą były generalnie wyższe dla Afroamerykanów (AA) niż dla WA". Taki rezultat może nie być zaskoczeniem, jednak różnice te nie znikały, nawet gdy algorytmy były trenowane na zbiorach złożonych po równo z WA i AA, a nawet na samych AA. Algorytmy wykazywały niższą efektywność podczas pracy z próbkami od Afromaerykanów. Dokładność przewidywania pozostała wyższa dla próbek AA. Zakładając, że pomiary neurobiologiczne lub psychometryczne nie różnią się ze względu na pochodzenie etniczne,  nie powinno być różnic w dokładności przewidywania WA-AA, nawet gdy model był trenowany tylko na AA.

Algorytmy AI są dokładniejsze gdy pracują ze skanami mózgów białych Amerykanów. Próby przeprowadzone na Afroamerykanach są dużo mniej skuteczne, nawet gdy algorytmy trenowane były tylko próbkami od czarnoskórych. Zakładając brak różnic w pomiarch neurobiologicznych, nie powinno być różnic w dokładności przewidywania pomiędzy rasami. Naukowcy chcieli wykazać, czy odpowiednia reprezentacja różnych grup ludności, może wpłynąć na zmniejszenie niepożądanych zachowań względem Afroamerykanów.

 

"Na wynik mogło wpłynąć kilka etapów wstępnego przetwarzania neuroobrazowania. Na przykład podczas przetwarzania wstępnego zwyczajowo wyrównuje się mózgi poszczególnych osób do standardowego wzorca, aby można było porównać poszczególne mózgi. Ale te szablony mózgów były zwykle tworzone na podstawie populacji białych. To samo dotyczy wstępnie zdefiniowanych atlasów funkcjonalnych, w których woksele w obrazach mózgu mogą być pogrupowane w regiony na podstawie ich funkcjonalnej jednorodności ... Ale wytyczanie takich atlasów funkcjonalnych było znowu często oparte na zbiorach danych zdominowanych przez populację białą lub europejską pod względem wielkości próby. Innym powodem może być to, że dane zebrane od pacjentów nie są do końca dokładne. Należy również zadać sobie pytanie, czy testy psychometryczne, których używamy obecnie, rzeczywiście oddają prawidłową koncepcję psychologiczną leżącą u podstaw grup mniejszościowych" - powiedziała w rozmowie z The Register Jingwei Li, pracownik naukowy w Instytucie Neuronauki i Medycyny w Centrum Badawczym Jülich w Niemczech.

Algorytmy zastosowano również do zbioru danych Human Connectome Project i znów okazały się one dokładniejsze w przewidywaniu, czy osoby z grupy WA są bardziej skłonne do gniewu i agresji lub, czy mają lepsze umiejętności czytania, niż w przypadku AA. Uprzedzenia algorytmiczne są problemem, którym próbuje zająć się rząd USA. National Institute of Standards and Technology opublikował w tym tygodniu raport, który doszedł do podobnych wniosków. "Posiadanie bardziej zróżnicowanego zbioru danych nie wystarczy, aby algorytmy sztucznej inteligencji były mniej stronnicze i bardziej sprawiedliwe" - dodaje Li. 

"Byłabym bardzo ostrożna w twierdzeniu, że WA i AA różnią się w tych neurobiologicznych lub psychometrycznych pomiarach tylko ze względu na ich pochodzenie etniczne. Jak już wspomnieliśmy w artykule, pochodzenie etniczne lub rasa to bardzo złożone pojęcie, uwzględniające wszystkie czynniki historyczne, społeczne i edukacyjne. Nie chcemy wzmacniać stereotypów [rasowych] ani zwiększać rasizmu strukturalnego. Wręcz przeciwnie, celem tego opracowania jest opowiedzenie się za większą sprawiedliwością w odniesieniu do grup etnicznych w konkretnym kontekście analizy neuroobrazowania." - powiedziała Li dla The Register.

Obserwuj nas w Google News

Pokaż / Dodaj komentarze do: Modele AI pozostają rasistowskie pomimo zróżnicowania w danych

 0
Kolejny proponowany artykuł
Kolejny proponowany artykuł
Kolejny proponowany artykuł
Kolejny proponowany artykuł