Systemy AI częściej mylą osoby ciemnoskóre. Policja polega na wadliwej technologii

Systemy AI częściej mylą osoby ciemnoskóre. Policja polega na wadliwej technologii

Technologia rozpoznawania twarzy od lat uchodzi za jedno z najbardziej obiecujących narzędzi w arsenale służb porządkowych i instytucji bezpieczeństwa. Oficjalne raporty i badania laboratoryjne sugerują, że algorytmy osiągają niemal idealną skuteczność, co miało stanowić uzasadnienie dla jej szerokiego wdrażania. Jednak coraz częściej pojawiają się głosy podważające te liczby.

Badacze z Uniwersytetu Oksfordzkiego wskazują, że realne zastosowania rozpoznawania twarzy odbiegają od wyników publikowanych w statystykach, a błędy mogą prowadzić do dramatycznych konsekwencji.

Laboratorium kontra rzeczywistość

Amerykański Narodowy Instytut Norm i Technologii (NIST) stworzył testy FRTE, które stały się globalnym punktem odniesienia w ocenie jakości systemów rozpoznawania twarzy. To właśnie te dane wykorzystano, by przekonać opinię publiczną do wdrażania systemów sztucznej inteligencji w obszarach bezpieczeństwa. Problem w tym, że – jak podkreślają naukowcy – metodologia testów nie odpowiada warunkom, w jakich technologia musi działać na ulicach. Rozmazane obrazy, słaba jakość nagrań czy zmienne oświetlenie diametralnie zmieniają skuteczność algorytmów.

Głośne pomyłki

Na liście publicznych wpadek znalazł się przypadek z Detroit z 2020 roku, gdzie mężczyzna został niesłusznie zatrzymany na podstawie błędnego wskazania systemu. Równie poważny był incydent w Londynie, gdzie policja próbowała używać rozpoznawania twarzy w czasie rzeczywistym. Skuteczność okazała się dramatycznie niska – system poprawnie zidentyfikował zaledwie osiem osób na 42. Badania Uniwersytetu Essex pokazały, że ryzyko błędnej identyfikacji w praktyce jest znacznie wyższe niż sugerują oficjalne raporty.

Nierówne szanse

Najnowsze analizy kryminologów i informatyków z University of Pennsylvania udowadniają, że degradacja jakości obrazu nie uderza równo we wszystkich. Błędy w identyfikacji znacznie częściej dotyczą osób z mniejszości rasowych i grup marginalizowanych. Wskaźniki fałszywych wskazań rosną gwałtownie wraz ze spadkiem jakości nagrań, co wzmacnia obawy o systemowe nierówności generowane przez technologię.

Prawo, polityka i brak nadzoru

Nie tylko sama skuteczność budzi wątpliwości. Raport Biura Odpowiedzialności Rządu USA z 2023 roku wykazał, że amerykańskie agencje korzystają z rozpoznawania twarzy bez odpowiedniego przeszkolenia funkcjonariuszy i bez polityki chroniącej prawa obywatelskie. W dodatku organizacje pozarządowe, takie jak Algorithmic Justice League, ujawniają przypadki nadużyć w codziennej praktyce. Szczególnie głośne były doniesienia o stosowaniu skanerów przez TSA wobec pasażerów w amerykańskich portach lotniczych, często bez ich świadomej zgody.

Rosnąca lista ofiar błędnej technologii

Coraz częściej pojawiają się nazwiska osób, które padły ofiarą pomyłek systemów rozpoznawania twarzy. Według raportów Innocence Project i Electronic Frontier Foundation lista niesłusznie oskarżonych liczy już co najmniej dziewięć osób, w większości czarnoskórych obywateli Stanów Zjednoczonych. Obrońcy praw człowieka ostrzegają, że technologia ta – niezależnie od teoretycznej skuteczności – generuje zbyt duże ryzyko i powinna zostać całkowicie wycofana z użytku policyjnego.

Wciąż rosnące kontrowersje

Mimo ostrzeżeń i dowodów na wady systemu, technologia nadal znajduje zastosowanie w wielu krajach. W Wielkiej Brytanii Policja Metropolitalna eksperymentuje z rozpoznawaniem twarzy podczas operacji w przestrzeni publicznej, a Stany Zjednoczone inwestują miliardy w rozwój narzędzi AI do celów bezpieczeństwa. Jednocześnie presja ze strony opinii publicznej i badaczy narasta. Pytanie, czy państwa będą gotowe zrezygnować z narzędzia, które oferuje iluzję całkowitej kontroli, pozostaje otwarte.

Obserwuj nas w Google News

Pokaż / Dodaj komentarze do: Systemy AI częściej mylą osoby ciemnoskóre. Policja polega na wadliwej technologii

 0
Kolejny proponowany artykuł
Kolejny proponowany artykuł
Kolejny proponowany artykuł
Kolejny proponowany artykuł