Brytyjskie Biuro Komisarza ds. Informacji (ICO) ujawniło poważne zaniepokojenie sposobem, w jaki Ministerstwo Spraw Wewnętrznych Wielkiej Brytanii nadzoruje technologię rozpoznawania twarzy stosowaną przez siły policyjne. Zaskoczeniem dla urzędu okazało się to, że informacje o kluczowych błędach w algorytmie wykorzystywanym przez policję nie były przekazywane mimo wielomiesięcznej współpracy obu instytucji.
Jak potwierdziła Emily Keaney, zastępca komisarza ICO, dopiero w ostatnich dniach urząd dowiedział się o historycznych uprzedzeniach w algorytmie odpowiedzialnym za retrospektywne rozpoznawanie twarzy w systemie PND – Police National Database. Ministerstwo Spraw Wewnętrznych, nadzorujące użycie narzędzia przez policję, nie przekazało wcześniej informacji o problemach wskazanych w nowych testach.
ICO podkreśla, że technologia może wspierać działania publiczne, lecz bez zaufania społecznego każdy przypadek stronniczości pogłębia sceptycyzm wobec cyfrowych narzędzi bezpieczeństwa. Z tego powodu urząd zażądał pilnych wyjaśnień od resortu, aby przeanalizować skalę problemu.
Testy, które zmieniły sytuację
Wszystko zaczęło się 4 grudnia wraz z publikacją wyników badań przeprowadzonych przez Narodowe Laboratorium Fizyczne (NPL) na zlecenie Ministerstwa Spraw Wewnętrznych. Testy objęły dwa systemy: stosowany obecnie algorytm Cognitec FaceVACS-DBScan ID v5.5 oraz planowany do przyszłego wdrożenia Idemia MBSS FR.
Wyniki wypadły korzystnie dla Idemii, której algorytm wykazał bardzo wysoką skuteczność w badaniach laboratoryjnych i operacyjnych. Znacznie bardziej problematyczny okazał się Cognitec, gdzie testy wykazały widoczne różnice w skuteczności identyfikacji między grupami demograficznymi, zwłaszcza gdy system operował przy wysokich progach podobieństwa.
Pełna elastyczność algorytmu Cognitec dawała wynik 99,9% zgodności podczas porównania twarzy z bazą PND. Jednak po zastosowaniu ostrych ograniczeń mających zmniejszyć liczbę fałszywych dopasowań trafność identyfikacji spadła do 91,9%. Najłatwiej rozpoznawane były osoby pochodzenia azjatyckiego, natomiast osoby czarnoskóre i białe były identyfikowane z mniejszą precyzją.
Nierówne szanse w oku systemu
Szczególne zainteresowanie regulatora wzbudziły różnice między grupami społecznymi w zakresie wyników fałszywie dodatnich. Przy wysokim, lecz obniżonym progu podobieństwa, częściej błędnie dopasowywano obrazy dotyczące osób czarnoskórych, w szczególności kobiet. Po odrzuceniu kryterium płci biali użytkownicy wypadali zdecydowanie korzystniej niż osoby azjatyckie i czarnoskóre.
Choć Ministerstwo Spraw Wewnętrznych przekonuje, że wyniki algorytmu nigdy nie stanowią samodzielnego dowodu bez ręcznej weryfikacji, skala różnic oraz sposób komunikacji między resortem a regulatorem uruchomiły alarm w środowisku nadzorującym standardy przetwarzania danych.
Reakcja rządu i policji
Po ujawnieniu raportu policja w całym kraju zainicjowała nowe szkolenia i aktualizację procedur. Jednocześnie rząd poprosił Inspektorat Policji Jej Królewskiej Mości o przegląd wykorzystania technologii rozpoznawania twarzy przy wsparciu Regulatora Nauk Kryminalistycznych.
Resort zapowiada testy nowego algorytmu Idemia na początku przyszłego roku. Podkreśla, że jego celem jest wzmacnianie bezpieczeństwa publicznego i wspieranie pracy funkcjonariuszy, którzy zawsze mają decydujący głos w analizie dopasowań.
Organizacja Big Brother Watch stwierdziła: „Aby nasze ulice były bezpieczniejsze, rząd powinien skoncentrować swoje zasoby na prawdziwych przestępcach, zamiast wydawać publiczne pieniądze na przekształcanie kraju w otwarte więzienie z inwigilacją ogółu społeczeństwa”.
Konsultacje po kontrowersjach
Publikacja raportu zbiega się w czasie z uruchomionymi konsultacjami dotyczącymi rozszerzenia użycia technologii rozpoznawania twarzy w policji. Rząd przeznacza każdego roku dziesiątki milionów dolarów na rozwój systemów biometrycznych, które są częścią infrastruktury państwowej od 2011 roku. Pomimo krytyki ze strony organizacji zajmujących się prawami obywatelskimi, władze utrzymują, że narzędzia oparte na analizie wizerunku przyczyniają się do wzrostu skuteczności działań służb.
Spodobało Ci się? Podziel się ze znajomymi!
Pokaż / Dodaj komentarze do:
Skandal w brytyjskiej policji. Ministerstwo ukrywało błędy w rozpoznawaniu twarzy AI