Jak donoszą media, brytyjskie Ministerstwo Sprawiedliwości opracowuje algorytm do przewidywania… morderców. Kontrowersje wokół "projektu predykcji zabójstw". Wygląda jakby rząd w Londynie inspirował się filmem "Raport mniejszości".
Brytyjski dziennik The Guardian ujawnił istnienie projektu prowadzonego przez Ministerstwo Sprawiedliwości Wielkiej Brytanii, którego celem jest opracowanie algorytmu przewidującego, kto może stać się mordercą. Choć brzmi jak scenariusz filmu science fiction, to jednak rzeczywistość, nad którą prace trwają już od jakiegoś czasu, co budzi poważne wątpliwości natury etycznej i prawnej.
Brytyjski dziennik The Guardian ujawnił istnienie projektu prowadzonego przez Ministerstwo Sprawiedliwości Wielkiej Brytanii, którego celem jest opracowanie algorytmu przewidującego, kto może stać się mordercą.
Początkowo nazwany „projektem predykcji zabójstw”, algorytm ma analizować dane zebrane przez brytyjskie siły policyjne, obejmujące nie tylko podejrzanych, ale również ofiary, świadków, a nawet osoby niezwiązane bezpośrednio z przestępstwami. Według informacji zdobytych przez organizację watchdogową Statewatch na mocy ustawy o wolności informacji (FOIA), baza danych wykorzystywana do prac nad algorytmem mogła obejmować od 100 000 do nawet 500 000 osób. Co więcej, dane udostępnione Ministerstwu Sprawiedliwości zawierały informacje szczególnie wrażliwe: dotyczące zdrowia psychicznego, uzależnień, prób samobójczych czy niepełnosprawności.

Dyskryminacja wpisana w kod?
Krytyka projektu szybko się nasiliła, szczególnie ze strony organizacji zajmujących się prawami obywatelskimi. Sofia Lyall, badaczka z Statewatch, nie ma złudzeń co do skuteczności i sprawiedliwości tego typu narzędzi: „Badania wielokrotnie pokazują, że algorytmy przewidujące przestępstwa są z natury wadliwe. Ten najnowszy model, oparty na danych z instytucjonalnie rasistowskiej policji i Ministerstwa Spraw Wewnętrznych, jedynie wzmocni istniejącą strukturalną dyskryminację w systemie prawnokarnym”.
Obawy są uzasadnione, ponieważ wcześniejsze próby wdrożenia narzędzi AI w egzekwowaniu prawa często kończyły się fiaskiem. Wystarczy wspomnieć kontrowersyjne wykorzystanie programów takich jak ShotSpotter w USA, które mylnie lokalizowały strzały, czy tworzenie raportów policyjnych przez sztuczną inteligencję, co budziło pytania o błędy, uprzedzenia i odpowiedzialność.
Ministerstwo uspokaja
W odpowiedzi na rosnącą falę krytyki, przedstawiciel brytyjskiego Ministerstwa Sprawiedliwości tłumaczy, że ma to jedynie charakter badawczy: „Projekt ma służyć wyłącznie celom naukowym. Bazuje na istniejących danych zebranych przez Służbę Więzienną i Kuratorską oraz policję, dotyczących osób skazanych, aby lepiej zrozumieć ryzyko ponownego popełnienia poważnych przestępstw z użyciem przemocy przez osoby będące pod nadzorem”.
Ministerstwo zapowiada, że raport końcowy z projektu zostanie opublikowany w odpowiednim czasie. Póki co jednak brak transparentności i niejasne kryteria działania algorytmu budzą więcej pytań niż odpowiedzi.
Granica między prewencją a profilowaniem
Technologie predykcyjne mogą mieć ogromny potencjał, ale jednocześnie budzą wiele kontrowersji. Czy zapobieganie zbrodniom może usprawiedliwiać zbieranie wrażliwych danych o setkach tysięcy ludzi, w tym tych, którzy nigdy nie popełnili przestępstwa? Gdzie kończy się analiza ryzyka, a zaczyna cyfrowe profilowanie i naruszanie prywatności? Jeśli historia czegoś nas nauczyła, to tego, że technologia bez odpowiedniego nadzoru i etycznych fundamentów może stanowić bardzo niebezpieczne narzędzie.

Pokaż / Dodaj komentarze do: „Raport mniejszości” w realu? Wielka Brytania chce przewidywać morderstwa algorytmem