W 1948 roku Isaac Asimov opracował trzy prawa robotyki, które przedstawił światu w fantastycznym opowiadaniu "Zabawa w berka". Asimov chciał stworzyć podstawowe zasady przyszłej koegzystencji ludzi oraz myślących maszyn. Podstawą wszystkich praw, była reguła zakazująca robotom krzywdzenia ludzi, bez znaczenia czy w sposób autonomicznego działania, czy też wykonując polecenie innego człowieka. Po ponad 70 latach dotarliśmy do punktu, w którym AI może powodować problemy, bądź zostać wykorzystana nieetycznie, jeśli zagadnienia związane ze sztuczna inteligencją nie zostaną uregulowane. Komisja Europejska opublikowała więc wytyczne dotyczące etycznego rozwoju i stosowania sztucznej inteligencji. Wraz z szybkim rozwojem sztucznej inteligencji i uczenia maszynowego zarówno naukowcy, jak i prawodawcy obawiają się potencjalnych problemów i pułapek, które mogą pojawić się przy tworzeniu i wdrażaniu coraz potężnych algorytmów AI. Deep fakes, generatory wiadomości i złośliwe oprogramowanie do obrazowania medycznego zostały oznaczone jako potencjalnie niewłaściwe. Prywatność i wykorzystanie danych w ostatnim czasie również wskoczyło do czołówki coraz głośniejszych zagadnień. Kwestią czasu było zanim organizacje nadzorcze wykażą zainteresowanie kwestią obwarowania technologii zbiorem zasad i praw.
Prawa robotyki Asimova
- Robot nie może skrzywdzić człowieka, ani przez zaniechanie działania dopuścić, aby człowiek doznał krzywdy.
- Robot musi być posłuszny rozkazom człowieka, chyba że stoją one w sprzeczności z Pierwszym Prawem.
- Robot musi chronić samego siebie, o ile tylko nie stoi to w sprzeczności z Pierwszym lub Drugim Prawem.
Komisja Europejska póki co powstrzymała się od uchwalenia lub nawet zaproponowania wprowadzenia prawa dotyczącego sztucznej inteligencji, ale opracowano zestaw wytycznych dotyczących tworzenia „godnej zaufania sztucznej inteligencji”. Ogólnie patrząc, nowe zasady mają zapewnić, że AI wykorzystywane w różnych aplikacjach pozostanie transparentne (przykładowo Google Duplex będzie informować, że człowiek ma kontakt z AI), a także będzie nadzorowane przez odpowiednią ilość ludzi. Komisja chce być pewna, że systemy są bezpieczne i potrafią sobie poradzić z błędami i manipulacją na tyle dobrze, że nie wyrządzą szkody. UE chce również mieć pewność, że obywatele mają kontrolę nad wszelkimi danymi, które może gromadzić sztuczna inteligencja i że odbywa się to w zgodzie z ogólnym rozporządzeniem o ochronie danych (RODO), które weszło w życie w ubiegłym roku.
Uczenie maszynowe i systemy sztucznej inteligencji nigdy nie powinny dyskryminować ze względu na niezmienne cechy (rasę, niepełnosprawność itp.) oraz powinny "zapewniać dostępność". Komisja uważa, że systemy powinny być wykorzystywane do poprawy społeczeństwa, ale jednocześnie powinny mieć mechanizmy umożliwiające pociąganie do odpowiedzialności, w razie gdyby coś poszło nie tak. Komisja uruchamia program pilotażowy tego lata, aby zaangażować zainteresowane strony w ocenę wytycznych i opracować zalecenia dotyczące sposobu wdrażania zasad. Na początku 2020 r. mają nadzieję, że zaczną włączać otrzymane informacje z pilotażu do planowanego zestawu przepisów. Pełny opis wytycznych można znaleźć na stronie internetowej KE [LINK].
Pokaż / Dodaj komentarze do: Kilkadziesiąt lat po Asimovie, KE chce regulacji praw robotów i AI