Od niedzieli organy regulacyjne w Unii Europejskiej mogą oficjalnie zakazywać stosowania systemów sztucznej inteligencji, które uznają za stanowiące „niedopuszczalne ryzyko” lub mogące powodować szkodę społeczną.
Jest to pierwszy kluczowy krok w egzekwowaniu AI Act, czyli kompleksowych ram regulacyjnych dla sztucznej inteligencji, które Parlament Europejski przyjął w marcu ubiegłego roku. Regulacje obejmują szeroki wachlarz zastosowań sztucznej inteligencji, zarówno w aplikacjach konsumenckich, jak i w systemach wpływających na życie społeczne, gospodarcze i polityczne.
AI Act dzieli systemy sztucznej inteligencji na cztery poziomy ryzyka:
- Minimalne ryzyko – obejmuje np. filtry antyspamowe i nie podlega nadzorowi.
- Ograniczone ryzyko – np. chatboty obsługi klienta, które będą objęte łagodnym nadzorem regulacyjnym.
- Wysokie ryzyko – np. systemy AI stosowane w medycynie, które wymagają rygorystycznych regulacji.
- Niedopuszczalne ryzyko – systemy sztucznej inteligencji, które zostały uznane za zbyt niebezpieczne, a ich stosowanie jest teraz całkowicie zakazane.
Lista zakazanych technologii obejmuje m.in.:
- Systemy oceny społecznej, które tworzą profile ryzyka na podstawie zachowania danej osoby.
- AI manipulującą decyzjami ludzi.
- Systemy wykorzystujące słabości ludzi, takie jak wiek, niepełnosprawność czy status społeczno-ekonomiczny.
- Algorytmy przewidujące przyszłe przestępstwa na podstawie wyglądu osoby.
- AI analizującą dane biometryczne w celu określania cech osobowych, np. orientacji seksualnej.
- Technologie zbierające dane biometryczne w czasie rzeczywistym w miejscach publicznych do celów egzekwowania prawa.
- Systemy wykrywające emocje uczniów i pracowników.
- Bazy danych rozpoznawania twarzy tworzone z obrazów pobieranych z Internetu i kamer monitoringu.
Firmy działające na terenie UE, które stosują zakazane technologie, narażają się na wysokie kary finansowe. Mogą one wynosić nawet 35 mln euro lub 7% globalnych rocznych przychodów z poprzedniego roku podatkowego – w zależności od tego, która kwota jest wyższa.
Egzekwowanie przepisów i pierwsze kroki
Chociaż termin 2 lutego formalnie oznacza początek egzekwowania AI Act, kary finansowe i inne sankcje nie zaczną obowiązywać od razu. Jak wyjaśnił Rob Sumroy, ekspert ds. technologii z brytyjskiej kancelarii Slaughter and May, kolejnym kluczowym momentem będzie sierpień 2025 roku. Do tego czasu zostaną wyznaczone organy odpowiedzialne za kontrolę przepisów i nałożenie sankcji na firmy, które je naruszają.
Niektóre organizacje podjęły już działania mające na celu dostosowanie się do nowych regulacji. We wrześniu ponad 100 firm podpisało EU AI Pact, zobowiązując się do przestrzegania zasad AI Act jeszcze przed ich oficjalnym wejściem w życie. Wśród sygnatariuszy znalazły się m.in. Amazon, Google i OpenAI. Jednak nie wszyscy giganci technologiczni zdecydowali się na ten krok – Meta, Apple i francuski startup Mistral odmówiły podpisania paktu, wzbudzając kontrowersje wśród europejskich regulatorów.
Nie oznacza to jednak, że te firmy nie dostosują się do przepisów. Jak podkreśla Sumroy, większość dużych przedsiębiorstw nie stosuje zakazanych praktyk, więc nowa regulacja nie wpłynie znacząco na ich działalność.
Wyjątki i niejasności
AI Act przewiduje pewne wyjątki od zakazów, szczególnie w zakresie bezpieczeństwa i egzekwowania prawa. Organy ścigania mogą stosować biometryczne systemy rozpoznawania twarzy w miejscach publicznych w wyjątkowych przypadkach, np. podczas poszukiwania zaginionych osób lub w celu zapobiegania bezpośrednim zagrożeniom dla życia. Jednak takie działania wymagają zgody odpowiednich organów regulacyjnych.
Z kolei systemy AI wykrywające emocje w szkołach i miejscach pracy będą dopuszczalne wyłącznie w celach terapeutycznych lub medycznych, np. w ramach programów wspierających zdrowie psychiczne.
AI Act to najbardziej kompleksowy zestaw regulacji dotyczących sztucznej inteligencji na świecie, który może stać się wzorem dla innych państw i wpłynąć na globalne standardy etycznego rozwoju AI.
Unia Europejska planuje dalsze doprecyzowanie regulacji. Komisja Europejska zapowiedziała, że na początku 2025 roku zostaną opublikowane dodatkowe wytyczne dotyczące stosowania AI Act. Niektóre aspekty regulacji wciąż budzą pytania i wątpliwości, szczególnie w kontekście ich powiązania z innymi unijnymi przepisami, takimi jak RODO (GDPR), NIS2 czy DORA.
Eksperci zwracają uwagę, że firmy muszą przygotować się na bardziej złożony system prawny, w którym AI Act będzie współistniał z innymi regulacjami dotyczącymi ochrony danych i cyberbezpieczeństwa.
Pokaż / Dodaj komentarze do: Rewolucja w regulacjach AI. UE może blokować sztuczną inteligencję uznaną za „zagrożenie społeczne”