W niedzielę (19 listopada) Komisja Europejska rozpowszechniła propozycję kompromisową dotyczącą ustawy o sztucznej inteligencji, mającą na celu przełamanie impasu w regulacji podstawowych modeli poprzez zastosowanie wielopoziomowego podejścia do sztucznej inteligencji ogólnego przeznaczenia oraz wprowadzenie kodeksów postępowania dla modeli obarczonych ryzykiem systemowym.
Unia Europejska dąży do podpisania AI Act, regulującego tworzenie systemów sztucznej inteligencji.
Ustawa o sztucznej inteligencji stanowi przełomowy projekt regulacyjny, który ma kontrolować działania sztucznej inteligencji, koncentrując się na potencjalnym ryzyku. Wniosek obecnie przechodzi przez ostatni etap procesu legislacyjnego, tzw. trójstronne rozmowy pomiędzy Komisją UE, Radą i Parlamentem. W ostatnich tygodniach urzędnicy unijni zaangażowani w tę kwestię starali się uregulować potężne modele podstawowe, takie jak GPT-4, który napędza jednego z najbardziej znanych na świecie chatbotów, ChatGPT, reprezentujący wszechstronny typ systemu znanego jako "sztuczna inteligencja" ogólnego przeznaczenia, choć oczywście nie oszukujmy się, nazywanie generatywnych systemów sztuczną inteligencją jest zabiegiem czysto marketingowym.
Głównym celem projektu jest stworzenie ram prawnych, które zapewnią, że rozwiązania oparte na mechanizmach sztucznej inteligencji będą nie tylko godne zaufania, ale również bezpieczne i zgodne z wartościami i prawami obowiązującymi w Unii Europejskiej.
Niedawno istniało poważne ryzyko załamania całego projektu, gdy trzy największe gospodarki Europy sprzeciwiły się wielopoziomowemu podejściu pierwotnie zakładanemu w regulacjach dotyczących modeli podstawowych. Wypowiadały się przeciwko wszelkim regulacjom, które nie były kodeksami postępowania.
Projekt AI Act dzieli zastosowania sztucznej inteligencji na trzy kategorie ryzyka: wysokie, ograniczone i minimalne. W każdej z tych kategorii określone są wymogi dotyczące jakości danych, przejrzystości działania, nadzoru ludzkiego oraz odpowiedzialności, które muszą spełniać dostawcy oraz użytkownicy rozwiązań opartych na sztucznej inteligencji. Dodatkowo, regulacja określa przypadki, w których wykorzystanie AI będzie niedopuszczalne.
Kategoria wysokiego ryzyka obejmuje rozwiązania sztucznej inteligencji, które mają znaczący wpływ na ludzkie życie lub podstawowe prawa człowieka. Należą do nich systemy biometryczne, transport, ochrona zdrowia, edukacja oraz rekrutacja. Kategoria ograniczonego ryzyka obejmuje zastosowania AI, które mają mniejszy wpływ na ludzi, ale wymagają wprowadzenia zasad przejrzystości działania, takie jak chatboty, asystenci głosowi czy systemy rekomendacyjne. Natomiast kategoria minimalnego ryzyka dotyczy rozwiązań, które mają niewielki lub zerowy wpływ na ludzi i nie podlegają szczególnym wymaganiom, jak gry komputerowe, filtry graficzne czy interaktywne zabawki.
„AI Act to pierwsza kompleksowa regulacja dotycząca sztucznej inteligencji i wyraźny krok w dobrym kierunku”, komentuje Leszek Tasiemski, ekspert ds. cyberbezpieczeństwa, VP w firmie WithSecure. „Określenie kategorii zastosowań AI oraz obszarów, w których jej użycie jest niedozwolone, narzuca ramy prawne firmom technicznym, które będą musiały się dostosować. Takie podejście zapobiegnie rozwojowi AI w obszarach potencjalnie szkodliwych dla użytkowników i społeczeństwa, przy jednoczesnej kuszącej perspektywie zysków. W czasach, gdy firmy dążą do zysków, naiwne byłoby oczekiwanie, że same będą ograniczały się na rynku, gdzie konkurencja jest coraz bardziej zacięta.”
Projekt przewiduje także utworzenie europejskiego urzędu ds. sztucznej inteligencji, który będzie monitorować wdrażanie oraz egzekwowanie przepisów, wspierać innowacje i rozwój AI w Europie. AI Act prawdopodobnie wejdzie w życie w ciągu najbliższych lat. Mimo że dokładna data jego wprowadzenia nie jest jeszcze znana, może to nastąpić już pod koniec 2023 roku.
Różne wersje AI na różne rynki?
Trzeba również pamiętać, że prawo europejskie obowiązuje tylko na Starym Kontynencie, co oznacza, że w przyszłości twórcy różnych modeli AI mogą wprowadzać różne produkty, na różne rynki, dostosowując, bądź ograniczając produkt, by dostosować go do lokalnych przepisów.
"Nie jest to problem z perspektywy unijnej, jednak może doprowadzić do rozwijania się globalnej gospodarki dwóch prędkości – zauważa Leszek Tasiemski. – Firmy, które nie będą podlegały regulacjom AI Act, nie będą musiały brać pod uwagę tego typu wymogów i nie będą obciążone kosztami czy formalnościami związanymi z europejskimi przepisami, dopóki nie będą obsługiwały krajów i obywateli UE. Nowe rozporządzenie może znacznie zwiększyć koszty tworzenia i wprowadzania na rynek innowacyjnych produktów zwłaszcza z perspektywy małych firm. Dlatego przepisy wykonawcze powinny być ułożone tak, aby wprowadzić nadzór i wyegzekwować potrzebne ograniczenia, ale też zminimalizować związany z tym nakład pracy i koszty dla mniejszych firm".
Pokaż / Dodaj komentarze do: To może być koniec AI jaką znamy w Europie. Nadchodzi przełom