W Kopenhadze wystartowała nowa inicjatywa dotycząca bezpieczeństwa sztucznej inteligencji dla dzieci i nastolatków. Brzmi niewinnie, ale lista organizatorów, sponsorów i polityków obecnych na inauguracji wywołała natychmiastową burzę w środowisku obrońców wolności internetu. W centrum wydarzenia znalazły się osoby od lat opowiadające się za ostrzejszą moderacją treści, obowiązkową weryfikacją wieku i większą kontrolą platform cyfrowych.
Youth AI Safety Institute, uruchomiony przez Common Sense Media, ma według twórców stworzyć nowe standardy bezpieczeństwa dla narzędzi AI używanych przez dzieci. Problem polega na tym, że instytut od początku otacza atmosfera politycznego nacisku i sporów o cenzurę internetu.
Kopenhaga stała się miejscem politycznej demonstracji
Szczyt odbył się w duńskim parlamencie Christiansborg i przyciągnął nazwiska z najwyższej półki światowej polityki oraz sektora Big Tech. W wydarzeniu uczestniczyli między innymi Hillary Clinton, Ursula von der Leyen, były naczelny lekarz administracji Bidena Vivek Murthy, szefowa brytyjskiego Ofcomu Melanie Dawes oraz przedstawiciele największych firm rozwijających sztuczną inteligencję.
Organizatorzy przedstawiają inicjatywę jako odpowiedź na rosnące zagrożenia związane z AI i wpływem algorytmów na dzieci. Krytycy widzą jednak coś zupełnie innego. Według nich nowy instytut może stać się narzędziem do forsowania bardziej agresywnych regulacji dotyczących treści publikowanych w sieci.
Nie chodzi wyłącznie o bezpieczeństwo najmłodszych. Dyskusja coraz częściej dotyczy tego, kto będzie decydował o tym, jakie odpowiedzi mogą generować modele AI i jakie informacje użytkownicy zobaczą w internecie.
Giganci AI finansują projekt oceniający bezpieczeństwo AI
Najwięcej kontrowersji wywołał skład sponsorów nowego instytutu. Finansowanie zapewniły między innymi Anthropic, OpenAI oraz Pinterest. To firmy rozwijające własne modele sztucznej inteligencji i jednocześnie podmioty, które mogą zostać objęte ocenami tworzonymi przez tę samą organizację.
Youth AI Safety Institute zapowiada publikowanie rankingów bezpieczeństwa i analiz działania narzędzi AI. Oficjalnie instytut ma zachować niezależność, jednak eksperci od polityki technologicznej już teraz pytają, czy organizacja finansowana przez branżę będzie w stanie realnie oceniać swoich sponsorów.
Szczególnie głośno komentowany jest udział Johna Giannandrei, byłego szefa AI w Apple i Google, który trafił do rady doradczej instytutu. Wśród doradców znalazł się również Vivek Murthy, wcześniej zaangażowany w działania administracji Bidena dotyczące walki z dezinformacją online.
AI Act i Digital Services Act wracają do gry
Nowa inicjatywa otwarcie wspiera europejskie regulacje takie jak AI Act, Digital Services Act oraz brytyjski Online Safety Act. To właśnie te przepisy od miesięcy wywołują gwałtowne spory między regulatorami, platformami technologicznymi i organizacjami walczącymi o prywatność użytkowników.
Youth AI Safety Institute deklaruje, że pomoże wdrażać te przepisy w praktyce i tworzyć narzędzia kontroli dla platform AI. Dla wielu komentatorów brzmi to jak zapowiedź jeszcze większej ingerencji w funkcjonowanie modeli językowych i systemów rekomendacji treści.
Podczas wydarzenia Ursula von der Leyen mówiła o konieczności ochrony dzieci przed „uzależniającymi algorytmami”, a Hillary Clinton ostrzegała przed konsekwencjami niekontrolowanego rozwoju sztucznej inteligencji. Obie kobiety od lat należą do grona zwolenników bardziej restrykcyjnego podejścia do moderacji treści w sieci.
Coraz większa walka o internet przyszłości
Debata wokół nowego instytutu pokazuje, jak gwałtownie zmienia się podejście rządów i gigantów technologicznych do internetu. Jeszcze kilka lat temu dyskusja dotyczyła głównie mediów społecznościowych. Dziś ciężar przenosi się na sztuczną inteligencję i systemy generujące treści.
W praktyce chodzi o ogromną władzę nad informacją. Modele AI coraz częściej odpowiadają za wyszukiwanie danych, filtrowanie wyników i rekomendowanie treści milionom użytkowników. Każda regulacja dotycząca tych systemów może wpływać na to, jakie informacje będą widoczne w sieci.
Krytycy inicjatywy alarmują, że pod hasłami bezpieczeństwa dzieci może dojść do rozszerzenia mechanizmów nadzoru i filtrowania treści. Zwolennicy odpowiadają, że bez nowych regulacji platformy AI pozostaną całkowicie poza kontrolą.
Spodobało Ci się? Podziel się ze znajomymi!

Pokaż / Dodaj komentarze do:
Clinton i Von der Leyen szykują nowy internet. Startuje Instytut Bezpieczeństwa AI i... cenzury?