Pracownicy OpenAI i Google DeepMind ostrzegają przed zagrożeniami związanymi z AI

Pracownicy OpenAI i Google DeepMind ostrzegają przed zagrożeniami związanymi z AI

OpenAI i Google DeepMind, wiodące firmy w dziedzinie sztucznej inteligencji, zostały skrytykowane w liście otwartym, podpisanym przez kilku ich obecnych i byłych pracowników.

Sygnatariusze listu twierdzą, że nadzór nad tworzeniem systemów AI jest minimalny lub wręcz nie istnieje, a główne zagrożenia związane z tą technologią są ignorowane. List poparli także dwaj z trzech „ojców chrzestnych” sztucznej inteligencji, Geoffrey Hinton i Yoshua Bengio, którzy domagają się od pracodawców lepszej polityki ochrony sygnalistów. Pracownicy OpenAI i Google DeepMind w liście otwartym podkreślają, że wierzą w potencjał AI do przynoszenia ludzkości bezprecedensowych korzyści. Jednocześnie zwracają uwagę na zagrożenia, takie jak pogłębianie nierówności społecznych, szerzenie dezinformacji i manipulacji oraz ryzyko utraty kontroli nad systemami AI, co mogłoby prowadzić nawet do wyginięcia ludzkości. Apelują o prawo do ostrzegania przed zagrożeniami związanymi ze sztuczną inteligencją i wzywają do wprowadzenia bardziej rygorystycznych regulacji w tej dziedzinie.

List otwarty popierają Yoshua Bengio i Geoffrey Hinton, dwaj z trzech ojców chrzestnych sztucznej inteligencji.

W liście otwartym, podpisanym przez obecnych i byłych pracowników OpenAI i Google DeepMind, krytykuje się nieskuteczną strukturę zarządzania, która nie zapewnia odpowiedniej kontroli nad zagrożeniami związanymi z systemami sztucznej inteligencji. Sygnatariusze listu podkreślają, że „silne zachęty finansowe” dodatkowo skłaniają firmy do ignorowania potencjalnych zagrożeń.

Autorzy listu twierdzą, że firmy zajmujące się AI są świadome możliwości, ograniczeń i ryzyka związanych z tą technologią, ale nie podejmują odpowiednich środków naprawczych. „Obecnie mają one jedynie niewielki obowiązek dzielenia się niektórymi z tych informacji z rządami, a żadnym ze społeczeństwem. Nie sądzimy, by można było na nich polegać w kwestii dobrowolnego dzielenia się tymi informacjami” – czytamy w liście.

List otwarty zawiera cztery główne żądania wobec pracodawców:

  1. Firmy nie powinny zawierać ani egzekwować umów zabraniających krytykowania obaw związanych z ryzykiem AI.
  2. Należy wprowadzić weryfikowalnie anonimowy proces, umożliwiający pracownikom zgłaszanie obaw dotyczących ryzyka do zarządu firmy, organów regulacyjnych oraz niezależnych organizacji.
  3. Organizacje powinny rozwijać kulturę otwartej krytyki.
  4. Pracodawcy nie powinni podejmować działań odwetowych wobec pracowników, którzy publicznie dzielą się poufnymi informacjami związanymi z ryzykiem, jeśli inne procedury zawiodą.

List podpisało łącznie 13 byłych i obecnych pracowników OpenAI i Google DeepMind. Oprócz Geoffrey’a Hintona i Yoshua Bengio, list poparł także brytyjski informatyk Stuart Russell.

Jeden z byłych pracowników OpenAI, który podpisał list otwarty, Daniel Kokotajlo, również opublikował serię postów na X, podkreślając swoje doświadczenie w firmie i zagrożenia związane ze sztuczną inteligencją. Twierdził, że kiedy zrezygnował z pracy, został poproszony o podpisanie klauzuli zakazującej wypowiadania się krytycznie o firmie. Twierdził również, że zagrożono mu odebraniem jego udziałów za odmowę podpisania umowy.

Kokotajlo twierdził, że sieci neuronowe systemów sztucznej inteligencji szybko rosną z dużych zbiorów danych, które są do nich dostarczane. Ponadto dodał, że nie ma odpowiednich środków do monitorowania ryzyka. „Jest wiele rzeczy, których nie rozumiemy na temat tego, jak działają te systemy i czy pozostaną one zgodne z ludzkimi interesami, gdy staną się mądrzejsze i prawdopodobnie przewyższą ludzką inteligencję na wszystkich arenach” - dodał.

Warto zauważyć, że OpenAI tworzy Model Spec, dokument, dzięki któremu ma lepiej kierować firmą w budowaniu etycznej technologii sztucznej inteligencji. Niedawno utworzono również Komitet ds. bezpieczeństwa i ochrony.

Obserwuj nas w Google News

Pokaż / Dodaj komentarze do: Pracownicy OpenAI i Google DeepMind ostrzegają przed zagrożeniami związanymi z AI

 0