Wozniak, Musk i inni podpisują list otwarty nawołujący do półrocznego zawieszenia prac nad AI

Wozniak, Musk i inni podpisują list otwarty nawołujący do półrocznego zawieszenia prac nad AI

List otwarty podpisany przez liderów technologicznych i wybitnych badaczy sztucznej inteligencji wezwał firmy pracujące nad AI do „natychmiastowego wstrzymania” pracy. Sygnatariusze, tacy jak Steve Wozniak i Elon Musk, zgadzają się, że potrzeba co najmniej sześciomiesięcznej przerwy w opracowywaniu technologii wykraczającej poza GPT-4, aby cieszyć się istniejącymi systemami sztucznej inteligencji, umożliwić ludziom dostosowanie się do ich możliwości i upewnić się, że przynoszą one korzyści wszystkim. W liście dodano, że do zapewnienia bezpieczeństwa systemów sztucznej inteligencji konieczna jest ostrożność i przezorność, ale te są obecnie ignorowane.

Odniesienie do GPT-4, modelu OpenAI, czyli generatywnej sztucznej inteligencji, która może odpowiadać tekstem na wiadomości pisemne lub wizualne, wynika z faktu, że obecnie firmy ścigają się w budowaniu złożonych systemów czatu wykorzystujących tę technologię. Na przykład Microsoft niedawno potwierdził, że jego odnowiona wyszukiwarka Bing jest obsługiwana przez model GPT-4 od ponad siedmiu tygodni, podczas gdy Google niedawno wypuściło Bard, własny generatywny systemem sztucznej inteligencji oparty na LaMDA. Naukowcy od dłuższego czasu podkreślają zagrożenia, jakie niesie ze sobą sztuczna inteligencja, ale wyścig o wdrożenie najbardziej zaawansowanego AI zdaje się trwać w najlepsze, wzbudzając jeszcze większe obawy wśród specjalistów. 

List otwarty podpisany przez liderów technologicznych i wybitnych badaczy sztucznej inteligencji wezwał firmy pracujące nad AI do „natychmiastowego wstrzymania” pracy.

„Niestety, ten poziom planowania i zarządzania nie ma miejsca, mimo że w ostatnich miesiącach zespoły sztucznej inteligencji utknęły w wymykającym się spod kontroli wyścigu, aby rozwijać i wdrażać coraz potężniejsze cyfrowe umysły, których nikt – nawet ich twórcy – nie jest w stanie zrozumieć, przewidywać lub niezawodnie kontrolować” – czytamy w liście.

List wyrażający niepokój został opublikowany przez Future of Life Institute (FLI), organizację zajmującą się minimalizowaniem ryzyka i niewłaściwego wykorzystania nowych technologii. Musk przekazał wcześniej FLI 10 milionów dolarów na badania nad bezpieczeństwem sztucznej inteligencji. Oprócz niego i Wozniaka wśród sygnatariuszy jest wielu światowych liderów AI, takich jak prezes Center for AI and Digital Policy Marc Rotenberg, fizyk MIT i prezes Future of Life Institute Max Tegmark oraz autor Yuval Noah Harari. Harari był także współautorem artykułu w New York Times, ostrzegającego przed zagrożeniami związanymi ze sztuczną inteligencją, wraz z założycielami Center for Humane Technology i innymi sygnatariuszami, Tristanem Harrisem i Azą Raskin.

List otwarty wydaje się kolejnym krokiem po ankiecie przeprowadzonej w 2022 r., w której wzięło udział ponad 700 badaczy zajmujących się uczeniem maszynowym, w której prawie połowa uczestników stwierdziła, że ​​istnieje 10% szans na, że sztuczna inteligencja stanowić będzie ogromne zagrożenie, w tym może prowadzić do wyginięcia człowieka. W ankiecie nad sztuczną inteligencją, 68 procent badaczy stwierdziło, że należy robić więcej lub znacznie więcej w zakresie bezpieczeństwa. 

Każdy, kto podziela obawy dotyczące sztucznej inteligencji, może dołączyć do listu. Jednak nowe nazwiska niekoniecznie są weryfikowane, więc mogą pojawiać się tu osoby podszywające pod znane osoby.

Obserwuj nas w Google News

Pokaż / Dodaj komentarze do: Wozniak, Musk i inni podpisują list otwarty nawołujący do półrocznego zawieszenia prac nad AI

 0