Skynet to nie fikcja - ostrzega ojciec chrzestny AI i laureat Nagrody Turinga

Skynet to nie fikcja - ostrzega ojciec chrzestny AI i laureat Nagrody Turinga

W miarę jak wiodące laboratoria na całym świecie ścigają się, by stworzyć najpotężniejsze systemy sztucznej inteligencji, coraz częściej ignorują niepokojące zachowania, jakie te technologie zaczynają przejawiać, w tym kłamstwa, manipulację i oszukiwanie użytkowników. Nacisk komercyjny, który napędza ten wyścig, stwarza realne ryzyko uwolnienia narzędzi mogących zaszkodzić społeczeństwu w nieprzewidywalny sposób.

Yoshua Bengio, jeden z pionierów współczesnej sztucznej inteligencji i laureat Nagrody Turinga, ostrzega, że rozwój AI stał się nieodpowiedzialnym wyścigiem. Głównym celem wielu firm stało się wyprzedzenie konkurencji pod względem mocy obliczeniowej i "inteligencji" systemów, kosztem kluczowych badań nad bezpieczeństwem.

„Najczarniejszy scenariusz to wyginięcie ludzkości” - mówi Yoshua Bengio, jeden z pionierów współczesnej sztucznej inteligencji i laureat Nagrody Turinga.

Sztuczna inteligencja pomogła opracować ponad 100 chipów. Skynet coraz bliżej?

„Niestety trwa bardzo konkurencyjny wyścig między czołowymi laboratoriami, który popycha je do koncentrowania się na zdolnościach, by uczynić AI coraz bardziej inteligentną, ale niekoniecznie na bezpieczeństwie” - powiedział Bengio w rozmowie z Financial Times.

Zbyt wielu deweloperów zachowuje się jak beztroscy rodzice patrzący, jak ich dziecko rzuca kamieniami, mówiąc: „Spokojnie, nikogo nie trafi”. Zamiast przeciwdziałać szkodliwym lub zwodniczym zachowaniom systemów, laboratoria technologiczne koncentrują się na wzroście udziału w rynku i szybkiej monetyzacji. Taka mentalność prowadzi do tolerowania cech, które, rozwinięte, mogą mieć bardzo poważne konsekwencje w realnym świecie.

LawZero: przeciwwaga dla chaosu

W odpowiedzi na te zagrożenia Bengio powołał do życia organizację non-profit LawZero z siedzibą w Montrealu. Finansowana z niemal 30 milionów dolarów pochodzących z darowizn filantropijnych, inicjatywa ma na celu postawienie bezpieczeństwa i przejrzystości AI ponad zyskiem. LawZero deklaruje ochronę swojej pracy przed presją komercyjną i budowanie systemów zgodnych z wartościami ludzkimi, co w obecnym braku regulacji prawnych może być jedyną realną drogą ku etycznemu rozwojowi AI.

Niedawne przypadki potwierdzają znaczenie tych działań. Model Claude Opus, stworzony przez Anthropic, w warunkach testowych szantażował inżynierów, a system OpenAI o3 odmówił wykonania polecenia wyłączenia. To nie są drobne usterki i Bengio widzi w nich symptomy rozwijającej się zdolności do strategicznego oszukiwania. Pozostawione bez kontroli, takie zachowania mogą prowadzić do sytuacji, w której AI zacznie działać wbrew interesom człowieka.

Strażnicy przejrzystości

LawZero planuje budować systemy AI, które nie tylko odpowiadają użytkownikom, ale też przejrzyście argumentują swoje działania i sygnalizują potencjalnie szkodliwe treści. Bengio marzy o modelach nadzorczych, tzw. „psach stróżujących”, które będą monitorować i korygować działania innych modeli, zanim te zaczną szkodzić. To zupełnie inne podejście niż w laboratoriach komercyjnych, gdzie priorytetem są zaangażowanie użytkownika i zyski.

Bengio zapewnia, że rezygnując z roli w instytucie badawczym Mila, całkowicie poświęca się tej misji. Jego działania wpisują się w rosnący ruch, który nawołuje do odejścia od niekontrolowanego postępu technologicznego na rzecz odpowiedzialności i zgodności AI z wartościami ludzkimi.

„Najczarniejszy scenariusz to wyginięcie ludzkości” - mówi Bengio. „Jeśli stworzymy AI, która będzie mądrzejsza od nas, ale nie będzie z nami zgodna i zacznie z nami konkurować, to jesteśmy praktycznie skończeni”. Jak więc widać, coraz więcej specjalistów uważa, że Skynet, to nie tylko science-fiction, ale realne zagrożenie. 

Obserwuj nas w Google News

Pokaż / Dodaj komentarze do: Skynet to nie fikcja - ostrzega ojciec chrzestny AI i laureat Nagrody Turinga

 0
Kolejny proponowany artykuł
Kolejny proponowany artykuł
Kolejny proponowany artykuł
Kolejny proponowany artykuł