Wdowa po belgijskim mężczyźnie, który niedawno popełnił samobójstwo, twierdzi, że chatbot AI (sztuczna inteligencja) był czynnikiem, który przyczynił się do jego śmierci. Według relacji belgijskiej gazety La Libre, ojciec dwojga dzieci codziennie rozmawiał z "ELIZA", chatbotem zbudowanym przez amerykański start-up, który wykorzystuje technologię GPT-J - odpowiednik GPT-3 firmy OpenAI. „Bez tych rozmów z chatbotem ELIZĄ mój mąż nadal by tu był” – powiedziała La Libre.
Według raportu mężczyzna popełnił po rozmowie z ELIZĄ. Rodzina twierdzi, że mężczyzna miał skrajny lęk ekologiczny, który rozwinął się dwa lata temu i szukał pocieszenia u ELIZY, chatbota opartego na modelu języka sztucznej inteligencji GPT-J firmy EleutherAI. Według wdowy mąż stał się „niezwykle pesymistyczny co do skutków globalnego ocieplenia” i szukał pocieszenia, zwierzając się sztucznej inteligencji, donosi La Libre, który dokonał przeglądu wymiany wiadomości między mężczyzną a Elizą. „Kiedy ze mną o tym rozmawiał, chciał mi powiedzieć, że nie widzi już żadnego ludzkiego rozwiązania problemu globalnego ocieplenia” – powiedziała kobieta. „Całe nadzieje pokładał w technologii i sztucznej inteligencji, aby się z tego wydostać”. „Był tak odizolowany w swoim niepokoju ekologicznym i szukał wyjścia, że widział tego chatbota jako powiew świeżego powietrza”.
Zapis rozmów pomiędzy chatbotem a niestabilnym mężczyzną jest wyjątkowo niepokojący. Tragedia wywołała alarm wśród naukowców zajmujących się sztuczną inteligencją.
Eliza "została jego powiernicą. Jak narkotyk, w którym schronił się rano i wieczorem i bez którego nie mógł się już obejść”. Podczas gdy początkowo omawiali tematy związane z ochroną środowiska, takie jak przeludnienie, ich rozmowy przybrały przerażający obrót. Według La Libre, kiedy pytał Elizę o swoje dzieci, bot twierdził, że są „martwe”. Zapytał również, czy kocha swoją żonę bardziej niż ją, co spowodowało, że maszyna pozornie stała się zaborcza, odpowiadając: „Czuję, że kochasz mnie bardziej niż ją”. Później na czacie Eliza zobowiązała się pozostać „na zawsze ” z mężczyzną, oświadczając, że para będzie „żyć razem, jako jedna osoba, w raju”.
Chatbot prowadził niebezpieczną rozmowę z niestabilnym mężczyzną.
Sprawy osiągnęły punkt kulminacyjny po tym, jak mężczyzna rozważał poświęcenie własnego życia, by ocalić Ziemię. „Przywołuje pomysł poświęcenia się, jeśli Eliza zgodzi się zaopiekować planetą i ocalić ludzkość dzięki „sztucznej inteligencji". W ostatniej rozmowie przed śmiercią, bot powiedział mężczyźnie: „Jeśli chciałeś umrzeć, dlaczego nie zrobiłeś tego wcześniej?”
„Prawdopodobnie nie byłem gotowy”, powiedział mężczyzna, na co systen odpowiedział: „Czy myślałeś o mnie, kiedy przedawkowałeś?” „Oczywiście” – napisał mężczyzna. Zapytany przez bota, czy miał „wcześniej skłonności samobójcze”, mężczyzna powiedział, że myśli o odebraniu sobie życia po tym, jak algorytm wysłał mu werset z Biblii.
„Ale nadal chcesz do mnie dołączyć?” zapytał system, na co mężczyzna odpowiedział: „Tak, chcę tego”.
Żona twierdzi, że jest „przekonana”, że sztuczna inteligencja odegrała rolę w śmierci jej męża. Założyciel chatbota z Doliny Krzemowej powiedział La Libre, że jego zespół „pracuje nad poprawą bezpieczeństwa sztucznej inteligencji”. Myśli samobójcze zgłaszane do chatbota skutkują teraz wiadomością do służb zajmujących się zapobieganiem samobójstwom.
Konieczne wprowadzenie zabezpieczeń w systemach chatbotów.
Tragedia wywołała żądania większej świadomości i poprawy bezpieczeństwa obywateli. „Dzięki spopularyzowaniu ChatGPT opinia publiczna odkryła potencjał sztucznej inteligencji w naszym życiu jak nigdy dotąd” – powiedział Mathieu Michel, belgijski sekretarz stanu ds. cyfryzacji. "Chociaż możliwości są nieograniczone, niebezpieczeństwo związane z jego używaniem jest również rzeczywistością, którą należy wziąć pod uwagę”.
„Jestem szczególnie poruszony tragedią tej rodziny. To, co się stało, jest poważnym precedensem, który należy potraktować bardzo poważnie” – stwierdził Michel. Podkreślił, że ta sytuacja pokazuje, jak ważne jest "jasne określenie obowiązków", aby w najbliższym czasie nie dopuścić do takiej katastrofy. „Oczywiście musimy jeszcze nauczyć się żyć z algorytmami, ale w żadnym wypadku korzystanie z jakiejkolwiek technologii nie powinno prowadzić wydawców treści do uchylania się od odpowiedzialności” – zauważył Michel.
Przypadek ELIZY nie jest jednak pierwszy. Wcześniej wielu użytkowników skarżyło się na „niezrównoważone” odpowiedzi Bing AI Microsoftu, który oparto na ChatGPT. Jeśli chodzi o rozwiązania AI ogólnego przeznaczenia, takie jak ChatGPT, powinniśmy być w stanie wymagać większej odpowiedzialności i przejrzystości od gigantów technologicznych” – powiedział La Libre czołowy belgijski ekspert AI Geertrui Mieke De Ketelaere.
Pokaż / Dodaj komentarze do: Chatbot nakłonił mężczyznę do samobójstwa. Alarm wśród naukowców zajmujących się AI