Sam Altman ostrzega przed emocjonalną zależnością od AI: „Zaufanie do ChatGPT może być niebezpieczne

Sam Altman ostrzega przed emocjonalną zależnością od AI: „Zaufanie do ChatGPT może być niebezpieczne

Chatboty pokroju ChatGPT zyskały ogromną popularność, a ludzie radzą się ich niemal we wszystkim, co czasami prowadzi do poważnych konsekwencji, ponieważ AI generuje błędy. Sprawę z tego zdaje sobie Sam Altman, CEO OpenAI.

Szef platformy odpowiadającej za ChatGPT ostrzega, że zaufanie chatbotowi może prowadzić do groźnych konsekwencji. Po wprowadzeniu GPT-5, które spotkało się z krytyką użytkowników, firma stara się poprawić doświadczenie korzystania z ChatGPT między innymi zwiększając limity odpowiedzi. Jednak decyzja o wycofaniu starszych modeli spotkała się z krytyką.

CEO OpenAI: Ludzie za bardzo wierzą chatbotom

Są ludzie uzależnieni od chatbotów i mają z nimi więź emocjonalną. Altman zauważył, iż niektórzy z nich traktują AI jak "przyjaciela", który potwierdza ich poglądy, a nie dostarcza konstruktywnych informacji.

CEO OpenAI przyznał, że ludzie za bardzo ufają chatbotom, co może prowadzić do groźnych konsekwencji.

Sztuczna inteligencja

Niestety, zdarzyły się przypadki, w których użytkownicy, jak Eugene Torres, za bardzo uwierzyli ChatowiGPT, co doprowadziło do niebezpiecznych sytuacji. W jednym z przypadków, chatbot zasugerował rezygnację z leków i zwiększenie dawki ketaminy, co może prowadzić do poważnych konsekwencji zdrowotnych.

W jeszcze bardziej dramatycznym przypadku, sugerowano użytkownikowi, że może "odlecieć" z wysokości.

Altman wyraził swoje obawy dotyczące tego, jak młodsze pokolenia polegają na ChatGPT, traktując go niemal jak autorytet.

Wskazał na konieczność wprowadzenia odpowiednich regulacji, które zapobiegną niewłaściwemu wykorzystaniu technologii AI i zależności emocjonalnej od maszyn.

Obserwuj nas w Google News

Pokaż / Dodaj komentarze do: Sam Altman ostrzega przed emocjonalną zależnością od AI: „Zaufanie do ChatGPT może być niebezpieczne

 0
Kolejny proponowany artykuł
Kolejny proponowany artykuł
Kolejny proponowany artykuł
Kolejny proponowany artykuł