ChatGPT zyskał ogromną popularność, ale część osób najwyraźniej przesadza z zaufaniem do chatbotów. Idealnym przykładem jest 60-letni mężczyzna ze Stanów Zjednoczonych, który trafił do szpitala po tym, jak AI udzieliło mu rady.
Jak podaje NBC News, 60-letni mężczyzna z Nowego Jorku wylądował w szpitalu po tym jak zastosował się do porady dietetycznej ChataGPT. Mężczyzna, poszukując zdrowszego zamiennika soli, otrzymał od chatbota poradę użycia bromku sodu, substancji, która może być niebezpieczna w dużych ilościach.
Mężczyzna trafił do szpitala po tym jak ChatGPT udzielił mu porady
Mężczyzna spożywał bromek sodu codziennie przez trzy miesiące, wierząc, że to zdrowa alternatywa. Z czasem zaczął doświadczać takich objawów jak paranoja, bezsenność, a nawet psychoza. W końcu, przekonany, iż jest truty przez swojego sąsiada, trafił do szpitala, gdzie zdiagnozowano u niego zatrucie bromkiem.
Ten incydent podkreśla, jak ważne jest ostrożne korzystanie z AI, zwłaszcza w kontekście zdrowia. Badacze potwierdzili, że ChatGPT rzeczywiście zalecił użycie bromku sodu zamiast zwykłej soli, nie ostrzegając przed jego toksycznością.
To pokazuje, że trzeba włączyć myślenie i podchodzić do rekomendacji AI z dystansem i wszystko jeszcze samemu sprawdzać.

Pokaż / Dodaj komentarze do: ChatGPT prawie zabił 60-latka swoją radą dietetyczną