ChatGPT może uzależniać emocjonalne i potęgować samotność

ChatGPT może uzależniać emocjonalne i potęgować samotność

OpenAI nie zwalnia tempa w rozwoju swoich modeli. Regularne aktualizacje mają na celu udoskonalenie popularnego chatbota ChatGPT, który obsługuje już ponad 400 milionów użytkowników na całym świecie. Jednak rosnąca popularność narzędzia i łatwość, z jaką zapewnia ono wsparcie w rozmowach, skłoniły firmę do analizy potencjalnych konsekwencji psychologicznych związanych z jego użytkowaniem.

W odpowiedzi na rosnące zainteresowanie interakcjami AI, OpenAI opublikowało wyniki szeroko zakrojonego badania przeprowadzonego we współpracy z MIT Media Lab. Wyniki sugerują, że długotrwałe i częste korzystanie z ChatGPT może być związane ze wzrostem poczucia samotności u użytkowników.

Wyniki dwuczęściowego badania

Każda z organizacji przeprowadziła niezależne badanie, a następnie ich wyniki zostały skonsolidowane w jeden raport. OpenAI analizowało dane pochodzące z ponad 40 milionów interakcji z ChatGPT na przestrzeni miesiąca, bez udziału człowieka w celu zachowania prywatności użytkowników. Z kolei MIT Media Lab prowadziło badanie na grupie 1000 uczestników, monitorując ich interakcje z chatbotem przez 28 dni.

Chociaż badanie nie zostało jeszcze poddane recenzji naukowej, jego wstępne wyniki dostarczają istotnych wniosków. Wykazano m.in., że użytkownicy, którzy prowadzili z ChatGPT rozmowy o charakterze osobistym, byli bardziej podatni na uczucie samotności. Z kolei ci, którzy traktowali chatbota jako źródło informacji lub wsparcie w codziennych zadaniach, nie wykazywali istotnych zmian w swoim stanie emocjonalnym.

Rola tonu głosu i sposobu interakcji

Badanie MIT Media Lab skupiło się na różnych metodach interakcji użytkowników z ChatGPT – zarówno tekstowej, jak i głosowej. Okazało się, że sposób, w jaki chatbot komunikuje się z użytkownikami, może mieć znaczący wpływ na ich stan emocjonalny.

  • Neutralny ton głosu w trybie rozmowy rzadziej prowadził do negatywnych skutków psychologicznych.

  • Osoby prowadzące osobiste, emocjonalne rozmowy z ChatGPT w trybie tekstowym częściej odczuwały samotność i wzrost zależności emocjonalnej od narzędzia.

  • Użytkownicy, którzy traktowali ChatGPT jak przyjaciela, byli bardziej narażeni na negatywne konsekwencje psychiczne.

Interesujące wyniki przyniosła także analiza wpływu tematów rozmów. Użytkownicy, którzy korzystali z ChatGPT do rozmów o codziennych sprawach, nie wykazywali istotnych zmian emocjonalnych. Natomiast ci, którzy używali go do głębszych, osobistych dyskusji, doświadczali większego poczucia izolacji.

OpenAI o wynikach: „Niepokojące, ale rzadkie zjawisko”

W swoim raporcie OpenAI podkreśliło, że interakcje użytkowników z ChatGPT w celach emocjonalnych są stosunkowo rzadkie. Nawet osoby intensywnie korzystające z funkcji zaawansowanego trybu głosowego rzadko zgłaszały silne reakcje emocjonalne. Firma zaznacza jednak, że ważne jest dalsze monitorowanie tego zjawiska, by zrozumieć jego długofalowe skutki.

Czy ChatGPT zastępuje terapeutyczne rozmowy?

Chociaż wyniki badań sugerują, że AI rzadko prowadzi do poważnych skutków emocjonalnych, coraz więcej użytkowników otwarcie przyznaje, że traktuje ChatGPT jako alternatywę dla terapeutycznych rozmów. Na forach internetowych, takich jak Reddit, pojawiają się liczne świadectwa osób, które zamiast udać się do specjalisty, korzystają z chatbota do omawiania swoich emocji i problemów życiowych.

To rodzi pytania o przyszłość interakcji człowieka z AI oraz o odpowiedzialność firm technologicznych za psychologiczne skutki ich narzędzi. OpenAI deklaruje, że dalsze badania w tym zakresie są priorytetem, a ich celem jest stworzenie modeli, które będą wspierać użytkowników bez negatywnego wpływu na ich zdrowie psychiczne.

 

Obserwuj nas w Google News

Pokaż / Dodaj komentarze do: ChatGPT może uzależniać emocjonalne i potęgować samotność

 0
Kolejny proponowany artykuł
Kolejny proponowany artykuł
Kolejny proponowany artykuł
Kolejny proponowany artykuł