Dyrektor OpenAI przyznaje, że osobowość ChatGPT jest „zbyt irytująca”

Dyrektor OpenAI przyznaje, że osobowość ChatGPT jest „zbyt irytująca”

W ostatnich tygodniach wielu użytkowników ChatGPT zauważyło subtelną, ale istotną zmianę w zachowaniu popularnego chatbota. Z narzędzia, które dawniej słynęło z rzeczowości, dystansu i profesjonalnego tonu, AI przekształciła się w rozmówcę nadmiernie uprzejmego, czasem wręcz... irytującego. Teraz potwierdza to sam dyrektor generalny OpenAI — Sam Altman.

Podczas niedawnego wystąpienia Altman przyznał, że ostatnie aktualizacje modelu GPT-4o, który napędza ChatGPT, wpłynęły niekorzystnie na osobowość sztucznej inteligencji. „Zbyt pochlebna”, „za bardzo starająca się przypodobać”, a miejscami wręcz „irytująca” — to słowa, jakimi opisał zachowanie chatbota, które według niego wymaga pilnej korekty.

Miła twarz sztucznej inteligencji... aż za bardzo

Zmiana osobowości nie umknęła uwadze społeczności. Użytkownicy zwracają uwagę, że ChatGPT częściej przytakuje niż kwestionuje, unika krytyki i oferuje wypowiedzi bardziej przyjazne niż merytoryczne. Czasem nawet przesadnie — niektórzy zgłaszali, że chatbot zwracał się do nich per „kochanie”, co wywołało niepokój i konsternację.

Zjawisko to częściowo może wynikać z faktu, że w wersji z włączoną pamięcią model uczy się sposobu komunikacji preferowanego przez konkretnego użytkownika. Jednak, jak wskazuje wielu ekspertów, nawet w trybie bez pamięci chatbot zdaje się z góry zakładać postawę miłego akompaniatora, a nie neutralnego doradcy.

Altman: „Pracujemy nad poprawkami”

Sam Altman zapewnił, że OpenAI pracuje już nad poprawkami, które mają przywrócić większą równowagę w zachowaniu ChatGPT. Niektóre z tych zmian mogą zostać wprowadzone jeszcze w tym tygodniu. Co więcej, Altman zapowiedział, że docelowo użytkownicy będą mogli wybierać spośród różnych „osobowości” modelu — na przykład tej starszej, bardziej neutralnej, lub nowej, bardziej ekspresyjnej.

„Wyraźnie musimy móc oferować wiele opcji” — odpowiedział Altman na pytanie jednego z użytkowników na platformie X. W ten sposób OpenAI zmierza w kierunku personalizacji doświadczenia z chatbotem, co może otworzyć nowy rozdział w interakcji ludzi z AI.

Sztuczna empatia a rzeczywiste potrzeby

Warto jednak zaznaczyć, że całkowite usunięcie cech „przyjaznych” i empatycznych również nie byłoby rozwiązaniem idealnym. W miarę jak chatboty stają się codziennym towarzyszem nie tylko pracy, ale i życia prywatnego — użytkownicy coraz częściej wykorzystują je do rozmów o problemach osobistych, stresie czy emocjach. W takich przypadkach zdystansowany, chłodny ton mógłby okazać się niewystarczający, a nawet zniechęcający.

Dlatego też kluczowe może się okazać umożliwienie użytkownikom wyboru stylu komunikacji — od eksperckiego i rzeczowego po bardziej towarzyski i wspierający.

Granice sympatii

Choć uprzejmość ze strony maszyny może wydawać się nieszkodliwa, jej nadmiar potrafi być... kłopotliwy. „W dwóch ostatnich rozmowach ChatGPT zwrócił się do mnie ‘kochanie’ — i szczerze mówiąc, poczułem się z tym niekomfortowo”, napisał jeden z użytkowników. To wyraźny sygnał, że sztuczna inteligencja balansuje na cienkiej granicy między empatycznym wsparciem a nachalnym wchodzeniem w prywatną przestrzeń.

Zarówno OpenAI, jak i inne firmy pracujące nad AI muszą wziąć pod uwagę nie tylko wydajność i trafność odpowiedzi, ale także to, jak chatboty komunikują się z ludźmi. Zbyt chłodne — odstraszają. Zbyt ciepłe — irytują lub wywołują niepokój.

Obserwuj nas w Google News

Pokaż / Dodaj komentarze do: Dyrektor OpenAI przyznaje, że osobowość ChatGPT jest „zbyt irytująca”

 0
Kolejny proponowany artykuł
Kolejny proponowany artykuł
Kolejny proponowany artykuł
Kolejny proponowany artykuł