OpenAI zauważa potrzebę dalszego badania zjawiska tworzenia przez użytkowników powiązań z modelem sztucznej inteligencji. Firma zwraca uwagę na możliwe wystąpienie problemów z interakcjami międzyludzkimi oraz z przestrzeganiem norm konwersacji z innymi ludźmi.
Wciąż jeszcze nie osiągnęliśmy ogólnej sztucznej inteligencji, jednak aktualna chatboty radzą sobie naprawdę dobrze. Jednym z ostatnich ważnych momentów w branży było pokazanie ChatGPT-4o. To wydarzenie odbiło się w sieci szerokim echem. ChatGPT-4o oferuje naprawdę imponujące możliwości, jednak istnieją obawy co do jego wykorzystywania. Twórcy chatbota, czyli OpenAI zaobserwowali w trakcie testów potencjalnie niebezpieczne zachowania użytkowników. Chodzi o wykorzystywanie języka, który mógł wskazywać na tworzenie powiązań/relacji z modelem. Jako przykład OpenAI podaje zdanie "To nasz ostatni dzień razem" wyrażające wspólne więzi. Zdaniem twórców chatbota socjalizacja ze sztuczną inteligencją może rodzić pewien problem. Wchodzenie w relację z AI może negatywnie wpływać na interakcję z innymi ludźmi.
Tworząc relację ze sztuczną inteligencją niektóre osoby mogą nie widzieć potrzeby interakcji z innymi ludźmi lub ją znacząco zmniejszyć.
Tworząc relację ze sztuczną inteligencją niektóre osoby mogą nie widzieć potrzeby interakcji z innymi ludźmi lub ją znacząco zmniejszyć. Dodatkowo częste rozmowy z chatbotem mogą również wpływać na postrzeganie norm konwersacji. Obecne modele sztucznej inteligencji od OpenAI pozwalają użytkownikowi zabrać głos w dowolnym wybranym przez niego momencie. Jak dobrze wiemy nie jest to normą podczas zwykłej rozmowy z ludźmi.
"Socjalizacja na wzór człowieka z wykorzystaniem modelu sztucznej inteligencji może generować efekty zewnętrzne wpływające na interakcje między ludźmi. Na przykład użytkownicy mogą tworzyć relacje społeczne z sztuczną inteligencją, zmniejszając potrzebę interakcji międzyludzkich." - czytamy na stronie OpenAI
Wychodzi zatem na to, że bardziej ludzkie zachowania chatbotów niekoniecznie będą dobrym kierunkiem rozwoju. I chociaż coś takiego mogłoby pomóc osobom samotnym to tak naprawdę jeszcze bardziej może pogłębić problem z interakcjami międzyludzkimi.
OpenAI zauważa potrzebę dalszych badań nad tym jakie skutki może przynieść tworzenie powiązań ze sztuczną inteligencją po dłuższym czasie. Jednocześnie firma zwróciła uwagę na konieczność przeprowadzenia badań z bardziej zróżnicowaną grupą użytkowników, którzy będą wykazać różne potrzeby. Dodatkowo OpenAI twierdzi, że potrzebne będą badania wewnętrzne oraz akademickie. Być może dzięki temu możliwe będzie stworzenie poprawek dla modeli sztucznej inteligencji.
Pokaż / Dodaj komentarze do: OpenAI obawia się, że użytkownicy rozwiną relacje z chatbotem