

Recentne badanie OpenAI ujawnia, że wielu użytkowników rozwija emocjonalną zależność od ChatGPT, narzędzia sztucznej inteligencji.
Mimo że ChatGPT potrafi perfekcyjnie symulować rozmowy, firma zwróciła uwagę na niebezpieczeństwa traktowania go jak „przyjaciela”. Badanie, przeprowadzone we współpracy z MIT Media Lab, analizowało wiele rozmów, aby ocenić emocjonalne zaangażowanie użytkowników przez trzy miesiące.
Badanie wykazało, że chociaż przypadki emocjonalnej zależności od ChatGPT są rzadkie, zostały one odnotowane i stanowią zagrożenie dla badaczy, ponieważ dostępność technologii może sprawić, że ludzie zaczną unikać prawdziwych relacji.
„Ponieważ ta emocjonalna forma użytkowania dotyczy małej grupy użytkowników, badanie jej wpływu jest szczególnie trudne, ponieważ może nie być oczywiste, gdy oblicza się średnie tendencje na platformie” – wyjaśnili autorzy.
Skutki dla dobrostanu były głównie dostrzegane w małej grupie „ciężkich użytkowników” funkcji głosowej oferowanej przez platformę, Advanced Voice Mode. Ci użytkownicy zgłaszali, że traktują chatbota jak „przyjaciela”.
„Osoby, które miały silniejszą tendencję do przywiązania w relacjach oraz te, które postrzegały sztuczną inteligencję jako przyjaciela, który mógłby wpasować się w ich życie osobiste, były bardziej podatne na negatywne skutki korzystania z chatbota. Długotrwałe codzienne użytkowanie było również związane z gorszymi wynikami” – podsumowano w badaniu.
Zdjęcie i wideo: Unsplash. Ten materiał został stworzony przy pomocy sztucznej inteligencji i został sprawdzony przez zespół redakcyjny.