
Um estudo recente da OpenAI revelou que muitos usuários estão desenvolvendo dependência emocional do ChatGPT, sua ferramenta de inteligência artificial.
+ TikTok remove filtro que deixa as pessoas gordas após enxurrada de críticas
+ Vídeo: Youtuber pilota aeronave espiã secreta para alcançar o “canto do caixão” na borda do espaço
Apesar de conseguir simular conversas com perfeição, a empresa ressaltou os perigos de tratar o ChatGPT como se fosse um “amigo”. A pesquisa, feita em parceria com o MIT Media Lab, analisou várias conversas para avaliar o envolvimento emocional dos usuários ao longo de três meses.
O estudo descobriu que, enquanto raros, alguns casos de dependência emocional com o ChatGPT foram registrados e são tópicos de alerta para os estudiosos, a medida que a acessibilidade à tecnologia pode fazer com que as pessoas passem a evitar conexões reais.
“Como esse uso afetivo é concentrado em uma pequena subpopulação de usuários, estudar seu impacto é particularmente desafiador, pois pode não ser óbvio ao calcular a média das tendências gerais da plataforma”, explicaram os autores.
Os efeitos no bem-estar foram majoritariamente percebidos em um pequeno grupo de “heavy users” do recurso de voz fornecido pela plataforma, o Advanced Voice Mode. Essas pessoas mais viciadas relataram que consideram o chatbot um “amigo”.
“Pessoas que tinham uma tendência mais forte para o apego em relacionamentos e aquelas que viam a IA como uma amiga que poderia se encaixar em sua vida pessoal eram mais propensas a experimentar efeitos negativos do uso do chatbot. O uso diário prolongado também foi associado a piores resultados”, concluiu a pesquisa.
Foto e vídeo: Unsplash. Este conteúdo foi criado com a ajuda da IA e revisado pela equipe editorial.