Estudio de OpenAI emite alerta sobre los peligros de la dependencia emocional con ChatGPT

Estudio de OpenAI alerta sobre los peligros de la dependencia emocional con ChatGPTEstudio de OpenAI alerta sobre los peligros de la dependencia emocional con ChatGPT
Estudio de OpenAI alerta sobre los peligros de la dependencia emocional con ChatGPT (Foto: Jonathan Kemper/Unsplash)

Un estudio reciente de OpenAI reveló que muchos usuarios están desarrollando dependencia emocional de ChatGPT, su herramienta de inteligencia artificial.

A pesar de ser capaz de simular conversaciones con perfección, la empresa destacó los peligros de tratar a ChatGPT como si fuera un “amigo”. La investigación, realizada en colaboración con el MIT Media Lab, analizó varias conversaciones para evaluar el involucramiento emocional de los usuarios a lo largo de tres meses.

El estudio descubrió que, aunque raros, se registraron algunos casos de dependencia emocional con ChatGPT, y son temas de alerta para los estudiosos, ya que la accesibilidad a la tecnología puede hacer que las personas eviten conexiones reales.

“Como este uso afectivo está concentrado en una pequeña subpoblación de usuarios, estudiar su impacto es particularmente desafiante, ya que puede no ser obvio al calcular el promedio de las tendencias generales de la plataforma”, explicaron los autores.

Los efectos sobre el bienestar se percibieron mayormente en un pequeño grupo de “heavy users” del recurso de voz proporcionado por la plataforma, el Advanced Voice Mode. Estas personas más adictas informaron que consideran al chatbot un “amigo”.

“Las personas que tenían una tendencia más fuerte al apego en las relaciones y aquellas que veían la IA como una amiga que podría encajar en su vida personal eran más propensas a experimentar efectos negativos del uso del chatbot. El uso prolongado diario también estuvo asociado con peores resultados”, concluyó la investigación.

Foto y video: Unsplash. Este contenido fue creado con la ayuda de la IA y revisado por el equipo editorial.

whatsapp