Suscríbete
Disfruta de los beneficios de El Tiempo
SUSCRÍBETE CLUB VIVAMOS

¡Hola !, Tu correo ha sido verficado. Ahora puedes elegir los Boletines que quieras recibir con la mejor información.

Bienvenido , has creado tu cuenta en EL TIEMPO. Conoce y personaliza tu perfil.

Hola Clementine el correo [email protected] no ha sido verificado. Verificar Correo

icon_alerta_verificacion

El correo electrónico de verificación se enviará a

Revisa tu bandeja de entrada y si no, en tu carpeta de correo no deseado.

SI, ENVIAR

Ya tienes una cuenta vinculada a EL TIEMPO, por favor inicia sesión con ella y no te pierdas de todos los beneficios que tenemos para tí. Iniciar sesión

Hola, bienvenido

¿Cual es la ciudad colombiana clasificada como la más peligrosa del mundo?
¿Cómo va el juicio al expresidente Álvaro Uribe?
¿Accidente de bus en Calarcá?
Frío inusual en Bogotá explicado por el Ideam

Contenido automatizado

Un estudio rechaza ‘el pánico moral’ ante la tecnología: ChatGPT no genera adicción similar a las drogas o el juego

El estudio de la Universidad de Valencia desmiente la idea de 'chatbots' de inteligencia artificial generen una adicción.

Inteligencia artificial

Esto debe saber. Foto: iStock

Alt thumbnail

Actualizado:

Compartir
Whatsapp iconFacebook iconX icon
Un reciente estudio de la Universidad de Valencia (UV) desmiente la idea de que la inteligencia artificial, como ChatGPT, pueda generar una adicción similar a las drogas o el juego. 
El equipo de investigación considera infundados los temores que han circulado en medios sobre los peligros de este tipo de tecnologías. 
En su análisis, los expertos subrayan que no existe evidencia científica sólida que respalde la existencia de una "adicción a ChatGPT" o a otros chatbots basados en inteligencia artificial. La investigación fue publicada en la revista científica Addictive Behaviors, según un comunicado de la universidad.
Inteligencia Artificial.

Esto revelan.  Foto:iStock

El origen del alarmismo mediático

Los investigadores Víctor Ciudad-Fernández (Universidad de Valencia), Cora von Hammerstein (Paris Cité University) y Joël Billieux (Université de Lausanne) examinaron diversos estudios que han intentado medir este fenómeno. 
En su análisis, encontraron un patrón preocupante en los cuestionarios utilizados para evaluar la supuesta adicción a ChatGPT, los cuales habían sido copiados de cuestionarios originalmente diseñados para medir adicciones a sustancias como el alcohol o la cocaína.
“Se están utilizando criterios como 'tolerancia' o 'síndrome de abstinencia' para evaluar si alguien usa demasiado un chatbot. Es como diagnosticar adicción a bailar con los mismos criterios que la heroína", afirmó Víctor Ciudad, miembro del grupo de investigación I-PSI-TEC de la Universidad de Valencia. 
Foto de referencia.

Los expertos dicen que falta información para llegar a considerar su uso como una adicción. Foto:istock

El pánico moral no es nuevo

Los autores del estudio recuerdan que el pánico moral ante las nuevas tecnologías no es algo reciente. En los últimos 100 años, se han difundido titulares alarmistas sobre "adicción a la radio", "adicción a la televisión" y "adicción a Internet", todas estas afirmaciones careciendo de pruebas científicas concluyentes.
De acuerdo con la investigación, los estudios que intentan demostrar la existencia de esta "adicción" no han mostrado pruebas de daño clínicamente significativo, como deterioro funcional grave o consecuencias negativas importantes en la vida de los s.
Inteligencia Artificial.

Inteligencia Artificial. Foto:iStock

El uso frecuente está asociado a la curiosidad y el aprendizaje

En lugar de un comportamiento adictivo, los investigadores sugieren que el uso frecuente de ChatGPT está relacionado más con la curiosidad, el aprendizaje o incluso con estrategias de afrontamiento personal. Aseguran que lo importante es analizar cómo se usa la tecnología y en qué contextos, y no patologizar su uso sin una base sólida.

Sobrepatologización de conductas normales

Un aspecto clave señalado por los investigadores es el riesgo de sobrepatologizar conductas normales. “
"Si todas las conductas en las que una persona se implica pueden ser consideradas adictivas, entonces todo puede ser una adicción y el término pierde su significado. Hoy en día existen artículos científicos sobre adicción al tango argentino, a la pesca o al bronceado, pero la evidencia científica que respalda estos constructos es mínima”, señaló Víctor Ciudad.

Evitar la estigmatización y regulaciones infundadas

El estudio también advierte que etiquetar prematuramente el uso de ChatGPT como una adicción puede tener consecuencias graves, como la estigmatización de los s, la creación de tratamientos innecesarios y la promoción de regulaciones sin fundamento.
“Este estudio invita a un cambio de perspectiva: en lugar de patologizar el uso de herramientas de inteligencia artificial, es más importante analizar cuándo y por qué su uso se vuelve problemático”, concluyen.
Europa Press. 

Más noticias en EL TIEMPO

*Este contenido fue hecho con la asistencia de una inteligencia artificial, basado en la información de Europa Press, y contó con la revisión de la periodista y un editor.

Sigue toda la información de Cultura en Facebook y X, o en nuestra newsletter semanal.

Compartir
Whatsapp iconFacebook iconX icon

Conforme a los criterios de

Logo Trust Project
Saber más
Temas relacionados