Ya tienes una cuenta vinculada a EL TIEMPO, por favor inicia sesión con ella y no te pierdas de todos los beneficios que tenemos para tí. Iniciar sesión
¡Hola! Parece que has alcanzado tu límite diario de 3 búsquedas en nuestro chat bot como registrado.
¿Quieres seguir disfrutando de este y otros beneficios exclusivos?
Adquiere el plan de suscripción que se adapte a tus preferencias y accede a ¡contenido ilimitado! No te
pierdas la oportunidad de disfrutar todas las funcionalidades que ofrecemos. 🌟
¡Hola! Haz excedido el máximo de peticiones mensuales.
Para más información continua navegando en eltiempo.com
Error 505
Estamos resolviendo el problema, inténtalo nuevamente más tarde.
Procesando tu pregunta... ¡Un momento, por favor!
¿Sabías que registrándote en nuestro portal podrás acceder al chatbot de El Tiempo y obtener información
precisa en tus búsquedas?
Con el envío de tus consultas, aceptas los Términos y Condiciones del Chat disponibles en la parte superior. Recuerda que las respuestas generadas pueden presentar inexactitudes o bloqueos, de acuerdo con las políticas de filtros de contenido o el estado del modelo. Este Chat tiene finalidades únicamente informativas.
De acuerdo con las políticas de la IA que usa EL TIEMPO, no es posible responder a las preguntas relacionadas con los siguientes temas: odio, sexual, violencia y autolesiones
Contenido automatizado
Un estudio rechaza ‘el pánico moral’ ante la tecnología: ChatGPT no genera adicción similar a las drogas o el juego
El estudio de la Universidad de Valencia desmiente la idea de 'chatbots' de inteligencia artificial generen una adicción.
Un reciente estudio de la Universidad de Valencia (UV) desmiente la idea de que la inteligencia artificial, como ChatGPT, pueda generar una adicción similar a las drogas o el juego.
El equipo de investigación considera infundados los temores que han circulado en medios sobre los peligros de este tipo de tecnologías.
En su análisis, los expertos subrayan que no existe evidencia científica sólida que respalde la existencia de una "adicción a ChatGPT" o a otros chatbots basados en inteligencia artificial. La investigación fue publicada en la revista científica Addictive Behaviors, según un comunicado de la universidad.
Los investigadores Víctor Ciudad-Fernández (Universidad de Valencia), Cora von Hammerstein (Paris Cité University) y Joël Billieux (Université de Lausanne) examinaron diversos estudios que han intentado medir este fenómeno.
En su análisis, encontraron un patrón preocupante en los cuestionarios utilizados para evaluar la supuesta adicción a ChatGPT, los cuales habían sido copiados de cuestionarios originalmente diseñados para medir adicciones a sustancias como el alcohol o la cocaína.
“Se están utilizando criterios como 'tolerancia' o 'síndrome de abstinencia' para evaluar si alguien usa demasiado un chatbot. Es como diagnosticar adicción a bailar con los mismos criterios que la heroína", afirmó Víctor Ciudad, miembro del grupo de investigación I-PSI-TEC de la Universidad de Valencia.
Los expertos dicen que falta información para llegar a considerar su uso como una adicción. Foto:istock
El pánico moral no es nuevo
Los autores del estudio recuerdan que el pánico moral ante las nuevas tecnologías no es algo reciente. En los últimos 100 años, se han difundido titulares alarmistas sobre "adicción a la radio", "adicción a la televisión" y "adicción a Internet", todas estas afirmaciones careciendo de pruebas científicas concluyentes.
De acuerdo con la investigación, los estudios que intentan demostrar la existencia de esta "adicción" no han mostrado pruebas de daño clínicamente significativo, como deterioro funcional grave o consecuencias negativas importantes en la vida de los s.
El uso frecuente está asociado a la curiosidad y el aprendizaje
En lugar de un comportamiento adictivo, los investigadores sugieren que el uso frecuente de ChatGPT está relacionado más con la curiosidad, el aprendizaje o incluso con estrategias de afrontamiento personal. Aseguran que lo importante es analizar cómo se usa la tecnología y en qué contextos, y no patologizar su uso sin una base sólida.
Sobrepatologización de conductas normales
Un aspecto clave señalado por los investigadores es el riesgo de sobrepatologizar conductas normales. “
"Si todas las conductas en las que una persona se implica pueden ser consideradas adictivas, entonces todo puede ser una adicción y el término pierde su significado. Hoy en día existen artículos científicos sobre adicción al tango argentino, a la pesca o al bronceado, pero la evidencia científica que respalda estos constructos es mínima”, señaló Víctor Ciudad.
Evitar la estigmatización y regulaciones infundadas
El estudio también advierte que etiquetar prematuramente el uso de ChatGPT como una adicción puede tener consecuencias graves, como la estigmatización de los s, la creación de tratamientos innecesarios y la promoción de regulaciones sin fundamento.
“Este estudio invita a un cambio de perspectiva: en lugar de patologizar el uso de herramientas de inteligencia artificial, es más importante analizar cuándo y por qué su uso se vuelve problemático”, concluyen.
*Este contenido fue hecho con la asistencia de una inteligencia artificial, basado en la información de Europa Press, y contó con la revisión de la periodista y un editor.