Ya tienes una cuenta vinculada a EL TIEMPO, por favor inicia sesión con ella y no te pierdas de todos los beneficios que tenemos para tí. Iniciar sesión
¡Hola! Parece que has alcanzado tu límite diario de 3 búsquedas en nuestro chat bot como registrado.
¿Quieres seguir disfrutando de este y otros beneficios exclusivos?
Adquiere el plan de suscripción que se adapte a tus preferencias y accede a ¡contenido ilimitado! No te
pierdas la oportunidad de disfrutar todas las funcionalidades que ofrecemos. 🌟
¡Hola! Haz excedido el máximo de peticiones mensuales.
Para más información continua navegando en eltiempo.com
Error 505
Estamos resolviendo el problema, inténtalo nuevamente más tarde.
Procesando tu pregunta... ¡Un momento, por favor!
¿Sabías que registrándote en nuestro portal podrás acceder al chatbot de El Tiempo y obtener información
precisa en tus búsquedas?
Con el envío de tus consultas, aceptas los Términos y Condiciones del Chat disponibles en la parte superior. Recuerda que las respuestas generadas pueden presentar inexactitudes o bloqueos, de acuerdo con las políticas de filtros de contenido o el estado del modelo. Este Chat tiene finalidades únicamente informativas.
De acuerdo con las políticas de la IA que usa EL TIEMPO, no es posible responder a las preguntas relacionadas con los siguientes temas: odio, sexual, violencia y autolesiones
Explicativo
Primera denuncia por acoso sexual contra una inteligencia artificial diseñada para compañía emocional: así la pillaron
En la investigación fueron analizadas más de 35.100 reseñas negativas en contra de esta herramienta.
Esta inteligencia artificial es acusada de acoso. Foto: iStock
Los investigadores de la Universidad de Drexel, en Pensilvania, Estados Unidos, denunciaron que existe una aplicación de inteligencia artificial que acosa sexualmente a los s; esta herramienta se llama Replika y es un ‘chatbot’ que ofrece acompañamiento emocional a jóvenes y que se presenta como un ‘amigo’.
En este estudio se pudieron dar cuenta de que esta aplicación tiene conductas inapropiadas con aquellas personas con las que a menudo intenta comenzar una conversación de contenido sexual, incluso si estas son menores de edad.
En esta investigación analizaron más de 35.100 reseñas negativas que tiene esta herramienta y allí se pudieron dar cuenta de que esta inteligencia artificial no detenía su conducta. Además, en reiteradas ocasiones les pedía a los s que le enviaran fotos personales.
Tanto así que en algunas ocasiones fue el mismo chat quien envió imágenes de gente desnuda, sin que la persona se lo pidiera.
Esta inteligencia artificial ha recibido varias denuncias. Foto:iStock
La profesora Afsaneh Razi, profesora adjunta de la Facultad de Computación e Informática y líder del equipo de investigación, explicó: “Si un ‘chatbot’ se anuncia como una app de compañía y bienestar, las personas esperan poder mantener conversaciones útiles, y es fundamental que se implementen estándares éticos de diseño y seguridad para evitar que estas interacciones se vuelvan perjudiciales”.
Este análisis es el primero en examinar la experiencia que tienen los s que se han visto afectados de forma negativa con esta inteligencia artificial y muchos de ellos piden que tenga más regulación.
“A medida que estos ‘chatbots’ se vuelven más populares, es cada vez más importante comprender mejor las experiencias de quienes los usan. Estas interacciones son muy diferentes a las que las personas han tenido con cualquier tecnología en la historia, ya que los s tratan a los ‘chatbots’ como si fueran seres sintientes, lo que los hace más susceptibles a sufrir daños emocionales o psicológicos”, agregó el coautor de la investigación Matt Namvarpour.
Este 'chatbots' suele enviar fotos de s desnudos. Foto:iStock
Aunque desde hace varios años se vienen presentando este tipo de denuncias, hasta el momento no ha tenido ninguna relevancia y es algo que les preocupa a los investigadores, ya que en el año 2023 el 13 por ciento de los s recibió al menos una solicitud no deseada por parte de esta aplicación.
“Las reacciones de los s ante el comportamiento inapropiado de Replika reflejan las que suelen experimentar las víctimas de acoso sexual en línea. Estas reacciones sugieren que los efectos del acoso inducido por la inteligencia artificial pueden tener implicaciones significativas para la salud mental, similares a las causadas por el acoso perpetrado por humanos”, afirmó Namvarpour.