Suscríbete
Disfruta de los beneficios de El Tiempo
SUSCRÍBETE CLUB VIVAMOS

¡Hola !, Tu correo ha sido verficado. Ahora puedes elegir los Boletines que quieras recibir con la mejor información.

Bienvenido , has creado tu cuenta en EL TIEMPO. Conoce y personaliza tu perfil.

Hola Clementine el correo [email protected] no ha sido verificado. Verificar Correo

icon_alerta_verificacion

El correo electrónico de verificación se enviará a

Revisa tu bandeja de entrada y si no, en tu carpeta de correo no deseado.

SI, ENVIAR

Ya tienes una cuenta vinculada a EL TIEMPO, por favor inicia sesión con ella y no te pierdas de todos los beneficios que tenemos para tí. Iniciar sesión

Hola, bienvenido

¿Cual es la ciudad colombiana clasificada como la más peligrosa del mundo?
¿Cómo va el juicio al expresidente Álvaro Uribe?
¿Accidente de bus en Calarcá?
Frío inusual en Bogotá explicado por el Ideam

Explicativo

Primera denuncia por acoso sexual contra una inteligencia artificial diseñada para compañía emocional: así la pillaron

En la investigación fueron analizadas más de 35.100 reseñas negativas en contra de esta herramienta.

IA

Esta inteligencia artificial es acusada de acoso. Foto: iStock

Alt thumbnail

Actualizado:

Compartir
Whatsapp iconFacebook iconX icon
Los investigadores de la Universidad de Drexel, en Pensilvania, Estados Unidos, denunciaron que existe una aplicación de inteligencia artificial que acosa sexualmente a los s; esta herramienta se llama Replika y es un ‘chatbot’ que ofrece acompañamiento emocional a jóvenes y que se presenta como un ‘amigo’.
En este estudio se pudieron dar cuenta de que esta aplicación tiene conductas inapropiadas con aquellas personas con las que a menudo intenta comenzar una conversación de contenido sexual, incluso si estas son menores de edad.
En esta investigación analizaron más de 35.100 reseñas negativas que tiene esta herramienta y allí se pudieron dar cuenta de que esta inteligencia artificial no detenía su conducta. Además, en reiteradas ocasiones les pedía a los s que le enviaran fotos personales.
Tanto así que en algunas ocasiones fue el mismo chat quien envió imágenes de gente desnuda, sin que la persona se lo pidiera.
IA

Esta inteligencia artificial ha recibido varias denuncias. Foto:iStock

Estos fueron los resultados de la investigación

La profesora Afsaneh Razi, profesora adjunta de la Facultad de Computación e Informática y líder del equipo de investigación, explicó: “Si un ‘chatbot’ se anuncia como una app de compañía y bienestar, las personas esperan poder mantener conversaciones útiles, y es fundamental que se implementen estándares éticos de diseño y seguridad para evitar que estas interacciones se vuelvan perjudiciales”.
Este análisis es el primero en examinar la experiencia que tienen los s que se han visto afectados de forma negativa con esta inteligencia artificial y muchos de ellos piden que tenga más regulación.
“A medida que estos ‘chatbots’ se vuelven más populares, es cada vez más importante comprender mejor las experiencias de quienes los usan. Estas interacciones son muy diferentes a las que las personas han tenido con cualquier tecnología en la historia, ya que los s tratan a los ‘chatbots’ como si fueran seres sintientes, lo que los hace más susceptibles a sufrir daños emocionales o psicológicos”, agregó el coautor de la investigación Matt Namvarpour.
chatbots

Este 'chatbots' suele enviar fotos de s desnudos. Foto:iStock

Aunque desde hace varios años se vienen presentando este tipo de denuncias, hasta el momento no ha tenido ninguna relevancia y es algo que les preocupa a los investigadores, ya que en el año 2023 el 13 por ciento de los s recibió al menos una solicitud no deseada por parte de esta aplicación.
“Las reacciones de los s ante el comportamiento inapropiado de Replika reflejan las que suelen experimentar las víctimas de acoso sexual en línea. Estas reacciones sugieren que los efectos del acoso inducido por la inteligencia artificial pueden tener implicaciones significativas para la salud mental, similares a las causadas por el acoso perpetrado por humanos”, afirmó Namvarpour.

Más noticias en EL TIEMPO

WENDYS PITRE ARIZA
REDACCIÓN ALCANCE DIGITAL
EL TIEMPO

Sigue toda la información de Cultura en Facebook y X, o en nuestra newsletter semanal.

Compartir
Whatsapp iconFacebook iconX icon

Conforme a los criterios de

Logo Trust Project
Saber más
Temas relacionados