En este portal utilizamos datos de navegación / cookies propias y de terceros para gestionar el portal, elaborar información estadística, optimizar la funcionalidad del sitio y mostrar publicidad relacionada con sus preferencias a través del análisis de la navegación. Si continúa navegando, usted estará aceptando esta utilización. Puede conocer cómo deshabilitarlas u obtener más información aquí

Suscríbete
Disfruta de los beneficios de El Tiempo
SUSCRÍBETE CLUB VIVAMOS

¡Hola !, Tu correo ha sido verficado. Ahora puedes elegir los Boletines que quieras recibir con la mejor información.

Bienvenido , has creado tu cuenta en EL TIEMPO. Conoce y personaliza tu perfil.

Hola Clementine el correo [email protected] no ha sido verificado. Verificar Correo

icon_alerta_verificacion

El correo electrónico de verificación se enviará a

Revisa tu bandeja de entrada y si no, en tu carpeta de correo no deseado.

SI, ENVIAR

Ya tienes una cuenta vinculada a EL TIEMPO, por favor inicia sesión con ella y no te pierdas de todos los beneficios que tenemos para tí. Iniciar sesión

Hola, bienvenido

¿Cual es la ciudad colombiana clasificada como la más peligrosa del mundo?
¿Cómo va el juicio al expresidente Álvaro Uribe?
¿Accidente de bus en Calarcá?
Frío inusual en Bogotá explicado por el Ideam

Opinión

Alucinaciones de la IA

Lo recomendable es usar los 'chatbots' como una herramienta complementaria, no sustitutiva, de las fuentes de información. 

Alt thumbnail

Actualizado:

00:00
00:00

Comentar

Whatsapp iconFacebook iconX iconlinkeIn iconTelegram iconThreads iconemail iconiconicon
Las alucinaciones son las respuestas falsas o inexactas que los sistemas de inteligencia artificial (IA) generan ante las consultas de los s. ¿Por qué ocurren? Porque las IA, especialmente las de lenguaje, como los chatbots, no piensan ni verifican los contenidos. Trabajan con patrones estadísticos aprendidos de grandes bases de datos. Si encuentran datos inconsistentes o si deben completar información que no tienen, inventan. En contextos simples, como preguntar por un hecho trivial, esto puede ser solo un inconveniente menor. Pero en temas críticos, una respuesta falsa puede generar daños irreparables.
(Le puede interesar: El efecto Dunning-Kruger).
En un artículo titulado ‘AI on trial: Legal models hallucinate in 1 out of 6 (or more) benchmarking queries’, la Universidad de Stanford señala que las alucinaciones de los chatbots de uso legal en Estados Unidos ocurren entre el 58 y el 82 % de los casos. Si esto sucede en Estados Unidos, donde los sistemas están alimentados con grandes cantidades de información y se invierte significativamente en la revisión de contenidos, no quiero pensar lo que ocurre aquí para nosotros.
Como s comunes, lo único que podemos hacer es usar las respuestas provenientes de IA o fuentes automatizadas como una sugerencia, contrastar siempre la información, y en todo caso, usar siempre la IA como una herramienta complementaria, no sustitutiva, de las demás fuentes de información.
Si la IA no tiene datos suficientes sobre un tema, lo mejor sería que lo informe al en lugar de inventar una respuesta.

Los desarrolladores, por su parte, deben trabajar en mecanismos de chequeo interno. Por ejemplo, pueden integrar sistemas que contrasten las respuestas generadas con bases de datos verificadas o referencias externas confiables antes de presentarlas al o incluso implementar mecanismos que permitan a los s reportar alucinaciones, como hace Wikipedia.
Tal vez sería conveniente que se dicten, y sobre todo que se apliquen, normativas claras que obliguen a los desarrolladores de IA a garantizar la calidad y fiabilidad de los sistemas, especialmente en contextos sensibles como la medicina o el derecho.
La sanción social siempre es una opción. Varios abogados estadounidenses han sido sancionados por citar casos ficticios inventados por ChatGPT en sus alegatos, y no imagino la vergüenza que han sentido cuando han sido sancionados.
De todas formas, la solución más fácil y sencilla sería hacer que la IA solo opere en áreas donde su entrenamiento sea sólido y si no tiene datos suficientes sobre un tema, lo mejor sería que lo informe al en lugar de inventar una respuesta.

Sigue toda la información de Opinión en Facebook y X, o en nuestra newsletter semanal.

00:00
00:00

Comentar

Whatsapp iconFacebook iconX iconlinkeIn iconTelegram iconThreads iconemail iconiconicon

Conforme a los criterios de

Logo Trust Project
Saber más
Sugerencias
Alt thumbnail

BOLETINES EL TIEMPO

Regístrate en nuestros boletines y recibe noticias en tu correo según tus intereses. Mantente informado con lo que realmente te importa.

Alt thumbnail

EL TIEMPO GOOGLE NEWS

Síguenos en GOOGLE NEWS. Mantente siempre actualizado con las últimas noticias coberturas historias y análisis directamente en Google News.

Alt thumbnail

EL TIEMPO WHATSAPP

Únete al canal de El Tiempo en WhatsApp para estar al día con las noticias más relevantes al momento.

Alt thumbnail

EL TIEMPO APP

Mantente informado con la app de EL TIEMPO. Recibe las últimas noticias coberturas historias y análisis directamente en tu dispositivo.

Alt thumbnail

SUSCRÍBETE AL DIGITAL

Información confiable para ti. Suscríbete a EL TIEMPO y consulta de forma ilimitada nuestros contenidos periodísticos.