El estadounidense Sam Altman es director ejecutivo de OpenAI, una empresa de investigación responsable de ChatGPT. A los 38 años de edad es considerado como la voz más autorizada en temas de inteligencia artificial (IA). A continuación, algunos extractos de lo que dijo ayer en Davos:
Una muy buena señal acerca de esta nueva herramienta es que incluso con su capacidad actual muy limitada y sus fallas muy profundas, la gente está encontrando formas de usarla para obtener grandes ganancias de productividad, u otras ganancias, y comprender sus limitaciones. Un sistema que a veces es correcto, a veces creativo y a menudo totalmente incorrecto, en realidad no quieres que conduzca tu auto. Pero estás feliz de que te ayude a pensar sobre qué escribir o te ayude con el código que puedes verificar.
El estilo de modelo de OpenAI es bueno en algunas cosas, pero no en situaciones de vida o muerte. La gente entiende las herramientas y sus limitaciones más de lo que a menudo creemos. Y las personas han encontrado formas de hacer que ChatGPT les resulte muy útil y entienden para qué no usarlo, en su mayor parte. Así que es una muy buena señal que, incluso con los extremadamente limitados niveles de capacidad actuales de estos sistemas, mucha gente haya encontrado formas de obtener valor y también comprender sus limitaciones. Creo que la IA se ha desmitificado un poco porque el público general la está usando ahora y esa es siempre la mejor manera de hacer avanzar al mundo con una nueva tecnología.
Los humanos son bastante indulgentes con otros humanos que cometen errores, pero en realidad no perdonan en absoluto a las computadoras que cometen errores. Las personas dicen cosas como "los autos sin conductor ya son más seguros que los autos conducidos por humanos", pero probablemente tengan que ser más seguros en un factor de, supongo, entre diez y 100 veces, antes de que se acepte, tal vez incluso más. Pienso que lo mismo sucederá con otros sistemas de IA, teniendo en cuenta el hecho de que, si el público lo sabe, si está acostumbrado a usar una herramienta y sabe que puede estar totalmente equivocada, es manejable. La parte más difícil es cuando acierta el 99,999 por ciento de las veces y bajas la guardia.
No puedo mirar tu cerebro y observar los cien billones de sinapsis para entender por qué estás pensando lo que estás pensando. Lo que puedo pedirte es que me expliques tu razonamiento. Y puedes explicar primero esto, luego esto, luego esta conclusión. Y puedo decidir si eso me parece razonable o no. Y creo que nuestros sistemas de IA también podrán hacer lo mismo. Podrán explicarnos en lenguaje natural los pasos de A a B, y podremos decidir si creemos que son buenos pasos. Podremos hacer más para radiografiar el cerebro de una IA y comprender cuáles son esas conexiones.
Haremos las cosas con mejores herramientas y ito que esta vez se siente diferente. La cognición del propósito general se siente tan cerca de lo que todos atesoramos de la humanidad, que se siente diferente. Habrá roles humanos en los que querrás a otro humano, pero incluso, cuando pienso en mi trabajo, ciertamente no soy un gran investigador de IA. Mi papel es descubrir qué vamos a hacer, y trabajar con otras personas para coordinar y hacerlo realidad y creo que el trabajo de todos se parecerá un poco más a eso. Operaremos a un nivel de abstracción un poco más alto, tendremos a muchas más capacidades y aun así tomaremos decisiones. Es posible que con el tiempo tiendan más hacia la curaduría, pero tomaremos decisiones sobre lo que debería suceder en el mundo.
RICARDO ÁVILA - ANALISTA SÉNIOR - ENVIADO ESPECIAL DE EL TIEMPO
Más noticias aquí: