El desarrollo vertiginoso de la inteligencia artificial aspira a transformar, de forma radical, la vida misma del ser humano. Desde el exitoso lanzamiento de ChatGPT al final del año pasado, compañías de todo tamaño y condición corren, cada vez más rápido, para poner a disposición de los usuarios herramientas capaces de generar contenido a demanda. Actualmente, cualquiera puede utilizar esta tecnología para crear texto o imágenes de forma sencilla. Sin necesidad de tener el más mínimo conocimiento sobre los peligros que esconden estas plataformas. Entre ellos destacan, sin duda, la proliferación de información segada y falsa.
Esto es algo que preocupa, y mucho, a Celeste Kidd, profesora de psicología en la Universidad de Berkeley, California. La didáctica, primera firmante de un artículo publicado en Ciencia en el que se analiza el peligro de que las máquinas puedan alterar las creencias de los usuarios, lama la atención, en conversación con ABC, sobre nuestra tendencia a creernos a pies juntillas cualquier dato consultado en internet.
“Tendemos que emplear sistemas que pretenden ofrecer respuestas simples y sucintas a las preguntas que a veces son complicadas. Cuando recibimos una respuesta clara y segura se resuelve la incertidumbre y continuamos con nuestras vidas. Independientemente de lo precisions que sean los datos”, señala Kidd. “El problema es que el simpático no sabe lo que no sabe. No pueden detectar los errores, porque están consultando modelos en busca de respuestas que aún no conocen”, prosigue.
La documentación aclara en el artículo que la enorme popularidad de sistemas como ChatGPT y máquinas tiene capacidades generales de imágenes de palabras, como DALL-E o Midjourney. El hecho de que las herramientas, además, no duden a la hora de responder a las consultas que reciban, que lo hagan con total seguridad, tampoco ayuda a que el usuario dude. Y esto, al final, puede afectar tanto a las creencias como a los sesgos de las personas.
En el artículo se advierte la importancia de realizar estudios ahora, cuando la tecnología todavía es joven, con el fin de comprender más cómo estos sistemas pueden engañarte y alterar tus creencias. Que pueden hacerlo, sobre todo en aquellos casos en los que el internauta no es consciente de que la IA sigue lejos, y mucho, de superar las capacidades humanas.
Muy lejos de ser infalible
Lo hemos dicho muchas veces: los sistemas basados en inteligencia artificial no se inventan nada. Todo el contenido que crean es producto directo de la cantidad de información con la que han sido perturbados por los desarrolladores. Alguna procede directamente de los propios usuarios que utilizan las herramientas. El resto, de todos los rincones de internet.
Obviamente, si los datos que compara una persona pueden contener errores, o estos, los que crean una máquina que ha sido capacitada con la misma información tendrán los mismos problemas. Los sistemas están lejos de ser infalibles. El problema es que el usuario, como señala Kidd, tiende a aceptar como bueno el contenido que genera gracias a la seguridad con la que ofrecen sus respuestas ya la enorme expectativa que generan. Todo esto provoca que la persona al otro lado de la pantalla tienda a comodarse y dar por bueno lo que el sistema le dice. Y eso puede ser un problema grave. De hecho, ya lo ha sido.
Hace apenas unas semanas, un abogado neoyorquino recurrió a ChatGPT para buscar precedentes que apoyaron un caso en el que estaba trabajando. ¿Qué pasó? Que no comprobó los datos que escupió la máquina y terminó presentando un montón de información falsa ante el juez. Y este no es un caso aislado.
El pasado abril, un alcalde de una localidad australiana amagó con demander a IA abierta, Desarrolladora de ChatGPT después de descubrir que la máquina ha confirmado erróneamente que no ha sido encarcelada por sobornar a funcionarios extranjeros. En Estados Unidos, incluso, un profesor universitario amenazó con suspender a toda una clase después de que una IA le dijese que los estudiantes habían copiado sus trabajos.
«La cena y el ego»
“Necesitamos estudiar mucho, especialmente sobre cómo la exageración que rodea a estos modelos afecta a la gravedad y la tasa de transmisión de contenido falso o sesgado”, zanja Kidd. El docente, además, notó la importancia de la empresa detrás de estas máquinas sean transparentes acerca de los datos con los que las entrenan y su procedencia. Algo que, hasta el momento, no se cumple. La autora del artículo lo tiene claro: hay que regular la tecnología y formar a los usuarios sober los riesgos que esconde.
“Debemos priorizar la educación de la sociedad sobre características son y adecuadas no son las habilidades reales de estas tecnologías. Los políticos, los medios y el público merecen algo mejor que confiar en las palabras de los desarrolladores de, nuestros modelos se basan en el dinero y el ego”, dijo el profesor de Berkeley.

