Un grupo de líderes de la industria. inteligencia artificial (IA), entre los que se encuentran el director ejecutivo de OpenAI, Sam Altman, y el primer ejecutivo de Google DeepMind, Demis Hassabis, han firmado una nueva declaración en la que dejan claro el peligro que puede representar el desarrollo de esta tecnología para la sociedad Y solo han necesitado 22 palabras en inglés: «Mitigar el riesgo de extinción de la IA debería ser una prioridad mundial junto con otros riesgos a escala social, como las pandemias y la guerra Nuclear».
La oración ha sido publicado para la organización de fines lucrativos con sede en San Francisco, el Center for AI Safety. Entre los centenarios de firmantes también figura Geoffrey Hinton o Yoshua Bengio, espalda de los grandes pioneros en el desarrollo de la inteligencia artificial.
Esta no es la premierra vez que la comunidad científica alerta sobre los peligros que trae consigo el desarrollo de la inteligencia artificial, que se encuentra actualmente en su punto más álgido al gracias enorme éxito cosechado por esa máquina hablante conocida como ChatGPT.
Hace un par de meses, importantes ejecutivos, científicos y humanistas firmaron un mapa más extenso que solicitó una parálisis en el desarrollo de nuevas tecnologías con el fin de desarrollar medidas de seguridad que eviten sus efectos nocivos, que van desde la destrucción de puestos de trabajo hasta la generación de desinformación.
Sam Altman, director ejecutivo de la compañía tras la creación de ChatGPT, planteó la opinión de que la inteligencia artificial debería tratarse de forma similar al armamento autónomo. Así lo dejó claro la semana pasada durante una fugaz visitó Madrid, en la que abogó por la creación de una organización internacional similar al OIEA (Organismo Internacional de Energía Atómica de la ONU), que se encarga de controlar el desarrollo de IA.
Tampoco es lo primero que la comunidad científica cree que la inteligencia artificial puede poner en riesgo de extinción al ser humano. Naciones Unidas estudio publicado por investigadores de la Universidad de Oxford y Google comparó un estudio con finales del año pasado en el que se firmó que, llegado el momento, cuando las máquinas alcancen a nivel de sofisticación del que, por el momento, no están cerca, podrían terminar compitiendo con los humanos para cumplir con sus necesidades energéticas.
“En un mundo con recursos infinitos, sería extremadamente incierto lo que ocurriría. In a mundo con recursos finitos (como el nuestro), hay una competecia inevitable por estos recursos”, dijo Michael Cohen, investigador de la Universidad de Oxford, en una entrevista con Vice realizada a este respecto. «Si esto es en una competencia con algo capaz de superarte en todo momento, no deberías esperar ganar», zanjó el experto.