Un grupo de científicos y funcionarios de la industria. inteligencia artificial (IA) hice este martes una declaración conjunta de preocupación: «Mitigar el riesgo de extinción de la IA debería ser una prioridad mundial, junto con otros riesgos a escala social como las pandemias y guerra nuclear”.
La declaración lleva la firma de personalidades como Demis Hassabis, director ejecutivo de Google DeepMindDario Amodei de Anthropic y el fundador de OpenAI Sam Altman, entre otros.
Además lleva la firma de pesos pesados en el ámbito científico: Geoffrey Hinton -quien fue butizado como el «padrino» de la IA y tuvo parte de su carrera en Google- y Youshua Bengio, dos de los tres investigadores que ganaron el Premio Turing 2018 (el Nobel de informática) por sus aportaciones a la IA.
El texto fue publicado en el sitio web del Center for IA Safety, una fina organización de Lucro de San Francisco. Tiene apenas una oracion y sin explicación: no fundamental por qué habría un «riesgo de extinción» asociado a la inteligencia artificial ni por qué hacen una comparación con pandemias y guerras nucleares.
La declaración da en un año en el que la inteligencia artificial generativa atrajo un aumento exponencial: desde que se popularizó ChatGPT para crear textos y Midjourney o Stable Difussion para imágenes, todos los tecnología gigante Comenzó a desbloquear estos sistemas en esta dirección, como Google con Bard o Microsoft con Copilot, ambos asistentes de IA para brindar experiencias más accesibles a sus usuarios.
Sin embargo, es la segunda vez en el año que la IA es cuestionada de manera pública y categórica. En marzo de este año, Elon Musk y más de mil expertos firmaron un pedido para hacer una pausa de seis meses en la investigación sobre las IA tan potentes como GPT-4, al anunciar «Grandes riesgos para la humanidad».
Tras la carta, Musk insistió en que la IA «provocaría la destrucción de la civilización». Luego, Bill Gates, fundador de Microsoft, anticipó la desaparición de los docentes. Sí Warren Buffett, el legendario inversionista -y amigo de Gates- también comparó a la inteligencia artificial con una bomba atómica.
En este caso de esta nueva declaración conjunta, la diferencia es que explica muy poco y llega a un escenario catastrófico sin fundamentarlo.
Qué es el «riesgo existencial» y cuán real es
Este tipo de Planteo responde a lo que en el campo se denomina “riesgo existencial” de inteligencia artificial.
“La idea de riesgo existencial tiene que ver con un concepto mal fundado, lo que implica que una inteligencia superior a la humanidad puede decidir extinguir a la humanidad. Un poco va en la línea de la película Terminator y el programa Skynetque toma conciencia de sí y decide volverse contra los humanos», explicó a Clarín Javier Blanco, Doctor en Ciencias de la Computación por la Universidad de Eindhoven, Países Bajos.
«Estas tecnologías como redes neuronales adversativas y aprendizaje automático no tienen ninguna posibilidad de constituir algo así: es una tecnología muy elemental, basada en patrones estadísticos que son reconocibles. Las de generación como ChatGPT son lo mismo pero complementario -sistemas generativos de clasificaciones-, no conlleva ningún riesgo de un tipo de inteligencia que pueda ser una amenaza existencial a la humanidad», agrega.
Las redes neuronales adversas generan nuevas combinaciones de datos por la oposición de diferentes algoritmos. El aprendizaje automáticoo aprendizaje automático, es una rama de la inteligencia artificial que programa técnicas que hacen que las computadoras «para aprender»: mejoran su desempeño con el uso (algo muy patente en ChatGPT, por ejemplo).
La idea del exterminio de la humanidad no deja de ser una quimera para Blanco: «Que eso sea un riesgo a largo plazo es tan probable como que caiga un asteroide gigante y destructya la Tierra: que alguna tecnología podría derivar en entidades cognitivas híbridas o artificiales y que ellas estén esadas en destruir la raza humana es una posibilidad completamente remota”, agrega.
Ahora bien, para el experto y también docente de la Facultad de Matemática, Astronomía, Física y Computación de la UNC (Córdoba), si hay riesgos concretos con estas tecnologías, que no tienen que ver con lo existencial.
“Hay riesgos laborales, de perdidas de puestos de trabajo. De lidiar con ciertas evoluciones que hacen que fingir y engañar sea mucho más factible (noticias falsas, desinformación): eso es un hecho y es uno de los problemas. Todo esto tiene consecuencias difíciles de medir hoy, pero ya impactan en lo social: ahí sí hay una preocupación genuina”, advierte.
También señala como preocupaciones la concentracion de estas tecnologias en un puñado pequeño de empresas: «Es importante poder distinguir preocupaciones genuinas y posibles soluciones -que no obstante no coincida con lo que las corporaciones persiguen- de preocupaciones especulativas e improbable en muchos de los futuros más cercanos».
«Además, en efecto, una diferencia entre una pandemia y una guerra nuclearel desarrollo de la IA no está en la esfera pública, cualquier grupo puede estar haciendo grandes innovaciones en IA por fuera del escrutinio de los estados u otras organizaciones», sentencia.
De este modo, el escenario que bajo el cual se desarrollarán las tecnologías de inteligencia artificial es incierto. «Creemos que los beneficios de las herramientas que hemos desarrollado hasta ahora superan amplificado los riesgos«, aseguró Altman en su declaración ante el Congreso.
Las publicaciones como la de este martes no parecen apoyar su perspectiva, en lo que corona una strategia paradójica: quienes están desarrollando las herramientas más poderosas de inteligencia artificial son los que firman una declaración que advierte sobre el posible exterminio de la humanidad.