Elon Musk y más de mil expertos mundiales firmaron el miércoles un llamado para hacer una pausa de seis meses en la investigación sobre inteligencias artificiales (IA) más poderosas que ChatGPT 4, la versión de OpenAI lanzada este mes, al advertir de «Grandes riesgos para la humanidad».
En la petición publicada en el sitio futurodevida.orgpiden una moratoria hasta que establezcan sistemas de seguridad con nuevas autoridades reguladoras, vigilancia de los sistemas de IA, Técnicas que ayudann a distinguir entre lo real y lo artificial.e instituciones capaces de hacer frente a la «dramática perturbación económica y política (especialmente para la democracia) que provocará la IA».
La firman personalidades que han sentidos sus temores sobre una IA uncontrollable que supera a los humanos, como Musk, dueño de Twitter y fundador de SpaceX y Tesla, y el historiador Yuval Noé Hariri.
El director de Open AI, que diseñó ChatGPT, Sam Altman, ha admitido su identidad «un poco de miedo» de que su creación se utilice para «desinformación a gran escala o ciberataques».
“L’empresa necesita tiempo para adaptarse”, dijo recientemente ABCNews a ABCNews.
“En los últimos meses hemos visto cómo los laboratorios de IA se han lanzado a una carrera descontrolada para desarrollar y desplegar cerebrosdigits cada vez más potentes que nadie, ni siquiera sus creadores, pueden oír, predecir o controlar de manera fiable”, afirman.
«¿Debemos permitir que las máquinas inunden nuestros canales de información con propaganda y mentiras? Estas decisiones no deben delegar en líderes tecnológicos no electos«, concluye.
Entre las dos firmas figuraba el cofundador de Apple, Steve Wozniak, miembro del laboratorio de IA DeepMind de Google, director de Stability AI, Emad Mostaque, así como expertos y académicos estadounidenses de IA e ingenieros ejecutivos de Microsoft, empresa aliada de IA abierta.
A continuación, el manifiesto completo para frenar avances en IA:
Pausar experimentos gigantes de IA: un mapa abierto
Hacemos un llamado a todos los laboratorios de IA para que pausen inmediatamente durante al menos 6 meses el entrenamiento de los sistemas de IA más potentes que GPT-4.
Los sistemas de IA con inteligencia humana-competitiva pueden plantar riesgos profundos para la sociedad y la humanidad, como lo demuestra una extensa investigación [1] y reconocido por los principales laboratorios de IA. [2] Como se establece en los Principios de IA de Asilomar ampliamente respaldados, la IA avanzada podría representar un cambio profundo en la historia de la vida en la Tierra, y debe planificarse y administrarse con el cuidado y los recursos correspondientes.
Desafortunadamente, este nivel de planificación y gestión no está ocurriendo, a pesar de que en los últimos meses los laboratorios de IA han entrado en una carrera fuera de control para desarrollar e implementar ments digitales cada vez más poderosas que nadie, ni siquiera sus creadores, puedo oir. predecir o controlar de forma fiable.
Los sistemas de IA contemporáneos ahora se están volviendo competitivos para los humanos en tareas generales, [3] y debemos preguntarnos: ¿Deberíamos dejar que las máquinas inunden nuestros canales de información con la propaganda y el falso padre? ¿Deberíamos automatizar todos los trabajos, incluidos los de cumplimiento? ¿Deberíamos desarrollar mentes no humanas que eventualmente podrían superarnos en número, ser más, obsoletas y reemplazarnos? ¿Deberíamos arriesgarnos ha perdido el control de nuestra civilización? Tales decisiones no deben delegarse en líderes tecnológicos no elegidos.
El hueso potent systems of IA deben desarrollarse solo una vez que estemos seguros de que sus efectos serán positivos y sus riesgos serán manejables. Esta confianza debe estar bien justificada y aumentar con la magnitud de los efectos potenciales de un sistema. Declaración de destinatario de OpenAI con respecto a la inteligencia artificial general establece que «en algún momento, puede ser importante obtener una revisión independiente antes de comenzar a entrenar sistemas futuros, y para los esfuerzos más avanzados para acordar la tasa de crecimiento de la computación utilizada para crear nuevos modelos«. Estamos de acuerdo. Ese punto es ahora.
Por lo tanto, hacemos un llamado a todos los laboratorios de IA para que pausa instantánea durante el mes de 6 meses y entre sistemas de IA más potentes que GPT-4 . Esta pausa debe ser pública y verificable, e incluir a todos los actores clave. Si tal pausa no se puede promulgar rápidamente, los gobiernos deberán intervenir e instituir una moratoria.
Los laboratorios de IA y los expertos independientes deben probar esta pausa para desarrollar e implementar conjuntamente un conjunto de protocolos de seguridad compartidos para el diseño y desarrollo avanzados de IA que son rigurosamente auditados y supervisados por expertos externos. Estos protocolos deben garantizar que los sistemas que se adhieren a ellos sean seguros más allá de toda duda razonable. [4] Esto no significa una pausa en el desarrollo de la IA en general, simplemente un paso atrás de la carrera peligrosa hacia modelos de caja negra impredecibles cada vez más grandes con habilidades emergentes.
La investigación y el desentrañamiento de IA deben reforzarse en hacer que los sistemas potentes y de última generación de hoy en día sean más precisos, seguros, interpretables, transparentes, robustos, alineados, confiables y leales.
Al mismo tiempo, los desarrolladores de IA deben trabajar con los legisladores para acelerar drásticamente el desarrollo de sistemas sólidos de gobierno de IA. Estos deben incluir como mínimo: nuevas autoridades reguladoras y capacidades dedicadas a la IA; supervisión y monitoreo de sistemas de IA de alta capacidad y conjuntos de gran capacidad informática; sistemas de procedencia y marcas de agua para ayudar a distinguir las fugas reales de las sintéticas y rastrear modelos; un sólido ecosistema de auditorios y certificación; responsabilidad por daños causados por IA; financiamiento público solidificado para la investigación técnica de seguridad de la IA; Estas instituciones están bien dotadas para hacer frente a las dramáticas perturbaciones económicas y políticas (especialmente en democracia) que provocan las IA.
La humanidad puede disfrutar de un futuro floreciente con la IA. Habiendo tenido éxito en la creación de poderosos sistemas de IA, ahora podemos disfrutar de un «verano de IA» en el que cosechamos las recompensas, diseñamos estos sistemas para el claro beneficio de todos y le damos a la sociedad la oportunidad de adaptar. La sociedad ha hecho una pausa en otras tecnologías con efectos potencialmente catastróficos en la sociedad. [5] Podemos hacerlo aquí. Disfrutemos de un largo verano de IA, no nos apresuremos a caer sin estar preparado.
Notas y referencias del mapa
[1] Bender, EM, Gebru, T., McMillan-Major, A. y Shmitchell, S. (marzo de 2021). Sobre los peligros de los estocásticos loros: ¿Pueden los modelos de lenguaje ser demasiado grandes?🦜. En Actas de la conferencia ACM de 2021 sobre equidad, responsabilidad y transparencia (págs. 610-623).
Bostrom, N. (2016). Superinteligencia. Prensa de la Universidad de Oxford.
Bucknall, BS y Dori-Hacohen, S. (julio de 2022). La IA real ya corto plazo como posible factor de riesgo existencial. En Actas de la Conferencia AAAI/ACM de 2022 sobre IA, Ética y Sociedad (págs. 119-129).
Carlsmith, J. (2022). ¿Es la IA que busca poder un riesgo existencial? . preimpresión de arXiv arXiv:2206.13353.
Cristiano, B. (2020). El problema de la alineación: aprendizaje automático y valores humanos. Norton y Compañía.
Cohen, M. et al. (2022). Agentes artificiales avanzados intervienen en el suministro de la recompensa. Revista AI, 43 (3) (páginas 282-293).
Eloundou, T., et al. (2023). Los GPT son GPT: una mirada temprana al potencial de impacto en el mercado laboral de los modelos de lenguaje grande.
Hendrycks, D. y Mazeika, M. (2022). Análisis de Riesgo X para investigación de IA . preimpresión de arXiv arXiv:2206.05862.
Ngo, R. (2022). El problema de la alineación desde una perspectiva de aprendizaje profundo. preimpresión de arXiv arXiv:2209.00626.
Russell, S. (2019). Compatible con humanos: inteligencia artificial y control de problemas. Vikingo.
Tegmark, M. (2017). Life 3.0: Ser Humano en la era de la inteligencia artificial. Knopf.
Weidinger, L. y otros (2021). Riesgos éticos y sociales de daño de los modelos lingüísticos. preimpresión de arXiv arXiv:2112.04359.
[2] Orden, V. et al. (2023, 16 de marzo). El CEO de OpenAI, Sam Altman, dice que la IA remodelará la sociedad y reconocerá los riesgos: «Esto me asusta un poco» . ABC Noticias.
Perrigo, B. (2023, 12 de enero). El CEO de DeepMind, Demis Hassabis, insta a la precaución con la IA . Timpo.
[3] Bubeck, S. et al. (2023). Chispas de inteligencia artificial general: primeros experimentos con GPT-4 . arXiv:2303.12712.
IA abierta (2023). Información técnica GPT-4 . arXiv:2303.08774.
[4] Hay un amplificador legal previo; por ejemplo, los Principios de IA de la OCDEampliamente adoptados, exigen que los sistemas de IA «funcionen adecuadamente y no planten un riesgo de seguridad irrazonable».
[5] Los ejemplos incluyen la clonación humana, la modificación de la línea germinal humana, la investigación de la ganancia de función y la eugenesia.