¿Qué será lo próximo? es la pregunta que nos hacemos frente al aluvión de noticias sur inteligencia artificial que actualmente inundan los titulares. Sin embargo, en 2018 esta tecnología, que rompe esquemas, pasó más inadvertida. Por entonces, el Ministerio de Primera Infancia de la provincia de Salta, Argentina, y el gigante estadounidense Microsoft, presentaron un sistema algorítmico para predecir el embarazo adolescente. Una aplicación pionera en este campo, a nivel estatal, que llamaron «Plataforma Tecnológica de Intervención Social». Sin embargo, los medios revelaron que sus sugerencias eran mucho más preocupantes.
Juan-Manuel Urtubey, El que fuera era el gobernador de Salta, declaró abiertamente en la televisión: “Con esta tecnología se puede prever con cinco o seis años de anticipación, con nombre, apellido y domicilio, esa chica esta predestinada en un 86% a tener un embarazo adolescente«. No obstante, una vez obtenidos los resultados, no detallaron qué pasaría después. Y además, las variables en las que basaba el funcionamiento de esta IA eran poco transparentes.
Fue Wired quien destapó el caso y detallaba que la base de datos del sistema construido con 200.000 residentes de la ciudad de Salta, incluidas 12.000 mujeres y niñas de entre 10 y 19 años, accediendo a información personal y sensible como la edad, etnia, país de origen, discapacidad y si la vivienda disponía de agua caliente en el baño.
Además te confirmaré que «oficiales territoriales» Hicieron visitó las casas de las niñas, donde realizó encuestas, tomó fotos y registró sus quedaron en el GPS. Y se indica que la idea de esta vigilancia de cerca era usar en los barrios pobres de la zona y monitorear también a los inmigrantes ya los indígenas.
Allá ausencia de una regulación de la IA en Argentina ha impedido una revisión formal y exhaustiva de la IA usada. Así como examine su impacto sobre las adolescentes que salieron etiquetadas por el sistema. Tampoco quedó claro si se elimina por completo el uso del programa.
amarillo Laboratorio de Inteligencia Artificial Aplicada de la Universidad de Buenos Aires ya en evidencia los errores de diseño de la plataforma y rechazó que el porcentaje de certeza de las predicciones fuera tan alta como se había declarado. Y uno de los investigadores matizaba que este tipo de problemas pueden llevar a los políticos a tomars decisiones erróneas.
Otro caso de inteligencia artificial usado a nivel estatal fue el del Gobierno Holandés tuvo que dimitir al completo en febrero de 2021, por una falla del sistema de IA que detectó erróneamente un fraude en los subsidios para cuidar niños acusando a 26.000 familias. Esto dejó una bola de nieve e hizo que el gobierno dimitiera. Por lo tanto, hay preguntas que son importantes hacerse antes de cidir usar un sistema que puede equivocarse.
El sistema de IA usado en Argentina fue promocionado como ‘futurista’. Los expertos que analizaron este caso llegaron a mencionar que detrás de ello hay un persistente impulso eugénésico gestionada por unos pocos.
Versión extrema
China va todavía más allá en el uso de la tecnología, con Vigilancia genética, para determinar que los ciudadanos estén predispuestos a sufrir una enfermedad concreta. Y con el programa `exámenes médicos para todos´ Amnistía Internacional y otros denunciaron que en Sinkiang se recogió de manera forzada muestras de sangre, escaneo de rostro y grabación de voz estando detrás de ello el uso de inteligencia artificial para hacer un mapa genético y un monitoreo de la población.
bajo la lupa
Sobre las implicaciones de noticias como las de Argentina, Rafael Amodirector de la Cátedra de bioética de la Universidad Pontificia Comillas, dijo que lo más evidente es la pérdida de respeto a la timidez de las personas derivadas del principio bioético de autonomía.
Los Estados Unidos, y en particular la Unión Europea están desarrollando planes para auditar los sistemas algorítmicos. Y amo especifica muchos intentos por hacer una legislacion de la inteligencia artificial que se robusta y confiable, supone controlar los datos. Porque la inteligencia artificial se alimenta de ellos y se han convertido en el oro liquido de este momento Y lo primero que debe hacer toda la regulación de la IA es encargarse de proteger la intimidación.
Por ello Amo recalca que “por autonomía tenemos derecho a la confidencialidad de nuestros datos, especialmente los de salud. Y violentar esta cuestión supone quebrar ese acuerdo. Y si además esto ocurre en el caso de menores y con la gente más vulnerable, eso supondría al final el control de los mas morones«.