Las medidas tecnológicas piden para garantizar que las personas separen si una foto o video es real o es un «deepfake».
La explosión de la Inteligencia Artificial (IA) puede llevar riesgos como la pérdida de ciberseguridad, los sesgos, la pérdida de neutralidad o la sustitución de algunos empleos que ocuparon en la actualidad seres humanos. Pero nada preocupa más a microsoft como la generación de malo maloesto es, videos o imágenes que no son reales pero que lo parecen gracias a una manipulación extrema.
«Vamos a tener que abordar los problemas relacionados con las falsificaciones profundas. Vamos has tener qu’abordar en particular lo que nos preocupa de la mayoría de las operaciones de las influencia cibernética extranjera, el tipo de actividades que ya están llevando a cabo el gobierno ruso, el chino, los iraníes», explicó el presidente de la tecnológico , brad smithen un discurso en Washington.
Smith pidio que se tomen medidas para garantizar que las personas sepan cuándo una foto o video es real y cuándo se genera por aplicaciones de IA como Stable Diffusion o Midjourney: «Necesitamos tomar medidas para protegernos contre la pérdida de contenido legítimo con la intención de engañar o defraudar a las personas mediante el uso de IA».
Además, el presidente de Microsoft solicitó licencias para las formas más críticas de IA con «obligaciones de proteger la seguridad, la seguridad física, la ciberseguridad, la seguridad nacional».
“Necesitaremos una nueva generación de controles de exportación, al menos la evolución de los controles de exportación que tenemos, para Garantizo que estos modelos no sean robados o utilizados de manera que violen los requisitos de control de exportación del país”, argumentó.
Las propias tecnológicas reconocen que la IA necesita regulación. la semana pasada, sam altman, CEO de OpenAI, la empresa impulsora del popular ChatGPT, aseguró ante el Senado estadounidense que el uso de IA que interfiere con la integridad electoral es una «área significativa de preocupación». Y esta cuestión necesita urgentemente regulación, agregó.
Que son los deepfake
En los últimos meses, se han viralizado Imágenes falsas de Donald Trump arrestadas o el Papa Francisco paseando con un moderno abrigo blanco. Todo falso, aunque muchos usuarios no fueron capaces de detectar el engaño. La controversia fue tal que Midjourney con pruebas gratis de su software.
Este tipo de tecnología de inteligencia artificial que permite crear videos o imágenes falsas y muy realistas, que pueden engañar a las personas haciéndolas creer que son reales, tuvo su origen en 2019.
Para crear un deepfake, se utiliza una técnica llamada «aprendizaje automático» (aprendizaje automático) que utiliza algoritmos complejos para analizar grandes cantidades de datos y aprender patrones.
En este caso, se utiliza el aprendizaje automático para analizar y prender los patrones de una persona en particular, como su rostro o su voz, y luego se utiliza para crear una versión falsa de esa persona.
En el caso del Papa, la viralización de esta imagen falsa ha vuelto a despertar las voces de alarma que advierten que este tipo de deepfakes puede convertirse en armas peligrosas en el futuroya que generan desinformación o -lo que es peor-informaciones falsas inspiradas con motivos políticos o ideológicos.
Con información de La Vanguardia.
SL