as its los peligros asociados a la inteligencia artificial de moda

as its los peligros asociados a la inteligencia artificial de moda

Con la inteligencia artificial (IA) en el centro de la escena pública, varios tipos de estafas surgieron de la mano de ChatGPT, el chat popular que permite interactuar con el lenguaje natural y que simula la conversación humana. Y esto era un tanto inevitable: con el último grito de la moda tech aparece el malware (virus), las aplicaciones truchas y más.

Primero vale la pena recordar de qué se trata este chat: «ChatGPT es un ejemplo de programa capaz de sostener diálogos diversos en lenguaje natural, trabajar con técnicas donde participan humanos, tanto en el acceso a conversaciones de las cuales aprender como en el proceso posterior de evaluar y mejorar las interacciones”, explica Javier Blanco, doctor en informática de la Universidad de Eindhoven, Holanda.

A partir de este concepto, diversos usos comenzaron a parecer: desde escribir correos electrónicos hasta hacer ensayos para la facultad, pasando por escritos laborales legales, todo el mundo comenzó a sacar probado esta tecnología, tan asombrosamente como incluso cuestionada.

Y el gran problema que trae aparejado cualquier avance tecnológico masivo es, casi siempre, el peligro que conlleva para ciberataques: por más usuarios que haya, más se aumenta el área de ataque.

En este sentido hay que distinguir dos grandes categorías: por un lado, usando ChatGPT para escribir código malicioso, es decir, «armarlo», converlo en un arma, como se dice en la jerga. Esto exigió un conocimiento por parte de los ciberdelincuentes que, como se ha visto, ya ha sido aprovechado.

Pero por el otro, hay un costado más tangible y cercano al usuario promedio, ahí está ese mar engañado, tanto al usar esta herramienta como al intentar instalarla. Ya aca vale recordar que ChatGPT no contiene ninguna aplicación oficialcon lo que cualquier cosa que se instale est muy probable que siendo un dolor de cabeza a futuro.

Acá, los expertos dan a conocer los posibles peligros que entraña ChatGPT en la actualidad, los cuidados que hay que tener y, por último, los aspectos positivos que isa tecnología tiene para combatir el cibercrimen.

ChatGPT no aplicable: qué cuidados tener

Para usar desde el teléfono hay qu'abrirlo via navegador.  Foto de Bloomberg


Para usar desde el teléfono hay qu’abrirlo via navegador. Foto de Bloomberg

Uno de los riesgos más comunes es bajar una aplicación que diga ser ChatGPT y en realidad no lo sea. es decir, un programa apócrifo.

«Hay aplicaciones que tienen la apariencia de una aplicación real de ChatGPT pero con objetivos maliciosos, como suscribirnos a un servicio en puntual haciéndole perder plata a la víctima o robar datos confidenciales como contactos, SMS, archivos u otros datos de nuestro celular», explica Alberto Herrera de Pucará, empresa de seguridad informática.

Además, hay páginas web apócrifas que dicen ser el ChatGPT oficial: «Muchos estafadores crean páginas para robo de datos financieros de crédito o de cuentas de bancos», explicó.

En este sentido vale recordar que la única de acceso de manera oficial a ChatGPT para el público general es a través de su sitio oficial: chat.openai.com.

Para otro problema recurrente en las campañas de phishing: «Los engaños también llegan por correo con dominios o direcciones parecidas a las de ChatGPT, con paginas clonadas para engañar al usuario en la instalación de aplicaciones maliciosas».

Por esto es clave estar atentos a ciertos signos: «Antes de instalar una aplicación en nuestro celular debemos ver que la misma proceda de una tienda con reputación de Google Play en Android o Tienda de aplicaciones in iOS y que la misma ha sido descargada varias veces por otros usuarios y que tenga gran cantidad de opiniones”, explícito.




Las cuestiones clave a la hora de instalar una aplicación: ChatGPT no tiene, con lo cual no conviene instalar nada relacionado.  Imágenes Google Play Store


Las cuestiones clave a la hora de instalar una aplicación: ChatGPT no tiene, con lo cual no conviene instalar nada relacionado. Imágenes Google Play Store

Otro gran problema son las extensiones de los navegadores, que pueden transformarse en un vector de ataque.

«Antes de la instalación una extensión es importante para verificar todas las preguntas: que el dominio o dirección web sea del navegador en el cual queremos instalar la aplicación -google.com por ejemplo-, que revisar la cantidad de descargas -cuantas más, plus-, que posea opiniones o comentarios de diversos usuarios, que tenga buena reputación y que en lo posible siga las buenas prácticas de Google o el proveedor del navegador que elijamos.

Tampoco hay extensión oficial de GPT para Chrome, aunque sí hay otras compañías y son confiables, pero no oficiales (y por lo tanto puede ser dudoso el uso de los datos del usuario).

ChatGPT como socio de ciberdelincuencia

Ransomware: una de las actividades que puede utilizar ChatGPT.  Blog de fotos Lockbit


Ransomware: una de las actividades que puede utilizar ChatGPT. Blog de fotos Lockbit

«ChatGPT también ha añadido algo de sabor al panorama moderno de amenazas cibernéticas, ya que rápidamente hizo evidente que la generación de código puede ayudar a los actores de amenazas menos calificados a lanzar ataques cibernéticos sin esfuerzo«, plantó Dario Opezzo, Gerente Regional de Ventas de Palo Alto Networks.

«Descubra que al utilizar ChatGPT, puede llevar a cabo con éxito un flujo de infección completo, desde la creación de un correo electrónico convincente de suplantación de identidad hasta la ejecución de un caparazón inverso, capaz de aceptar comandos en inglés”, suma.

«En los foros clandestinos de la web oscuralos ciberdelincuentes comentan que están usando ChatGPT para crear malware como ladrón de información (robo de información), crear herramientas de cifrado y facilitar la actividad fraudulenta. Los investigadores quieren alerta de aumento de intereses de los atacantes por ChatGPT”, explicó en diálogo con este medio Alejandro Botter, Gerente de Ingeniería de Check Point para el sur de Latinoamérica.

Estos tres casos recientes que detectaron la empresa dedicada a la ciberseguridad dejan en evidencia de qué modo los ciberdelincuentes y estafadores aprovechan esta herramienta.

El primero es con la creación de un «ladrón de información”, un tipo de virus que roba información almacenada en los navegadores (contraseñas, datos personales, de tarjetas, etc.).

“El 29 de diciembre de 2022 apareció un hilo llamado ‘ChatGPT – Beneficios del software malicioso’ en un popular foro clandestino de piratería. El editor de Hilo reveló que estaba experimentando con ChatGPT para recrear variantes y técnicas de malware descritas en publicaciones de investigación y escritos sobre malware común. Estos mensajes parecían estar enseñando a otros atacantes menos capacitados técnicamente cómo utilizar ChatGPT con multas maliciosascon ejemplos reales que se pueden aplicar de inmediato”, agregó Botter.

Un segundo tipo de uso malicioso detectado tuvo que ver con la creación de una herramienta de encendido, es decir, un programa que convierte datos legibles en codificados. Un ciberdelincuente apodado USDoD lo publicó y reconoció que había hecho una parte con GPT. “Este escenario [archivo con instrucciones en un lenguaje de programación] puede modificar para cifrar un equipo sin ninguna interacción del usuario. Por ejemplo, podría convertir el código en ransomware”, señala el experto.

Finalmente, ChatGPT estás en los Estados Unidos por facilitar actividades fraudulentas: «El papel principal del mercado en la economía clandestina ilícita es proporcionar una plataforma para el comercio automatizado de mercancías ilegales o robados as cuentas o tarjetas de pago robadas, malware, o incluso drogas y municiones, con todos los pagos en criptomonedas“, explícito.

Por último, hay una cuestión para nada menor con los datos que nosotros mismos le estamos dando a la aplicación cuando la usamos: «Otro de los problemas que tienen estos modelos de lenguaje es que las mismas ‘aprender“De lo que escribimos, entonces toda la información confidencial o privada que volquemos en la plataforma será utilizada de algún modo”, advierte Herrera de Pucará.

“Para esto es importante generar discusiones sobre moderar y restringir la industria de la IA como ChatGPT, entre otros”, concluye, en un comentario que recibirá la advertencia de Elon Musk y otros técnicos de la semana pasada sobrio regular y suspendido por seis. meses los desarrollos por encima de GPT-4.

En que si puede ser una aliada

ChatGPT ayuda a optimizar los procesos de detección de virus.  Foto Reuters


ChatGPT ayuda a optimizar los procesos de detección de virus. Foto Reuters

Tanto desde Palo Alto como desde CheckPoint coincident en que, un pesar del desarrollo de malware con ChatGPT, no hay que «demonizar» a la inteligencia artificial y ver el lado positivo para, precisamente, perseguir el cibercrimen.

«No debemos tener miedo de la IA, sino verla como un alias porque permite la defensa automatizada. En el caso de Palo Alto Networks, nuestro adelantamos a la curva cuando reconocemos la importancia de la seguridad basada en AI y ML. Por ejemplo, AI y ML en seguridad ayuda ha establecido una línea básica de operaciones normales y luego alertan a un equipo sobre posibles anomalías, creando una guía de automatización qu’ahorra tiempo y recursos”, opinó Opezzo de Palo Alto.

De hecho fue uno de los temas de este año en la reunión anual del Foro Económico Mundial, donde líderes de gobiernos, empresas y ciberseguridad Discutiremos sobre la intersección entre IA y seguridad.

«La IA está ahí dando lugar a avances científicos. Está ayudando a detectar el fraude financiero y desarrollar la resiliencia climática. Es una herramienta que podemos usar para mejorar y avanzar en muchas áreas de nuestras vidas. Esto incluye seguridad y ciberseguridad”, opinó Botter de CheckPoint.

“Al incorporar IA a una arquitectura de seguridad unificada de varias capacidades, las soluciones de ciberseguridad pueden proporcionar un sistema inteligente que no solo detecta, sino que viene activo, los ataques cibernéticos avanzaron«, suma.

Entre los beneficios que puede rastrear la IA para combatir los tocones, el experto enumerará la automatización de tareas repetitivas, la detección automática de incidentes y la “conciencia situacional”es decir, que la inteligencia artificial pueda compilar y procesar datos que arrojen más contexto para advertir una situación peligrosa para el usuario.

Entonces, como toda tecnología, la inteligencia artificial que ChatGPT puede ser un alias o una amenaza. El tiempo seguramente acomode a cada uno de los bandos.

Mira también

Por Emiliano Galván