Te contamos que son los rostros GAN y cómo esta tecnología de inteligencia artificial puede ser usada para engañar personas.
Las herramientas basadas en inteligencia artificial pueden ser de gran utilidad para automatizar tareas repetitivas o peligrosas que normalmente requerirían la intervención humana. Sin embargo, como toda herramienta novedosa y disruptiva, esta puede usarse para el bien como también para el mal. Y en esto último los ciberdelincuentes son grandes expertos.
Ahora, la compañía especializada en ciberseguridad ESET, alertó acerca de la tecnología GAN para crear rostros realistas y otro tipo de imágenes, incluso audios o videos de personas que no existen a través de un sistema de algoritmos que se basan en el Deep Learning.
¿Cómo funciona la tecnología GAN?
ESET explicó que esta tecnología necesita datos de entrada, como pueden ser rostros reales de diferentes personas, y el modelo ofrece como resultado nuevas caras con características de apariencia real.
Si bien los rostros GAN son de gran ayuda para industrias como la de los videojuegos para la generación de rostros para los personajes, o para efectos visuales que luego son utilizados en películas, lamentablemente también pueden ser utilizados con fines malintencionados.
De hecho, estudios publicados ya daban cuenta a fines de 2021 que las imágenes creadas mediante Inteligencia Artificial son cada vez más convincentes y que existe un 50% de posibilidades de confundir un rostro falso con uno real.
Por estos motivos, te contaremos algunos ejemplos de cómo pueden ser utilizados por ciberdelincuentes.
¿Cuáles son los usos maliciosos de los rostros GAN?
Crear perfiles falsos
Con las redes GAN pueden crear imágenes o incluso videos de personas conocidas, o no, para engañar a las víctimas y persuadirlas para que revelen información confidencial, como nombres de usuario y contraseñas, o hasta incluso los números de tarjetas de crédito.
Crear fake news
Los rostros creados con tecnología GAN pueden ser utilizados para promover las noticias falsas, con videos o imágenes que se hacen pasar por personas reales, el potencial es enorme.
Robo de identidad
La creación de rostros similares a los de personas públicas, como celebridades, puede facilitar los fraudes de robo o suplantación de identidad.
Por ejemplo, hay que pensar en el reconocimiento facial como método de autenticación y las posibilidades que ofrecen los rostros GAN como instrumento para sortear este método de autenticación y acceder a la cuenta de un tercero.
Fraude en las aplicaciones de citas y redes sociales
Los cibercriminales pueden crear rostros falsos que son utilizados para crear perfiles falsos en aplicaciones de citas o perfiles de redes sociales como parte de su estrategia para engañar y luego extorsionar a las víctimas. Compañías como Meta revelaron el aumento de perfiles falsos en los que se utilizaban imágenes artificiales creadas por una computadora.
¿Cómo evitar las estafas frente a la generación de imágenes y videos GAN?
- Verificar la fuente: asegurarse de que la fuente de la imagen es confiable y verificar la veracidad de dicha imagen.
- "No todo lo que brilla es oro": desconfiar de las imágenes que parecen demasiado perfectas. Mayormente las imágenes generadas por este tipo de tecnología tienen un aspecto perfecto y sin defectos, por lo que es importante desconfiar de ellas. Si una imagen o video parece sospechoso, buscar más información al respecto en otras fuentes confiables.
- Verificar las imágenes o videos: existen algunas herramientas como Google Reverse Image Search en línea que pueden ayudar a verificar la autenticidad de imágenes y videos.
- Actualizar los sistemas de seguridad: mantener los sistemas de seguridad al día para estar protegidos contra las estafas y el malware.
- Instalar un software antivirus de buena reputación: no solo ayudará a detectar código malicioso, sino a detectar sitios falsos o sospechosos.
- No compartir información confidencial: no compartir información personal o financiera con nadie que no conozcas.
Te puede interesar: ChatGPT responde cómo dominaría la Inteligencia Artificial a la humanidad