La capacidad de ChatGPT para crear un malware imposible de detectar ha alertado a los expertos en ciberseguridad.
El reconocido chatbot ChatGPT, desarrollado por OpenAI, continúa sorprendiendo al mundo con su versatilidad y habilidades mejoradas. Desde su lanzamiento, ChatGPT ha cambiado nuestra percepción de la inteligencia artificial al demostrar su capacidad para realizar diversas tareas y, ahora, se han descubierto nuevas funciones aún más impactantes.
Si bien ChatGPT ha sido ampliamente utilizado en aplicaciones de Microsoft e incluso se ha probado en juegos como Minecraft, su potencial para el bien y el mal ha sido objeto de debate.
La utilidad de este chatbot supera con creces cualquier expectativa previa. Ya no estamos hablando solo de una IA que convierte texto en imágenes, sino de un asistente virtual que responde a todas nuestras preguntas y demandas. ChatGPT puede proporcionar soluciones a nuestros problemas y respuestas a nuestras preguntas, lo que nos abre un mundo de posibilidades sin precedentes.
ChatGPT tiene el potencial para crear malware mutante y evitar ser detectado
Sin embargo, junto con todas las ventajas que ofrece ChatGPT, también han surgido preocupaciones sobre sus posibles aplicaciones maliciosas.
Recientemente se ha revelado que ChatGPT tiene la capacidad de crear malware mutante que resulta casi imposible de detectar y eliminar. Este descubrimiento plantea un desafío significativo para la seguridad cibernética, ya que las técnicas tradicionales, como la detección y respuesta de puntos finales (EDR), podrían no ser efectivas contra este tipo de amenaza.
Aunque hasta ahora no se ha confirmado que ChatGPT haya creado software malicioso que sea indetectable, los expertos en seguridad advierten sobre la posibilidad de que esto ocurra en el futuro.
Pruebas de seguridad en ChatGPT
Aunque los creadores de ChatGPT implementaron filtros para evitar la generación de código malicioso y limitar ciertos temas de conversación, se ha demostrado que estos filtros pueden ser superados. Jeff Sims, ingeniero de seguridad de HYAS InfoSec, presentó un proyecto llamado BlackMamba que revela el potencial de ChatGPT para crear malware mutante.
BlackMamba es una aplicación de tipo keylogger polimórfico que envía solicitudes a ChatGPT a través de una API cada vez que se ejecuta. Según Sims, esto permite evadir las técnicas de detección tradicionales, lo que dificulta su identificación como malware.
Otra empresa de ciberseguridad llamada CyberArk también ha demostrado cómo ChatGPT puede modificar scripts y evitar ser detectado. Estas pruebas de concepto son solo el comienzo, y es solo cuestión de tiempo antes de que los expertos en seguridad logren hacer que esta capacidad sea completamente funcional.
Te puede interesar: Creador de Black Mirror quiso usar a ChatGPT para escribir un episodio y el resultado lo decepcionó: “Una m****a”