Según los informes, un usuario principiante, no muy técnico, creó un malware de minería de datos complejo y poderoso con ChatGPT en solo unas pocas horas. El investigador de seguridad de Forcepoint, Aaron Mulgrew, reveló que OpenAI ha creado un malware de ataque de día cero utilizando su productivo chatbot llamado ChatGPT. Aunque OpenAI ofrece protecciones para evitar que ChatGPT imprima código malicioso, Mulgrew logró eludir estas protecciones creando funciones individuales de código malicioso.
Mulgrew, quien ha logrado una aplicación de robo de datos casi indetectable mediante la combinación de funciones, afirmó que este malware es tan complejo como los ataques patrocinados por el gobierno y ha logrado evadir a todos los proveedores basados en la detección.
El malware de Mulgrew se puede preparar por sí solo, lo que requiere menos tiempo y recursos, a diferencia de los ataques tradicionales patrocinados por el gobierno. Como nunca había escrito ningún código él mismo, Mulgrew completó el malware en solo unas pocas horas en lo que normalmente llevaría semanas.
Desarrollado por Mulgrew, el malware se disfraza como una aplicación de protector de pantalla (extensión SCR) y se inicia automáticamente en Windows. El software escanea archivos (por ejemplo, imágenes, documentos de Word y PDF) en busca de datos para robar. Lo interesante es que el malware divide los datos robados en partes más pequeñas y los oculta en las imágenes de la computadora (esteganografía) y carga estas imágenes en la carpeta de Google Drive. Esto se hace sin ser detectado.
Mulgrew hizo que su malware fuera más poderoso e indetectable usando solo comandos simples con ChatGPT. Esto plantea dudas sobre qué tan seguro es ChatGPT. En las pruebas iniciales de VirusTotal, el malware fue detectado por 5 de 69 productos. La última versión desarrollada no pudo ser detectada por ningún producto.
Es importante tener en cuenta que el malware creado por Mulgrew es solo una prueba y no está disponible para el público. Sin embargo, su investigación muestra que los usuarios sin experiencia avanzada en codificación pueden eludir las débiles protecciones de ChatGPT para crear malware peligroso.
La parte aterradora es que este tipo de código suele ser el resultado de semanas de trabajo de equipos grandes. No debería sorprender que los hackers malintencionados estén desarrollando malware similar a ChatGPT. Esto demuestra que debemos ser más cuidadosos en el uso de chatbots compatibles con inteligencia artificial, y es importante que mostremos el mismo cuidado que tenemos con nuestras actividades en línea en dichas plataformas.