La proliferación de chatbots de inteligencia artificial (IA), como ChatGPT, ha permeado en diversos ámbitos, incluido el oscuro mundo de la ciberdelincuencia. Aunque algunos hackers han tratado de aprovechar la tecnología para programar malware, los expertos señalan que las barreras de seguridad impuestas por los fabricantes, como OpenAI, han obstaculizado sus esfuerzos. A pesar del interés creciente en la inteligencia artificial generativa, la capacidad de desarrollar malware a través de estos chatbots sigue siendo limitada y no confiable.
Interés Criminal en la Inteligencia Artificial Generativa
Según un informe de Trend Micro, el uso de la inteligencia artificial generativa ha suscitado un creciente interés en el mundo criminal. Algunos hackers han intentado utilizar chatbots como ChatGPT para escribir o mejorar el código fuente de aplicaciones maliciosas. Sin embargo, enfrentan un obstáculo común: las barreras de seguridad implementadas por los fabricantes.
Desafíos de Eliminar las Barreras de Seguridad
Las barreras de seguridad establecidas por OpenAI han llevado a los hackers a buscar alternativas para eludir la censura. Algunos foros ofrecen consejos para realizar jailbreak a ChatGPT y eliminar las limitaciones, mientras que otros proponen versiones personalizadas para desarrollar malware. A pesar de estos intentos, Trend Micro advierte que ninguna de estas opciones es confiable en la actualidad.
Modelos de IA en el Mercado Negro
Expertos en seguridad sugieren que algunos modelos de IA disponibles en el mercado negro podrían ser versiones de chatbots como ChatGPT con jailbreak. Estas aplicaciones podrían redirigir las solicitudes a los servicios de OpenAI utilizando una red privada virtual (VPN). Aunque se han anunciado varias de estas alternativas, la mayoría no está a la venta ni disponible para su uso.
El Caso de WormGPT
Entre las múltiples opciones, WormGPT se presenta como la única alternativa real. Esta “versión oscura” de ChatGPT surgió en la dark web como una manera de sortear las restricciones impuestas por OpenAI. WormGPT afirma tener la capacidad de desarrollar aplicaciones maliciosas utilizando lenguaje natural y Python, muchas de las cuales son difíciles de detectar por los sistemas de antivirus.
La Efímera Existencia de WormGPT
Aunque WormGPT demostró su eficacia en la creación de malware y correos de phishing, su visibilidad atrajo una atención no deseada. El creador de WormGPT reveló que el proyecto se basó en GPT-J, un modelo de código abierto con 6.000 millones de parámetros. Sin embargo, debido a la publicidad negativa en los medios de comunicación, el proyecto se vio forzado a poner fin a su existencia.
A pesar de los intentos de algunos hackers por utilizar la inteligencia artificial generativa para programar malware, las limitaciones técnicas y las barreras de seguridad han demostrado ser desafíos significativos. Aunque se han propuesto alternativas como WormGPT, su viabilidad y confiabilidad son cuestionables. El desarrollo de una IA enfocada en actividades ilegales es costoso y arriesgado, lo que plantea dudas sobre la legitimidad de muchos chatbots ofrecidos en la dark web. En última instancia, la búsqueda de una solución eficaz para la ciberdelincuencia mediante la inteligencia artificial sigue siendo un camino incierto.
De interés: Microsoft escanea archivos ZIP protegidos en la nube en busca de malware
¡Síguenos en Google News, Facebook y Twitter para mantenerte informado con las mejores noticias!
