OpenAI confirma que los piratas informáticos están utilizando ChatGPT para crear malware


OpenAI ha confirmado que los piratas informáticos están explotando su modelo de inteligencia artificial ChatGPT para crear malware y realizar ciberataques.

La firma de investigación de inteligencia artificial ha publicado un informe que detalla más de 20 casos en los que actores de amenazas han intentado utilizar ChatGPT con fines maliciosos desde principios de 2024.

El informe, titulado “Influencia y operaciones cibernéticas: lo último”, revela que grupos de piratas informáticos patrocinados por estados como China e Irán están aprovechando las capacidades de ChatGPT para impulsar operaciones cibernéticas ofensivas. Estas actividades van desde depurar código de malware hasta generar campañas de phishing y contenido de desinformación en las redes sociales.

Un incidente notable involucró a un actor de amenazas chino llamado “SweetSpecter” que intentó utilizar ChatGPT para reconocimiento, investigación de vulnerabilidades y desarrollo de malware. El grupo apuntó directamente a OpenAI con un fallido ataque de phishing contra los empleados de la empresa.

Analice enlaces sospechosos utilizando la nueva herramienta de navegación segura de ANY.RUN: pruébela gratis

Explotación de OpenAI por parte de actores de amenazas

Otra amenaza grave provino del grupo iraní CyberAv3ngers, asociado con el Cuerpo de la Guardia Revolucionaria Islámica. Los atacantes utilizaron ChatGPT para investigar vulnerabilidades en sistemas de control industrial y generar scripts para posibles ataques a infraestructuras críticas.

OpenAI también identificó un tercer grupo iraní, STORM-0817. El grupo utilizó modelos de inteligencia artificial para desarrollar malware para Android que podría robar datos confidenciales del usuario, como contactos, registros de llamadas e información de ubicación.

Seduce contenido usando ChatGPT

Si bien estos hallazgos son alarmantes, OpenAI enfatizó que el uso de ChatGPT no ha resultado en avances significativos en la creación de malware o en la capacidad de crear audiencias virales para actividades de influencia.

La compañía dijo que la actividad observada es consistente con su evaluación de las capacidades de GPT-4 y no cree que represente una explotación significativa de la vulnerabilidad en el mundo real.

Sin embargo, el informe destaca la creciente preocupación por el uso indebido de las herramientas de inteligencia artificial para delitos cibernéticos. A medida que la IA generativa se vuelve más sofisticada y accesible, existe el riesgo de que reduzca la barrera de entrada para los piratas informáticos menos capacitados, lo que podría conducir a un aumento de los ciberataques de bajo nivel.

En respuesta a estas amenazas, OpenAI está tomando medidas para detener la actividad maliciosa, incluida la prohibición de cuentas asociadas con operaciones identificadas. La compañía también colabora con socios de la industria y partes interesadas para compartir inteligencia sobre amenazas y fortalecer las defensas colectivas de ciberseguridad.

Los expertos en ciberseguridad advierten que es probable que esta tendencia continúe a medida que evolucione la tecnología de inteligencia artificial. Destacan la necesidad de que las empresas de IA desarrollen mecanismos de detección y salvaguardias sólidos para evitar que sus modelos sean explotados con fines maliciosos.

Las revelaciones de OpenAI sirven como una llamada de atención para que la industria tecnológica y los responsables políticos aborden los riesgos potenciales asociados con los sistemas avanzados de IA.

A medida que la IA se integra cada vez más en muchos aspectos de nuestra vida digital, mitigar la amenaza que representan los actores maliciosos que explotan estas poderosas herramientas requiere un equilibrio entre innovación y seguridad.

OpenAI está comprometido con esfuerzos continuos para identificar, prevenir y frustrar los intentos de explotar nuestros modelos con fines dañinos. La compañía continuará compartiendo sus hallazgos con la comunidad de investigación en general para fortalecer la defensa en profundidad contra los ciberatacantes de los estados-nación y las operaciones de influencia encubiertas.

A medida que el panorama de la IA continúa evolucionando, la colaboración entre los desarrolladores de IA, los expertos en ciberseguridad y las agencias gubernamentales es esencial para adelantarse a las nuevas amenazas y garantizar que los beneficios de la tecnología de IA se realicen sin comprometer la seguridad global. La vigilancia y la cooperación serán esenciales.

Estrategias para proteger su sitio web y API de ataques de malware => Webinar gratuito

OpenAI Confirms Hackers Using ChatGPT to Create Sophisticated Malware