Los ciberdelincuentes están aprovechando el crecimiento explosivo de las herramientas de IA del generador, lanzando campañas sofisticadas que difunden software popular como Capcut, Adobe Express y Canva para distribuir malware y dispositivos de secuestro.
ESET advierte que los creadores de contenido están cada vez más dirigidos a través de anuncios de redes sociales, sitios de phishing y plataformas comprometidas. Los atacantes aprovechan los profundos profundos generados por la IA y las herramientas “premium” falsas para robar datos o obtener acceso remoto al sistema de la víctima.
La demanda de herramientas de edición con IA ha creado Goldmine para los actores de amenazas. Las recientes campañas imitan servicios legales como Capcut Pro y Adobe Express, engañando a los usuarios para que descarguen ejecutables que contengan malware disfrazado de editores de video y software de diseño.
Por ejemplo, un sitio Rogue que se hace pasar por Capcut cargará un archivo o le pedirá al usuario que ingrese un mensaje.
Eset dijo a Cyber Security News que los atacantes tienen control total sobre el dispositivo y permiten robo de datos, implementación de ransomware o recolección de calificación, lo que permite a los atacantes tener control total sobre el dispositivo.
La reciente campaña incluyó anuncios falsos de redes sociales que promocionan “Capcut Proai”. Esto permitió a los usuarios redirigir a los sitios que alojan malware diseñado para robar información confidencial, como credenciales de inicio de sesión, billeteras de criptomonedas e historial de navegadores.
Del mismo modo, las páginas de redes sociales secuestradas habían acumulado seguidores masivos de herramientas de IA populares antes de que se cerrara y se distribuyera malware a través de enlaces de descarga maliciosa.
Generación de armas AI y Deepfake
Los actores de amenaza están pasando por alto la detección al mejorar los esquemas con contenido generado por IA. Los videos Deepfake de las figuras públicas se utilizan en publicidad para prestar credibilidad a los servicios falsos. Los atacantes también aprovechan las herramientas de clonación de voz de AI para crear mensajes de phishing convincentes y manipular las llamadas en vivo para desviar los pagos en cuentas fraudulentas.
Los modelos de IA generados agilizan aún más los ataques automatizando la creación de correos electrónicos de phishing y codificación de malware.
Estas herramientas permiten a los piratas informáticos incluso menos calificados lanzar ataques de compromiso de correo electrónico comercial (BEC) con señuelos gramaticalmente perfectos. Por ejemplo, los correos electrónicos de phishing con IA son altamente personalizados y pueden evitar los filtros de spam tradicionales.
YouTube se ha convertido en un vector importante de estas amenazas. Los atacantes comprometen canales para promover tutoriales de software falsos y estafas criptográficas, y a menudo usan videos de Deepfake para imitar el contenido oficial.
En un esquema, los creadores recibieron ofertas de colaboración por correo electrónico, pero solo están dirigidos al malware que disfraza las herramientas de edición. Los investigadores han observado a millones de usuarios que han dirigido amenazas vinculadas a YouTube solo durante el año pasado.
Las extensiones falsas del navegador también representan riesgos. Una extensión maliciosa, Pose como traduce de Google, se promovió a través de anuncios de redes sociales para herramientas de IA, proporcionando malware que roba calificaciones.
Mientras tanto, los sitios de phishing de lona falsos utilizan la marca de la plataforma para aprovechar su reputación como una herramienta de diseño confiable para alojar las páginas de inicio de sesión de robo de credenciales.
Proteger contra las amenazas con IA
Para mitigar el riesgo, los expertos lo recomiendan.
Descargue el software solo de fuentes oficiales. Esto evita sitios de terceros o anuncios de redes sociales. Examine la URL de un dominio mal escrito o anormal (por ejemplo, “CapcutProai” en lugar de “Capcut Pro”). Habilitar la autenticación multifactorial para reducir el riesgo de adquisición de cuentas. Use herramientas de seguridad avanzadas que puedan detectar defensores profundos generados por IA y ejecutables maliciosos. Educar a sus equipos sobre el reconocimiento de las tácticas de ingeniería social, incluidas las solicitudes de colaboración no solicitadas y las solicitudes de emergencia.
El mal uso puede escalar a medida que las herramientas de IA se vuelven más accesibles. Las compañías de seguridad informan un aumento en las amenazas de ingeniería social impulsadas por las tácticas mejoradas por AI.
Para los creadores de contenido, la vigilancia y el escepticismo son defensas clave contra estas amenazas en evolución. Como señala un investigador de seguridad, “los cibercriminales promueven la confianza y la innovación, su conciencia es el escudo más fuerte”.
Informe de tendencia de malware 15,000 incidentes del equipo SOC, trimestre de 2025! -> Obtenga una copia gratis