Nada Elreis
Empresas de todo el mundo se están trasladando cada vez más a la nube. Por ejemplo, la demanda de trabajo remoto ha llevado a una proliferación de servicios basados en la nube, brindando a las empresas flexibilidad y eficiencia de las que carecen los centros de datos tradicionales. Sin embargo, este cambio también trae consigo nuevos riesgos que deben gestionarse con cuidado. De hecho, Gartner predice que para 2027, más del 70% de las empresas dependerán de plataformas basadas en la nube para impulsar el crecimiento. Si bien esta tendencia es prometedora, también tiene el potencial de conducir a un aumento de los ataques basados en la nube.
202220232024 Servicios de infraestructura de aplicaciones en la nube (PaaS) 119,579145,320176,493 Servicios de aplicaciones en la nube (SaaS) 174,416205,221243,991 Servicios de procesos de negocios en la nube (BPaaS) 61,55766,33972,923 Escritorio en la nube como servicio (DaaS) 2.4302.7843.161 Servicios de infraestructura de sistemas en la nube (IaaS) 120.333143.927182.222 Mercado total 478.315563.592678.790
Tabla 1. Previsión del gasto mundial en servicios de nube pública por tipo de servicio de nube (millones de dólares estadounidenses)
(Fuente: Gartner, 2023)
IA y la nube: desatar la innovación y amplificar las ciberamenazas
Los servicios en la nube son esenciales para los negocios modernos, pero conllevan riesgos inherentes que requieren extrema precaución. Las configuraciones erróneas, las vulnerabilidades y debilidades de las API, la falta de visibilidad y los ataques basados en identidades son solo algunas de las amenazas potenciales que pueden comprometer la seguridad de la nube.
A medida que aumente la adopción de la IA, la complejidad aumentará aún más. A medida que más empresas integren herramientas de IA para aumentar la eficiencia de la producción, también aumentarán los ataques basados en la nube que explotan las herramientas de IA. Por ejemplo, el Centro Nacional de Seguridad Cibernética (NCSC) del Reino Unido evaluó el impacto de la IA en el panorama de amenazas y descubrió que la IA aumenta significativamente la efectividad de la ingeniería social y las tácticas de reconocimiento, haciéndolas más difíciles de detectar. Los atacantes pueden analizar rápidamente los datos exfiltrados, lo que aumenta aún más la escala y la gravedad de los ciberataques.
El NCSC espera que el aumento de la IA aumente tanto la frecuencia como el impacto de estas amenazas en los próximos dos años, como se muestra en la Tabla 2. Ya hemos visto el uso de IA generativa (GenAI) en ataques de ingeniería social como Business Email Compromise (BEC). El impacto de estos ataques puede ser costoso. Según un informe del Centro de Cumplimiento de Delitos en Internet del FBI, las pérdidas de BEC alcanzarán los 2.900 millones de dólares en 2023. Además, las pérdidas por fraude de inversiones aumentaron un 38% entre 2022 (3.310 millones de dólares) y 2023 (4.570 millones de dólares). Como veremos más adelante en este artículo, los actores de amenazas abusan cada vez más de las herramientas de IA y GenAI para generar correos electrónicos de phishing, lo que tiene importantes implicaciones en materia de ciberseguridad.
Actores de amenazas de estados-nación altamente capaces Actores de estados-nación competentes, compañías comerciales que venden a estados-nación, grupos cibercriminales organizados Contrataciones de hackers poco calificados, cibercriminales oportunistas, hacktivistas Reconocimiento Aumento moderado Aumento moderado Aumento Ingeniería social, phishing, contraseñas Aumento Aumento Aumento significativo (Desde la base baja) Herramientas (malware, exploits) Posibilidad realista de aumento Aumento mínimo Aumento moderado (desde la base baja) Movimiento lateral de aumento mínimo aumento mínimo aumento sin salida aumento aumento aumento aumento
Tabla 2. Tamaño previsto de las amenazas de IA en los próximos dos años
(Fuente: NCSC, “Impacto a corto plazo de la IA en las amenazas cibernéticas”, 2023)
Una encuesta de PwC realizada en 2024 a ejecutivos de nivel C en todo el mundo encontró que los ataques a la nube surgieron como la principal preocupación de ciberamenaza, y la seguridad de los recursos y la infraestructura de la nube fue identificada como el mayor riesgo. El mal uso de la IA puede aumentar significativamente este riesgo.
Implementación de ataques automatizados: la IA es una herramienta poderosa para que los desarrolladores aceleren sus esfuerzos de codificación y, al mismo tiempo, brinda a los actores de amenazas una forma de automatizar la detección y explotación de vulnerabilidades en la nube. Esta automatización acelera el proceso de ataque y facilita la realización de ataques como la denegación de servicio distribuido (DDoS), que puede reducir la disponibilidad del servicio e interrumpir las operaciones comerciales.
Filtraciones de datos: el uso de IA para analizar conjuntos de datos masivos almacenados en entornos de nube introduce nuevos riesgos para la privacidad de los datos. Incluir inadvertidamente información confidencial en estos conjuntos de datos puede provocar importantes violaciones de datos, poner en peligro el cumplimiento de los estándares regulatorios y erosionar la confianza.
Explotación de configuraciones erróneas: los atacantes pueden utilizar la IA para identificar y explotar rápidamente configuraciones erróneas, la mayor debilidad en la seguridad de la nube. La exposición de estas debilidades puede conducir a un acceso no autorizado y poner en riesgo información confidencial crítica.
Envenenamiento de datos: una vez que un atacante tiene acceso a un servicio en la nube, puede inyectar datos maliciosos en conjuntos de datos de entrenamiento almacenados en la nube. Esta táctica, conocida como envenenamiento de datos, compromete la integridad de los modelos de IA, lo que genera resultados inexactos y sesgados que pueden tener efectos de gran alcance.
Armado con innovación: herramientas de piratería habilitadas por IA
El impacto de la IA en la ciberseguridad se está convirtiendo rápidamente en una realidad. Un informe de Forrester de 2020 predijo esto: el 86% de los tomadores de decisiones en materia de ciberseguridad ya expresan su preocupación de que los actores de amenazas estén adoptando técnicas basadas en IA. Hoy en día, estas preocupaciones se están convirtiendo en una realidad, y los debates sobre la IA proliferan en los foros de la web oscura. En los foros de la web oscura, los ciberdelincuentes comparten y desarrollan abiertamente herramientas basadas en inteligencia artificial para facilitar los ataques.
Figura 1. Captura de pantalla que muestra la sección “AI oscura” de un foro de piratería. Contiene debates y herramientas para usar la IA para piratear.
Figura 2. Captura de pantalla del chatbot FraudGPT
Figura 3. Extracto de la conversación con el chatbot FraudGPT cuando se le pidió que generara un correo electrónico de phishing
Figura 4. ChatGPT de OpenAI respondiendo a la misma solicitud para generar un correo electrónico de phishing.
Figura 5. Captura de pantalla del chatbot WormGPT
Las herramientas de IA generativa diseñadas con fines maliciosos van en aumento. Uno de los desarrollos más preocupantes es la aparición de herramientas como FraudGPT, un chatbot generativo de IA que ayuda a los ciberdelincuentes generando correos electrónicos de phishing, escribiendo códigos maliciosos y ayudándolos en una variedad de otras actividades maliciosas. A diferencia de ChatGPT, que actualmente se diseña continuamente con salvaguardas éticas y barreras de seguridad para mitigar el abuso, FraudGPT opera sin tales restricciones y puede usarse directamente para cometer fraude.
Como se muestra en las Figuras 3 y 4, cuando a FraudGPT se le encomendó la tarea de generar un correo electrónico de phishing, produjo un mensaje convincente y sofisticado que podía explotarse. Mientras tanto, ChatGPT (GPT-4o, GPT-40 mini, GPT-4 al momento de escribir este artículo) rechazó tales solicitudes y en su lugar brindó orientación sobre cómo detectar ataques de phishing y proteger información confidencial. Los atacantes también están utilizando otros bots impulsados por IA, como WormGPT y WolfGPT, lo que aumenta su capacidad para ejecutar y acelerar ciberataques de manera más eficiente. Si bien no podemos decir que ChatGPT sea completamente seguro o a prueba de vulnerabilidades, OpenAI proporciona actualizaciones sobre cómo mejorar continuamente nuestras prácticas de seguridad. También actuamos ante sospechas de actividad maliciosa, como cuando OpenAI cancela una cuenta utilizada por un actor de amenazas.
Contraataque a los ataques asistidos por IA con defensas impulsadas por IA
A medida que se acelera la integración de la IA en los entornos empresariales, las amenazas cibernéticas también se volverán más complejas y sofisticadas. La rápida adopción de las API y modelos de GenAI y de las aplicaciones basadas en GenAI, que se prevé que lleguen a más del 80% de las empresas para 2026, es consistente con el crecimiento continuo de la computación en la nube. Al mismo tiempo, los ciberdelincuentes están evolucionando sus capacidades para utilizar la IA para automatizar ataques, generar código malicioso más rápidamente y manipular conjuntos de datos para socavar los modelos de IA.
Estos desarrollos resaltan la importancia de proteger la IA y los entornos basados en la nube. Si bien la IA puede ser una herramienta poderosa para los ciberdelincuentes, también ofrece importantes oportunidades para fortalecer las defensas de ciberseguridad y ampliar las soluciones de seguridad.
Detección y respuesta automatizadas: la capacidad de procesar y analizar grandes cantidades de datos permite a la IA establecer líneas de base de comportamiento detalladas de la actividad normal de la red y el sistema. Al monitorear continuamente las desviaciones de estas líneas de base, la IA detecta anomalías como transferencias de datos inusuales, intentos de acceso no autorizados o comportamientos inusuales del sistema que pueden indicar un compromiso. Cuando se detecta una anomalía, la IA puede desencadenar respuestas automáticas, como aislar puntos finales comprometidos, bloquear el tráfico sospechoso o ejecutar scripts de seguridad predefinidos. Esta capacidad se puede mejorar si se adapta a lo largo del tiempo, aumenta la precisión de la identificación de amenazas y reduce el tiempo desde la detección hasta la mitigación.
Análisis predictivo: las capacidades predictivas de la IA provienen de su capacidad de analizar datos históricos y en tiempo real para identificar patrones que preceden a las amenazas cibernéticas. Por ejemplo, los sistemas de inteligencia artificial pueden detectar aumentos repentinos en el tráfico de la red o intentos fallidos consecutivos de inicio de sesión, lo que puede ser un indicador de un ataque de fuerza bruta. Al analizar estas tendencias, la IA puede predecir posibles incidentes de seguridad antes de que ocurran. En la práctica, es posible que desee reforzar proactivamente los protocolos de autenticación o ajustar las reglas del firewall en función de los vectores de amenazas previstos.
Control de acceso mejorado: la IA mejora el control de acceso al incorporar análisis de comportamiento en tiempo real en modelos de seguridad de confianza cero. Para los mecanismos de control de acceso, la IA permite ajustes dinámicos basados en factores contextuales como el comportamiento del usuario, la ubicación y la integridad del dispositivo. Por ejemplo, si un usuario normalmente accede a un servicio en la nube o a una máquina virtual desde una ubicación geográfica, pero de repente inicia sesión desde un país diferente, la IA lo marcará como sospechoso y solicitará una verificación adicional y restringirá temporalmente el acceso. Este enfoque reduce el riesgo de acceso no autorizado y al mismo tiempo mantiene la flexibilidad operativa.
Detección de phishing y malware: los sistemas de detección de phishing y malware impulsados por IA utilizan algoritmos avanzados para analizar el contenido del correo electrónico, los archivos adjuntos y las URL en tiempo real para identificar amenazas maliciosas que pueden pasar los filtros de seguridad tradicionales. Por ejemplo, la IA puede detectar cambios sutiles en un nombre de dominio o evaluar el tono y la estructura de un correo electrónico para determinar si es parte de un intento de phishing. Además, la IA puede monitorear el comportamiento de archivos y aplicaciones después de descargarlos y evitar que se realicen acciones dañinas.
Protección de datos mejorada: la tecnología de cifrado impulsada por IA incorpora protocolos de cifrado adaptativos que se ajustan según la sensibilidad de los datos y el nivel de amenaza actual. Por ejemplo, la IA puede aplicar automáticamente estándares de cifrado más estrictos a los datos que se consideran confidenciales o a los que se ha detectado que se ha accedido desde una red potencialmente comprometida. Además, la IA puede ayudar al cumplimiento al auditar continuamente las prácticas de gestión de datos para garantizar que las claves de cifrado se gestionen de forma segura y que los registros de acceso a los datos se revisen periódicamente para detectar signos de actividad no autorizada. Este monitoreo y ajuste continuos permite a las organizaciones mantener una protección de datos sólida en línea con los estándares regulatorios en evolución.
Trend Micro ha estado incorporando IA y aprendizaje automático (ML) en nuestras soluciones de seguridad desde 2005, y hemos estado perfeccionando estas tecnologías a lo largo de los años para adelantarnos a las amenazas emergentes. Por ejemplo, Trend Micro Vision One ofrece un complemento de IA. Es una herramienta impulsada por GenAI que simplifica las alertas de seguridad complejas, decodifica scripts de atacantes y acelera la búsqueda de amenazas al convertir el lenguaje sencillo en consultas de búsqueda. Esto permite a los analistas de seguridad comprender, detectar y responder mejor a las amenazas dinámicas.
Si bien la IA proporciona a los ciberdelincuentes nuevas formas de mejorar sus ataques, también puede ser una herramienta poderosa para fortalecer las defensas. El desafío futuro es aplicar la IA de manera inteligente para afinar las capacidades de ciberseguridad, en lugar de simplemente reaccionar reactivamente a los ataques impulsados por la IA. Al configurar su postura de seguridad para que sea tan dinámica y adaptable como las amenazas que enfrenta su empresa, puede convertir las vulnerabilidades potenciales en fortalezas.
esconder
¿Te gusta? Añade esta infografía a tu sitio:
1. Haga clic en el cuadro a continuación. 2. Presione Ctrl+A para seleccionar todo. 3. Presione Ctrl+C para copiar. 4. Pega el código en tu página (Ctrl+V).
La imagen se mostrará con el mismo tamaño que arriba.
https://www.trendmicro.com/vinfo/es/security/news/cybercrime-and-digital-threats/countering-ai-driven-threats-with-ai-powered-defense