Los chatbots con IA podrían convertirse en la última arma de los ciberdelincuentes


Los chatbots de inteligencia artificial (IA) son bien conocidos por mejorar la productividad, pero ahora amenazan la ciberseguridad, ya que los delincuentes los utilizan para crear malware sofisticado.

Los investigadores de HP Wolf Security han descubierto uno de los primeros casos conocidos en los que los atacantes utilizaron IA generada para crear código malicioso para distribuir troyanos de acceso remoto. Esta tendencia señala un cambio en la ciberseguridad, que democratiza la capacidad de crear malware complejo y potencialmente conduce a un aumento de los delitos cibernéticos.

“Si su empresa es como muchas otras, los piratas informáticos han irrumpido en las herramientas que utiliza su equipo de desarrollo de software para escribir código. No es un lugar cómodo para estar”, afirma el fundador y director general de CTM Insights, socio y ex director de tecnología de CTM Insights. TD Ameritrade, dijo a PYMNTS.

espada de doble filo

Los desarrolladores suelen confiar en chatbots de IA como ChatGPT para la generación de código y la traducción entre lenguajes de programación.

“Estos chatbots se han convertido en miembros de pleno derecho de los equipos de desarrollo y las ganancias de productividad que aportan son simplemente asombrosas”, afirmó Steinberg.

Sin embargo, depender de la IA conlleva riesgos. Estas herramientas de inteligencia artificial aprenden de grandes cantidades de software de código abierto que pueden contener errores de diseño, errores e incluso malware inyectado intencionalmente.

“Tener capacitación de código abierto para herramientas de inteligencia artificial es como tener a un conductor que se escapó de un atraco a un banco enseñando educación vial en la escuela secundaria; hay un sesgo incorporado de enseñarles algo malo”, advirtió Steinberg. Con más de mil millones de contribuciones de código abierto al año, el riesgo de que código malicioso se infiltre en los datos de entrenamiento de IA es significativo.

Maury Haber, asesor jefe de seguridad de BeyondTrust, analizó cómo los delincuentes están explotando los chatbots impulsados ​​por inteligencia artificial para automatizar la creación de malware.

“Están produciendo componentes de ataque con una mínima experiencia técnica”, dijo Haber a PYMNTS. “Por ejemplo, puedes pedirle a un chatbot que escriba un script, como un script de PowerShell para desactivar un buzón, sin conocer el código subyacente”.

Esta característica permite que incluso los atacantes novatos, a menudo denominados “script kiddies”, creen sofisticados correos electrónicos de phishing, cargas útiles de malware o ransomware. “Estos chatbots facilitan la innovación a los atacantes”, dijo Haber.

mantenerse seguro

Para combatir estas amenazas, los profesionales de la seguridad deben actualizar sus estrategias. Steinberg dijo que las empresas deben “inspeccionar y escanear cuidadosamente el código escrito por la IA generativa”.

A medida que el código generado por la IA cambia con cada iteración, es posible que los métodos tradicionales de detección de malware ya no sean suficientes. “Utilizamos escaneo de comportamiento estático y análisis de configuración de software para detectar fallas de diseño y comportamiento malicioso en el software generado”, dijo.

Haber dijo que las organizaciones deberían centrarse en capacitar a los usuarios para que reconozcan los ataques impulsados ​​por IA, como los correos electrónicos de phishing y las técnicas de deepfake generados por IA. “Al utilizar la detección de anomalías, el análisis predictivo y las herramientas de monitoreo continuo, puede identificar y bloquear amenazas impulsadas por IA antes de que causen daños”.

Los desarrolladores de IA y los expertos en ciberseguridad están trabajando juntos para reducir los riesgos que plantea el malware generado por IA. “Están construyendo marcos y sistemas de detección como las directrices MITRE y NIST”, dijo Haber.

Las empresas también deben establecer políticas y directrices internas de IA. “Asegurar que los datos confidenciales no se divulguen o se utilicen indebidamente a través de la IA”, dijo Haber, advirtiendo contra la dependencia de la IA tanto para la generación de código como para las pruebas, y agregó: “No quiero el zorro en el gallinero”. zorros.”

Steinberg enfatizó la importancia de la vigilancia al utilizar la IA en el desarrollo de software. “Cuando se trata de confiar en el código generado, se aplica el viejo dicho 'confía pero verifica'”.

El director ejecutivo de Pvotal Technologies, Yashin Manraj, dijo a PYMNTS que atacantes poco sofisticados han utilizado con éxito la IA para atacar las vulnerabilidades.

“Al aprovechar el gran volumen de ransomware, malware y otros fragmentos de código indexados, lanzamos una docena de nuevos chatbots de inteligencia artificial que explotan infraestructuras obsoletas y vulnerabilidades sin parches, y la cantidad de ciberataques exitosos ha aumentado”, dijo Manraj.

Con respecto a las capacidades de los chatbots de IA en el desarrollo de malware, Manraj dijo: “Aún tenemos que ver que un chatbot de IA supere a los expertos en seguridad más avanzados”. Sin embargo, advirtió que “el volumen de ataques contra sistemas más antiguos está aumentando”.

Manraj dijo: “Los desarrolladores están utilizando más herramientas criptográficas, firmas de aplicaciones seguras y técnicas de detección de inteligencia artificial para ayudar a los usuarios a distinguir entre aplicaciones legítimas y maliciosas”.

Se están haciendo esfuerzos para “crear más entornos sandbox, reducir el acceso que reciben las aplicaciones de forma predeterminada y eliminar la posibilidad de que una sola pieza de software obsoleto pueda afectar a todo[el sistema]”, añadió.

Para conocer toda nuestra cobertura de IA de PYMNTS, suscríbase a nuestro boletín diario de IA.

Más información: IA, Inteligencia Artificial, BeyondTrust, Chatbot, CTM Insights, Cibercrimen, Ciberseguridad, Deepfakes, GenAI, IA generada, HP Wolf Security, Lou Steinberg, Malware, Maury Haber, Noticias, Phishing, Pvotal Technologies, PYMNTS News, Ransomware, Guión Kiddies, Yasin Manraj

AI Chatbots Could Become Cybercriminals’ Latest Weapon