La historia interna de la campaña de influencia “doppelganger” del estado ruso fue revelada el miércoles cuando el Departamento de Justicia de Estados Unidos (DOJ) publicó una declaración jurada que detalla los documentos internos, dominios web y cuentas en línea utilizados en la campaña.
El Departamento de Justicia ha identificado 32 documentos utilizados por tres organizaciones respaldadas por el gobierno ruso, Social Design Agency (SDA), Structura National Technology y ANO Dialogue, para difundir desinformación que apoya los intereses rusos. Este ámbito también incluye esfuerzos para influir en los votantes estadounidenses antes de las elecciones presidenciales de 2024.
“El panorama de las operaciones de influencia ha cambiado significativamente desde las últimas elecciones, con la adopción de nuevas técnicas y métodos por parte de actores hostiles, el aumento de servicios de desinformación y actores con motivación financiera, y el aumento de tecnologías de inteligencia artificial generativa que estamos comenzando a ver. pero ese uso es limitado hasta ahora”, dijo a SC Media Lisa Kaplan, directora ejecutiva de la empresa de tecnología de mitigación de riesgos en línea Alecia.
Cómo los grupos dobles utilizaron la ciberocupación y las redes sociales para campañas de propaganda
Los Doppelgängers han estado activos desde al menos 2022 y se sabe que operan bajo la dirección de la oficina del presidente Vladimir Putin, incluido el primer subjefe de gabinete Sergei Vladilenovitch Kiriyenko, relacionado con varias personas.
El Sr. Kiriyenko y las otras personas mencionadas en la declaración jurada han sido sancionados previamente en virtud de una orden ejecutiva que declara una emergencia nacional en relación con el conflicto entre Rusia y Ucrania, y su uso de dominios con sede en Estados Unidos se considera una emergencia internacional. Ley de Poderes Económicos (IEEPA), dijeron funcionarios del Departamento de Justicia.
Además, se confiscaron varios dominios por infracción de marcas porque albergaban sitios web que se hacían pasar por sitios de noticias legítimos, como The Washington Post y Fox News.
Los dobles utilizan dominios ciberocupados, como washingtonpost(.)pm o fox-news(.)top, para parecer casi idénticos a las publicaciones reales pero para influir en el sentimiento de los lectores a favor de los intereses rusos. Alojó una página web que contiene artículos diseñados para influir en una posición. . Por ejemplo, algunos artículos describieron negativamente la ayuda estadounidense a Ucrania, mientras que otros intentaron evocar un sentimiento negativo hacia candidatos o partidos políticos estadounidenses específicos.
Los enlaces a estos artículos se difundieron a través de miles de comentarios en sitios de redes sociales publicados por cuentas con identidades falsas que ocultaban sus orígenes rusos. Documentos internos distribuidos por miembros del grupo doppelganger revelaron al menos tres campañas diferentes. Por ejemplo, un documento describió la creación de un “factor meme” con el objetivo de publicar alrededor de 200 memes sobre el conflicto Rusia-Ucrania cada mes.
Los Doppelgangers monitorearon y se dirigieron a personas influyentes en línea y colaboraron con celebridades en línea para difundir contenido que respaldara los objetivos de la campaña. Los detalles de esta campaña de influencia en las redes sociales se revelaron en una acusación también publicada el miércoles. La acusación fue presentada contra Kostyantin Kalashnikov y Elena Afanasyeva, empleados de RT Media, controlada por Rusia (anteriormente conocida como Russia Today).
Según la acusación, los acusados gastaron casi 10 millones de dólares en crear y distribuir contenido propagandístico a través de los canales de redes sociales de la productora de contenidos con sede en Tennessee, obteniendo millones de visitas. La acusación no nombra ni acusa a nadie, pero los periodistas identificaron a la empresa de medios estadounidense que publicó el contenido como Tenet Media.
“Al procesar e imponer sanciones a quienes participan en las actividades de Tenet Media y sus vínculos con los medios estatales “Russia Today'', podrían ser abordados sin darse cuenta no sólo por el público sino también por fuerzas hostiles del Estado. Habrá más educación y conciencia sobre los medios sexualizados y las personas influyentes”, dijo Kaplan. “Cuanto mejor se comprendan los problemas, mejor equipadas estarán las democracias para proteger a sus ciudadanos de los posibles efectos negativos de la influencia extranjera maligna”.
¿La IA generativa empeorará la desinformación electoral?
A principios de este año se reveló que Doppelgänger estaba utilizando la IA ChatGPT abierta para generar comentarios anti-ucranianos y anti-estadounidenses en los sitios de redes sociales X y 9GAG, muchos de los cuales fueron generados por otros usuarios. Rápidamente se identificó que provenían de un “ruso”. bot”, dijo OpenAI en un informe de mayo de 2024.
La declaración jurada del Departamento de Justicia dice que Doppelgänger también utilizó IA generada para crear contenido para anuncios en redes sociales dirigidos a políticos estadounidenses, y cinco cuentas de OpenAI utilizadas para generar y editar artículos y comentarios.
Aunque el papel de la IA en las campañas dobles es relativamente pequeño, muestra la evolución continua de las campañas de influencia desde elecciones pasadas hasta la temporada electoral estadounidense de 2024, dice a SC Media Cognitive Domain de Booz Allen Hamilton/Sean Guillory, científico principal de productos y características de Dimension. Una “granja de trolls rusa” mejorada con IA podría hacer llegar propaganda a un público más amplio con menos esfuerzo y costo.
“En el período previo a las elecciones de 2016, las granjas de trolls pudieron llegar a 140 millones de estadounidenses por mes. Con la introducción de la IA generativa y modelos de lenguaje a gran escala, esta tendencia ha continuado desde 2016. Actualmente, los LLM tienen el potencial de hacerlo. aumentar significativamente la rentabilidad de las campañas de desinformación”, dijo Guillory.
Guillory dijo que herramientas como GPTZero, una herramienta impulsada por inteligencia artificial que ayuda a detectar contenido generado por ChatGPT, son un ejemplo de tecnología que se puede aprovechar en la lucha contra la desinformación en esta temporada electoral.
“Otro esfuerzo para combatir la desinformación es la Fundación DISARM, una organización creada para construir un marco común similar al marco MITRE ATT&CK para la ciberseguridad. “Es un intento de comprender las tácticas, técnicas y procedimientos adversarios que idean y llevan a cabo campañas de información. y encontrar formas de detectarlos, mitigarlos o frustrarlos”, afirmó Guillory.
https://packetstormsecurity.com/news/view/36305/Russian-Doppelganger-Campaign-Exposed.html