El informe anual Threat Landscape de la agencia de ciberseguridad del bloque, ENISA, advirtió el jueves que las elecciones de la Unión Europea de 2024 corren peligro debido a los chatbots de inteligencia artificial y las imágenes y videos deepfake. Según la agencia, se ha registrado un incremento en el uso de chatbots de IA, deepfakes y tecnología similar en Europa. Ante esto, tanto los gobiernos como el sector privado, y especialmente los medios de comunicación, deben estar en máxima alerta antes de las elecciones al Parlamento Europeo del próximo año para poder identificar, desacreditar y combatir la desinformación generada por IA en línea.
"Dependerá fundamentalmente de nuestra capacidad para confiar en infraestructuras ciberseguras y en la integridad y disponibilidad de la información, la confianza en el proceso electoral de la UE", afirmó Juhan Lepassaar, director ejecutivo de la agencia. En toda Europa, se han intensificado los temores acerca de la proliferación de desinformación generada por la IA. Durante las últimas semanas, se han observado deepfakes y otros contenidos similares en las campañas electorales de Polonia y Eslovaquia. Este mes, Keir Starmer, líder de la oposición del Reino Unido, fue objeto de un ataque con un clip de audio que supuestamente lo mostraba insultando a los empleados. El clip se volvió viral, pero resultó ser falso.
En los próximos 16 meses, países democráticos como Estados Unidos, el Parlamento Europeo, el Reino Unido, los Países Bajos y potencialmente Ucrania celebrarán elecciones. La llegada de la IA generativa preocupa a aquellos que se esfuerzan por preservar la integridad de las elecciones, ya que podría intensificar los debates políticos polarizados, las amenazas de influencia extranjera y las noticias falsas.
Identificó la agencia europea de ciberseguridad tres formas en las que los piratas informáticos estaban abusando de la inteligencia artificial para engañar a las personas. Estas incluyen el uso de la tecnología para elaborar correos electrónicos y mensajes de phishing convincentes que se asemejan a fuentes legítimas, la creación de deepfakes de voces y el uso de IA para extraer datos con fines maliciosos.