CLAVES

Estafadores utilizan IA para suplantar al ministro de Defensa italiano y extorsionar a empresarios ricos

Estafa AI Italia

OpenAI | Miércoles 12 de febrero de 2025

Scammers have recently exploited AI technology to impersonate Italian Defense Minister Guido Crosetto, targeting wealthy business leaders in a sophisticated money extortion scheme. The fraudsters cloned Crosetto's voice, claiming that funds were urgently needed for a prisoner exchange involving kidnapped journalists. High-profile targets included Giorgio Armani and Massimo Moratti, with Moratti reportedly falling victim to the scam and transferring a significant sum. This incident highlights the alarming rise of AI-powered fraud and the ease of voice replication, prompting calls for increased public vigilance against such scams. As AI technology advances, experts warn that similar fraudulent activities are likely to become more common.



Estafadores utilizan inteligencia artificial para suplantar al ministro de Defensa italiano

Un grupo de estafadores ha empleado la inteligencia artificial para clonar la voz del ministro de Defensa de Italia, Guido Crosetto, con el objetivo de extorsionar a destacados líderes empresariales del país. Este fraude se llevó a cabo aprovechando un reciente intercambio de prisioneros con Irán, donde se alegó que se necesitaban fondos para liberar a periodistas secuestrados.

Entre los objetivos de esta sofisticada estafa se encontraban figuras prominentes como Giorgio Armani, Patrizio Bertelli, CEO de Prada, y Massimo Moratti, expropietario del Inter de Milán. Aunque muchos intentos no tuvieron éxito, Moratti admitió haber transferido una suma no revelada tras ser engañado por la convincente imitación. Crosetto fue quien alertó al público sobre el engaño a través de las redes sociales, comentando en tono irónico que “copias falsas de todas las obras maestras circulan”, lo que resalta la alarmante facilidad con la que la inteligencia artificial puede replicar voces humanas.

Mecanismo del fraude

Los estafadores utilizaron tecnología avanzada para replicar la voz de Crosetto, contactando a importantes empresarios italianos y afirmando que el gobierno de la primera ministra Giorgia Meloni requería su ayuda para rescatar a periodistas secuestrados. Se les instruyó a transferir alrededor de 1 millón de euros a una cuenta bancaria en Hong Kong, prometiendo un reembolso por parte del Banco de Italia, una afirmación que el banco central ha desmentido posteriormente.

El momento elegido para llevar a cabo esta estafa fue estratégico, ya que ocurrió pocas semanas después de la liberación de Cecilia Sala, periodista italiana retenida en Teherán. Crosetto reveló que uno de los impostores se presentó como “General Giovanni Montalbano”, nombre inspirado en una popular serie televisiva italiana. El ministro se enteró del fraude cuando un empresario destacado lo contactó, confundido por una llamada proveniente de alguien que decía ser el secretario del ministro.

Aumento del fraude impulsado por inteligencia artificial

Este incidente no es un caso aislado. Los avances en inteligencia artificial generativa han facilitado el acceso a tecnologías como el clonaje vocal y deepfakes, permitiendo a los criminales ejecutar estafas altamente convincentes. Según la Alianza Global contra Estafas, las pérdidas anuales por fraudes en línea y telefónicos superan los $1 billón, siendo la mayoría de los fondos irrecuperables.

La suplantación del ministro Crosetto pone en evidencia cuán vulnerables son incluso las personalidades más destacadas ante tales esquemas. Un funcionario del ministerio confirmó: “La voz del ministro fue reproducida pidiendo dinero para pagar el rescate de periodistas italianos secuestrados en el mundo. Fue un engaño.”

A medida que la tecnología AI continúa evolucionando, expertos advierten que este tipo de fraudes serán cada vez más frecuentes y sofisticados. Los delincuentes solo necesitan unos segundos de audio para replicar una voz con sorprendente precisión, lo cual plantea preocupaciones sobre el potencial uso malintencionado de la inteligencia artificial en campañas fraudulentas más amplias, afectando no solo a personas adineradas sino también a consumidores comunes.

Crosetto ha instado al público a mantenerse alerta, expresando en X: “Prefiero hacer públicos los hechos para que nadie corra el riesgo de caer en la trampa.” Las autoridades italianas están investigando el caso, aunque aún no se han identificado sospechosos.

Este episodio sirve como una advertencia sobre las implicaciones duales de la inteligencia artificial. Si bien esta tecnología ofrece un inmenso potencial para la innovación, su uso indebido presenta riesgos significativos. Como demuestra el caso Crosetto, incluso las figuras más poderosas no están exentas de los peligros asociados al fraude impulsado por IA.

Fuentes utilizadas para este artículo incluyen:

RT.com

EuroNews.com

Bloomberg.com

FT.com

La noticia en cifras

Cifra Descripción
€1 millón Cantidad solicitada por los estafadores
12 de febrero de 2025 Fecha del incidente
3 Número de objetivos mencionados
1 Número de víctimas que cayeron en la estafa

Noticias relacionadas