Intento de estafa con Inteligencia Artificial a Ferrari

Ferrari ha logrado evitar el fraude, pero el incidente que te contamos a continuación subraya la creciente amenaza que representan las tecnologías deepfake en el mundo corporativo.

Media mañana del pasado martes, un ejecutivo de Ferrari comienza a recibir una serie de mensajes inesperados en WhatsApp, aparentemente del CEO de la empresa, Benedetto Vigna. «Oye, ¿te enteraste de la gran adquisición que estamos planeando? Podría necesitar tu ayuda», decía uno de los mensajes. Sin embargo, el número desde el que provenían los mensajes no era el habitual de Vigna, y la foto de perfil, aunque era una imagen del CEO, parecía diferente.

Otro mensaje instaba al ejecutivo a prepararse para firmar un Acuerdo de Confidencialidad enviado por el abogado de la compañía. «El regulador del mercado italiano y la bolsa de valores de Milán ya han sido informados. Estén listos y, por favor, con la máxima discreción», decía el mensaje. Lo que parecía una solicitud urgente de su CEO pronto se revelaría como un sofisticado intento de estafa.

Así descubrieron el intento de estafa a Ferrari con IA

Ferrari 12Cilindri Spider

El episodio, según fuentes cercanas al incidente, involucró el uso de herramientas deepfake para simular la voz de Vigna en una llamada en vivo. Afortunadamente, el ejecutivo de Ferrari se dio cuenta de que algo no estaba bien. La voz imitadora de Vigna era convincente, emulando el acento del sur de Italia, pero pequeñas entonaciones mecánicas despertaron sus sospechas.

«Lo siento, Benedetto, pero necesito identificarlo«, dijo el ejecutivo, quien entonces preguntó cuál era el título del libro que Vigna le había recomendado recientemente. Ante la incapacidad de responder, la llamada terminó abruptamente.

Ferrari inició una investigación interna, mientras que representantes de la compañía se negaron a comentar sobre el asunto. Este incidente no es aislado; en mayo, el CEO de la mega-agencia WPP, Mark Read, también fue objetivo de una estafa deepfake, aunque sin éxito.

Rachel Tobac, directora ejecutiva de la empresa de ciberseguridad SocialProof Security, señala que «este año estamos viendo un aumento en los delincuentes que intentan clonar voces usando IA«. A pesar de la sofisticación de estas herramientas, aún no han logrado el engaño generalizado temido por muchos. Sin embargo, algunas empresas han sido víctimas. Una compañía multinacional perdió 26 millones de dólares a manos de estafadores que utilizaron deepfakes para simular una videollamada del director financiero.

Incluso empresas como CyberArk están entrenando a sus ejecutivos para detectar estos fraudes. «Es solo cuestión de tiempo para que estas herramientas de deepfake basadas en IA sean increíblemente precisas», advirtió Stefano Zanero, profesor de ciberseguridad en el Politécnico de Milán.

Síguenos en nuestras redes X, Facebook, TikTok e Instagram, o en nuestro canal de YouTube donde te ofrecemos contenidos exclusivos. Y si te apuntas a nuestra Newsletter recibirás las noticias más destacadas del motor. 

Etiquetas: ,
Scroll al inicio