World News in Spanish

Una pregunta, clave para evitar una estafa por IA en Ferrari

Abc.es 

El martes de la pasada semana, uno de los altos ejecutivos de Ferrari comenzó a recibir mensajes por parte de Benedetto Vigna , el consejero delegado de la marca de superdeportivos de lujo. «¿Te has enterado de la fusión que estamos planeando? Voy a necesitar tu ayuda», leía uno de ellos. «Estate listo para firmar el acuerdo de confidencialidad que te va a mandar nuestro equipo legal cuanto antes», ordenaba Vigna. «Las autoridades de Competencia italianas y la Bolsa de Milán ya han sido informadas. Estate preparado y, por favor: máxima discreción». Todo parecía estar en orden para el ejecutivo –que solicitó permanecer anónimo a Bloomberg–, salvo algunos detalles. En primer lugar, el número de Whatsapp desde el que se dirigía a él no era el número habitual de su jefe. Tampoco tenía la misma imagen de perfil, aunque se trataba de Vigna, trajeado, cruzando los brazos ante el caballo rampante de la marca. Así que el número desconocido le llamó. La voz era exactamente igual a la de Benedetto Vigna, con su característico acento de su Potenza natal. Le explicó que estaba llamado desde un número diferente porque la conversación tenía que llevarse a cabo de manera confidencial, dado que el acuerdo podría «enfrentarse a obstáculos legales con China». El trabajador comenzó a tener dudas y, prestando atención, le pareció detectar un ritmo mecánico en la entonación del supuesto consejero delegado. «Lo siento, Benedetto, pero tengo que identificarte», afirmó. «¿Cuál es el título del libro que me recomendaste hace unos días?» Inmediatamente, el impostor colgó. El libro era 'Decálogo de la Complejidad' de Alberto Felice de Toni, un profesor de la Escuela de Negocios de la Universidad de Udine. El acontecimiento de Ferrari no es más que uno de los últimos intentos de usar la inteligencia artificial para hacerse pasar por otra persona. Algunas de estas herramientas permiten clonar de manera satisfactoria la voz de alguien, hasta el punto de imitar su entonación y su acento. Esto es conocido como 'Deepfake' y, aunque es capaz de crear imágenes y vídeos falsos de alta calidad, los intentos de usarlos como herramienta de fraude o chantaje han sido mayormente infructuosos. Sin embargo, algunos sí que fueron exitosos. En febrero de 2024, una empresa en Hong Kong perdió 200 millones de dólares hongkoneses –cerca de 24 millones de euros– cuando los criminales, haciéndose pasar por el director financiero de la compañía en una videollamada, convencieron a sus subordinados para transferir el dinero. Según el profesor de ciberseguridad de la Universidad Politécnica de Milán Stefano Zanero , «es cuestión de tiempo hasta que estas herramientas se vuelvan tan sofisticadas que distinguirlas sea prácticamente imposible». Por ello, muchas empresas están llevando a cabo entrenamiento de sus ejecutivos para evitar, precisamente, que los trabajadores caígan víctimas a estas estafas.

Читайте на 123ru.net