Por Raul Guillén, director de estrategia de ciberseguridad de Trend Micro
Raul Guillén
| 06 mar 2024
No es la primera vez que un denominado “Deep Fake Boss” o “Deep Fake del CEO” defrauda millones a una empresa. Según el ejemplo citado en el Hong Kong Free Press, asciende a casi 24 millones de euros (200 millones de dólares de Hong Kong). Por ahora se trata de casos aislados, pero es sin duda uno de los principales abusos a los que nos enfrentamos cuando incorporamos IA generativa en técnicas y tácticas de ingeniería social avanzada, es por tanto una evolución sofisticada del timo del CEO basada en el correo electrónico o el fraude BEC.
En principio, el planteamiento es idéntico. Un empleado, preferiblemente del departamento financiero, recibe instrucciones de la dirección de la empresa, el “CEO”, para transferir dinero a una cuenta y, por supuesto, de forma confidencial. Puede estar relacionado con la finalización de un acuerdo, una adquisición de la empresa o, a menor escala, o la compra de regalos de empresa para todos los compañeros. Lo que todos los casos tienen en común es la necesidad de que ocurra rápidamente, y que no hay que revelárselo a nadie. Pero, ¿quién negaría a su jefe cuando se le pregunta a través de una videoconferencia? Exacto…
Confianza
Este tipo de engaños entran en la categoría de “timos de confianza”, es decir, fraudes relacionados con convencer a la víctima. La historia y la impresión general deben coincidir. A menudo, un simple correo electrónico enviado desde la cuenta del jefe (o que lo parezca) es suficientemente convincente. En este caso, supuestamente, se utilizó un vídeo Deep Fake. Ver directamente a la otra persona y oír su voz en un vídeo puede ser muy convincente. Como empleado, es posible que aceptes en silencio lo que te ordenan, sobre todo cuando te dicen “escucha que tengo prisa”. Al menos, eso parece haber ocurrido en este caso, porque no se produjo una interacción real. Esto es clave para el éxito del método.
Estado de la técnica – Deep Fake
Los Deep Fakes son grabaciones de vídeo y audio de una persona que se insertan digitalmente en una imagen mediante inteligencia artificial realizando una usurpación de identidad avanzada. En el caso de un vídeo o una foto, los rasgos faciales de una persona pueden superponerse a los de otra. Recientemente han circulado fotos falsas de Taylor Swift. Incluso un Harrison Ford rejuvenecido digitalmente interpretó hace poco a un Indiana Jones en una película de Disney ambientada en la época nazi. O pensemos en una Lola Flores en la campaña una conocida marca de cervezas. Los resultados son tan convincentes que prácticamente se puede hacer que la persona manipulada diga cualquier cosa. El vídeo y el audio pueden sincronizarse perfectamente. Para crear esto, se necesitan suficientes grabaciones de una persona, como entrevistas o discursos, fotos y/o grabaciones de audio.
Sin embargo, crear una aparición en directo para la persona generada artificialmente en una reunión es diferente. Intentar que una imagen generada artificialmente con una voz generada artificialmente aparezca en un formato que requiera una respuesta inmediata es teóricamente posible. No obstante, el resultado no es especialmente convincente. Hay pausas más largas, las expresiones faciales y el tono no coinciden con las palabras, y parece falso. Nos sentimos extraños.
Protección contra la estafa del CEO
La mejor protección contra la estafa del CEO (también conocida como BEC) es estructurar los procesos internos para los pagos de forma que no puedan autorizarse mediante una simple solicitud o instrucción de personas concretas. En su lugar, deben pasar por un proceso de aprobación más complejo. En el pasado, se solía insistir aquí en el principio de la “doble” confirmación. Si la instrucción llegaba por correo electrónico, se llamaba y se verificaba. Si llegaba por teléfono, se pedía una confirmación por correo electrónico. Esto sigue siendo válido hoy en día. Sin embargo, aprender de los ataques Deep Fake es crucial. En el ejemplo antes mencionado, se produjo una confirmación por vídeo y audio, pero no hubo interacción real; el empleado solo escuchaba y observaba. Como resultado, se podía reproducir un vídeo Deep Fake creado previamente. El empleado fue engañado y se transfirió el dinero.
Para evitar que este tipo de ataques tengan éxito, se debe permitir, e incluso animar a los empleados a que interroguen a sus jefes sobre este tipo de actividades. Esto se lo pone más difícil a los atacantes. Sin embargo, los ataques de tipo BEC como el “Deep Fake Boss” no pueden descartarse por completo si se mantiene la posibilidad fundamental de que se pueda pagar dinero siguiendo las instrucciones de una sola persona.
Como conclusión podemos utilizar una definición de IA muy gráfica e ilustrativa, la IA democratiza el acceso al conocimiento experto, y esto se puede usar tanto para hacer el mal como para hacer el bien. Conocer los principales abusos de cualquier tecnología habilitadora son claves para poder identificarlos y detectarlos. Como recomendación, siempre desconfiemos por defecto, desconfiemos de la llamada a la acción y de la inmediatez de los requerimientos del CEO. Iniciemos siempre la comunicación desde nuestro lado y ante la duda desconfiemos, apliquemos conceptos de confianza zero, no solo en la tecnología, sino también en el sentido común y la cultura de las personas.