Hace unas semanas circulaba por internet un vídeo del expresidente de los Estados Unidos, Barack Obama, refiriéndose a Donald Trump de manera despectiva con un insulto. También pudimos ver un discurso cómico de Richard Nixon desde el despacho oval. Los dos vídeos tienen algo en común: ninguno es real. Ambas piezas fueron generadas con tecnología […]
Dirigentes Digital
| 28 ene 2020
Hace unas semanas circulaba por internet un vídeo del expresidente de los Estados Unidos, Barack Obama, refiriéndose a Donald Trump de manera despectiva con un insulto. También pudimos ver un discurso cómico de Richard Nixon desde el despacho oval. Los dos vídeos tienen algo en común: ninguno es real. Ambas piezas fueron generadas con tecnología deepfake, que usa la inteligencia artificiak para cambiar el audio o vídeo y dar la impresión de que alguien dijo o hizo algo que en realidad no hicieron. Esta herramienta tiene ya unos años, pero ahora está consiguiendo resultados difíciles de distinguir de la realidad. Hay una preocupación extendida de que los deepfakes tienen la capacidad de manipular la realidad en entornos relacionados con la politica o los negocios, para destruir la veracidad de instituciones que quizá tienen de por sí poca credibilidad.
Los deepfakes comenzaron como un proyecto de entrenamiento de inteligencia artificial, para que los ordenadores pudieran crear redes neuronales artificiales con el fin de realizar y mejorar, capa a capa, un trabajo de identificación y sustitución de los elementos faciales. Por otro lado, un audio deepfake usa una grabación real de una persona específica y lo introduce en un proceso similar que sea capaz de aislar los sonidos y entonaciones para poder decir cualquier cosa con el timbre característico del protagonista.
Una compañía holandesa, llamada Deeptrace, detecta y monitoriza los deepfakes. En septiembre sacó un estudio en el que decía que el 96% de los deepfakes en internet son usados para la pornografía, con la intención de introducir caras de personajes conocidos en escenas que nunca habían tenido lugar. A comienzos de 2019, una compañía inglesa pagó más de 200.000 euros a unos criminales que habían manipulado la voz de su jefe con declaraciones sensibles a la cotización de la empresa.
Por ahora, crece el temor de que los deepfakes podrían destruir una reputación en cuestión de segundos de metraje manipulado, o inclinar la balanza en unas elecciones ajustadas, o incluso forzar una subida de las acciones de determinada compañía. Las posibilidades de uso son altísimas y veremos cada vez más casos de uso. Los políticos y los altos dirigentes empresariales son dos de los principales perfiles de riesgo, por la cantidad de grabaciones de ellos en público. Cuando un vídeo se hace viral en internet, aunque no sea real, es muy difícil de contener y, además, cada vez es más difícil distinguir realidad de manipulación.