'Deep fake', el Santo Grial del prestidigitador y los ciberdelincuentes
Ética digital ·
Los algoritmos de la inteligencia artificial permiten suplantar cualquier identidad en vídeo, un nivel superior en la actual guerra contra la manipulación informativa
Isaac Asenjo
Madrid
Martes, 2 de marzo 2021, 00:11
La mentira tiene las patas muy cortas y gracias a la irrupción de la tecnología en los hábitat de nuestro día a día se ha convertido en un elemento barato de cara a manipular y hacer creer lo que en realidad no es. Los prestidigitadores han encontrado un Santo Grial en el 'deepfake', esa técnica de inteligencia artificial que recientemente ha 'resucitado' a Lola Flores para reivindicar el acento andaluz en un anuncio 25 años después de su muerte. Los algoritmos de la IA permiten suplantar cualquier identidad en vídeo, lo que se traduce en un nivel superior en la actual lucha contra la manipulación informativa y que mal usado supone un verdadero peligro para inocentes y un impulso para los creadores de las fake news.
En el viral 'empowerment' de la 'Faraona' de la mencionada campaña publicitaria se han utilizado más de 5.000 fotografías (principalmente grabadas en los 80 y 90 desde diferentes perspectivas) y un proceso similar para recrear su voz, utilizando distintas pistas de audio de la cantante para crear un patrón de su voz y valiéndose, además, de la ayuda de sus hijas. La secuencia se implementa como una máscara en 3D sobre el rostro real de una actriz, aplicando la morfología craneal de la artista, resaltando facciones como los ojos, las cejas, la textura o el color de la piel, según explica Ogilvy, agencia creadora del spot.
Este trabajó se llevó a cabo con la ayuda de dos softwares: FaceSwap, una solución de código abierto basado en TensorFlow, Keras y Python; y DeepFaceLab, empleado para los detalles y retoques finales.
En el viral 'empowerment' de la 'Faraona' de la mencionada campaña publicitaria se han utilizado más de 5.000 fotografías (principalmente grabadas en los 80 y 90 desde diferentes perspectivas) y un proceso similar para recrear su voz, utilizando distintas pistas de audio de la cantante para crear un patrón de su voz y valiéndose, además, de la ayuda de sus hijas. La secuencia se implementa como una máscara en 3D sobre el rostro real de una actriz, aplicando la morfología craneal de la artista, resaltando facciones como los ojos, las cejas, la textura o el color de la piel, según explica Ogilvy, agencia creadora del spot. Este trabajó se llevó a cabo con la ayuda de dos softwares: FaceSwap, una solución de código abierto basado en TensorFlow, Keras y Python; y DeepFaceLab, empleado para los detalles y retoques finales.
Ver para no creer
En la técnica de los 'deepfake' se utilizan los conocidos como algoritmos RGA (redes generativas antagónicas). Se trata de un sistema de dos redes neuronales que puede crear nuevos tipos de datos a partir de conjuntos que ya existen. Aquí se presentaría un modelo con fotos o vídeos, a partir de las cuales se crean imágenes falsas mientras que otro se encarga de detectar éstas últimas. El proceso se repite infinidad de veces hasta que el segundo modelo no sepa distinguir las imágenes reales de las falsas.
La adopción de estas tecnologías pueden aportar grandes dosis de innovación en determinados sectores, pero también puede comprometer la ciberseguridad y difundir mentiras de las gordas. «El Presidente Trump es un completo imbécil», decía tranquilamente Barack Obama en un vídeo que circuló en las redes sociales. Ese Obama no era Obama sino el actor Jordan Peele, que intentó concienciar con esa farsa publicada en Buzzfeed de los peligros de los videomontajes hiperrealistas y de la desinformación como amenaza global. Algo que no es nuevo pero sí barato y eficaz para engañar en los tiempos actuales, donde las noticias falsas contribuyen de buena manera a la 'infoxicación' de los usuarios.
Manipulación en aumento
Gracias a la tecnología 'Machine Learning' -disciplina científica que crea sistemas que aprenden automáticamente a través de diferentes algoritmos- es posible «crear contenido difícil de distinguir entre realidad o ficción», apunta Manuel Zaforas, responsable de la línea de anteligencia artificial y Big Data de Paradigma Digital. Desde diciembre de 2018, el número de deepfakes que se pueden encontrar en la RED se duplica aproximadamente cada seis meses, según la compañía especializada Sensity. Aunque el resultado no sea en todas las ocasiones perfecto, puede servir para engañar a buena parte de los usuarios, especialmente a las personas mayores. El experto en Derecho Digital, Borja Adsuara, explica que estos vídeos generan «una grave inseguridad» y advierte que «los delitos nunca se regulan por la tecnología, sino lo que se hace con ella. En base a la intención y en función del resultado».
Las compañías de ciberseguridad advierten de que esta manipulación es una de las grandes amenazas a las que se enfrentará el mundo en los próximos meses. «Todos aquellos que quieran hacer el mal utilizarán estas técnicas para extorsionar o difundir noticias falsas. Todos somos vulnerables de ser protagonistas de un vídeo de este tipo, no solo los famosos», explica Ruth García, técnico de ciberseguridad para ciudadanos de Incibe. Según las previsiones de la compañía Avast, es probable que los 'deepfakes' alcancen una calidad este año en la que puedan utilizarse activamente en campañas de desinformación. Desde Proofpoint, Fernando Anaya, Country Manager, comenta que «si la inteligencia artificial se vuelve cada vez más convincente en su capacidad de imitar la comunicación humana, es probable que los ataques de esta naturaleza sean cada vez más comunes».
Se trata de una tecnología que preocupa especialmente a los responsables de las empresas tecnológicas. Concretamente, el 74% de ellos cree que los 'deepfakes' son una amenaza para la seguridad de su organización, según un informe de Entelgy. Desde la consultoría advierten sobre las dificultades que puede ocasionar los ciberataques a través de esta tecnología: Suplantación de identidad y estafas, daños de la reputación corporativa interna y externa, e incapacidad de algunos de los sistemas de ciberseguridad existentes en su detección.
Según datos de la consultora Gartner en 2023, el 20% de los ataques para intentar robar y hacerse con cuentas utilizarán 'deepfakes' como parte de estos intentos de acciones maliciosas. «Son una muestra más de que la ciberseguridad y la protección de tus datos en un entorno como Internet son cada vez más necesarias. Nunca sabemos por dónde puede llegar el peligro», afirma Enrique Domínguez, Director de Estrategia de Entelgy Innotec Security. «Por eso, debemos tener cuidado con el contenido que recibimos y sospechar ante cualquier actitud extraña u orden contradictoria que recibamos y sin que podamos confirmar la identidad del emisor».
La mayoría de los vídeo falsos hiperrealistas son pornográficos
Una investigación de la empresa de ciberseguridad Deeptrace revela que, aunque hay vídeos de entretenimiento o de tipo político, el 96 % de los vídeos falsos hiperrealistas son pornográficos, y las cuatro webs más visitadas de este tipo de contenidos aglutinan más de 134 millones de visualizaciones. Las mujeres componen el colectivo más afectado, sobre todo las actrices inglesas y las cantantes surcoreanas. «Buscan relevancia y muchas visualizaciones, y la industria va mucho más dirigida a hombres que a mujeres», explica Josep Navarro, profesor colaborador de los Estudios de Informática, Multimedia y Telecomunicación de la Universitat Oberta de Catalunya (UOC). Los estudios han detectado una veintena de webs con foros en los que participan hasta 100.000 miembros, en su mayor parte —el 90 %— de países occidentales. Su reciente aparición y el hecho de que cada vez sean más dificiles de detectar hace que las autoridades aún no cuenten con protocolos para combatir el mal uso de esta tecnología.
El acceso al contenido Premium está abierto por cortesía del establecimiento donde te encuentras, pero ahora mismo hay demasiados usuarios conectados a las vez.
Por favor, inténtalo pasados unos minutos.
Sesión cerrada
Al iniciar sesión desde un dispositivo distinto, por seguridad, se cerró la última sesión en este.
Para continuar disfrutando de su suscripción digital, inicie sesión en este dispositivo.
Comentar es una ventaja exclusiva para suscriptores
¿Ya eres suscriptor?
Inicia sesiónNecesitas ser suscriptor para poder votar.