Llegan los Deepfakes en la era de la post realidad

Cuando todavía estamos tratando de combatir las fake news, esas campañas de desinformación que se viralizan a través de red y que buscan influir en la opinión pública, aparece una nueva tecnología de inteligencia artificial que pone los pelos de punta. Se llama Fake App, es gratuita y tan fácil de utilizar que cualquiera sin experiencia en informática puede hacerlo desde el ordenador de casa.

Básicamente, se trata de un software de escritorio que se utiliza para hacer videomontajes ultra realistas cambiando las caras de las personas que aparecen en cualquier tipo de video y creando lo que se denomina un “Deepfake”. Esta tecnología es similar a la utilizada por Snapchat, aunque la de la popular red social es mucho más básica. Hasta aquí parece divertido. El problema es que la aplicación ya se ha descargado más de 120.000 veces desde que apareció en Reddit hace un par de meses y parece que los usuarios están especialmente interesados en utilizarla para crear pornografía con rostros de personajes conocidos. Una de las últimas víctimas de estos horribles videomontajes ha sido la ex primera dama de Estados Unidos, Michelle Obama. Su rostro, colocado sobre el cuerpo de una actriz durante una escena escabrosa, ha sido utilizado para crear un vídeo tan realista que hasta los especialistas tienen dificultad en verificar su falsedad. Otro ejemplo es cómo los usuarios de Reddit han puesto la cara del actor Nicholas Cage en multitud de películas.

“El problema no es la tecnología, sino el uso que se hace de ella” La manipulación digital ha llegado al vídeo de la mano de una tecnología joven pero muy bien lograda y  muy sencilla de manejar. Bastan unas 3 a 5 horas de trabajo y una colección de selfies de la “víctima”. Pero, como siempre, el problema no es su desarrollo, sino el uso que se le da. Y es que tiene la capacidad de utilizarse, por ejemplo, para difamar políticos o empresarios, hacer chantajes o culpar a personas de crímenes que no han cometido, entre otros muchos ejemplos. Además, como la tecnología avanza más rápido que la ley, aún no existen herramientas legales para prohibir estos “video-horrores”. Sin embargo, algunas de las webs que los alojan están empezando a tomar medidas: Twitter los ha prohibido y Reddit ha cerrado algunos de sus grupos sobre Deepfakes, entre ellos uno que contaba ya con 100.000 miembros. Muchos usuarios no están de acuerdo con estas prohibiciones, por lo que el debate moral sobre el derecho de utilizar esta tecnología está servido.

La desinformación parece que ha encontrado una nueva vía para extenderse. Es probable que pronto veamos diseminarse como la espuma, no ya noticias falsas, sino vídeos falsos que tomaremos por verdaderos. Y, como pasa con las fake news, serán muy pocos los que se molesten en comprobar lo que les llega por las redes sociales. Además, si antes teníamos que prestar máxima atención a lo que leíamos y consultar fuentes diversas para comprobar la información, ahora tendremos que aprender a fiarnos menos de lo que vemos con nuestros propios ojos.

Por Estefanía Campos, directora en Estudio de Comunicación España.

@Ecampos1976

, , , , , , ,

Uso de cookies

Este sitio web utiliza cookies para que usted tenga la mejor experiencia de usuario. Si continúa navegando está dando su consentimiento para la aceptación de las mencionadas cookies y la aceptación de nuestra política de cookies, pinche el enlace para mayor información.

ACEPTAR
Aviso de cookies
SWITCH THE LANGUAGE
Text Widget
Lorem ipsum dolor sit amet, consectetur adipiscing elit. Vivamus quis neque vel quam fringilla feugiat. Suspendisse potenti. Proin eget ex nibh. Nullam convallis tristique pellentesque.