Deepfake: otro grave desafío comunicacional

Por: José Dos Santos

En un mundo sobresaturado de información, en el que la frontera entre lo real-verdadero y la ficción-falsedad se difumina, a las ya abundantes “fake news” o inventos mentirosos se suma un término parecido, pero en el campo de la imagen y el sonido: “deepfake”.

La curiosidad al respecto me la despertó un material publicado en el diario español El País, que tituló ‘Deepfakes’: la amenaza con millones de visualizaciones que se ceba con las mujeres y desafía la seguridad y la democracia”.

El master en periodismo digital Raúl Limón expone en una larga nota de hace unas semanas que:

“Más del 90% de los vídeos falsos hiperrealistas, (cuyo número) se duplica cada seis meses, es pornografía no consentida que se utiliza como arma de violencia machista”.

Y pone un ejemplo concreto: “´Esta es la cara del dolor´. Así arranca la creadora de contenidos QTCinderella en un vídeo en el que denuncia haber sido víctima de la difusión de una secuencia pornográfica hiperrealista creada con inteligencia artificial. Las imágenes a las que se refiere son falsas, el daño causado no. La popular figura de Internet, de 29 años, se suma a una larga lista de personas afectadas por este tipo de creaciones, conocidas como /deepfakes/”.

Añade que “las aplicaciones de inteligencia artificial hacen que cada vez sean más fáciles de producir y más difícil de identificar su falsedad, mientras su regulación y control va por detrás del desarrollo de estas tecnologías”.

 
Otros ámbitos

Más allá del tema central que aborda, el profesional español apunta aristas aún más preocupantes: “Una investigación de la Universidad Northwestern y de Brookings Institution (ambas de EE UU) alerta de su peligro potencial para la seguridad. Otros estudios advierten del riesgo de interferencia y manipulación en procesos políticos democráticos”.

Sobre esta práctica advierte una de sus fuentes desde el anonimato, para evitar se ceben contra ella los autores de semejantes bodrios: “Cualquier persona de cualquier ámbito de la vida puede ser el objetivo de esto y parece que a la gente no le importa”.

El colega indica que “los bulos son tan antiguos como la humanidad. Las fotografías falseadas tampoco son recientes, pero se generalizaron a finales del pasado siglo con fáciles y populares herramientas de edición de imágenes estáticas. La manipulación de vídeos es más novedosa”.

Añade que “la primera denuncia pública es de finales de 2017 contra un usuario de Reddit que la utilizó para desnudar a famosas. Desde entonces, no ha parado de crecer y ha pasado a la creación de audios hiperrealistas”.

Nuevas tecnologías

Limón cita a Lorenzo Dami, graduado en la Universidad de Florencia y autor de un trabajo recogido en Research Gate, cuando expuso: “Las tecnologías /deepfake/ presentan desafíos éticos significativos. Se están desarrollando rápidamente y se están volviendo más baratas y accesibles día a día. La capacidad de producir archivos de vídeo o audio de aspecto y sonido realistas de personas que hacen o dicen cosas que no hicieron o dijeron trae consigo oportunidades sin precedentes para el engaño”.

 
Otra interesante opinión sobre el tema es la de Felipe Gómez-Pallet, presidente de Calidad y Cultura Democráticas: “La tecnología, una vez desarrollada, no hay quien la pare. La podemos regular, atemperar, pero llegamos tarde”.

Es cierto que, como Limón señala, “el problema es complejo porque en él confluyen la libertad de expresión y creación con la protección de la intimidad y la integridad moral” e inserta el criterio del profesor universitario Borja Adsuara: “No hay que prohibir una tecnología porque puede ser peligrosa. Lo que hay que perseguir son sus malos usos”.

Aunque también tienen usos loables, las creaciones hiperrealistas más notorias son las que se utilizan para extorsión sexual, injuria, venganza pornográfica, intimidación, acoso, fraude, desacreditación y falseamiento de la realidad. También pueden producir daño a la reputación y “atentados de índole económica (alterar mercados), judicial (falsear pruebas) o contra la democracia y la seguridad nacional”.

Venkatramanan Siva Subrahmanian, profesor de ciberseguridad y autor de /Deepfakes y conflictos internacionales, advierte: “La facilidad con la que se pueden desarrollar, así como su rápida difusión, apuntan hacia un mundo en el que todos los Estados y actores no estatales tendrán la capacidad de desplegar creaciones audiovisuales hiperrealistas en sus operaciones de seguridad e inteligencia”.

En este sentido, Adsuara cree que “más peligroso” que la falsa pornografía, pese a su mayoritaria incidencia, es el potencial daño a los sistemas democráticos: “Imagine que a tres días de las elecciones aparece un vídeo de uno de los candidatos diciendo una barbaridad y no hay tiempo para desmentirlo o, aunque se desmienta, es imparable la viralidad”.

Otra verdad que pone de relieve: “el problema de los /deepfakes/, como ocurre con los bulos, no es solo que son perfectos para que parezcan verosímiles, sino que la gente se los quiere creer porque coinciden con su sesgo ideológico y los redifunde sin contrastar, porque les gustan y quieren pensar que es verdad”.

Un término que alarma

Deepfake o ultrafalso, según Wikipedia, es un acrónimo del inglés formado por las palabras fake, falsificación, y deep learning, aprendizaje profundo. Es una técnica de inteligencia artificial que permite editar vídeos falsos de personas que aparentemente son reales, utilizando para ello algoritmos de aprendizaje no supervisados, conocidos en español como RGA (Red generativa antagónica), y vídeos o imágenes ya existentes. El resultado final de dicha técnica es un vídeo muy realista, aunque ficticio.

Los vídeos falsos son creados mediante la combinación de un vídeo real al que se le monta la imagen procesada por un programa informático con técnicas deepfake. Lo que se persigue es crear el efecto, lo más realista posible, de que algo así ha ocurrido.

La propia Wikipedia reconoce que: “también son usados para falsificar noticias y crear bulos malintencionados.

Gracias a los algoritmos RGA se pueden generar fotografías que parecen auténticas y puede llevar a una persona cualquiera a aceptarlo como una fotografía real.

Un ejemplo primero de esa manipulación, en tiempo no digitales, es un retrato del presidente de Estados Unidos Abraham Lincoln, de 1865. En este, el rostro fue superpuesto encima de la cabeza de una impresión más antigua, donde aparecía John C. Calhoun en 1852.

En 1997 se creó el antecedente más cercano a lo que actualmente se conoce como deepfake. Se trata del programa “Video Rewrite”, que fue el primer sistema en establecer conexiones entre los sonidos producidos por el sujeto del video y la forma de su cara mediante técnicas de aprendizaje automático de un ordenador.

Dice el diccionario virtual más consultado hoy que, actualmente, las técnicas para identificar “deepfakes” han conseguido llegar a un nivel de precisión del 86, 6%, pero –yo acoto- eso es para expertos y/o mecanismos especiales.

Luego de dar ejemplos de hechos positivos de su uso, advierte que “el nivel de precisión y verosimilitud de los deepfakes, los cuales mejoran constantemente a un ritmo muy elevado, hace que cada vez sea mucho más difícil de diferenciar un vídeo, una imagen o un audio falso de uno de real, porque mientras difundir información falsa es mucho más sencillo; comprobar y autentificar la información cierta es bastante más complicado”.

Crisis de confianza

Más adelante afirma que “el hecho que este tipo de vídeos y fake news se difundan por las redes sociales tan rápidamente, llegando a millones de personas, está empezando a generar una crisis de fiabilidad de información importante con impactos negativos en la sociedad que actualmente ya es muy presente y se llama information apocalypse o “infopocalypse”.

Y continúa: “Consiste en la idea de que la población, al estar tan habituada a encontrarse delante de información engañosa, hasta vídeos y audios, hace que consecuentemente empiecen a dudar de la credibilidad de toda la información que consumen.

“Así pues, al final, muchos acaban descartando ideas ciertas como falsas simplemente por el hecho que se han acabado aferrando a la idea de que cualquier cosa que ellos no quieran creer, será falsa”.

Y termina con una lección de periodismo: “Por este motivo, los periodistas de hoy en día tienen un trabajo clave en la elección y comprobación de autenticidad de un hecho y vídeo”.

 Las redes son el blanco perfecto para los creadores de deepfakes, ya que es donde se difunden de manera más fácil y rápida las conspiraciones, los rumores y la información falsa. Con la llegada del audio deepfake se han tenido que tomar medidas importantes y profundas sobre todo en la seguridad de las llamadas telefónicas. Antes que se pudiera clonar la voz con inteligencia artificial ya era recurrente encontrarse con situaciones en donde criminales intentaban robar dinero mediante llamadas y se había llegado a prevenir muchas estafas.

El problema se agrava porque la diferencia entre una voz robótica y una de humana, en un futuro próximo, será muy difícil de diferenciar, sobre todo si se hace a través de un teléfono, ya que el audio resultante siempre acabará adquiriendo un tono de voz mucho más distorsionado que de normal.

Ese es el mundo real al que se enfrenta la humanidad en esta época de desarrollo tecnológico exponencial y apetencias imperiales desbocadas, en el que lo primero tiende a supeditarse a lo segundo. De la inteligencia social, la conducción sabia de alternativas soberanas y la voluntad de no dejarse engañar por “trucos inteligentes” depende en buena medida que los “deepfakes” dejen de mellar el ánimo de los justos.

Le puede interesar:

Guionistas estadounidenses en crisis

Estamos en Redes Sociales:

Facebook

Twitter

YouTube

¿Te Gusta?
 
 
   

Deja una respuesta

Tu dirección de correo electrónico no será publicada.