Media pila: combatiendo los deepfakes

Pantalla del logotipo de Facebook

Fuente: Pixabay

Las redes sociales están en el ojo del tornado debido a la relevancia del contenido que manejan, y cómo este contenido potencialmente moldea el pensamiento de las personas. De la misma manera en que la gente ingresa a un casino en línea para jugar a la ruleta por Internet, accede a diversos sitios y valida la autenticidad del contenido que allí encuentra, prácticamente de manera incuestionable. En el caso de JackpotCity Casino, la confiabilidad y autenticidad del sitio se validan por los certificados publicados de las autoridades independientes. Pero en otros casos, ¿cómo podemos estar seguros de que el contenido es confiable? Facebook planea ha implementado una serie de modificaciones a sus políticas para combatir la falsificación en videos y poder a futuro decir “no va más”.

1. Qué modificaciones se realizaron a las políticas

Facebook se ha dispuesto a monitorear y combatir el contenido generado por inteligencia artificial (IA) y comportamientos sospechosos, asociándose con gobiernos, académicos, expertos y diversos sectores (medios de comunicación y prensa como Reuters, entre otros) para ayudar a desarrollar ciencias y tecnología para detectar la adulteración de contenido, y crear el Deep Fake Detection Challenge, un proyecto de coalición que promueve la concientización, investigación y exposición de estas prácticas fraudulentas.

La modificación a sus políticas existentes implica varios criterios para la eliminación de contenidos manipulados mediante herramientas sofisticadas que utilizan técnicas con inteligencia artificial o “aprendizaje profundo” para crear videos que distorsionan la realidad. Este tipo de contenido se conoce como deepfake.

¿Cuáles son los criterios? Si se editaron más que los ajustes de imagen de un video y esto no es evidente para una persona promedio, lo que podría inducir a error; y si el contenido es un producto de inteligencia artificial o tecnología de automatización que “fusione, reemplace o superponga” el contenido de un video para que parezca auténtico.

Edición de video

Fuente: Unsplash

2. El contexto detrás de esta modificación

Las modificaciones realizadas se plantearon en relación con la continua interpelación de Facebook por parte del Congreso de EE. UU., en relación con las defensas digitales vulneradas hace cuatro años, cuando agentes rusos utilizaron la plataforma como arma para avivar incertidumbre entre la opinión pública y los ciudadanos durante las campañas electorales de 2016. Y, de hecho, ahora que se aproximan las nuevas elecciones de 2020, se ha reavivado la tensión, con motivo de la testificación que proveerá Bickert durante la audiencia del congreso por “manipulación y engaño en la era digital”.

Vale agregar que también sale a colación un video que estuvo en boca de muchas personas en Estados Unidos, donde se ve a la presidenta de la Cámara de Diputados, Nancy Pelosi, dar un discurso de una manera que se percibe como ebria. Esto se volvió viral el año pasado, incitando criticismo de la opinión pública, líderes y expertos. Luego se descubrió que el video estaba adulterado, pero no era un deepfake, sino que la voz había sido distorsionada y ralentizada para que parezca así. Este tipo de video podría permanecer en la plataforma, ya que no cumpliría las nuevas pautas para ser eliminado. Así y todo, ese video fue visto por más de 3 millones de usuarios de la plataforma, y quién sabe con cuántos más fue compartido.

3. Hace falta más criterio

¿Cuál es el problema de la modificación “parcial” de las políticas de Facebook? Para empezar, parecería que afecta solamente a videos, y solo a aquellos que cumplan con los requisitos estipulados. Los que no lo hagan, al igual que otro tipo de contenido como audios o fotos, podrían ser catalogados por los investigadores independientes como falsos y su difusión podría reducirse, pero no serán removidos. También se excusará al contenido manipulado con intenciones satíricas o de parodia.

No se ahonda en el hecho de que la red social abunda en este tipo de información y que los dos requisitos de las nuevas políticas no son lo suficientemente amplios como para que se admita la capacidad de inducir a error a través de otro tipo de contenido donde, quizá, la tecnología utilizada es de menor complejidad, pero surte igual efecto a la hora de crear desinformación

Facebook se excusa diciendo que, si quitaran todos los videos manipulados etiquetados así por los investigadores, el contenido aún estaría disponible en Internet en otra parte, y que al dejarlo dentro de la red y etiquetarlo como falso, permiten que gente como nosotros podamos acceder a contexto e información importante. Esto implica, entre otras cosas, que se incluirán vínculos y referencias a fuentes de investigación de contenidos dentro de las publicaciones. Pero: ¿qué tan seguros podemos estar de que las personas prestarán atención a eso y no al contenido falso?

Ojo con la vista Qué te espera en el 2020, año de la rata en el zodiaco