Fake news, ¿y si solo eran un punto intermedio?

Corría 2016 cuando Aviv Ovadya advertía del impacto de las fake news en las redes sociales con motivo de la campaña presidencial estadounidense. Un fenómeno que no solo estaba teniendo una injerencia crítica en la política, sino también en la salud, la educación y las relaciones internacionales (seguridad, por ejemplo).

Ahora, dos años más tarde, el tecnólogo vuelve a avisarnos: las fake news fueron solo un primer paso en un camino que nos llevará a un “apocalipsis informativo” puesto que las tecnologías que distorsionan la realidad avanzan más rápido que nuestra capacidad para gestionarlas y para controlar este fenómeno.

Los primeros síntomas, explica, los encontró poco antes de la victoria de Donald Trump. Fue entonces cuando se volcó en intentar advertir de la crisis de desinformación que se estaba avecinando. Él lo denominó “Infocalypse” y, como desgranan en un sobresaliente reportaje en BuzzFeed News del que se hace eco Genbeta, la cuestión gira en torno a la forma en la que el sistema “premia” información que muchas veces resulta ser engañosa y polarizante.

Es llamativo que en la presentación de sus conclusiones había representantes de tecnológicas como Facebook que, directamente, no le tuvieron en cuenta. El problema es que el desarrollo de herramientas de inteligencia artificial permitirá a quién lo desee manipular la realidad y hacer que un hecho que nunca ha ocurrido puede parecer cierto.

Como explican en Genbeta, algo que parece “distópico” ya está empezando a ocurrir. Tenemos el caso de vídeos porno falsos con famosas creados a partir de algoritmos de aprendizaje automático y software de código abierto -de nuevo, una herramienta indispensable mal utilizada- que ya ha tenido que ser baneado por los portales de referencia.

Más grave (aún) es el caso de manipulaciones de audio que puede sufrir una emisión en tiempo real haciendo que se sincronice un discurso con los labios de un ponente. Esto permite poner en boca de alguien algo que nunca ha dicho delante de las cámaras. El caso más flagrante que expone Ovadya es el de la “manipulación diplomática”: una inteligencia artificial puede aprender de horas de vídeos de dirigentes para luego, cuando desee una tercera persona, recrear una declaración de guerra casi imposible de distinguir de un discurso “normal”.

Esta suerte de “simulación política” puede ocurrir mucho antes de lo que parece y, tal y como pinta, dejará a las fake news como una curiosidad de principios de siglo. Por eso es fundamental trabajar a fondo para intentar adaptarnos a unas tecnologías que, en nuestra opinión, su creadores no llegan a comprender del todo.

Publicado por

Gaizka Manero López

Nacido en 1982 en Portugalete, Bizkaia, soy doctor en "Periodismo, Comunicación y Memoria en la era digital" por la Universidad del País Vasco.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *