Las plataformas en que se ha concentrado la privatización de la censura, denunciada como hace cinco años por la UNESCO como tendencia del año 2014 acumulan un control sin precedentes de datos y comportamientos individuales y una concentración masiva de los intercambios comunicativos que se producen a través de las redes sociales, según La desinformación de nueva generación, texto de Carme Colomina, investigadora de CIDOB, aparecido en el último número de Política Exterior. La cuota de mercado global de Google es del 80% de todas las consultas de búsqueda que se realizan en internet, mientras Facebook y YouTube controlan el 70% de las interacciones en redes sociales. ¿Cómo se puede responder a esta concentración de poder y datos?
Gobiernos de hasta 30 países distintos, entre ellos Turquía, Venezuela o Filipinas, producen y difunden contenidos con el fin de distorsionar la información que circula en Internet, según el informe Freedom of the Net 2017. El gobierno chino se ha convertido en un gran hermano capaz de monitorizar los movimientos de sus ciudadanos a través de teléfonos móviles. Organizaciones de derechos humanos han denunciado las legislaciones contra las fake news aprobadas en Egipto o Gambia como un ataque a la libertad de expresión. La Ley para la Protección contra la Falsedad y la Manipulación online aprobada por el gobierno de Singapur es la más dura de todas las medidas adoptadas en el Sudeste Asiático y una amenaza directa a la libertad de prensa y de expresión, con multas millonarias y hasta diez años de cárcel que pretenden criminalizar, no solo la mentira, sino la crítica al gobierno y la disidencia política.
La desinformación siempre va un paso por delante. Los avances tecnológicos preceden cualquier medida o legislación que pretenda regular sus efectos. La línea divisoria entre propaganda e información es cada vez más borrosa, también en las democracias occidentales. La irrelevancia de la verdad factual sigue aumentando en cada nuevo escenario electoral y las vías de transmisión de las falsedades se sofistican. Sin embargo, el debate político sobre la amenaza de la desinformación y como combatirla sigue anclado en el 2016, en los precedentes del referéndum del Brexit y las elecciones presidenciales estadounidenses como referencia y medida de todas las cosas; con la desinformación rusa como principal amenaza reconocida por la Unión Europea y el abuso del término fake news como arma de descrédito del discurso crítico y el disenso político. Pero, la realidad actual es ya mucho más compleja.
El uso de la (des)información en la acción política se ha trasladado desde las redes sociales y las plataformas abiertas a los espacios digitales cerrados y de confianza como los grupos de WhatsApp. Ello obliga a repensar estrategias para adaptarse a unos parámetros legales, tecnológicos y éticos distintos. La desinformación está en plena evolución desde el texto escrito a las imágenes y sigue sofisticándose por momentos mientras gobiernos –especialmente en la Unión Europea– constatan la imposibilidad de consensuar visiones y estrategias. Las percepciones y evaluaciones de riesgo del fenómeno siguen tomándose bajo prismas nacionales cuando el desafío es global.
La desinformación que desestabiliza el debate democrático en la UE no es únicamente una amenaza exterior sino que se construye, coordina y re–elabora su retórica anti–europea, desde el interior, apoyada en campañas euroescépticas gubernamentales y amplificada por las estrategias mediáticas de distintas formaciones políticas europeas. La desinformación a través de Whatsapp ha hecho acto de presencia en las últimas elecciones generales españolas, a unos niveles todavía nada comparables a sus efectos en países como Brasil o India, pero apunta ya hacia una tendencia que se extiende mucho más allá de la estrategia política comunitaria para intentar atajar los efectos de las narrativas falsas en la configuración de las opiniones políticas de sus ciudadanos.
Medidas contra la desinformación
El parlamento alemán aprobó una ley para multar a las plataformas de Internet y a las redes sociales con más de dos millones de usuarios que no erradiquen contenido denunciado como falso o como discurso del odio. Francia, en cambio, ha preferido dotar a los tribunales de capacidad de decisión sobre la exactitud de la información en línea que se publique durante los procesos electorales. Estados Unidos, por su parte, propuso una legislación para aumentar la transparencia sobre quién compra anuncios (políticos) en las redes sociales. Italia y Suecia han introducido la formación en competencia digital en las escuelas para mejorar la detección y la lectura crítica de noticias falsas y de la propaganda. El objetivo general es fortalecer la capacidad de resiliencia de los europeos ante el desconcierto de la desinformación. Pero, a la vez, demuestra la variedad de aproximaciones legales y políticas al fenómeno.
Por su parte, la Unión Europea optó por un Código de Prácticas, aprobado en el 2018, que ambicionaba sumar a las grandes plataformas de internet (Google, Facebook, Twitter o Mozilla) en la intensificación del control sobre el contenido que circula en la red, la eliminación de cuentas falsas y la limitación de la visibilidad de páginas consideradas promotoras de desinformación. Sin embargo, el hecho de que estas plataformas deban actuar ahora como si fueran los reguladores de la veracidad de los contenidos, ha provocado conflictos de intereses con los políticos que habitualmente usan las redes sociales para compartir su propio contenido sesgado, tensiones con partidos tradicionales que han visto algunas de sus cuentas suprimidas durante períodos electorales, y acusaciones de que las Big Tech restringen el discurso político legítimo. Para los más críticos, dotar a las plataformas de autoridad para retirar contenido las habilita para actuar como censores, incluso cuando algunas de estas redes sociales han mostrado dificultades evidentes para pronunciarse sobre qué consideran o no una noticia falsa.
La inteligencia artificial se pone al servicio de la desinformación
La Inteligencia Artificial también está al servicio de la desinformación. Es el deepfake: algoritmos al servicio de la creación de audios y vídeos falsos, desvirtuando todavía más la ya diluida frontera entre realidad y ficción.
Hace dos años, la Universidad de Washington presentó un proyecto piloto conocido como Synthesizing Obama, un algoritmo capaz de manipular vídeos sincronizados con movimientos faciales que usaba la imagen del expresidente de Estados Unidos, Barack Obama, para reproducirla en contextos distintos repitiendo la misma declaración. ¿Cuál de ellas era la auténtica?
Recreaciones faciales, construcciones de discursos a partir de la manipulación de intervenciones o alocuciones grabadas previamente, capacidad de reproducir idénticamente expresiones faciales… una nueva generación de manipulaciones está a punto de irrumpir en el caos de la desinformación. Las implicaciones políticas y securitarias de esta tecnología son obvias: cualquier líder político podría aparecer diciendo o haciendo cualquier movimiento o anuncio con consecuencias estratégicas y que, en realidad, se trate de un montaje. Una ficción fabricada para la desestabilización política.
Nuevas formas de amenazas híbridas podrían aparecer en un futuro próximo en otros países y zonas del planeta. Internet es el nuevo territorio geoestratégico y la tecnología, el campo donde se decide la próxima hegemonía global. Washington y Beijing están en pleno desafío por su control.