jueves,18 agosto 2022
Espacio euroiberoamericano de diálogo sobre la innovación social, profesional y académica
InicioOpiniónDebatesLa política, ya invadida por propaganda basada en inteligencia artificial

La política, ya invadida por propaganda basada en inteligencia artificial

Berit Anderson es directora general de Scout.ai Brett Horvath, jefe del Departamento de Estrategia y Desarrollo de Scout.ai
El futuro de la máquina de armas propagandísticas basada en inteligencia artificial es ya presente. De momento, Trump y Cambridge Analytica logran batir a sus oponentes. Los "bots" o falsos perfiles de redes sociales se han convertido en sus soldados de infantería: un ejército de robots políticos usados para controlar las conversaciones en las redes sociales y silenciar e intimidar a los periodistas y a otros que pudieran socavar su mensaje. Lo que sigue es resultado de exploraciones de "Scout"

Aprovechando la manipulación emocional automatizada junto a enjambres de robots, las publicaciones invisibles de Facebook, los test A B y redes de noticias falsas, una empresa llamada Cambridge Analytica ha activado una máquina invisible que aprovecha las personalidades de los votantes individuales para provocar grandes cambios en la opinión pública. Muchas de estas tecnologías se han utilizado por separado anteriormente con cierto efecto, pero juntas forman una máquina de manipulación de votantes casi impenetrable que se está convirtiendo rápidamente en el nuevo factor decisivo en las elecciones alrededor del mundo. Hay una nueva máquina de propaganda automatizada que conduce la política global. Cómo funciona y qué significará para el futuro de la democracia es lo que se analiza en este artículo.«Esta es una máquina de propaganda. Está dirigida a las personas, de manera individual, para reclutarlos en torno a una idea. Es un nivel de ingeniería social que nunca se había visto antes. Están captando a la gente para luego atarlos a una correa emocional y nunca dejarlos ir», dijo el profesor Jonathan Albright.

Albright, profesor adjunto y científico de datos en la Universidad de Elon, comenzó a indagar sobre sitios de noticias falsas después de que Donald Trump fuera elegido presidente. Después de una extensa investigación y entrevistas con Albright y otros expertos clave en el campo, incluyendo a Samuel Woolley (jefe de investigación en el Proyecto de Propaganda Computacional de la Universidad de Oxford) y Martin Moore (director del Centro para el Estudio de los Medios de Comunicación y el Poder en King’s College), quedó claro para Scout que este fenómeno era mucho más que un conjunto noticias falsas. Era una pieza de un rompecabezas mucho más grande y más oscuro: una máquina de armas propagandísticas de inteligencia artificial que se usaba para manipular nuestras opiniones y nuestro comportamiento con el fin de avanzar en agendas políticas específicas.

Recientemente, Analytica ayudó a elegir al presidente estadounidense Donald Trump, consiguió una victoria para la campaña Brexit Leave y lideró la campaña electoral de Ted Cruz en 2016, llevándolo a un primer plano en las elecciones primarias del Partido Republicano de los Estados Unidos.

La compañía pertenece a –y es controlada por– intereses conservadores y la “derecha alternativa” (alt-right, como se les conoce en inglés) que también están profundamente entrelazados con la administración de Trump. La familia Mercer es a la vez un importante propietario de Cambridge Analytica y uno de los mayores donantes de Trump. Steve Bannon, además de actuar como principal estratega de Trump y miembro del Consejo de Seguridad de la Casa Blanca, es miembro de la junta directiva de Cambridge Analytica. Hasta hace poco, el CTO (Chief Technical Officer) de Analytica era el CTO que actuaba en la Convención Nacional Republicana.

Probablemente, dadas sus alianzas, a Analytica se le ha negado trabajar en cualquier campaña demócrata –al menos en Estados Unidos. Sin embargo, está en negociaciones para ayudar a Trump a manejar la opinión pública en torno a sus políticas presidenciales y a expandir las ventas de la organización Trump. Actualmente, Cambridge Analytica se está expandiendo agresivamente hacia los mercados comerciales de Estados Unidos, y reuniéndose con partidos y gobiernos de derecha en Europa, Asia y América Latina.

Cambridge Analytica no es la única empresa que puede llevar esto a cabo, pero sí es la más poderosa. Entender Cambridge Analytica y la máquina de propaganda de inteligencia artificial más grande del momento es esencial para cualquier persona que quiera entender el poder político moderno, construir un movimiento o evitar ser manipulado. La máquina de armas propagandísticas de inteligencia artificial que representa se ha convertido el nuevo requisito para el éxito político en un mundo de polarización, aislamiento, trolls y publicaciones invisibles.

Ha habido una oleada de informes sobre Cambridge Analytica y una cobertura mediática importante de los aspectos individuales de la máquina (bots, noticias falsas, microtargeting) pero ninguno hasta ahora (al menos, que hayamos visto) que retrate el intenso poder colectivo de estas tecnologías o el alarmante nivel de influencia que es probable que tengan en próximas elecciones.

En el pasado, la mensajería y propaganda políticas eran batallas en una guerra que se libraba en la prensa, en la radio y en la televisión para producir narrativas a través de esos medios. adaptable y, en última instancia, adictiva. Silicon Valley pasó los últimos diez años construyendo plataformas cuyo estado final natural es la adicción digital. En 2016, Trump y sus aliados se apropiaron de ellas.

Hemos entrado en una nueva era política. En Scout, creemos que el futuro del diálogo constructivo y cívico y de las elecciones libres y abiertas depende de nuestra capacidad para comprenderla y anticiparla. Bienvenidos a la época de la Propaganda Artificial AI.

El big data se une a la Psicología Informática

Cualquier empresa puede agregar y comprar big data, pero Cambridge Analytica ha desarrollado un modelo para traducir esos datos a un perfil de personalidad que se utiliza para predecir y, finalmente, cambiar su comportamiento. Ese modelo se desarrolló pagando a un profesor de psicología de Cambridge para que copiara a través de métodos cuestionables que violaban los “términos de servicio” de Amazon la innovadora investigación original llevada a cabo por un colega suyo. Teniendo en cuenta estos orígenes, Cambridge Analytica parece dispuesta a capturar y comprar los datos que necesite para lograr sus fines.

En 2013, el Dr. Michal Kosinski, entonces candidato a doctor en el Centro de Psicometría de la Universidad de Cambridge, publicó un estudio pionero anunciando un nuevo modelo que él y sus compañeros habían pasado años desarrollando. Al correlacionar los likes de Facebook con sus calificaciones de OCEAN –un cuestionario estándar de personalidad utilizado por psicólogos– el equipo fue capaz de identificar el género, la sexualidad, las creencias políticas y los rasgos de personalidad de un individuo basándose solo en lo que les había gustado en Facebook.

La Das Magazine de Zurich, describió el trabajo de Kosinski a finales de 2016 así: «[…]con solo diez likes como insumos, su modelo podría evaluar el carácter de una persona mejor que un compañero de trabajo promedio. Con setenta, podría ‘conocer’ un tema mejor que un amigo; con 150 likes, mejor que sus padres. Con 300 likes, la máquina de Kosinski podía predecir el comportamiento de un sujeto mejor que su pareja. Con aún más likes, podría exceder lo que una persona piensa que sabe acerca de sí misma».

No mucho tiempo después, Kosinski fue abordado por Aleksandr Kogan, un profesor de Cambridge del Departamento de Psicología, sobre la concesión de licencias de su modelo a SCL Elections, una compañía que afirmaba que su especialidad era manipular las elecciones. La oferta habría significado un pago significativo para el laboratorio de Kosinski. Sin embargo, Kosinski declinó la oferta, preocupado por las intenciones de la firma y los efectos posteriores que podría tener.

Kosinski y sus colegas habían tardado años en desarrollar ese modelo, pero con sus métodos y descubrimientos ahora abiertos para el acceso público, apenas se puede hacer nada para detener a SCL Elections en su intento de replicar sus métodos. De hecho, parece que SCL Elections ha hecho precisamente eso.

Según una investigación de The Guardian, a principios de 2014, pocos meses después de que Kosinski declinase su oferta, SCL se asoció con Kogan en su lugar. Como parte de su relación, Kogan pagó a los trabajadores de Amazon Mechanical de Turquía un dólar a cada uno para que realizasen el test OCEAN. Solo había un problema: para realizar el cuestionario, los usuarios tenían que proporcionar acceso a todos sus datos de Facebook. Se les dijo que los datos se utilizarían para la investigación. El trabajo fue denunciado a Amazon por violar los “términos de servicio” de la plataforma. Sin embargo, había algo de lo que muchos de los trabajadores turcos probablemente no se habían percatado: según documentos revisados por The Guardian, «Kogan también se hizo con los mismos datos de los amigos que cada persona tenía en Facebook».

Los datos recopilados en el estudio de Kogan dieron paso al nacimiento de Cambridge Analytica, que se escindió de SCL Elections poco después. El nombre, metafóricamente por lo menos, era un guiño a la obra de Kogan –y una crítica a Kosinski.Pero ese primer tesoro oculto de datos de los usuarios era solo el comienzo: la semilla que Analytica necesitaba para construir su propio modelo para analizar las personalidades de los usuarios sin tener que depender del tedioso test OCEAN.

Después de una exitosa demostración conceptual, y respaldado por acaudalados inversionistas conservadores, Analytica realizó una campaña de compras de datos “para los restos”, adquiriendo datos sobre sus hábitos de compra, propiedades inmobiliarias, dónde asistían a la iglesia, qué tiendas visitaban, a qué revistas estaban suscritos… Todo lo cual se encuentra a la venta a través de una amplia gama de brokers de datos y organizaciones externas que venden información sobre cada uno de nosotros. Analytica agregó estos datos con el censo electoral, los datos en línea disponibles públicamente –incluyendo los que están en Facebook– y lo unió todo en su modelo de personalidad predictiva.

A Nix le encanta presumir que el modelo de personalidad de Analytica le ha permitido crear un perfil de personalidad para cada adulto en los Estados Unidos –220 millones de personas, cada uno con hasta 5.000 puntos de datos–. Y esos perfiles se están actualizando y mejorando continuamente a medida que se “escupen” más datos a la red.

Albright también cree que sus publicaciones de Facebook y Twitter están siendo recogidas e integradas de nuevo en los perfiles de personalidad de Cambridge Analytica. «Twitter y Facebook también se utilizan para recopilar una gran cantidad de datos sensibles porque la gente se muestra apasionada en las redes: responden, retuitean, e incluyen, básicamente, sus argumentos y su bagaje completo sobre cada tema», explica Albright.

Scripts automatizados que se alimentan de nuestras emociones

Recoger grandes cantidades de datos sobre las personalidades de los votantes puede parecer inquietante, pero en realidad no es lo que distingue a Cambridge Analytica. Para Analytica, y otras compañías como ellos, es lo que hacen con esos datos lo que realmente importa.

Tu comportamiento se ve marcado por tu personalidad y, en realidad, cuanto más se pueda entender acerca de la personalidad de las personas en base a sus motivaciones psicológicas, más se puede empezar realmente a entender por qué y cómo toman sus decisiones»,7 explicó Nix a Sasha Issenburg, de Bloomberg. «Llamamos a esto ‘microtargeting conductual’ y ésta es realmente nuestra receta secreta secreta. Esto es lo que estamos tra- yendo a América».8

Utilizando esos expedientes, o perfiles psicográficos como Analytica los llama, Cambridge Analytica identifica qué votantes tienen más probabilidades de titubear sobre las causas que defienden o los candidatos a los que votan. Así, usan esa información para predecir, y luego cambiar, su comportamiento futuro.

Como informó Vice recientemente, Kosinski y un compañero ahora están trabajando en un nuevo conjunto de actividades de investigación, aún por publicar, que aborda la efectividad de estos métodos. Sus primeros resultados indican que, centrándose en la personalidad de los usuarios, las publicaciones de Facebook pueden atraer hasta un 63 por ciento más de clics y 1.400 conversiones más.

Scout se dirigió a Cambridge Analytica con una lista detallada de preguntas sobre sus tácticas de comunicación, pero la compañía se negó a responder a cualquier pregunta o comentario sobre cualquiera de sus tácticas. No obstante, los investigadores de todo el ecosistema de la tecnología y los medios de comunicación que han estado siguiendo las actividades de mensajería política de Cambridge Analytica han descubierto una red en línea expansiva y adaptable que automatiza la manipulación de los votantes a una escala nunca antes vista en la mensajería política.

«Ellos [la campaña de Trump] estaban usando entre cuarenta y cincuenta mil variantes diferentes de anuncios todos los días que estaban continuamente midiendo las respuestas de los usuarios y luego adaptándose y evolucionando, basándose en las respuestas de cada usuario», dijo Martin Moore, director del Centro para el Estudio de Medios, Comunicación y Poder, a The Guardian a principios de diciembre. «Todo se hace de manera completamente opaca y pueden gastar tanto dinero como quieran en determinados lugares, ya que se puede concentrar esta actividad en hasta un radio de cinco millas».

Mientras los encuestadores tradicionales preguntan directamente a una persona cómo planean votar, Analytica se basa no en lo que dicen sino en lo que hacen, siguiendo sus movimientos e intereses en línea y publicando anuncios multivariados diseñados para cambiar el comportamiento de una persona. «Por ejemplo» –escribió Nix en un artículo de opinión el año pasado sobre el trabajo de Analytica en la campaña de Cruz– «nuestro modelo de edición identificó que había una pequeña bolsa de votantes en Iowa que sentía firmemente que los ciudadanos debían ser obligados por ley a mostrar su documento de identidad en los colegios electorales».

«Aprovechando nuestros otros modelos de datos, pudimos asesorar a la campaña sobre cómo abordar este tema con individuos específicos, basándonos en sus perfiles para usar este nicho como un punto de presión política con el fin de motivarlos a salir a votar a Cruz. Por ejemplo, para las personas del grupo de personalidad ‘Temperamental’, que tienden a tener aversión al compromiso, los mensajes sobre el tema deben situarse en la línea de que mostrar su identificación para votar es ‘tan fácil como comprar una caja de cerveza’. Mientras que el mensaje correcto para las personas del grupo ‘Tradicionalista Estoico’, que han mantenido firmemente sus opiniones de tipo convencional, el mensaje debe ser que mostrar su identificación para votar es simplemente parte del privilegio de vivir en una democracia». 

Para Analytica, el feedback es instantáneo, y la respuesta automatizada: ¿Este votante indeciso específico en Pennsylvania hizo clic en el anuncio atacando la negligencia de Clinton sobre su servidor de correo electrónico? ¿Sí? Sírvale más contenido que enfatice sobre los fracasos de la responsabilidad personal. ¿No? El script automatizado intentará un titular diferente, quizás uno que enfatice sobre un rasgo distinto de su personalidad, véase la tendencia del votante a ser complaciente con figuras de autoridad. Tal vez los altos funcionarios del Servicio de Inteligencia están de acuerdo: los correos electrónicos de Clinton pusieron en peligro la seguridad nacional.

Gran parte de esto se hace a través de publicaciones invisibles de Facebook, que solo son visibles para aquellas personas que se utilizan como objetivo. En base a la respuesta de los usuarios a estos mensajes, Cambridge Analytica fue capaz de identificar cuáles de los mensajes de Trump estaban teniendo mayor repercusión y dónde. Esa información también se usó para dar forma al calendario de viajes de campaña de Trump. Si el 73 por ciento de los votantes del condado de Kent, en Michigan, hiciera clic en uno de los tres artículos sobre la recuperación de empleos, habría que programar un mitin de Trump en Grand Rapids (la capital del Condado) que se centrase en la recuperación económica.

Los analistas políticos de la campaña de Clinton, que estaban basando sus tácticas en los métodos de encuestas tradicionales, se mofaron cuando Trump programó eventos de campaña en la llamada “pared azul”, un grupo de Estados que incluye a Michigan, Pennsylvania y Wisconsin y que tradicionalmente ha votado a los demócratas. Pero Cambridge Analytica vio que existía una oportunidad basada en la medición del compromiso con sus publicaciones de Facebook. Fueron los pequeños márgenes en Michigan, Pennsylvania y Wisconsin los que hicieron que Trump ganara las elecciones.

Las publicaciones invisibles también se usaron para deprimir la participación de votantes entre los grupos clave de votantes democráticos. «En estas elecciones, se utilizaron publicaciones invisibles para tratar de inhibir el voto afroamericano», escribió el periodista McKenzie Funk, miembro de Open Society, en un editorial del New York Times. «Según Bloomberg, la campaña de Trump envió anuncios que recordaban a ciertos votantes negros seleccionados la infame ‘alineación de depredadores’ de Hillary Clinton. Se apuntó al barrio Little Haiti de Miami con mensajes sobre los problemas de la Fundación Clinton en Haití después del terremoto de 2010».

Debido a que las publicaciones invisibles solo son visibles para los usuarios específicos a los que se dirigen, no hay forma de que alguien fuera de Analytica o la campaña de Trump rastreen el contenido de estos anuncios. En este caso, no hubo supervisión de la SEC (Securities and Exchange Commission), ni escrutinio público de los anuncios agresivos de Trump. Solo el rápido movimiento ocular de millones de usuarios individuales que escaneaban sus feeds de Facebook.En las semanas que preceden a una votación final, una campaña podría lanzar una maniobra de publicaciones invisibles de 10 a 100 millones de dólares dirigida a solo unos pocos millones de votantes en los distritos de votantes indecisos y nadie lo sabría. Aquí puede ser donde surja el futuro cisne negro de las elecciones.«Estas compañías», dice Moore, «han encontrado una manera de transgredir 150 años de legislación que hemos desarrollado para que las elecciones sean justas y abiertas».

Una red de propaganda para acelerar las ideas en minutos

Mientras tanto, sorprendido por los resultados de la carrera presidencial de 2016, Albright empezó a estudiar el problema de las noticias falsas. Como parte de su investigación,  Albright rastreó 306 páginas web de noticias falsas para determinar exactamente cómo estaban todas conectadas entre sí y con el ecosistema principal de noticias. Lo que encontró fue algo sin precedentes: una red de 23.000 páginas y 1.3 millones de hipervínculos.

 

«Los sitios web de las noticias falsas y la híper sesgada red #MCM», escribe Albright, «tienen un nodo muy pequeño, lo que significa que se están conectando con frecuencia a los principales medios de comunicación, redes sociales y recursos informativos [la mayoría de los cuales están ‘dentro’ de la red]».Estos sitios no son propiedad, o están operados por, una entidad individual, dice Albright, pero juntos han sido capaces de hacerse expertos en posicionamiento en buscadores (Search Engine Optimization), aumentando la visibilidad de las noticias falsas y sesgadas en cualquier momento que alguien en Google busque un término relacionado con las elecciones: Trump, Clinton, judíos, musulmanes, aborto, Obamacare, etc.

«Esta red», escribió Albright en una publicación explorando sus hallazgos, «se dispara bajo demanda para difundir información falsa, híper sesgada y llena de carga política».Lo que resultó aún más impactante para él fue que esta red de noticias falsas había creado una poderosa infraestructura para compañías como Cambridge Analytica con el fin de rastrear a los votantes y refinar sus modelos de análisis de la personalidad de los usuarios.

«Investigué los rastreadores en estos sitios web y me quedé absolutamente atónito. Cada vez que a alguien le gusta uno de estos mensajes en Facebook o visita uno de estos sitios web, los scripts le siguen a través de la web. Esto permite que la minería de datos, y que empresas creadoras de influencia como Cambridge Analytica, puedan dirigir a los individuos con precisión, seguirlos en la web, y enviarles mensajes políticos altamente personalizados».

La red de noticias falsas y sesgadas que Albright descubrió creó una onda de propaganda que Cambridge Analytica podía montar y luego amplificar. Cuantas más noticias falsas se creen y más interactúen los usuarios con ellas, más adictivos pueden ser los algoritmos de análisis de la personalidad de Analytica.

El votante 35423 hizo clic en una historia falsa sobre la red de tráfico sexual de Hillary? Vamos a conseguir que interactúe con más historias sobre la supuesta historia de Hillary de asesinato y tráfico sexual.

La sinergia entre las redes de contenido falso, las pruebas automatizadas de mensajes y la elaboración de perfiles de personalidad se extenderán rápidamente a otros medios digitales. La investigación más reciente de Albright se centra en una inteligencia artificial que automáticamente crea videos de YouTube sobre noticias y eventos actuales. La inteligencia artificial, que reacciona a los temas que son tendencia en Facebook y Twitter, empareja imágenes y subtítulos con una voz generada por computadora. En unos pocos días, grabó casi 80.000 videos a través de 19 canales diferentes.

Dado su rápido desarrollo, la comunidad tecnológica necesita anticipar cómo la propaganda realizada por inteligencia artificial será utilizada para la manipulación emocional en la mensajería móvil, la realidad virtual y la realidad aumentada.

Un “Bot Gestapo” para controlar el debate público

Si una falsa noticia creaba el andamiaje para esta nueva máquina de propaganda política automatizada, los bots o falsos perfiles de redes sociales se han convertido en sus soldados de infantería: un ejército de robots políticos usados para controlar las conversaciones en las redes sociales y silenciar e intimidar a los periodistas y a otros que pudieran socavar su mensaje.Samuel Woolley, Director de Investigación en el Proyecto de Propaganda Informática de la Universidad de Oxford y miembro del proyecto Jigsaw de Google, ha dedicado su carrera a estudiar el papel de los bots en la organización política en línea –quién los crea, cómo se usan y con qué fin.

Las investigaciones de Woolley y su equipo de Oxford en el período previo a las elecciones de 2016 mostraron que los mensajes políticos pro Trump dependían en gran medida de los bots para difundir noticias falsas y desacreditar a Hillary Clinton. El día de las elecciones, los bots de Trump superaban a los de Hillary en 5 a 1.«El uso de cuentas automatizadas fue deliberado y estratégico a lo largo de las elecciones, más claramente desde activistas y programadores pro Trump, que ajustaron cuidadosamente el momento de la producción de contenido durante los debates», informó el estudio del equipo de Woolley.

No hay forma de saber con certeza si Cambridge Analytica se encargó de subcontratar la creación de esos bots de Trump. “En las democracias occidentales”, dice Woolley, “los bots han sido comprados o construidos por subcontratistas de los principales equipos de proveedores digitales porque hay menos necesidad de denunciar a estas capas más profundas de los trabajadores satélites de campaña a las comisiones electorales”.Pero si alguien fuera de la campaña de Trump está calificado para especular, ese sería Woolley. Dirigido por el Dr. Philip Howard, el investigador principal del equipo, Woolley y sus compañeros han estado siguiendo el uso de los bots en la organización política desde 2010. Ahí es cuando Howard, involucrado profundamente en la investigación sobre el papel que Twitter jugó en la primavera árabe, se percató del trabajo de los bots que cooptaban los hashtags usados por los manifestantes.

Movido por la curiosidad, él y su equipo comenzaron a contactar con hackers, botmakers, y campañas políticas, para llegar a conocerlos y tratar de entender su trabajo y motivaciones. A la larga, esos creadores vendrían a conformar una red informal de casi 100 fuentes que han mantenido a Howard y a sus colegas al tanto sobre estos bots en los últimos años.En poco tiempo, Howard y su equipo estaban recibiendo consejos de las campañas de propaganda de bot de los propios creadores. De esta manera, mientras más y más importantes figuras políticas internacionalescomenzaban a usar botnets como una herramienta más en sus campañas, Howard, Woolley y el resto de su equipo estudiaban las acciones que estaban teniendo lugar.

El mundo revelado por estos informantes es una red internacional de gobiernos, consultorías (a menudo con propietarios o altos directivos a solo un grado de los actores oficiales del gobierno) y personas que construyen y mantienen redes masivas de bots para amplificar los mensajes de los actores políticos, difundir mensajes contrarios a los de sus oponentes, y silenciar a aquellos cuyas opiniones o ideas podrían amenazar a esos mismos actores políticos.

«Los gobiernos chino, iraní y ruso emplean a sus propios expertos en medios sociales y pagan pequeñas cantidades de dinero a un gran número de personas para generar mensajes progubernamentales», escribió Howard y sus coautores en un documento de investigación sobre el uso de bots en las elecciones venezolanas de 2015.No importa la categoría en la cual se integren los creadores de bots (gobierno, consultoría o individual): es igual de probable que estén motivados por creencias políticas, ya que estas prácticas se erigen como la oportunidad de subastar sus redes de influencia digital al mejor postor.

No todos los bots se crean de igual manera. Por ejemplo, el bot de Twitter es un robot a menudo programado para retuitear cuentas específicas para ayudar a popularizar ideas concretas o puntos de vista. También responden frecuentemente de forma automática a los usuarios de Twitter que utilizan determinadas palabras clave o hashtags, a menudo con calumnias, insultos o amenazas pregrabadas.Los robots de gama alta, por otro lado, son más analógicos, y están operados por personas reales. Asumen identidades falsas con personalidades distintas y sus respuestas a otros usuarios en línea son específicas, destinadas a cambiar sus opiniones, o las de sus seguidores, atacando sus puntos de vista. Tienen amigos y seguidores en línea. También tienen muchas menos posibilidades de ser descubiertos (y de que sus cuentas sean desactivadas) por Facebook o Twitter. Rabajando por su cuenta, estima Woolley, un individuo podría construir y mantener hasta 400 de estos bots de Twitter. En Facebook, que, según él, es más eficaz en la identificación y el cierre de cuentas falsas, un individuo podría manejar entre diez y veinte.

Como resultado, estas botnets de alta calidad se usan a menudo para múltiples campañas políticas. Durante el referéndum del Brexit, el equipo de Oxford observó cómo una red de bots, previamente utilizada para influir en la conversación sobre el conflicto israelí-palestino, fue reactivada para luchar por la campaña del Leave. Los perfiles individuales se actualizaron para reflejar el nuevo debate, sus eslóganes personales cambiaron para unirse a sus nuevas alianzas… y desaparecieron.

El ejército bot de Rusia ha sido objeto de un escrutinio específico desde que un informe especial de la CIA reveló que Rusia había estado trabajando para influir en las elecciones a favor de Trump. Recientemente, la reportera y comediante Samantha Bee viajó a Moscú para entrevistar a dos troles rusos que habían sido pagados para llevar a cabo estar labor. Vestidos con máscaras de esquí negras para ocultar sus identidades, los dos conversaron con Bee sobre cómo y por qué estaban usando sus cuentas durante las elecciones estadounidenses. Le dijeron a Bee que, en línea, se presentan como estadounidenses, y sus objetivos son webs como el Wall Street Journal, el New York Post, el Washington Post, Facebook y Twitter. Su objetivo, dijeron, es “molestar” a otros usuarios de redes sociales, cambiar sus opiniones y silenciar a sus oponentes.

Las elecciones de 2016 en los Estados Unidos han terminado pero la máquina de armas propagandísticas de inteligencia artificial se está calentando. Y, aunque cada uno de sus componentes sería preocupante por sí solo, en conjunto, representan la llegada de una nueva era en la mensajería política: un telón de acero entre los ganadores y los perdedores de cada campaña electoral, que solo se puede montar mediante la recopilación de datos, la creación de mejores test de personalidad, el rápido desarrollo de la interacción con la inteligencia artificial y la contratación de más trolls.

Por el momento, Trump y Cambridge Analytica están batiendo a sus oponentes. Cuantos más datos reúnan sobre los individuos, Analytica y, por extensión, la presidencia de Trump se beneficiarán más de los efectos de su trabajo en red y más difícil será contrarrestar o luchar contra sus mensajes ante la opinión pública.Cada “tweet” que se hace eco de las cuentas @realDonaldTrump y @POTUS, anunciando y defendiendo los movimientos de la administración, se enfrenta a un coro de protestas y discusiones. Pero incluso esa interactuación negativa se convierte en un activo valioso para la administración de Trump, ya que cada tweet impulsivo puede ser tratado como un experimento psicográfico.

Las primeras semanas en el cargo de Trump pueden haber parecido “chapuceras”, pero representan una señal clara de lo que está por venir para la presidencia de Trump: una orden ejecutiva diseñada para enfurecer y distraer a sus oponentes al mismo tiempo que trata de restarle poder a la rama judicial, instala a Steve Bannon (miembro del Consejo de Cambridge Analytica) en el Consejo de Seguridad Nacional, y promulga una serie de órdenes inconstitucionales hacia los organismos federales.

Es probable que Cambridge Analytica llegue a más acuerdos con las Agencias Federales, y está en las etapas finales de las negociaciones para comenzar a administrar la comunicación digital de la Casa Blanca a través de la Administración Trump.28 ¿Qué nueva forma de análisis predictivo de la personalidad es posible con el acceso a los datos sobre los votantes estadounidenses del Internal Revenue Service,29 del Departamento de Seguridad Nacional o de la NSA?

 

Trump y la guerra de poder del aprendizaje automático 

«Lenin quería destruir el Estado, y ese es mi objetivo, también. Quiero que todo se derrumbe y se destruya todo el establishment de hoy»,  dijo Bannon en 2013. Sabemos que Steve Bannon se suscribe a una teoría de la historia donde un “guerrero gris” mesiánico se hace con el poder y rehace el Orden Mundial. Fortalecido por el éxito de Brexit y la victoria de Trump, Breitbart (de la cual Bannon era Presidente Ejecutivo hasta la elección de Trump) y Cambridge Analytica (de cuyo Consejo es miembro Bannon) están publicando noticias falsas y propaganda automatizada para apoyar a partidos de extrema derecha en, al menos, Alemania, Francia, Hungría e India,así como en partes de América del Sur.

Nunca un movimiento político internacional tan radical tuvo la precisión y el poder de este tipo de tecnología propagandística. Si los líderes, ingenieros, diseñadores e inversores de la comunidad tecnológica reaccionan a esta amenaza, previsiblemente podrán moldear los aspectos fundamentales de la política global en el futuro. El futuro de la política no se librará en una guerra de candidatos o, incluso, de dinero en efectivo. Y ni siquiera se trata de big data, como algunos han argumentado. Todos tendrán acceso a big data, como hizo Hillary en las elecciones de 2016.

De ahora en adelante, el factor distintivo entre los que ganen elecciones y los que las pierdan será cómo un candidato usa esos datos para refinar sus algoritmos de aprendizaje tecnológico y sus tácticas de participación automatizada. Las elecciones en 2018 y 2020 no supondrán una lucha de ideas, sino una batalla sobre el cambio del comportamiento automatizado.La lucha por el futuro será una guerra de poder del aprendizaje automático. Se llevará a cabo en línea, en secreto, y con la ayuda involuntaria de todos ustedes.

Quien quiera hacer cambios necesita entender esta nueva realidad. Solo entendiendo esto –y por la construcción de mejores sistemas automatizados de participación que amplifiquen la pasión humana genuina en lugar de manipularla– otros candidatos y causas en todo el mundo serán capaces de competir.

Este artículo fue publicado originalmente en el portal Scout, una plataforma para explor y anticipar el futuro

 

De interés

Artículos Relacionados

Centro de preferencias de privacidad