jueves,18 agosto 2022
Espacio euroiberoamericano de diálogo sobre la innovación social, profesional y académica
InicioSociedad, Política y SostenibilidadCultura & TendenciasPolémica por la manipulación emocional de Facebook
El estudio demuestra un efecto de contagio masivo

Polémica por la manipulación emocional de Facebook

Redacción
La red social Facebook manipuló las cuentas de cerca de 700.000 usuarios sin apercibirlos de ello, con el fin de estudiar el "contagio emocional" en el contexto de un estudio. Esta práctica ha enfurecido a los usuarios y plantea cuestiones éticas, tras demostrar que las redes sociales actúan como "elementos de contagio" de emociones a "escala masiva".

En concreto, Facebook estudió estados emocionales que se pueden comunicar entre personas sin necesidad de que interactúen entre sí. Para responder a la pregunta, ¿Cómo influyen los contenidos de Facebook sobre las emociones de los usuarios?, un grupo de investigadores modificó durante una semana de enero de 2012 el tipo de contenido que se mostraba a 689.003 personas en sus cuentas en la red social, según se ha sabido ahora.

Los resultados del estudio reflejan que los estados anímicos expresados por otras personas en la red social ejercen un efecto de contagio sobre los usuarios, ya que la abundancia de mensajes positivos se correspondió con un aumento de los mensajes positivos por parte de los usuarios y al revés, los mensajes negativos incitaron a la escritura de más mensajes negativos. A juicio de los investigadores, esto demuestra que las redes sociales actúan como "elementos de contagio" de emociones a "escala masiva". 

A través de un algoritmo, los científicos omitieron para algunos usuarios aquellos contenidos con palabras con connotaciones positivas, mientras que para otros hicieron lo mismo con los mensajes con palabras que expresaban negatividad. El estudio se efectuó del 11 al 18 de enero 2012, cuando la popular red social y científicos de las universidades de Cornell y California en San Francisco usaron los algoritmos del sitio para cambiar el contenido de la información recibida por un grupo usuarios en inglés, con el fin de estudiar el impacto en sus emociones. La investigación fue publicada en la revista Proceedings de la Academia Nacional de Ciencias de EEUU (PNAS) el pasado 17 de junio. Los investigadores hallaron que los usuarios comenzaron a utilizar palabras más positivas o negativas dependiendo de la magnitud de los contenidos a los que habían sido ´expuestos´.

El equipo de expertos liderado por los doctores Adam Kramera, de Facebook; Jamie Guillory, de la Universidad de California y Jeffrey Hancock, de la Universidad de Cornell, analizaron para ello cerca de tres millones de comentarios y emplearon su propio código para caracterizar su lenguaje como positivo o negativo. El estudio concluyó que una menor exposición a posts de contenido positivo provoca una menor transmisión y comunicación de informaciones de esta índole, y viceversa, informa Europa Press.

La publicación de que Facebook efectuó este experimento sin el previo conocimiento de los usuarios ha desatado la polémica. La prensa norteamericana se hace eco en las últimas horas de diferentes reacciones, entre ellas la del blog Animalnewyork.com, según el cual "lo que muchos de nosotros temía ya es una realidad: Facebook nos está usando como ratas de laboratorio", y no sólo para conocer a qué tipo de publicidad reacciona el usuario, añade el blog, sino también para "cambiar nuestras emociones".

Facebook se ha defendido de las acusaciones de interferir en la privacidad de los usuarios señalando que los usuarios aceptaron de manera tácita su "participación involuntaria" en esta clase de eventos al aprobar los términos de uso y servicio al conectarse a la web, informa Europa Press. "La razón por la que llevamos a cabo esta investigación es porque nos importan el impacto emocional de Facebook y la gente que utiliza nuestro producto", indicó en una entrada en su página de Facebook este domingo Adam Kramer, uno de los científicos que tomó parte en la investigación.

Pese a defender el propósito del estudio, Kramer admitió errores por haberse divulgado el experimento a través de un artículo publicado en la revista científica Proceedings of the National Academy of Science, el pasado 17 de junio, en el cual, a su juicio, "no se explicaron de forma clara los motivos de la investigación".

El estudio de Facebook ha levantado numerosas críticas en las redes sociales, en las que se acusa a la compañía de utilizar a sus usuarios como cobayas de laboratorio e incluso se ha llegado a especular con el daño que la modificación de los contenidos pudo tener sobre personas con tendencias depresivas.

La política de privacidad de Facebook, sin embargo, contempla que la red social pueda usar los datos de los usuarios para este tipo de experimentos, algo que todos los usuarios deben aceptar al crear su cuenta. Con el consentimiento de la compañía, el estudio fue llevado a cabo por el antes mencionado Adam Kramer, del equipo de investigación de datos de Facebook; Jamie Guillory, investigadora de la Universidad de California en San Francisco; y Jeffrey Hancock, profesor en al Universidad de Cornell.

 

 

De interés

Artículos Relacionados

Centro de preferencias de privacidad