Home

Mundo

Artículo

Creativo Getty
El trabajo es fruto de la colaboración entre Meta -la empresa matriz de Facebook e Instagram- y un grupo de académicos de universidades de Estados Unidos. | Foto: Getty Images

Estados Unidos

El algoritmo de Facebook no altera las creencias de los usuarios, según estudio

Los resultados cuestionan las narrativas populares que culpan a las redes sociales de los problemas de la democracia estadounidense contemporánea, afirman los realizadores de la investigación.

Redacción Semana
27 de julio de 2023

Un proyecto de investigación sobre Facebook en torno a las elecciones presidenciales de 2020 en Estados Unidos publicó sus primeros resultados el jueves que, contra todo pronóstico, señalan que su algoritmo no influye en la opinión de sus usuarios.

El trabajo es fruto de la colaboración entre Meta -la empresa matriz de Facebook e Instagram- y un grupo de académicos de universidades de Estados Unidos a los que se dio amplio acceso a datos internos de la compañía y que inscribieron a decenas de miles de usuarios para realizar experimentos.

En general, el algoritmo resultó ser “extremadamente influyente en las experiencias de la gente en la plataforma”, afirmaron los directores del proyecto, Talia Stroud, de la Universidad de Texas en Austin, y Joshua Tucker, de la Universidad de Nueva York.

-
En general, el algoritmo resultó ser “extremadamente influyente en las experiencias de la gente en la plataforma”, afirmaron los directores del proyecto. | Foto: Getty Images

Pero también sabemos que cambiar el algoritmo incluso durante unos pocos meses no es probable que cambie las actitudes políticas de la gente”, dijeron, según las respuestas de los usuarios en las encuestas después de participar en experimentos de tres meses de duración.

Los autores reconocieron que esta conclusión podría deberse a que los cambios no se produjeron durante el tiempo suficiente para que tuvieran efecto, dado que Estados Unidos lleva décadas polarizándose cada vez más.

Sin embargo, “estos resultados cuestionan las narrativas populares que culpan a las cámaras de eco de las redes sociales de los problemas de la democracia estadounidense contemporánea”, escribieron los autores de uno de los artículos, publicado en Nature.

Mujeres de negocios
Los investigadores reclutaron a unos 40.000 voluntarios mediante invitaciones en sus perfiles de Facebook e Instagram. | Foto: Getty Images/iStockphoto

- “Burbujas de filtros” -

El algoritmo de Facebook utiliza el aprendizaje automático para decidir qué publicaciones aparecen en primer lugar en los feeds de los usuarios en función de sus intereses. Ha sido acusado de dar lugar a “burbujas de filtros” y permitir la difusión de información errónea.

Los investigadores reclutaron a unos 40.000 voluntarios mediante invitaciones en sus perfiles de Facebook e Instagram, y diseñaron un experimento en el que un grupo estaba expuesto al algoritmo normal, mientras que el otro veía las publicaciones ordenadas de más recientes a más antiguas.

Joe Biden aventaja en cuatro puntos al expresidente Donald Trump, según una encuesta publicada por la NBC
El proyecto de investigación giró en torno de las elecciones presidenciales de 2020 en Estados Unidos, cuyos candidatos finales fueron Joe Biden y Donald Trump. | Foto: Foto 1: Getty Images - Chip Somodevilla / Foto 2: Getty Images - Drew Angerer

El equipo descubrió que los usuarios del grupo del feed cronológico pasaban la mitad de tiempo en Facebook e Instagram que los del grupo del algoritmo. En Facebook, los del grupo cronológico vieron más contenidos de amigos moderados, así como más fuentes con audiencias ideológicamente mixtas. Pero el feed cronológico también aumentó la cantidad de contenido político y poco fiable visto por los usuarios.

A pesar de las diferencias, los cambios no provocaron cambios detectables en las actitudes políticas medidas.

Meta acogió con satisfacción las conclusiones generales.

“Se suman a un creciente número de investigaciones que demuestran que hay pocas pruebas de que las redes sociales provoquen una polarización perjudicial o tengan un impacto significativo en actitudes, creencias o comportamientos políticos clave”, dijo Nick Clegg, presidente de Asuntos Mundiales de Meta.

*Con información de AFP.