Redes Sociales
Facebook asegura que no existe manipulación ni sesgo ideológico en sus trending topics
Se defiende así de las acusaciones de dos ex-empleados que afirmaron que se daba prioridad a las noticias de izquierdas

Cada vez son más los usuarios que acuden a las redes sociales para informarse, pensando que allí podrán encontrar todos los temas más candentes, aquellos de los que más gente está hablando y que tienen mayor transcendencia en un momento dado. Sin embargo, puede que eso no sea lo que están encontrando, al menos no en Facebook.

Porque dos ex-empleados de la plataforma aseguraron que en Facebook se eliminan sistemáticamente de los trending topic (donde aparecen las noticias más populares del momento) noticias relevantes para las ideologías más conservadoras. Es evidente el potencial de la red social para aplicar un sesgo a las noticias a las que dan protagonismo (como ocurre en cualquier medio), y por lo tanto, la posibilidad incluso de alterar la percepción de sus usuarios sobre la popularidad de un determinado líder político o de una determinada acción. Sean o no ciertas las acusaciones, Facebook sabe que se enfrenta a una crisis de credibilidad.

En concreto, tal y como informa Gizmodo, los ex-trabajadores afirman que empleados de la plataforma habrían impedido que las historias sobre políticos e iniciativas de derechas aparecieran en la sección de mayor influencia, a pesar de que los temas sí fueran orgánicamente tendencia entre los usuarios del site. De la misma manera, forzarían la entrada de temáticas progresistas incluso cuando no eran lo suficientemente populares como para que se garantizase su inclusión -o aunque no lo fuesen en absoluto-. Por último, se estarían retirando también aquellas noticias que tenían como protagonista al propio Facebook.

La situación es aún más grave porque desde Facebook siempre se ha defendido que los trending topics son resultado de un algoritmo y no de criterios editoriales humanos.

Facebook, por supuesto, niega cualquier manipulación

La respuesta de Facebook a estas acusaciones no ha tardado en llegar, probablemente preocupado por perder credibilidad en un contexto en que la pugna de las redes sociales por convertirse en la fuente informativa de referencia es clara. Y lo que han hecho ha sido negarlo todo.

Así, el responsable de la sección Trending Topic, Tom Stocky ha asegurado que su equipo sigue pautas rigurosas y no manipula ideológicamente la selección de esos "temas de tendencia". En concreto, dice que no se ha encontrado ninguna evidencia de que las alegaciones de los ex-trabajadores sean verdad y hace hincapié en que Facebook "es una plataforma para gente y perspectivas de todo el espectro político. Nuestras pautas no nos permiten la supresión de perspectivas políticas, ni la priorización de un punto de vista sobre otro o un medio sobre otro".

Y explica el funcionamiento de los trending topics, diseñados para mostrar la conversación que está predominando en Facebook en cada momento. Los temas más populares son seleccionados primero en función de un algoritmo, y después son revisados por los periodistas del equipo para confirmar que son realmente temas de moda en el mundo real y no, por ejemplo, confusiones entre palabras parecidas. De la misma manera, la única acción que puede tomar el equipo es aunar en un único tema varias temáticas similares alrededor de un único evento.

Evidentemente, donde hay participación humana hay lugar para el sesgo, sea este voluntario o involuntario, pero desde Facebook también aseguran que las acciones de los revisores quedan registradas y son revisadas, y que violar las pautas es causa de despido. Finalmente hacen hincapié en que sus métodos de selección de los temas son lo más neutrales y efectivos posible.

No es la primera vez que Facebook es acusado de manipular a sus usuarios

Teniendo en cuenta que para cada vez más gente Facebook es una ventana al mundo -quizá no la única, pero sí una privilegiada- está claro el riesgo de ser manipulado por la plataforma. Ahora ha saltado la alarma por su posible no neutralidad como fuente de noticias, pero ya en 2012 Facebook había manipulado su feed (y así lo había reconocido) para averiguar como la información afectaba a las emociones.

En aquel caso, los usuarios no fueron más que unos conejillos de indias para que la red social pudiera investigar sobre cómo los contenidos que reciben afectan emocionalmente a los usuarios, pero para ello, habían alterado su newsfeed -es decir, estos habían recibido, sin saberlo, los contenidos que Facebook decidía y no los que realmente les correspondía-. Algo éticamente muy dudoso.

En cualquiera de los dos casos, queda claro que, lo haga o no, Facebook tiene la posibilidad de alterar por completa la información que llega hasta nosotros a través de la plataforma, algo que nunca debemos perder de vista.

Comentarios (0)

!Únete y participa en la conversación!