Artículo Redes Sociales

Se filtra un nuevo experimento de Facebook sobre comportamiento de los usuarios

Por Redacción - 4 Noviembre 2014

Si a los consumidores el primer experimento de manipulación de las emociones de Facebook ya les dio cierto miedo, el nuevo experimento realizado por la red social (y cuya existencia acaba de llegar a los medios) podría añadir una nueva capa de resquemor hacia la compañía. Facebook puede modificar cómo se sienten los usuarios, pero también las decisiones que toman. La compañía lo ha probado durante las elecciones estadounidenses.

Durante los últimos años, Facebook ha incorporado en las diferentes elecciones que se han celebrado en lugares tan diversos como Estados Unidos, India o la Unión Europea un botón de voto. Los usuarios de la red social podían pulsarlo y compartir con los demás que había votado. Pero ¿qué hace Facebook con esa información y cómo afecta a los demás consumidores? La cuestión es que, en profundidad, no se sabe. La compañía no es muy transparente sobre el tema, como apuntan en el artículo que le han dedicado a los esfuerzos de Facebook en cuestiones de voto en MotherJones y en el que se analizan las implicaciones que Facebook tiene en las decisiones democráticas de los consumidores.

Como explica uno de los portavoces de la red social a la revista, el uso de ese botón tiene fines positivos y neutrales. Es decir, Facebook quiere ser uno más en la "fiesta de la democracia" (ese cliché que toca escuchar cada vez que hay elecciones) y conseguir reducir las cifras de abstención en los procesos electorales. Los botones de "he votado" lo consiguen, según demuestran las estadísticas, ya que los consumidores se dejan llevar por la presión positiva del grupo y votan.

Pero ¿qué más puede conseguir el botón y cómo puede empujar a los consumidores a hacer una u otra cosa? Por el momento, como nos repiten en MotherJones, no se sabe mucho más que lo que Facebook quiere contar. Aunque más allá de la ética (¿es realmente legítimo que Facebook impulse a los ciudadanos a hacer algo? ¿qué busca Facebook con ello?, son las preguntas que se suelen hacer los grupos preocupados por la privacidad y los derechos de los consumidores) la pregunta es qué puede hacer Facebook para inclinar la balanza hacia uno u otro lado.

Facebook ha experimentado ya con cómo responden en tiempo de elecciones los consumidores al feed de noticias, según apuntaba una de las data scientist de la compañía en un evento y como recoge ahora MotherJones. Según los datos que publica la revista (una de las habituales del periodismo de investigación y denuncia estadounidense), Facebook alteró tres meses antes del Election Day de 2012 (el día de las elecciones a presidente estadounidense) cómo veían su feed de actualidad 1,9 millones de usuarios de la compañía. Un toque en el algoritmo hizo que los internautas se viesen más expuestos a las llamadas "hard news", noticias duras o lo que en España llamaríamos temas en profundidad. Estas noticias están en la otra esquina de la lista periodística frente a los memes y los temas de color: son artículos y reportajes sobre cuestiones sociales, política, internacional o economía.

¿Tuvo algún efecto que los consumidores recibiesen más impactos de este tipo de temas? Lo tuvo: según los datos recogidos por MotherJones, los internautas que fueron expuestos a este tipo de contenidos de forma más intensa desarrollaron un mayor compromiso cívico y aumentaron su participación electoral. Es decir, recibir el impacto de esa información de alcance lleva a que los ciudadanos se sientan más impulsados a votar.

La medida puede parecer un tanto inocua pero si se tiene en cuenta la conversión en cifras del experimento (que solo afectó a un número limitado de ciudadanos) se ve que no lo es tanto: los cambios en el feed de noticias podrían haber impulsado en un 3% la participación.

El estudio tiene por tanto un punto un tanto inquietante. ¿Puede Facebook alterar cómo se comporta la ciudadanía? Y sobre todo, y como se preguntaban algunos usuarios en redes sociales, ¿puede modificar a quién y cómo se vota? La compañía ha explicado (el estudio no era realmente público, aunque los datos se habían compartido con analistas previamente, hasta que MotherJones lo lanzó al mundo) que no ha existido intención de manipulación y que fue algo voluntario, como recoge The Huffington Post. Las noticias a las que los consumidores estaban más expuestos eran las que sus propios amigos habían publicado y tenían un carácter general, señalan (es decir, eran temas no marcados por una segmentación política).

"El voto es un valor básico de la democracia y creemos que incentivar la participación ciudadana es una contribución importante que podemos hacer para la comunidad", señalaba al diario un portavoz de la red social. Eso lo han logrado con los botones de voto, aunque para el año 2016 y las elecciones estadounidenses van a optar por una apuesta de perfil bajo y no van a estudiar qué botones funcionan mejor que otros. La causa de esto está, según especulan en VentureBeat, en el temor a la mala prensa que pueden despertar este tipo de estudios.

Un problema de imagen

Y es que los estudios de Facebook no siempre son bien recibidos por los consumidores, especialmente porque no siempre saben que están siendo los conejillos de indias de uno. Las condiciones de uso de la red social permiten a la compañía hacerlos sin avisar y el descubrirlo no hace mucha ilusión a sus usuarios.

Cuando el estudio sobre el impacto que las actualizaciones en Facebook tiene en las emociones salió a la luz (primero con un texto formal y profundo en una revista especializada en psicología, luego con una avalancha de artículos en los medios de todo el mundo), la compañía tuvo que pedir perdón y tranquilizar a sus consumidores. No pidió perdón exactamente por hacer el estudio sino más bien por lo mal que había comunicado sus resultados, pero para los consumidores fue un nuevo toque de atención sobre las cuestiones de privacidad y el peso que las redes sociales pueden tener en sus vidas.

Más Leídos
Semanal
Mensual
Anual
Contenidos Patrocinados
ADS
Promocionados