PuroMarketing: Noticias de marketing, publicidad y marcas en Español

Uno de los grandes cambios que ha traído la tecnología ha sido el boom de los algoritmos. Los algoritmos están en todas partes, lo gestionan todo y sirven a las empresas para tomar muchísimas decisiones. Lo hacen porque son infalibles, o eso nos han prometido, y porque logran hacer las cosas mucho más rápido y de forma mucho más efectiva. Un algoritmo decide qué anuncio ves, qué producto te ofrece una marca o hasta qué tendencias serán las más habituales en algunos nichos de mercado (los algoritmos y el big data están detrás de decisiones en cine, por ejemplo). Pero ¿son realmente estos algoritmos tan asépticos y neutrales como prometen? ¿Están tomando de verdad las mejores decisiones posibles?

Los expertos ya han ido dejando claro que las cosas no son tan bonitas y tan eficientes como podría parecer. Algunos escándalos y meteduras de pata (por ejemplo, la incapacidad del algoritmo de Google Fotos para identificar a personas negra) han demostrado sesgos y problemas. Al fin y al cabo, la tecnología vive de la información de la que se alimentan pero también de quién hace las cosas y quién la crea. Y esas personas ni son una muestra aséptica y equilibrada de la sociedad ni están libres de prejuicios.

Y una de las áreas en las que los algoritmos fallan es en la de género. No están 'leyendo' bien a las mujeres y, por tanto, están haciendo que las compañías lleguen mal hasta ellas.

El hombre no es el término medio

El sesgo en los algoritmos no es algo que opere de forma única y aislada en el mercado. Como acaba de demostrar Caroline Criado-Pérez en La mujer invisible, que usa los datos y las estadísticas para sostener sus conclusiones, en el mercado se tiende a tomar al hombre como el ejemplo del término medio, aunque con ello se esté borrando de un plumazo a la mitad de la población y sus características. Con ello se toman nefastas decisiones de negocio y de diseño. Por ejemplo, los coches son más inseguros para las mujeres que para los hombres.

Y las empresas están perdiendo un mercado potencial en muchas áreas. Una de las muestras que indica Criado-Pérez es la de los sacaleches, una herramienta muy necesaria para madres lactantes que es incómoda y muy mejorable. Las emprendedoras que han intentado crear productos mejores se han encontrado con serios problemas de comprensión sobre el producto cuando intentan convencer a inversores.

La cuestión es especialmente peliaguda en la tecnología, que es un "mar de tíos", como señala el libro, y con ello hace que sus productos estén pensados para un término medio que nunca es femenino. Un servicio de trackeo de la salud creado por Apple que prometía permitir seguir todas las cuestiones de salud y bienestar de los usuarios se había olvidado de la menstruación y los smartphones son demasiado grandes porque no se tiene en cuenta las manos de las mujeres.

Y, por supuesto, los algoritmos son diseñados principalmente por hombres y partiendo de baremos que usan al hombre como término medio y como fuente para comprender cómo es el mundo.

Un problema que viene de lejos

Por supuesto, la acusación no es nueva. Amazon o Apple ya ha protagonizado titulares por los sesgos de género de sus algoritmos. Y, claro está, los problemas seguían cuando se hablaba de inteligencia artificial.

BERT, la joya de la corona de Google, se había alimentado con mucha información, pero quienes lo habían hecho no habían tenido en cuenta el sesgo de género tradicional. Por tanto, también estaba sesgada. Una prueba de un experto demostró que BERT asociaba la mayoría de los conceptos a los hombres y solo una minoría a las mujeres. Estas se vinculaban a madre, pero no a dinero, casa o acción.

En parte, el hecho de que la industria tecnológica cuente con pocas profesionales y con una plantilla que necesitaría ser más diversa es clave en esta situación. Como recordaban desde Ironhack al hilo de su campaña The Algorithm is Female, solo 3 de cada 10 puestos TIC en Europa están ocupados por mujeres. En España, esa cifra cae a la mitad. Esto influye en la realidad del sector, pero también en cómo se toman las decisiones. Los desarrolladores del sistema de salud de Apple no habían incluído la menstruación entre los elementos a seguir porque ellos no menstruaban y se olvidaron por completo de ella.

La situación es peligrosa, porque puede hacer que los estereotipos de género se prolonguen y los sesgos se asienten. Para las líneas de negocio de las empresas, que es al final lo que les importa y duele, es problemático porque les está haciendo operar con una visión del mundo que no es exactamente la realidad. Están con ello perdiendo la conexión con la mitad de sus potenciales clientes y con una parte importante de potenciales ingresos.

be beyondFundación GalaEventos KinépolisESERP Business & Law SchoolFlyeralarmUDIMA, Universidad a Distancia de MadridGetfluenceExaprintIEBS Digital Business SchoolCEF Centro de Estudios FinancierosUPF Barcelona School of ManagementMedianzo