Artículo Tecnología

¿Están demostrando los grandes de internet que los algoritmos aún necesitan trabajo humano?

Por Redacción - 27 Septiembre 2017

Si hay algo que ha quedado claro en los últimos tiempos es que los algoritmos tienen cada vez un papel más protagonista. Los algoritmos han empezado a controlarlo todo o, si no lo están ya, cerca están de ello. De hecho, por ejemplo, los algoritmos ya operan en la estrategia de recursos humanos y las empresas de EEUU empiezan a emplearlos para hacer que sus procesos de contratación sean más diversos y crear plantillas que conecten mejor con sus consumidores.

Y esa es solo la curiosidad de un mercado en el que acceder a la información estará cada vez más dominado por ellos. Los algoritmos deciden qué publicidad vemos, qué noticias son consideradas más relevantes en el feed de nuestra red social favorita o qué serie nos recomendará la plataforma de VoD que empleamos para ver mientras comemos.

Sin duda, los dos grandes ejemplos de cómo los algoritmos lo están asumiendo todo y están aumentando cada vez más su poder está en Facebook y en Google. Tanto Facebook como Google dejan muchas decisiones claves para los servicios que ofrecen en manos de algoritmos. Son algoritmos los que deciden en sus servicios qué anuncios vemos, qué contenidos nos interesan o cuándo recibimos las cosas. Los algoritmos han hecho que sus servicios sean cada vez más eficientes y eficaces y que conecten con los consumidores, pero… ¿no están también creándoles una serie de problemas? ¿Pueden ser Google y Facebook el ejemplo perfecto de que no siempre se puede dejar todo en manos de los algoritmos y que, al final, también se necesita personal humano?

Los escándalos de Google y Facebook

Facebook acaba de verse arrastrado a una nueva polémica sobre sus anuncios y cómo permite a las marcas segmentar esos contenidos. La red social ha estado permitiendo a los anunciantes segmentar a sus consumidores partiendo de contenidos antisemitas. Esto es, como ha demostrado una investigación de ProPublica y recoge The Guardian, los anunciantes podían comprar anuncios destinados a usuarios de la red social que seguían a grupos y páginas de odio a los judíos. El estudio no solo vio que esto se podía hacer sino que lo confirmó de forma práctica comprando esos anuncios. Facebook aprobó los mensajes publicitarios con esa segmentación en un cuarto de hora.

Esta no es la primera vez que Facebook se ve arrastrado a una polémica como esta. Google ha tenido también sus propias polémicas similares. De hecho, de forma paralela al estudio de ProPublica apareció otro de BuzzFeed en el que se mostraba como la herramienta de keywords de Google sugería términos antisemitas y racistas para segmentar contenidos publicitarios.

Pero esto es, se mire por donde se mire, un problema para el modelo en el que operan estas compañías ya que, como recuerdan en Quartz, resulta imposible hacer una lista perfecta que impida estas cosas. El machine learning aún no está tan definido y tan afinado, recuerdan, como para que las listas de palabras prohibidas o términos imposibles de usar para hacer publicidad sean perfectas y no se cometan fallos como estos.

Como le explica un experto al medio, para que el algoritmo pueda determinar con éxito si algo es lo que inglés llama hate speech, discurso del odio, antes hay que dotarlo de una sólida base de conocimientos. Necesita saber cosas tan variopintas como historia, contexto social o cultura, lo que ahora mismo resulta imposible. El algoritmo no puede tener en cuenta todas esas variantes.

Google usa vigilantes humanos

Todo ello hace que, al final, sea necesario y casi inevitable acabar en manos de los humanos. El filtrado final, el proceso que determina lo que es y lo que no es odio, racismo o discursos extremistas, solo lo podrá establecer un ser humano.

Google ya ha empezado a hacerlo, contratando a trabajadores temporales que analizan las webs que muestran anuncios de su red de publicidad y que desde el escándalo YouTube se están centrando sobre todo en analizar contenidos de la plataforma de vídeo para evitar los problemas que causaron el escándalo. Los trabajadores hacen un filtrado y, cuando han encontrado contenido ofensivo, dan todos los datos a un sistema de machine-learning para que aprenda de su trabajo. El problema está en que, al ritmo que se producen contenidos en YouTube, esos gestores están perennemente desbordados.

Más Leídos
Semanal
Mensual
Anual
Contenidos Patrocinados
ADS
Promocionados