Contenidos Notas de Prensa Vídeos Foros Diccionario
Bienvenido al nuevo buscador de PuroMarketing. Nuestro sistema de búsqueda ha sido mejorado para proporcionar unos mejores resultados y mejor acceso a nuestros contenidos.
233 Shares
  • Suscríbete a nuestra Newsletter

    Recibir todos nuestros contenidos y novedades en tu email
  • Tu escuela de negocios online especializada en el desarrollo ejecutivo de tu perfil profesional
  • La imprenta online exclusiva para profesionales de las Artes Gráficas, la Comunicación y el Marketing
  • Descubre la manera más rentable y efectiva de activar tu estrategia de marketing de contenidos
  • PuroMarketing

    Si hay algo que ha quedado claro en los últimos tiempos es que los algoritmos tienen cada vez un papel más protagonista. Los algoritmos han empezado a controlarlo todo o, si no lo están ya, cerca están de ello. De hecho, por ejemplo, los algoritmos ya operan en la estrategia de recursos humanos y las empresas de EEUU empiezan a emplearlos para hacer que sus procesos de contratación sean más diversos y crear plantillas que conecten mejor con sus consumidores.

    Y esa es solo la curiosidad de un mercado en el que acceder a la información estará cada vez más dominado por ellos. Los algoritmos deciden qué publicidad vemos, qué noticias son consideradas más relevantes en el feed de nuestra red social favorita o qué serie nos recomendará la plataforma de VoD que empleamos para ver mientras comemos.

    Sin duda, los dos grandes ejemplos de cómo los algoritmos lo están asumiendo todo y están aumentando cada vez más su poder está en Facebook y en Google. Tanto Facebook como Google dejan muchas decisiones claves para los servicios que ofrecen en manos de algoritmos. Son algoritmos los que deciden en sus servicios qué anuncios vemos, qué contenidos nos interesan o cuándo recibimos las cosas. Los algoritmos han hecho que sus servicios sean cada vez más eficientes y eficaces y que conecten con los consumidores, pero… ¿no están también creándoles una serie de problemas? ¿Pueden ser Google y Facebook el ejemplo perfecto de que no siempre se puede dejar todo en manos de los algoritmos y que, al final, también se necesita personal humano?

    Los escándalos de Google y Facebook

    Facebook acaba de verse arrastrado a una nueva polémica sobre sus anuncios y cómo permite a las marcas segmentar esos contenidos. La red social ha estado permitiendo a los anunciantes segmentar a sus consumidores partiendo de contenidos antisemitas. Esto es, como ha demostrado una investigación de ProPublica y recoge The Guardian, los anunciantes podían comprar anuncios destinados a usuarios de la red social que seguían a grupos y páginas de odio a los judíos. El estudio no solo vio que esto se podía hacer sino que lo confirmó de forma práctica comprando esos anuncios. Facebook aprobó los mensajes publicitarios con esa segmentación en un cuarto de hora.

    Esta no es la primera vez que Facebook se ve arrastrado a una polémica como esta. Google ha tenido también sus propias polémicas similares. De hecho, de forma paralela al estudio de ProPublica apareció otro de BuzzFeed en el que se mostraba como la herramienta de keywords de Google sugería términos antisemitas y racistas para segmentar contenidos publicitarios.

    Pero esto es, se mire por donde se mire, un problema para el modelo en el que operan estas compañías ya que, como recuerdan en Quartz, resulta imposible hacer una lista perfecta que impida estas cosas. El machine learning aún no está tan definido y tan afinado, recuerdan, como para que las listas de palabras prohibidas o términos imposibles de usar para hacer publicidad sean perfectas y no se cometan fallos como estos.

    Como le explica un experto al medio, para que el algoritmo pueda determinar con éxito si algo es lo que inglés llama 'hate speech', discurso del odio, antes hay que dotarlo de una sólida base de conocimientos. Necesita saber cosas tan variopintas como historia, contexto social o cultura, lo que ahora mismo resulta imposible. El algoritmo no puede tener en cuenta todas esas variantes.

    Google usa vigilantes humanos

    Todo ello hace que, al final, sea necesario y casi inevitable acabar en manos de los humanos. El filtrado final, el proceso que determina lo que es y lo que no es odio, racismo o discursos extremistas, solo lo podrá establecer un ser humano.

    Google ya ha empezado a hacerlo, contratando a trabajadores temporales que analizan las webs que muestran anuncios de su red de publicidad y que desde el escándalo YouTube se están centrando sobre todo en analizar contenidos de la plataforma de vídeo para evitar los problemas que causaron el escándalo. Los trabajadores hacen un filtrado y, cuando han encontrado contenido ofensivo, dan todos los datos a un sistema de machine-learning para que aprenda de su trabajo. El problema está en que, al ritmo que se producen contenidos en YouTube, esos gestores están perennemente desbordados.

    Que integra CRM, facturación y gestión de proyectos para hacerte tu día a día más sencillo
  • Comentarios
  • Anónimo
    No hay comentarios ni opiniones sobre este contenido. Sé el primero en opinar