Noticia Tecnología

Los 'bots' generan ya la mitad del tráfico de internet y grandes perdidas para los anunciantes

Por Redacción - 22 Diciembre 2014

¿Está el tráfico de internet en manos de los robots? Los robots son muy necesarios para que internet funcione como hoy la conocemos. Ahí está, por ejemplo, Googlebot, que es el robot de rastreo web de Google y quien le permite saber qué está ocurriendo en la red y por tanto ordenarla para que los consumidores encuentren rápidamente lo que están buscando en la misma. No es el único que está viendo qué ocurre en la red. Existen más buscadores y más servicios que se valen de herramientas similares para poder ofrecer servicios. Y, por supuesto, están aquellos que emplean con fines maliciosos esas tecnologías, los "bad bots", que controlan lo que ocurre en la red y lo usan para sus estratagemas.

Pero ¿qué ocurre cuando toda esa avalancha de robots toma el control del tráfico de internet? O mejor dicho ¿qué pasa cuando ellos son más que quienes realmente están viendo los contenidos? ¿Qué ocurre cuando los robots son más que los humanos que ven la red? Ese momento ya ha llegado. Según un estudio de Incapsula, los bots suponen ahora mismo el 56% de todo el tráfico que mueve internet. Es decir, de todas las visitas que reciben las webs de todo el mundo al menos la mitad está producido por robots.

Las cifras son aún más impresionantes cuando se pone el foco en las webs que tienen un tráfico más bajo. Cuanto más pequeña es la web más importante es el tráfico que generan los bots en su total de visitas: según las estadísticas de este análisis, el 80% del tráfico que reciben esos sites de menor tamaño está en mano de los bots.

Pero el aspecto más peligroso de esta situación no es solo que el tráfico haya aumentado en la parte que corresponde a los robots, sino también que ha aumentado en la parte que corresponde a los robots maliciosos. Los bad bots eran el 10% del tráfico de internet en 2013. Ahora, 2014, son el 20%. ¿Qué es lo que hacen estos robots malvados? Ellos son los que llenan los sites con spam, por ejemplo, aunque esto es solo una muestra de lo que pueden conseguir, puesto que cada vez son más sofisticados y eficaces y han aprendido a hacer cosas tales como responder a captchas o enviar contenidos a redes sociales, como si fuesen lectores humanos. Pero no solo pueden hacer eso, también pueden robar datos o información y camuflar quiénes son.

Y aunque en general el tráfico que llega por los bots es menor del que era (ha caído un 4% frente a las cifras del año anterior), los datos no dejan de ser ligeramente preocupantes, sobre todo porque al cambio suponen que los contenidos y los anuncios que se sirven asociados a ellos no llegan realmente solo a los consumidores que deberían verlos.

Un problema con los anuncios

De hecho, un reciente estudio de la Association of National Advertisers, The Bot Baseline: Fraud in Digital Advertising, ya se paró a hacer una estimación sobre cuánto dinero se puede estar perdiendo por culpa de este fraude en el mercado publicitario. Según sus estimaciones, los bots que se hacen pasar un humanos (es decir, aquellos que visitan las webs pero ocultan que son un robot) supondrán unas pérdidas de 6.300 millones de dólares para los anunciantes. Las cifras son para 2015 y funcionan como una estimación global del impacto que estos robots fraudulentos tendrán sobre la industria.

El estudio tomó los resultados de las campañas online de algunas marcas de primer nivel para descubrir el volumen de clics fraudulentos que habían arrastrado. La cuestión es que los cibercriminales han convertido los anuncios online en una nueva manera de hacer negocio: crean una armada de bots que hace clic en los mismos o que hace ver que están viendo un vídeo-anuncio. En realidad, nadie está del otro lado pero los anunciantes tienen que pagar de todos modos por esa supuesta audiencia.

Pero el problema no está solo en las webs ilegítimas que intentan hacer caja para los malos de la red, el problema también toca a las webs legítimas, aunque en esta ocasión los objetivos son diferentes. Entre las 1.000 primeras páginas del ranking de Alexa, los expertos de la asociación encontraron también bots que manipulaban los resultados: algunas de ellas (un cuarto de los bots descubiertos) tienen robots que inflan las cifras del tráfico (lo hacen subir entre un 5 y un 50%). Por ello, los resultados y las audiencias que venden no son realmente legítimos.

En algunos casos, esas webs legítimas los usan para dar salida a algunos productos. El estudio descubrió que una web de estilo de ese top 1.000 había manipulado cómo se consumían anuncios de vídeo: el 98% los estaban viendo bots.

De hecho, el estudio en general señala que el mayor problema está con los anuncios en vídeo. Según sus datos, el 11% de las impresiones de anuncios de display compradas por los anunciantes estudiados eran vistas por bots. Pero la cifra escalaba cuando se tomaban los datos de vídeo: eran un 23%. Y en alguna campaña llegaba hasta un sorprendente 100%.

Aunque, si para algo sirve, los bots también tienen gustos, como los humanos. Las webs de finanzas, familia y comida son las que caen más en manos de los bots, mientras que las de tecnología, deporte y ciencia tienen los porcentajes más bajos de tráfico bot.

Más Leídos
Semanal
Mensual
Anual
Continua Leyendo...
Contenidos Patrocinados
ADS
Promocionados