PuroMarketing: Noticias de marketing, publicidad y marcas en Español

La estrategia de SEO es una de las piezas básicas de la estrategia de marketing digital, una además que ha ido ganando en importancia - de nuevo - en los últimos años y que se ha posicionado de forma destacada como vía para llegar a los consumidores. Pero la estrategia de SEO ni es sencilla ni es fácil y, como han demostrado múltiples análisis, las compañías siguen cometiendo errores de bulto cuando establecen sus líneas maestras de posicionamiento web.

El último en analizar cómo se encuentran las páginas de empresas ha sido un estudio de SEMRush, que ha estudiado las webs corporativas de 250.000 negocios de varios verticales para determinar cuáles son los errores más habituales y que están, por tanto, lastrando la estrategia SEO de las empresas. Lo cierto es que entre las malas prácticas más habituales están muchos de esos elementos que habitualmente se recomienda cuidar de forma específica.

Las empresas acumulan varios problemas que hacen imposible el rastreo o que limitan lo que el robot de búsqueda de Google puede conseguir.

Los más habituales son los errores 4xx, sean del tipo que sean. En un 47,3% de los casos en los que se registran errores se trata de estos. Adelantan a los links internos rotos (42,4%) y a las páginas incorrectas que se incluyen en el sitemap (30,4%), que son los otros dos grandes errores que registran las webs de las empresas. Tras ellas, están la existencia de páginas no rastreadas (29%) y las imágenes internas rotas (16%).

Por lo que respecta a los elementos funcionan simplemente como avisos, en el rastreo lo más habitual es que se encuentren con problemas de no indicar de forma específica en robots.txt el sitemap (48,8%), que los links externos estén rotos (46,5%) o que existan redirecciones temporales (31,5%).

Por lo que toca a los errores menos importantes, que no tienen un impacto tan elevado, están las páginas que solo incluyen un link interno (88,6%), las páginas huérfanas en el sitemap (84,9%), las redirecciones permanentes (75,3%) o los elementos que están bloqueados para el rastreo (56,5%).

Los problemas en indexado

El estudio no solo ha analizado cuáles son los problemas más habituales en el rastreo, sino también los que están lastrando el indexado. El más habitual en el indexado está en los problemas que genera un mal uso de las etiquetas hreflang. En el 62,3% de los casos generan problemas de indexado porque chocan con el código fuente de la página.

Tras este error se posicionan las etiquetas de título (50,8%), las meta descripciones (46,7%) y los contenidos (45,8%) duplicados. Duplicar nunca es buena idea de cara a lo que Google puede considerar sobre tu página y, como demuestra el estudio, se ha convertido en un lastre para la indexación. También son errores graves habituales que los links vinculados a las hreflangs sean incorrectos (41,1%) y que haya problemas con la opción AMP (26,9%).

Menos grave (son alertas) pero también preocupantes para la indexación son las bajas cantidades de palabras (72,3%), la audiencia de descripciones meta (67%), que los títulos sean demasiado largos (66%), que falten h1s (64%) o que falten atributos ALT (60%).

be beyondFundación GalaEventos KinépolisESERP Business & Law SchoolFlyeralarmUDIMA, Universidad a Distancia de MadridGetfluenceExaprintIEBS Digital Business SchoolCEF Centro de Estudios FinancierosUPF Barcelona School of ManagementMedianzo