Imaginá que sos un especialista SEO que todos los días se sienta a optimizar los sitios de tus clientes, creando contenido de calidad, útil o Helpful Content, y siguiendo lo que todos pensamos (o debería decir pensábamos) son buenas prácticas SEO.
¿Que pensarias si te digo que, por haber hecho las cosas bien desde el punto de vista SEO, puede que estés en la mira de Google?
Según la investigación de Cyrus Shepard es posible que Google esté penalizando la sobreoptimización SEO. Al parecer Google está relacionando los factores clásicos de optimización SEO con contenido pensado para los motores de búsqueda y no en el usuario.
Helpful Content vs Search Engine First
Para empezar habría que recordar que dice Google sobre el Helpful Content:
“Los sistemas de clasificación automatizados de Google están diseñados para presentar información útil y confiable creada principalmente para beneficiar a las personas, no para obtener clasificaciones en los primeros resultados de búsqueda”.
La pregunta que surge es ¿cómo determina Google que un contenido fue creado pensando solo en los motores de búsqueda y no en ayudar al usuario? Si, todos sabemos que lo que hacemos los SEOs tiene el objetivo de mejorar en los resultados. Pero eso no excluye que nuestro contenido sea de calidad y ayude a los usuarios.
¿Que es la sobreoptimización SEO?
La sobreoptimización SEO se da cuando hay un uso excesivo de técnicas SEO, en algunos casos hay tanto énfasis en mejorar el posicionamiento de un sitio web que se vuelve contraproducentes. Una de las más frecuentes es el keyword stuffing, que es básicamente usar en exceso la palabra clave y sus variantes, incluyendola de forma forzada en el contenido, titles y headers.
Lo novedoso es que muchas de las prácticas que antes eran aceptadas, ahora parece que se sumarían a la lista de sobreoptimización.
¿Los updates de Google penalizan el buen SEO?
En la investigación, Cyrus utilizó la base de 50 sitios web analizados en el estudio sobre ganadores y perdedores de las actualizaciones de Google y los cruzó con métricas de Ahrefs. El objetivo era examinar los factores SEO “clásicos” y la relación entre su presencia o ausencia con los sitios ganadores y perdedores tras las últimas actualizaciones del algoritmo.
Aunque hubo varios factores en los que no se pudo encontrar una correlación, hay otros en los que se observa una correlación negativa llamativa. Y lo sorprendente de esto es que los que recibieron mayor impacto son los que se consideraban como “buenas prácticas SEO” aceptadas en general por todo el sector.
Pero ahora si, vamos a ver cuales son:
Variedad de anchor text
Internal Anchors/Page | Correlación: -0,337 | Evidencia: Fuerte
External Anchors/Page | Correlación: -0,352 | Evidencia: Fuerte
La investigación deja en evidencia que, a mayor variedad de anchor texts usados (tanto internos como externos), recibieron un mayor impacto negativo. Y esto se vuelve creíble teniendo en cuenta que según el reciente Google Leak, con frecuencia Google usa los anchor como factor de clasificación.
Históricamente se consideraba que cuanto más variados sean los anchor text, era mejor a los ojos de Google. ¿Habrá que repensar el linkbuilding?
Frecuencia de actualización de la página
Días desde la última vez actualización del contenido | Correlación: 0,455 | Evidencia: Fuerte
Hay un chiste interno entre los SEOs que dice “Ya es enero, hora de actualizar el año en los artículos”. Y, más allá de la broma, es posible que algunos editores hayan estado actualizando la fecha de sus artículos sin hacer cambios reales de contenido.
Parece que Google lo notó, porque en la investigación se observó que las webs impactadas de forma negativa son, por lo general, las más actualizadas.
La antigüedad promedio de las URL en los sitios ganadores fue de 774 días, un poco más de 2 años. En cambio, en los sitios perdedores la fecha de publicación o actualización era de sólo 273 días, menos de la mitad de la edad de los sitios ganadores.
Otro dato para destacar: el 35% de las URL ganadoras no tenían ninguna fecha en la página; mientras que entre las perdedoras solo el 4% de las URL no contenían fecha.
Si, esta sección también nos deja pensando.
Títulos que “invitan” al clic ¿o clickbait?
Cantidad de números en los títulos | Correlación: -0,297 | Evidencia: Moderada
Cantidad de adjetivos en los títulos | Correlación: -0,420 | Evidencia: Fuerte
Otra vez la incidencia es negativa, la mayor presencia de adjetivos y números en los títulos se vió en los sitios perdedores. En este caso es un poco más lógico, es muy probable que Google asocie este tipo de títulos con el clickbait. O al menos con una señal de una optimización SEO demasiado agresiva.
En este caso Cyrus lo relaciona con las filtraciones del juicio antimonopolio en contra de Google, que indican que éste usa los clics como factor de clasificación. Y en ese sentido es probable que Google intente reducir la alteración del CTR que puede generar un título “impactante”.
Uso intensivo de Schema Code
Múltiple Schema Code | Correlación: -0,314 | Evidencia: Moderada
Solo Schema ItemType | Correlación: -0,381 | Evidencia: Fuerte
Nuevamente un resultado inesperado: resulta que, en promedio, los sitios perdedores implementan más datos estructurados que los sitios ganadores. Muchos más.
En general se consideraba los datos estructurados casi como un requisito de SEO, y Google amablemente nos daba una lista interminable de opciones. Pero ahora vemos que muchos de los sitios ganadores apenas usaron un código Schema.
Incluso un sitio de la muestra tuvo un aumento mayor al 5000% en tráfico usando solo el Schema Type Hentry.
Habrá que pensar si no nos habremos excedido en el uso de datos estructurados. El que esté libre de uso intensivo de schema code que arroje la primera piedra.
Conclusión
En mi opinión, creo que Google está buscando pistas o señales de sitios creados únicamente para posicionar y usa lo que tiene a mano para identificarlos. Lamentablemente, en el proceso puede afectar a sitios que intentan hacer las cosas bien a nivel de SEO, sin perder el objetivo de ayudar al usuario.
Y nuevamente las actualizaciones de Google, algunas lógicas y otras no tanto, nos exigen mantenernos actualizados y al tanto de las novedades que surgen día a día en el mundo del SEO. Eso y estar constantemente probando y midiendo nuevas estrategias, para mejorar nuestro posicionamiento y recuperar el tráfico perdido si nos impactó alguno de los últimos updates.
- Sobreoptimización SEO: ¿Por qué Google podría penalizar tu sitio? - julio 4, 2024
- Páginas de autor: estrategias, ejemplos y consejos SEO para elevar tu presencia digital - diciembre 20, 2023
¿Qué te pareció este artículo?
What do you think about this post?