Sobreoptimización SEO: ¿Por qué Google podría penalizar tu sitio? 

Google podría estar penalizando las buenas prácticas SEO al considerarlas sobreoptimización: Conocé los factores SEO que pueden afectar tu posicionamiento.
Portada_sobreoptimización SEO

Contenido supervisado por Claudio Heilborn

Imaginá que sos un especialista SEO que todos los días se sienta a optimizar los sitios de tus clientes, creando contenido de calidad, útil o Helpful Content, y siguiendo lo que todos pensamos (o debería decir pensábamos) son buenas prácticas SEO. 

¿Que pensarias si te digo que, por haber hecho las cosas bien desde el punto de vista SEO, puede que estés en la mira de Google?

Según la investigación de Cyrus Shepard es posible que Google esté penalizando la sobreoptimización SEO. Al parecer Google está relacionando los factores clásicos de optimización SEO con contenido pensado para los motores de búsqueda y no en el usuario.

Helpful Content vs Search Engine First

Para empezar habría que recordar que dice Google sobre el Helpful Content:

“Los sistemas de clasificación automatizados de Google están diseñados para presentar información útil y confiable creada principalmente para beneficiar a las personas, no para obtener clasificaciones en los primeros resultados de búsqueda”.

La pregunta que surge es ¿cómo determina Google que un contenido fue creado pensando solo en los motores de búsqueda y no en ayudar al usuario? Si, todos sabemos que lo que hacemos los SEOs tiene el objetivo de mejorar en los resultados. Pero eso no excluye que nuestro contenido sea de calidad y ayude a los usuarios.

Trabajemos Juntos.

Contáctanos

CONTACTANOS

¿Que es la sobreoptimización SEO?

La sobreoptimización SEO se da cuando hay un uso excesivo de técnicas SEO, en algunos casos hay tanto énfasis en mejorar el posicionamiento de un sitio web que se vuelve contraproducentes. Una de las más frecuentes es el keyword stuffing, que es básicamente usar en exceso la palabra clave y sus variantes, incluyendola de forma forzada en el contenido, titles y headers. 

Lo novedoso es que muchas de las prácticas que antes eran aceptadas, ahora parece que se sumarían a la lista de sobreoptimización. 

¿Los updates de Google penalizan el buen SEO? 

En la investigación, Cyrus utilizó la base de 50 sitios web analizados en el estudio sobre ganadores y perdedores de las actualizaciones de Google y los cruzó con métricas de Ahrefs. El objetivo era examinar los factores SEO “clásicos” y la relación entre su presencia o ausencia con los sitios ganadores y perdedores tras las últimas actualizaciones del algoritmo.

Aunque hubo varios factores en los que no se pudo encontrar una correlación, hay otros en los que se observa una correlación negativa llamativa. Y lo sorprendente de esto es que los que recibieron mayor impacto son los que se consideraban como “buenas prácticas SEO” aceptadas en general por todo el sector

Pero ahora si, vamos a ver cuales son:

Variedad de anchor text

Fuente: Zyppy SEO

Internal Anchors/Page | Correlación: -0,337 | Evidencia: Fuerte

External Anchors/Page | Correlación: -0,352 | Evidencia: Fuerte

La investigación deja en evidencia que, a mayor variedad de anchor texts usados (tanto internos como externos), recibieron un mayor impacto negativo. Y esto se vuelve creíble teniendo en cuenta que según el reciente Google Leak, con frecuencia Google usa los anchor como factor de clasificación.

Históricamente se consideraba que cuanto más variados sean los anchor text, era mejor a los ojos de Google. ¿Habrá que repensar el linkbuilding? 

Frecuencia de actualización de la página

Fuente: Zyppy SEO

Días desde la última vez actualización del contenido | Correlación: 0,455 | Evidencia: Fuerte

Hay un chiste interno entre los SEOs que dice “Ya es enero, hora de actualizar el año en los artículos”.  Y, más allá de la broma, es posible que algunos editores hayan estado actualizando la fecha de sus artículos sin hacer cambios reales de contenido. 

Parece que Google lo notó, porque en la investigación se observó que las webs impactadas de forma negativa son, por lo general, las más actualizadas. 

La antigüedad promedio de las URL en los sitios ganadores fue de 774 días, un poco más de 2 años. En cambio, en los sitios perdedores la fecha de publicación o actualización era de sólo 273 días, menos de la mitad de la edad de los sitios ganadores.

Otro dato para destacar: el 35% de las URL ganadoras no tenían ninguna fecha en la página; mientras que entre las perdedoras solo el 4% de las URL no contenían fecha. 

Si, esta sección también nos deja pensando. 

Títulos que “invitan” al clic ¿o clickbait?

Fuente: Zyppy SEO

Cantidad de números en los títulos | Correlación: -0,297 | Evidencia: Moderada

Cantidad  de adjetivos en los títulos | Correlación: -0,420 | Evidencia: Fuerte

Otra vez la incidencia es negativa, la mayor presencia de adjetivos y números en los títulos se vió en los sitios perdedores. En este caso es un poco más lógico, es muy probable que Google asocie este tipo de títulos con el clickbait.  O al menos con una señal de una optimización SEO demasiado agresiva. 

En este caso Cyrus lo relaciona con las filtraciones del juicio antimonopolio en contra de Google, que indican que éste usa los clics como factor de clasificación. Y en ese sentido es probable que Google intente reducir la alteración del CTR que puede generar un título “impactante”.

Uso intensivo de Schema Code

Fuente: Zyppy SEO

Múltiple Schema Code | Correlación: -0,314 | Evidencia: Moderada

Solo Schema ItemType | Correlación: -0,381 | Evidencia: Fuerte

Nuevamente un resultado inesperado: resulta que, en promedio, los sitios perdedores implementan más datos estructurados que los sitios ganadores. Muchos más.

En general se consideraba los datos estructurados casi como un requisito de SEO, y Google amablemente nos daba una lista interminable de opciones. Pero ahora vemos que muchos de los sitios ganadores apenas  usaron un código Schema.

Incluso un sitio de la muestra tuvo un aumento mayor al 5000% en tráfico usando solo el Schema Type Hentry

Habrá que pensar si no nos habremos excedido en el uso de datos estructurados. El que esté libre de uso intensivo de schema code que arroje la primera piedra. 

Conclusión

En mi opinión, creo que Google está buscando pistas o señales de sitios creados únicamente para posicionar y usa lo que tiene a mano para identificarlos. Lamentablemente, en el proceso puede afectar a sitios que intentan hacer las cosas bien a nivel de SEO, sin perder el objetivo de ayudar al usuario.

Y nuevamente las actualizaciones de Google, algunas lógicas y otras no tanto, nos exigen mantenernos actualizados y al tanto de las novedades que surgen día a día en el mundo del SEO. Eso y estar constantemente probando y midiendo nuevas estrategias, para mejorar nuestro posicionamiento y recuperar el tráfico perdido si nos impactó alguno de los últimos updates.

Javier Osorio

¿Qué te pareció este artículo?

What do you think about this post?

0 / 5 Promedio: 5 Valoraciones: 1

Tu valoración:

Total
0
Shares

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.

Prev
¿Qué es el remarketing?: Todo lo que necesitas saber
Portada_que es el remarketing

¿Qué es el remarketing?: Todo lo que necesitas saber

Google podría estar penalizando las buenas prácticas SEO al considerarlas

Next
Marketing para hoteles: guía completa para mejorar tu estrategia online en 2024
Portada: marketing para hoteles

Marketing para hoteles: guía completa para mejorar tu estrategia online en 2024

Descubre las mejores estrategias de marketing para hoteles en 2024

volver a inicio