Como mejorar el Contenido de Baja Calidad

Bruno 6 febrero, 2013 0

Mejorando la calidad del contenido de nuestro WEB

La realidad de los webmasters o los SEO-Webmasters esta enfocada en gran parte en la generación y publicación de contenidos de Alta calidad, esto permitira posicionar nuestro web en los primeros lugares de los buscadores.

Ahora bien, que entendemos por contenido de calidad o mejor… a que se refireren con Contenido de calidad. No se refiere a los aspectos visuales ni formas de presentación, un contenido es de Calidad cuando resulta atractivo por su contenido para los usuarios y se ve reflejado en la cantidad de visitas desde el navegador y su propagación en las redes sociales o en forma de backlinks.

Fenómeno, eso esta clarísimo, pero cuales son los factores que influyen, o como un contenido pasa a ser de calidad?

Existen factores como el SEO, Pagerank y Backlinks que le proporcionan una cierta calificación de calidad a nuestro web y en cierta forma son más palpables, pero existe un factor preponderante al cual Google no hace referencia explicita que está directamente relacionado con esa calificación de calidad y se refire a la calidad del contenido que enviamos a su indice o permitimos que se indexe. Entiendase (Contenido duplicado, páginas con contenido poco atractivo, etc…)

 

Seamos más practicos y manejaremos un ejemplo.

En este caso de ejemplo, en cierta forma común, tenemos un web con SEO bien trabajado, con optimización Pagespeed, con PageRank 2 ó 3, un Nº de Backlinks razonables y no se posiciona o sufre perdida constante de visitas.

Conclusión: Creemos que esta penalizado… pero en realidad se esta devaluando su calificación de calidad de contenido.

Detectamos este problema si accedemos a la Herramienta a Webmaster Tool de Google, en la opción estado de la indexación (opción avanzada) donde tenemos que poner especial atención a los indicadores:

  • páginas indexadas
  • páginas no seleccionadas
  • páginas bloqueadas por robots.txt

 

Si tenemos un numero muy elevado de páginas no seleccionadas es un indicador de que Google esta descartando un gran numero de páginas clasificadas como de BAJA CALIDAD. Debemos bajar ese número para que el promedio de páginas de calidad sea mayor.

 

Primer paso, como detectamos páginas con potencial contenido de baja calidad?

1) Errores HTML.

2) Demoras notorias en la carga de una página (Lo verificamos en google analytics).

3) Pocas o casi ninguna visita a esa página (que puede estar relacionada con #1 y #2 o baclinks de baja calidad).

 

Básicamente la detección se centraliza en el punto 3 y es el que nos interesa mejorar VISITAS.

  • Que hacemos, ubicamos las páginas de nuestro web que tienen pocas visitas, en teoría las que mas inciden en nuestra perdida de calificación son las páginas más antiguas que tienen pocas visitas, entonces… vayamos a ellas.
  • Una vez identificadas estas páginas, tenemos 2 alternativas
  1. Editarla generando su contenido más atractivo u original
  2. Eliminarla de nuestro web

 

Opción 1: Sin dudas es la más saludable para nuestro web, ya que no perdemos contenido y no generamos errores 404 al eliminarlas, pero en contrapartida requiere mucho trabajo y no tenemos certeza de estar haciendo lo correcto en cuanto al contenido que modificamos y también dependemos de la calidad de los backlinks a esa página.

Opción 2: Si bien es la más radical, resulta ser la más efectiva, pero requiere de un seguimiento especial.

Al eliminar una página que detectamos como de BAJA CALIDAD, debemos genrerar un nuevo Sitemap donde no esta incluída y además, (MUY IMPORTANTE) eliminarla manualmente del indice de google y eso lo hacemos en las Herramientas para Webmasters de Google en Optimización >> Eliminación de URL. De esta forma evitamos que esa página sea rastreada nuevamente y desaparezca del indice de Google en forma definitiva.

Este procedimiento no tiene una fecha determinada para su impacto, pero por lo general no supera las 2 o 3 semanas, todo depende de la frecuancia con la que el bot vista nuestro web.

 

Que logramos con esto?

Si bien mantenemos nuestro Nº de páginas indexadas en google con cierta calidad de contenido lo que logramos es reducir la cantidad de contenido considerado “basura” por google lo cual se refleja en una caida de páginas no seleccionadas y una subida en el porcentaje de Contenido de Calidad indexado.

 

Consejos para mantener la Calidad de nuestro indice de páginas en Google:

1) Bloquear con Robots.txt todo contenido que ya sabemos es potencial generador de baja calidad o contenido duplicado.

2) Optimizar la velocidad de carga de nuestra página.

3) Corregir errores de código.

4) Editar o eliminar (según se explica más arriba) las páginas que reciben pocas visitas.

 

Espero que les sea de utilidad esta info y aguardo sus comentarios y críticas…



Conectate con:

Responder »

Debes estar conectado para comentar.