Como funciona, Googlebot su proceso de indexación y actualización de SERP

Bruno 30 mayo, 2016 0
Como funciona, Googlebot su proceso de indexación y actualización de SERP

Estimados, quiero compartir lo que es una conclusión personal basada en mi experiencia en pruebas y observación realizada con de 5 sitios durante 6 meses.

Luego del surgimiento de los famosos cambios de Google en el posicionamiento embanderados por los algoritmos de nombres PANDA y PINGÜINO y por motivos personales me he apartado de la actividad en la WEB.

A fines de Octubre de 2015 retorné al ruedo y en este artículo pienso compartir mi experiencia con ustedes sobre lo que he experimentado y no he logrado leerlo en ningún foro ni blog de este rubro. Intentaré ser lo más básico posible en mis expresiones para que resulte claro y comprensible lo que quiero decir a todo nivel, incluyendo algunos detalles que pueden darles la mayor cantidad posible de información.

 

 

Antes de comenzar quisiera puntualizar algunos aspectos de los 5 dominios:

  • www.dominio 1: más de 15 años de antigüedad ( puesta online: 10/2015)
  • www.dominio2: más de 5 años de antigüedad ( puesta online: 11/2015)
  • www.dominio3: más de 3 años de antigüedad ( puesta online: 12/2015)
  • dominio4: nuevo ( puesta online: 01/2016)
  • dominio5: nuevo ( puesta online: 01/2016)

 

Velocidad de carga (en orden óptimo, todos con muy buena velocidad, grado de performance superior al 85/100 y entre menos de 1 seg. y 2,5 segundos en tiempo de carga) http://tools.pingdom.com/fpt/

  • www.dominio3 el más rápido
  • www.dominio1
  • dominio5
  • dominio4
  • www.dominio2 el menos rápido

 

Dominio

www.dominio1

www.dominio2

www.dominio3

dominio4

dominio5

Páginas indexadas

436.000

1.740

45.400

40.200

15.600

Ip dedicada

No

Si

Si

No

Si

Ubicación

Holanda

USA

Canada

Holanda

Holanda

 

El posicionamiento buscado es 100% orgánico, la temática es similar en los 5 dominios, por tanto no existió ningún tipo de promoción ni publicidad, los 5 dominios en igualdad de condiciones en busca de su posicionamiento. Los tres primeros con dominio preferido con “www” los siguientes “sin”.

 

Como todos medianamente sabemos, el primer y sagrado paso para ingresar a la vidriera de Internet es registrar y verificar nuestro sitio en Search Console, el webmaster tool de google https://www.google.com/webmasters/tools/

Antes de realizar este registro en el Webmaster Tool debemos verificar el log de nuestro servidor para detectar posibles errores de nuestro lado (nuestro web), también asegurarnos de que nuestro archivo robots.txt no este bloqueando páginas o directorios importantes dentro del mismo ya que si esto ocurre el impacto de los problemas generados puede llevarnos de una a varias semanas repararlo ya que esta fuera de nuestro control una vez el bot de google accede a esa información.

Luego de registrar nuestra web debemos tener algunas precauciones para evitar problemas más problemas:

Una vez más, verificar si nuestro robots.txt está permitiendo el acceso a nuestro web.

Verificar si no hay errores de rastreo, tanto en la generación de errores 404, 401, 403 como 501

 

  • Les comentare lo ocurrido en 3 etapas, la inicial, 2 primeros meses y el estado actual de los dominios.

Mencionando lo ocurrido con la Indexación y rastreo de páginas en cada una de ellas y luego su historia en cuanto al SEO y modificaciones que he realizado en cada uno de ellos.

Comencemos…

 

 

INDEXACION Y RASTREO

Semana 1 y semana 2 luego del registro en webmaster tools:

Indexación, rastreo y presencia en el buscador:

  • www.dominio 1: Presencia menos de 24 horas, indexado y rastreo constante (implacable diría).
  • www.dominio2: Presencia menos de 24 a ritmo lento, pocas páginas indexadas, rastreo bajo.
  • www.dominio3: Presencia 24 horas muy lento y muy pocas páginas, rastreo casi nulo. (por descuido robots.txt bloqueaba el acceso)
  • dominio4: Presencia en poscas horas a ritmo normal, buen rastreo, buena indexación.
  • dominio5: Menos de una hora, buen ritmo de rastreo e indexación de páginas.

Semana 3 a 2 meses:

Indexación, rastreo y presencia en el buscador:

  • www.dominio 1: Mantiene el ritmo inicial.
  • www.dominio2: Ritmo lento en rastreo y se estanca en la indexación, rastreo casi nulo.
  • www.dominio3: Comienza a indexar mejor y realiza durante el segundo mes un frenetico rastreo de páginas sin incrementar páginas indexadas a su misma escala.
  • dominio4: Indexa normalmente y rastrea normal sin grandes picos. (monótono diría)
  • dominio5: Practicamente 100% de las páginas indexadas al segundo mes y un buen ritmo de rastreo e indexación de páginas.

 

Situación Actual de los sitios:

  • www.dominio 1: Perdida casi total de serp (400k páginas indexadas).
  • www.dominio2: Presencia nula en el buscador (9K páginas indexadas).
  • www.dominio3: Fuerte presencia, ganancia constante y diaria de serp (40k páginas indexadas)
  • dominio4: Presencia moderada con lenta ganancia de serp (19k páginas idexadas).
  • dominio5: Fuerte presencia, ganancia constante y diaria de serp. (38k páginas indexadas)

 

 

 

 SEO y modificaciones

(entiendase esto como estrategias SEO para posicionar orgánicamente lo mejor posible el web, lo que icluye: Utilización y variantes en el uso de <Title>, <meta= …>, h1, h2, h3, alt=”", title=”", etc…)

  • www.dominio 1: modificaciones casi a diario, valiéndome de su alto ritmo de indexación y rastreo. Digamos que fue el conejillo de India.
  • www.dominio2: Una modificación semanal pero muy grande y extrema diría.
  • www.dominio3: Una al mes y moderada.
  • dominio4: Varias en el segundo y tercer mes, luego una única modificación y moderada al cuarto mes.
  • dominio5: Inalterable desde su inicio.

 

 

 

Algunas de mis conclusiones:

Como apreciaran por sus colores: dominio1 y dominio2 están condenados y a merced del ritmo de google para recuperar o mejorar posicionamiento, dominio4 está en su período de reafirmación con buen potencial, mientras que dominio3 y dominio5 están consolidados con excelente potencial y posible superación de 10k visitas diarias en menos de dos meses.

 

 

INDEXACION y RASTREO:

Este proceso es fundamental y debe ser lo más fluido posible, si he detectado lo siguiente y requiere una observación atenta a una dirección IP, Google utiliza varios servidores para rastrear los webs “bots” y cada sitio tiene uno en particular “uno solo” y pasa cada 30 días a dos meses por el sitio dependiendo de la prioridad que le ha dado google a tu dominio de acuerdo a su criterio de evaluación, “que se encarga de actualizar el serp del dominio”, que quiere decir esto… que tu web es escaneado por varios bots de google y cumplen tareas diferentes dentro de los 200 factores de posicionamiento impuestos por “G”, algunos obtienen diferentes tipos de información como ser, la URL en si, estructura del sitio, velocidad de acceso, aspectos meramente técnicos de tu dominio y hay uno de ellos, “uno solo” que pasará a evaluar y reposicionar tu web, es en ese momento donde podrás sacar conclusiones sobre el resultado de alguna estrategia que hayas realizado en tú web, ya que como pueden apreciar en la imagen abajo, el impacto es inmediato ya sea positivo o negativo.

 

Actualización de serp - impacto en buscador
Pasaje del bot que actualiza el serp del dominio.

 

 

 

PENALIZACIONES ALGORITMICAS:

No existen. Cuando hablamos de un algoritmo, hablamos de un programa que evalúa y posiciona nuestro web haciendo un balance entre los factores técnicos y el SEO utilizado (esto incluye al SEO en su forma más extensa). Si mejoramos es porque hicimos un buen uso de esos factores y no le hicimos una ensalada rusa como ocurrió con dominio1, una vez entrado en caos no debemos ponernos paranoicos ni locos, nada más aceptar el error, hacer las cosas bien y esperar a que el algoritmo procese nuevamente la información de nuestro web, esto puede llevar hasta 2 meses también llamado sandbox.

Cuando hablamos de penalizaciones son manuales y somos alertados de ello, aún no me ha llegado ninguna nunca.

 

 

Sitemap: Es util para acelerar la indexación del web únicamente, no asegura un mejor posicionamiento. Es más… el sitio posiciona mejor si hace la indexación natural mediante el rastreo de nuestras páginas, es más lento, pero consolida mejor nuestro SEO y en caso de un error es más fácil y rápido corregirlo que si usamos el sitemap.

 

Pagerank: Aparentemente pasó a formar parte de un registro historico que en su momento tuvo importancia. Hoy por hoy, todo indica que es una referencia sin valor de PR acompañada de un número.

 

Cambios SEO:

A google definitivamente no le gusta estos cambios, lo interpreta que no sabes lo que estás haciendo, no tienes claras las cosas o no eres muy profesional. No te penaliza por ello… simplemente hace muy fluctuable tu posicionamiento y la ganancia de serp es insegura.

Conclusión, define previamente tu estrategia SEO y mantenla inalterable durante por lo menos 3 meses, si la haces bien los resultados llegaran en forma más estable. Cambios frecuentes no reflejan resultados definitivos ni perdurables, más aún si tienes un volumen considerable de páginas.

 

 

Buenas noticias SERP (search engine results page):

Como lo hace… primeramente y con el objetivo de examinarte al máximo antes de darte la bienvenida a la primera página comienza a mostrarte a los usuarios con cuenta en Google o están identificados con alguna de ella, es por tal motivo que comienza con las famosas  (not provided) esto quiere decir, que por las políticas de privacidad no puede revelar con que clave han llegado a tu web y por las mismas este mismo usuario le proporciona información muy válida para evaluar tu web (páginas vistas, % de rebote, etc…) es con estos usuarios que google comienza a evaluarte y puedes ir por buen camino “ya te tuvo en cuenta”.

Una vez pasas la prueba fuego del  (not provided), si tuviste éxito… tú web comenzará a aparecer en todas las búsquedas, será 100% público y a partir de ese momento se te comenzarán a revelar las palabras claves por la cual llegan a tú web.

 

Por el momento, es todo amigos, probablemente me quedó algo en el tintero que con el tiempo iré actualizando y también escucho sus consultas o dudas las que pueden hacerme recordar más conclusiones.

Espero que por lo menos les haya resultado entretenida esta experiencia y si les es proverchosa mejor aún.

 

Aclaración: Esto es una conclusión personal, para ello me he valido únicamente de los reportes de Webmaster Tools y los logs del servidor, junto con mi registro personal de modificaciones SEO en cada sitio.



Conectate con:

Responder »

Debes estar conectado para comentar.