- Estás completamente seguro que Google no entra, no podrá valorar lo que hay y no lo hará.
- Te evitas consumo de máquina inecesario. Si pones un meta noindex el bot hará la petición y luego leerá o no el contenido, pero la petición la hace, no la indexa pero puede valorarla y seguir los enlaces de
-
- paginaciones
- ordenaciones
- ordenaciones de paginaciones
- filtros
- ordenaciones de filtros
- paginaciones de filtros
- paginaciones de ordenaciones de filtros
- etc etc
esto puede estar ocupando a tu servidor el 80-90% de sus recursos y tiempo, mirar los logs y flipar.
- Aunque tarda más en ser representado con el comando site, no quiere decir que no las acabe desindexando, una muestra puede ser la gráfica de arriba, con el tiempo bajan, aunque parece más razonable que como también bajan el número de URLs indexadas sea por una limpia en los datos de la herramienta, quizás hasta de sus índices....
Pero no se ve tan reflejada en la otra gráfica del post... por lo cual y con casos muy contradictorios lo único que sé es de que no puedo fiarme demasiado de WMT, puede que de síntomas de cosas en muchos casos, pero con lo del número de urls indexadas.... no me fio un pelo de sus datos.
La verdad es que me podría extender y contradecir durante párrafos y párrafos (hay que ser muy simple para ser siempre coherente), pero no sabría a ciencia cierta casi nada, sólo son intuiciones e ideas abstractas que rozan mi cabeza, pero me da que Panda mucho tiene que ver con el número de urls de baja calidad que tienes en tu sitio, entendiendo por "de baja calidad" lo que Google quiera entender....
Errioxa (@)hace Hace más de 11 años y 168 días
@Dani me alegro leerte :)
Sobre los errores 410 y 404, yo estaba pensando en miles de URLs a restringir, y dar miles de errores 404 o 410 no me gusta nada. No sé si será malo, pero sé que bueno no es :p
Como bien dices por el robots.txt es cortar de raíz con el problema, mientras que con las otras opciones como los metas el bot seguirá haciendo peticiones, para esto puedes mirar los logs y comprobarlo. Encima como le metas un noindex,follow lo hará con la misma frecuencia...
Sobre las 301 y 302, no sé muy bien que decirte... sé que hace poco Google tuvo problemas con los 301 y hasta lo reconoció, yo lo vi claramente en los logs como de un día para otro hacía muchas menos peticiones a estas urls que dan 301 ya que lo monotorizo. Y por lo que veo, sigue haciéndolas y checkeándolas continuamente!! raro, pero así es...
Dani Pinillos (@)hace Hace más de 11 años y 168 días
Si te dará un montón de notificaciones de error en WMT y tienes que ir borrando de mil en mil pero para eliminarlas del índice es lo único que conozco que lo quite rápido :(
Interesante lo del crawleo de las redirecciones. Si sabía que el año pasado mas o meos tuvo problemas con las redirecciones pero no que no las seguia.
El nuevo seo está en los logs :D
Errioxa (@)hace Hace más de 11 años y 168 días
El nuevo SEO no sé, pero las nuevas métricas seguro que sí
Derlis H. (@)hace Hace más de 11 años y 161 días
Realmente hay mucho contenido para realizar un posicionamiento web o blogs hay mucha maneras de obtener los resultados que deseamos no es fácil el trabajo de un SEO todo tiene sacrificio
Optimización web
Derlis H. (@)hace Hace más de 11 años y 161 días
Realmente hay mucho contenido para realizar un posicionamiento web o blogs hay mucha maneras de obtener los resultados que deseamos no es fácil el trabajo de un SEO todo tiene sacrificio
Optimización web