¿Cuál es la mejor manera de desindexar URLs?

Publicado el lunes 10de junio del 2013, By Lino Uruñuela

Hoy debatiendo en una lista de correo me ha hecho pensar en cuál es el mejor método para desindexar una url, y claro todo depende de en cómo definamos lo que es desindexar una página y para que lo estamos usando....



Empezemos por definir que entendemos por desindexar
  • ¿Que no se muestren en los resultados?
  • ¿Que lo marque WMT?
  • ¿Que GoogleBot no entre nunca?

Si entendemos por desindexar que no la muestre en los resultados entonces la mejor opción es la herramienta de WMT donde puedes desindexar hasta directorios, el meta noindex también consigue ese efecto, pero mucho menos rápido ya que ha de rastrear cuando le toque url a url. Lo malo de esta opción es que no puedes crear ningún tipo de regla con expresiones regulares y la mayoría de los casos son miles de urls las que queremos desindexar y no se podría ir una a una. Además no garantizamos que el bot no acceda, sólo que no lo mostrará en sus resultados y su caché.

Si consideramos por desindexar que en WMT descienda la  gráfica debemos tener mucho cuidado en que pensamos, porque realmente creo que estas gráficas pueden representar algo hoy y otra cosa mañana

Google de vez en cuando hará limpia de cosas y antes que sus datos de índices borrará datos de herramientas como esta y pondrá la cuenta a 0.... es muy raro que el número de urls bloquedas de repente descienda de repente si las reglas son las mismas y por lo tanto, sí o sí, el número de urls bloquedas como mínimo será el mismo... nunca menos, pero vemos como NO refleja la realidad.


La 3ª opción, que GoogleBot no acceda y por lo tanto no lea lo que hay. Para esto lo mejor es usar robots.txt ya que nos aseguramos que el Bot no entra ni entrará y no sabrá lo que hay.
En sus índices estará si tiene los suficientes enlaces entrantes, entonces aunque no sepa lo que hay lo mostrará como resultado. Podríamos concluir que sí está indexada porque las guarda en sus índices.

Esta tercera opción para mi es la mejor cuando quieres restringir cosas molestas y riesgos por urls de baja calidad y duplicidad, por qué
  1. Estás completamente seguro que Google no entra, no podrá valorar lo que hay y no lo hará.

  2. Te evitas consumo de máquina inecesario. Si pones un meta noindex el bot hará la petición y luego leerá o no el contenido, pero la petición la hace, no la indexa pero puede valorarla y seguir los enlaces de
      • paginaciones
      • ordenaciones
      • ordenaciones de paginaciones
      • filtros
      • ordenaciones de filtros
      • paginaciones de filtros
      • paginaciones de ordenaciones de filtros
      • etc etc

      esto puede estar ocupando a tu servidor el 80-90% de sus recursos y tiempo, mirar los logs y flipar.

  3. Aunque tarda más en ser representado con el comando site, no quiere decir que no las acabe desindexando, una muestra puede ser la gráfica de arriba, con el tiempo bajan, aunque parece más razonable que como también bajan el número de URLs indexadas sea por una limpia en los datos de la herramienta, quizás hasta de sus índices....

    Pero no se ve tan reflejada en la otra gráfica del post... por lo cual y con casos muy contradictorios lo único que sé es de que no puedo fiarme demasiado de WMT, puede que de síntomas de cosas en muchos casos, pero con lo del número de urls indexadas.... no me fio un pelo de sus datos.

La verdad es que me podría extender y contradecir durante párrafos y párrafos (hay que ser muy simple para ser siempre coherente), pero no sabría a ciencia cierta casi nada, sólo son intuiciones e ideas abstractas que rozan mi cabeza, pero me da que Panda mucho tiene que ver con el número de urls de baja calidad que tienes en tu sitio, entendiendo por "de baja calidad" lo que Google quiera entender....

 

 


 


Errioxa (@)hace Hace más de 11 años y 168 días

@Dani me alegro leerte :)

Sobre los errores 410 y 404, yo estaba pensando en miles de URLs a restringir, y dar miles de errores 404 o 410 no me gusta nada. No sé si será malo, pero sé que bueno no es :p

Como bien dices por el robots.txt es cortar de raíz con el problema, mientras que con las otras opciones como los metas el bot seguirá haciendo peticiones, para esto puedes mirar los logs y comprobarlo. Encima como le metas un noindex,follow lo hará con la misma frecuencia...

Sobre las 301 y 302, no sé muy bien que decirte... sé que hace poco Google tuvo problemas con los 301 y hasta lo reconoció, yo lo vi claramente en los logs como de un día para otro hacía muchas menos peticiones a estas urls que dan 301 ya que lo monotorizo. Y por lo que veo, sigue haciéndolas y checkeándolas continuamente!! raro, pero así es...

Dani Pinillos (@)hace Hace más de 11 años y 168 días

Si te dará un montón de notificaciones de error en WMT y tienes que ir borrando de mil en mil pero para eliminarlas del índice es lo único que conozco que lo quite rápido :(

Interesante lo del crawleo de las redirecciones. Si sabía que el año pasado mas o meos tuvo problemas con las redirecciones pero no que no las seguia.

El nuevo seo está en los logs :D

Errioxa (@)hace Hace más de 11 años y 168 días

El nuevo SEO no sé, pero las nuevas métricas seguro que sí

Derlis H. (@)hace Hace más de 11 años y 161 días

Realmente hay mucho contenido para realizar un posicionamiento web o blogs hay mucha maneras de obtener los resultados que deseamos no es fácil el trabajo de un SEO todo tiene sacrificio

Optimización web

Derlis H. (@)hace Hace más de 11 años y 161 días

Realmente hay mucho contenido para realizar un posicionamiento web o blogs hay mucha maneras de obtener los resultados que deseamos no es fácil el trabajo de un SEO todo tiene sacrificio

Optimización web




Lea otros artículos de Como evitar contenido duplicado

Últimos posts

Últimos comentarios


Dana

Post: Experimento para comprobar la teoría del primer enlace

JaviLazaro
Ya me has dado la necesidad de crear un comaando en bash para hacer estas cosas. Gracias Lino por estos tips
Post: Obtener KWs de varias fuentes usando la línea de comandos

Señor Muñoz
Lino, el 11% más de clicks y el 47% más de impresiones diarias ¿es algo constante o depende de cada sitio web?
Post: Diferencias entre la exportación de datos de Search Console usando BigQuery o usando la API

Carlos
Hola En mi blog tengo artículos atemporales (es decir, no caducan nunca, de manera que sirve para quien lo lea hoy o lo lea dentro de 5
Post: Tratamiento de urls que tienen un tiempo de vida muy corto

Profe Ray
Veo que hay comentarios de hace 5 años y de hace 3 años. ¿Habrá algun post actualizado sobre este tema o sigue funcionando? Lo cierto es
Post: Cómo cargar css y js y no bloquear la carga de contenido

Pepe
Muchas gracias por el articulo!! Muy buena información.
Post: Qué es ofuscar enlaces y cómo mejora el enlazado interno

María
Sí, he buscado el archivo robots.txt y todo está correcto. La última versión vista con error fue el 08/11/2021 y la última vez que el
Post: Errores críticos originados por el robots.txt

Lino
@María un placer verte por aquí :) Lo primero, a veces, con el robots.txt no se puede "forzar" a que lo rastree, si tu site no es muy p
Post: Errores críticos originados por el robots.txt

María
Hola Lino, tengo el mismo problema. El probador de robots de google me indica: "Error al obtener el archivo robots.txt Tienes un archivo ro
Post: Errores críticos originados por el robots.txt

Mario
Estoy tratando de vincular los datos en Google Data Studio y he combinado los datos de la tabla "Impresión del sitio" con "Impresión de UR
Post: Datos incoherentes y cálculo de la posición media en Search Console