Google aconseja no usar canonical en las paginaciones

Publicado el 10 de abril del 2013, by Lino Uruñuela

Ayer Google publicó los 5 errores más comunes al usar el meta rel=canonical, de ellos el que más me llama la atención es  "canonical en la primera página de una serie paginada" donde nos dicen

Especificar un rel = canonical de la página 2 (o cualquier otra página posterior) a la página 1 no es correcto uso de rel = canonical, ya que no son páginas duplicadas. El uso del rel = canonical aquí causaría que el contenido de las páginas 2 y más adelante no se indexen en absoluto.

El contenido (por ejemplo,“cookies are superior nutrition” and “to vegetables”) se pierde cuando se especifica rel = canonical de la segunda y tercera páginas a la primera página de la serie.



Yo siempre he dicho que no me gusta poner ese meta y que me gusta dejar las paginaciones rastreables e indexables (en muchos casos, que no en todos). En este artículo expongo una práctica para obtener distintos términos usando las paginaciones, aunque actualmente el ejemplo se ha quedado obsolote ya que no toco esa web desde hace más de 4 años....


Aquí dejo unos experimentos que he ido realizando para saber cómo trata Google el meta canonical

Google ahora nos comenta lo que deberíamos hacer y supuestamente cómo lo trata. Está claro que una cosa es lo que dice y otra lo que hace, pero en este caso con este punto que comentan creo que es así y que hacerlo no será beneficioso para tu site.

Y es que hay muchísimas webs que usan este meta de esta manera. Se opina que el valor que tengan esas páginas con un meta canonical estará reforzando a la URL a la que apuntan, sumando así ésta el valor o parte del valor de todas las que la apunten con un canonical. Según los tests que menciono arriba el valor del los links que apuntaran a las paginaciones sí se otorgarían a la URL donde apuntan los canonicals, así que algo de valor parece que sí pasa.

Yo seguiré dejando las paginaciones indexables y rastreables, y si alguna no quiero que la rastree entonces la restringiré por medio del robots.txt porque además puede beneficiarte al dejar sitio a otras URLs.

 


Javier Lorente (@javier_lorente)hace Hace más de 9 años y 274 días

Totalmente de acuerdo



Lea otros artículos de On Page

Últimos posts

Últimos comentarios


Resham Singh Mahal

Post: Experimento para comprobar la teoría del primer enlace

Joakim Hov Johnsen

Post: Experimento para comprobar la teoría del primer enlace

Dana

Post: Experimento para comprobar la teoría del primer enlace

JaviLazaro
Ya me has dado la necesidad de crear un comaando en bash para hacer estas cosas. Gracias Lino por estos tips
Post: Obtener KWs de varias fuentes usando la línea de comandos

Señor Muñoz
Lino, el 11% más de clicks y el 47% más de impresiones diarias ¿es algo constante o depende de cada sitio web?
Post: Diferencias entre la exportación de datos de Search Console usando BigQuery o usando la API

Carlos
Hola En mi blog tengo artículos atemporales (es decir, no caducan nunca, de manera que sirve para quien lo lea hoy o lo lea dentro de 5
Post: Tratamiento de urls que tienen un tiempo de vida muy corto

Profe Ray
Veo que hay comentarios de hace 5 años y de hace 3 años. ¿Habrá algun post actualizado sobre este tema o sigue funcionando? Lo cierto es
Post: Cómo cargar css y js y no bloquear la carga de contenido

Pepe
Muchas gracias por el articulo!! Muy buena información.
Post: Qué es ofuscar enlaces y cómo mejora el enlazado interno

María
Sí, he buscado el archivo robots.txt y todo está correcto. La última versión vista con error fue el 08/11/2021 y la última vez que el
Post: Errores críticos originados por el robots.txt

Lino
@María un placer verte por aquí :) Lo primero, a veces, con el robots.txt no se puede "forzar" a que lo rastree, si tu site no es muy p
Post: Errores críticos originados por el robots.txt