Si enlazas a tus distintos ccTLDs no lo hagas desde el footer

Publicado por (Errioxa) el 23 de marzo del 2014

Ya dijimos una vez que que podría haber distintos tipos de links internos de cara a Google, y que los links en el footer podrían ser tratados de distinta manera que el resto y una vez más parece que se vuelve a confirmar.

Matt Cutts hablando sobre el cómo enlazar distintos dominios ccTLDs comenta unos cuantos puntos a tener en cuenta

  • Es correcto enlazar a todos tus ccTLDs, pero no lo hagas en el footer
  • Poner un máximo de 4 o 5 enlaces, no excederse.
  • Es mejor usar una página donde enlacemos los distintos idiomas, y el usuario seleccionara desde ahí su versión

 

El primer punto es muy interesante,podéis ver el vídeo aquí, sobre el minuto 2:30 que traducido/resumido con mi spaniglish "50 enlaces en el footer podría parecer spam"

 

Y es que está claro, si tú fueses un ingeniero de Google y estás pensando en un método para identificar enlaces no naturales, y patrones entre ellos, ¿no pondrías como punto muy sospechoso que haya un grupo de links externos en el final del código de la página?


Muchísimos sites intercambian o compran enlaces de esta manera, es algo común y muy extendido por lo que es lógico que esto sea una señal de posible página spam.

También creo que cualquier grupo de links externos que estén más o menos juntos en el código fuente de la página sea considerado como enlaces sospechosos de cara a Google, por ejmplo los enlaces en blogrol, que también son usados para estos fines.

Así que ya sabes, si linkas tus distintas versiones hazlo pero no los pongas al final de la página. Habría que ver si simplemente poniéndolos encima en el código fuente y pintándolos en el footer con css podría evitar esta señal, aunque como digo, creo que también esta señal se aplicará a grupos de enlaces que estén muy juntos y linken a otros dominios. Yo lo haría, ¿y si tú fueses el ingeniero de Google? 

 

 

 

 

 


Javier Lorente (@)hace Hace más de 10 años y 238 días

pintar por css en otro lugar del código fuente! ¡qué tiempos!



Lea otros artículos de Links internos

Últimos posts

Últimos comentarios


Dana

Post: Experimento para comprobar la teoría del primer enlace

JaviLazaro
Ya me has dado la necesidad de crear un comaando en bash para hacer estas cosas. Gracias Lino por estos tips
Post: Obtener KWs de varias fuentes usando la línea de comandos

Señor Muñoz
Lino, el 11% más de clicks y el 47% más de impresiones diarias ¿es algo constante o depende de cada sitio web?
Post: Diferencias entre la exportación de datos de Search Console usando BigQuery o usando la API

Carlos
Hola En mi blog tengo artículos atemporales (es decir, no caducan nunca, de manera que sirve para quien lo lea hoy o lo lea dentro de 5
Post: Tratamiento de urls que tienen un tiempo de vida muy corto

Profe Ray
Veo que hay comentarios de hace 5 años y de hace 3 años. ¿Habrá algun post actualizado sobre este tema o sigue funcionando? Lo cierto es
Post: Cómo cargar css y js y no bloquear la carga de contenido

Pepe
Muchas gracias por el articulo!! Muy buena información.
Post: Qué es ofuscar enlaces y cómo mejora el enlazado interno

María
Sí, he buscado el archivo robots.txt y todo está correcto. La última versión vista con error fue el 08/11/2021 y la última vez que el
Post: Errores críticos originados por el robots.txt

Lino
@María un placer verte por aquí :) Lo primero, a veces, con el robots.txt no se puede "forzar" a que lo rastree, si tu site no es muy p
Post: Errores críticos originados por el robots.txt

María
Hola Lino, tengo el mismo problema. El probador de robots de google me indica: "Error al obtener el archivo robots.txt Tienes un archivo ro
Post: Errores críticos originados por el robots.txt

Mario
Estoy tratando de vincular los datos en Google Data Studio y he combinado los datos de la tabla "Impresión del sitio" con "Impresión de UR
Post: Datos incoherentes y cálculo de la posición media en Search Console