Geoposicionar una web para varios paises

Publicado el martes 22 de Enero de 2008

Hace un tiempo Google nos ofreció en sus herramientas para Webmasters cómo podíamos geolocalizar una página web para que el buscador sepa a qué lugar geográfico pertenecen las personas a las que está dirigido nuestro contenido.

Una de las cosas que yo echaba en falta era poder geolocalizar dos países distintos para una misma web, para españa la parte en castellano, para Estados Unidos la sección en inglés, etc.

Gracias a Piutus (con la de birras que le debo me va a tocar comprar la Mahou), he conseguido geolocalizar cada carpeta o subdominio de  una página web para distintos países.

Para ello deberemos entrar en nuestro panel de webmaster tools y agregar un nuevo sitio, ahí añadiremos nuestro dominio inlcuyendo la carpeta o el subdominio según tengamos. Por ejemplo para una hipotética versión en inglés de mecagoenlos.com que estuviese en https://www.mecagoenlos.com/ingles/ añadimos esta ruta como un sitio nuevo y ya está. Ejemplo:

Geolocaliza

Podrás tratar a esta carpeta de tu dominio como si fuese un dominio propio,  con su propio sitemaps, su geoposición sus estadísticas, etc.

A ver qué resultados da.

 


Seoprincipiante (@)hace Hace más de 16 años y 308 días

Evidente pero eficaz. Buen consejo que voy a aplicar de inmediato en mis webs multilingües.Gracias

CoyáN (@)hace Hace más de 16 años y 307 días

Anda, yo eso lo usaba para un mejor seguimiento de los feeds y para bastantes datos que aportan por carpeta, aunque sinceramente no se me había ocurrido para geolocalizar...

Un fallo que le veo al sistema de las carpetas es que no muestra las estadísticas de búsquedas, sino que esas las tienes que mirar en el dominio normal.
Perdiéndose detalles. Sobre todo si tienes dos "carpetas" dentro del mismo dominio muy diferentes.

Jep (@)hace Hace más de 16 años y 307 días

Coyan, usa los filtros de google analytics por carpetas, para diferenciar las búsquedas.

CoyáN (@)hace Hace más de 16 años y 306 días

Gracias por la sugerencia Jep, lo acabo de activar.

Aunque procuro utilizar Analytics lo menos posible, pues usando Analytics le estás dando a google valiosa información de tus usuarios, y creo que la privacidad de los usuarios es más importante que unas estadísticas "bonitas".

Incluso tengo mis sospechas de que influye en el posicionamiento. (Puede que fuera casualidad las 2 veces que comparé el PRE-Analytics y POST-Analytics en dos páginas que eran todo lo SEO posible, pero con muy pocas visitas. Tras el POST-Analytics perdieron visitas. NOTA: La comparación del PRE y el POST lo hice con el Awstats del servidor).



Lea otros artículos de Internacionalización SEO

Últimos posts

Últimos comentarios


Dana

Post: Experimento para comprobar la teoría del primer enlace

JaviLazaro
Ya me has dado la necesidad de crear un comaando en bash para hacer estas cosas. Gracias Lino por estos tips
Post: Obtener KWs de varias fuentes usando la línea de comandos

Señor Muñoz
Lino, el 11% más de clicks y el 47% más de impresiones diarias ¿es algo constante o depende de cada sitio web?
Post: Diferencias entre la exportación de datos de Search Console usando BigQuery o usando la API

Carlos
Hola En mi blog tengo artículos atemporales (es decir, no caducan nunca, de manera que sirve para quien lo lea hoy o lo lea dentro de 5
Post: Tratamiento de urls que tienen un tiempo de vida muy corto

Profe Ray
Veo que hay comentarios de hace 5 años y de hace 3 años. ¿Habrá algun post actualizado sobre este tema o sigue funcionando? Lo cierto es
Post: Cómo cargar css y js y no bloquear la carga de contenido

Pepe
Muchas gracias por el articulo!! Muy buena información.
Post: Qué es ofuscar enlaces y cómo mejora el enlazado interno

María
Sí, he buscado el archivo robots.txt y todo está correcto. La última versión vista con error fue el 08/11/2021 y la última vez que el
Post: Errores críticos originados por el robots.txt

Lino
@María un placer verte por aquí :) Lo primero, a veces, con el robots.txt no se puede "forzar" a que lo rastree, si tu site no es muy p
Post: Errores críticos originados por el robots.txt

María
Hola Lino, tengo el mismo problema. El probador de robots de google me indica: "Error al obtener el archivo robots.txt Tienes un archivo ro
Post: Errores críticos originados por el robots.txt

Mario
Estoy tratando de vincular los datos en Google Data Studio y he combinado los datos de la tabla "Impresión del sitio" con "Impresión de UR
Post: Datos incoherentes y cálculo de la posición media en Search Console