Desposicionar una web

Publicado el 27 de mayo del 2008

No sé si será un bug de Google o que su algoritmo tiene un pequeño fallito, pero parece ser que es posible desposicionar a una página web no muy consolidada de una forma relativamente sencilla.

Actualmente Google está dando mucha fuerza a las búsquedas locales, con mapas, entradas de cines, etc integrados en los resultados y las páginas web que salen en ellos ya que se valora si el dominio tiene una extensión propia del país o si tiene un IP del país o si recibe links de el país.

Es en este último punto es en el que parece haber un fallito, y es que si quieres perjudicar a una página para búsquedas en Google.es (creo que sería más fácil si la víctima no fuera un .es) si linkas con dominios .fr (por ejemplo) hospedados en francia y en francés pues posiblemente si la página atacada no es muy fuerte puede verse perjudicada para las búsquedas en Google.es y supongo que se verían beneficiadas en  .fr (aunque casi nadie busca en castellano en Google.fr).

Esto es lo que parece que le ha ocurrido a un usuario de WMW y parece ser que también en Google Groups  también se dicute algo relacionado y es que geo-localiza mal las webs mostrando dominios nz buscando en Google.co.uk (mañana pongo el link que no me acuerdo dònde era, aquí esta) y un trabajador de Google lo ha reconocido.

 


Steven (@)hace Hace más de 16 años y 184 días

Por esa regla de tres, ¿será posible que una web en castellano pierda posiciones en Google.es si buena parte de sus enlaces provienen de dominios.com con ip en usa (muchisimas webs españolas se hospedan en alojamientos americanos) y otra buena cantidad desde dominios .com.ar por ejemplo?

Errioxa (@)hace Hace más de 16 años y 184 días

@Steven con los .com no creo que le de esa valoración, con los .com.ar ... pues podría ser que se vea perjudicado en el .es pero muy bien en el .com.ar . De hecho ese es un problema habitual de muchos webmasters.



Pero esto hay que tomarlo con precaución además de que Google parece ser que ya está trabajando para solucionarlo

Iker (@)hace Hace más de 16 años y 184 días

Hola Lino,

¿Has visto resultados favorables utilizando la golocalización del GG Web. Tool?
Lo hiciste por subcarpetas? o por dominio?
A mi me impone mucho respeto, ya que si bien entiendo que puedo aumentar tráfico con las geolocalización via GGWT, entiendo que para una web española con un 10% de tráfico desde México, Venezuela y otros de habla hispana...
Vamos que no se hasta q punto lo que gano es mayor a lo que pierdo, y como no es mi web, no puedo hacer test ;-)

Gracias de antemano!!

pd: te acuerdas de que palabra en inglés utilizaron en el congreso para la despenalización?

Errioxa (@)hace Hace más de 16 años y 184 días

@Iker Google recomendó que si tu web es en castellano y no es claramente para España sino para el idioma español, que no lo hagas.



Si tienes más de un idioma entonces sí es conveniente, y la manera es por subcarpetas.



Ésto sí lo he heccho en webs para más de un idioma y sí se ha notado algo aunque la competencia en inglés es muy dura y no adelanté mucho por ello

minipunk (@)hace Hace más de 16 años y 154 días

Desde mi modesta opinión, creo que no afectará demasiado, puesto que aunque mi pagina sea .th (Thailandia) en las herramientas de google webmaster te permite darle una orientación por idioma o país, google guarda esa información al igual que el sitemap.txt, que si le llamas directorio.txt, pero se lo envias a google como sitemap,lo admite igualmente y lo revisa y te marca errores si al actualizarlo metes la pata.



Lea otros artículos de SEO Black Hat

Últimos posts

Últimos comentarios


Dana

Post: Experimento para comprobar la teoría del primer enlace

JaviLazaro
Ya me has dado la necesidad de crear un comaando en bash para hacer estas cosas. Gracias Lino por estos tips
Post: Obtener KWs de varias fuentes usando la línea de comandos

Señor Muñoz
Lino, el 11% más de clicks y el 47% más de impresiones diarias ¿es algo constante o depende de cada sitio web?
Post: Diferencias entre la exportación de datos de Search Console usando BigQuery o usando la API

Carlos
Hola En mi blog tengo artículos atemporales (es decir, no caducan nunca, de manera que sirve para quien lo lea hoy o lo lea dentro de 5
Post: Tratamiento de urls que tienen un tiempo de vida muy corto

Profe Ray
Veo que hay comentarios de hace 5 años y de hace 3 años. ¿Habrá algun post actualizado sobre este tema o sigue funcionando? Lo cierto es
Post: Cómo cargar css y js y no bloquear la carga de contenido

Pepe
Muchas gracias por el articulo!! Muy buena información.
Post: Qué es ofuscar enlaces y cómo mejora el enlazado interno

María
Sí, he buscado el archivo robots.txt y todo está correcto. La última versión vista con error fue el 08/11/2021 y la última vez que el
Post: Errores críticos originados por el robots.txt

Lino
@María un placer verte por aquí :) Lo primero, a veces, con el robots.txt no se puede "forzar" a que lo rastree, si tu site no es muy p
Post: Errores críticos originados por el robots.txt

María
Hola Lino, tengo el mismo problema. El probador de robots de google me indica: "Error al obtener el archivo robots.txt Tienes un archivo ro
Post: Errores críticos originados por el robots.txt

Mario
Estoy tratando de vincular los datos en Google Data Studio y he combinado los datos de la tabla "Impresión del sitio" con "Impresión de UR
Post: Datos incoherentes y cálculo de la posición media en Search Console