A la tercera va la vencida, prueba para Disavow Links

Publicado el 12 de noviembre del 2012 por Lino Uruñuela

El propósito es saber cómo valora Google los links "desactivados" con su nueva herramienta. Para evitar un SEO negativo (que una persona intente penalizar una web a base de enlaces malos) Google habilitó una nueva manera de que los webmaster le dijesen que links NO quiere que sean valorados por el algoritmo, aunque luego realmente no sabemos lo que hará, pero en principio esa era su función.

Vamos a intentar averiguarlo con esta palabra, skiolertowp, la cual linka a una página que antes no estaba indexada ni tiene ningún otro link desde ningún lado. En unos dias la posicionará y dentro de una o dos semanas desactivare este link que acabo de poner para ver si Google la sigue posicionando y por lo tanto si sigue valorando de la misma manera este link.

Ya he intentado otras dos veces este experimento, pero comtí algún fallo como por ejemplo dejarme el meta canonical de un antiguo test... es lo que tiene el copypaste!


Así que de nuevo aquí está repetido el test, a ver qué ocurre.





Lino UruñuelaLino Uruñuela PhotoLino Uruñuela Image

 


mj (@)hace Hace más de 12 años y 11 días

mi compi @deivizzz y yo hemos probado la herramienta e inicialmente hemos visto que se recuperaba el tráfico orgánico del site, nos falta analizar qué pasa con los links marcados en el fichero y seguir la evolución...

seguiremos tu experimento a ver si hay similitudes :)

gracias por compartirlo!

Errioxa (@)hace Hace más de 12 años y 11 días

@mj a ver qué ocurre! yo la verdad que no sé para que lo usarán... o más bien se me ocurren demasiadas ideas de cómo podrían usarlo.



Lea otros artículos de Links y experimentos

Últimos posts

Últimos comentarios


Dana

Post: Experimento para comprobar la teoría del primer enlace

JaviLazaro
Ya me has dado la necesidad de crear un comaando en bash para hacer estas cosas. Gracias Lino por estos tips
Post: Obtener KWs de varias fuentes usando la línea de comandos

Señor Muñoz
Lino, el 11% más de clicks y el 47% más de impresiones diarias ¿es algo constante o depende de cada sitio web?
Post: Diferencias entre la exportación de datos de Search Console usando BigQuery o usando la API

Carlos
Hola En mi blog tengo artículos atemporales (es decir, no caducan nunca, de manera que sirve para quien lo lea hoy o lo lea dentro de 5
Post: Tratamiento de urls que tienen un tiempo de vida muy corto

Profe Ray
Veo que hay comentarios de hace 5 años y de hace 3 años. ¿Habrá algun post actualizado sobre este tema o sigue funcionando? Lo cierto es
Post: Cómo cargar css y js y no bloquear la carga de contenido

Pepe
Muchas gracias por el articulo!! Muy buena información.
Post: Qué es ofuscar enlaces y cómo mejora el enlazado interno

María
Sí, he buscado el archivo robots.txt y todo está correcto. La última versión vista con error fue el 08/11/2021 y la última vez que el
Post: Errores críticos originados por el robots.txt

Lino
@María un placer verte por aquí :) Lo primero, a veces, con el robots.txt no se puede "forzar" a que lo rastree, si tu site no es muy p
Post: Errores críticos originados por el robots.txt

María
Hola Lino, tengo el mismo problema. El probador de robots de google me indica: "Error al obtener el archivo robots.txt Tienes un archivo ro
Post: Errores críticos originados por el robots.txt

Mario
Estoy tratando de vincular los datos en Google Data Studio y he combinado los datos de la tabla "Impresión del sitio" con "Impresión de UR
Post: Datos incoherentes y cálculo de la posición media en Search Console