Google spam report

Parece ser que Google se está poniendo muy serio con el webSpam de la red.
Hoy mismo a sacado una nota a los webmaster diciendo cosas muy muy importantes de cara al futuro.

Para hacer spamreport, hay dos modos uno, anónimo y otro especial para los webmaster que se puede ver desde Google Webmaster Tool, yo no sé si esto estaba antes o no en la zona para webmasters.

Según leo y entiendo en el blog oficial de google, cuando haces un spam report de forma sin autentificarte, se revisará el sitio web dependiendo de si se ha mandado muchas veces esa página (se comenta por los foros que unas 250 veces). Pero que si estás auntentificado garantizan que lo mirarán.

Ésto según Google lo hacen para detectar las técnicas usadas por los "malos SEO" y así mejorar su algoritmo contra estas prácticas, está claro que quien más sabe como mejorar las búsquedas de un buscador es un SEO porque puede ayudar a decir que técnicas usa y cómo se podría combatirlas.

En este documento se hace clara alusión al intercambio de links masivos, diciendo que algunos aunque intercambian, están ahí por sus propios métodos pero otros no.

Según sigo leyendo, vemos que se certifican las sospechas más que claras de que hay penalizaciones sólo temporales (tarjeta amarilla) y si el webmaster / SEO no cambia sus técnicas esta temporada puede ser muy larga (tarjeta roja).

También comentan que si un sitio web está haciendo claramente spam pero no se toman medidas contra él quiere decir que esas técnicas son usadas por más páginas, por lo que no tomará una medida inmediata si no que investgará y mejorará su algoritmo para que esas técnicas no sean contadas a la hora de posicionar una web.

 

 


chicagoogle (@)hace Hace más de 17 años y 272 días

Ten cuidado con las faltas de ortografía...

anonimo segun (@)hace Hace más de 14 años y 209 días

hola pues buena info la que estas dando pues hace tiempo reporte una web por que tiene texto oculto en su index

y pues es hora que no an tomado cartas en el asunto :(
es la competetncia, y es injusto que con esas tecnicas este en los primeros lugares :(

pero dices que si son tecnicas usadas en mas paginas no tomara en cuenta el reporte que solo mejorara el algoritmo pero eso creo que tomara mucho tiempo :(
o aclarame



Lea otros artículos de Google Search Console

Últimos posts

Últimos comentarios


Resham Singh Mahal

Post: Experimento para comprobar la teoría del primer enlace

Joakim Hov Johnsen

Post: Experimento para comprobar la teoría del primer enlace

Dana

Post: Experimento para comprobar la teoría del primer enlace

JaviLazaro
Ya me has dado la necesidad de crear un comaando en bash para hacer estas cosas. Gracias Lino por estos tips
Post: Obtener KWs de varias fuentes usando la línea de comandos

Señor Muñoz
Lino, el 11% más de clicks y el 47% más de impresiones diarias ¿es algo constante o depende de cada sitio web?
Post: Diferencias entre la exportación de datos de Search Console usando BigQuery o usando la API

Carlos
Hola En mi blog tengo artículos atemporales (es decir, no caducan nunca, de manera que sirve para quien lo lea hoy o lo lea dentro de 5
Post: Tratamiento de urls que tienen un tiempo de vida muy corto

Profe Ray
Veo que hay comentarios de hace 5 años y de hace 3 años. ¿Habrá algun post actualizado sobre este tema o sigue funcionando? Lo cierto es
Post: Cómo cargar css y js y no bloquear la carga de contenido

Pepe
Muchas gracias por el articulo!! Muy buena información.
Post: Qué es ofuscar enlaces y cómo mejora el enlazado interno

María
Sí, he buscado el archivo robots.txt y todo está correcto. La última versión vista con error fue el 08/11/2021 y la última vez que el
Post: Errores críticos originados por el robots.txt

Lino
@María un placer verte por aquí :) Lo primero, a veces, con el robots.txt no se puede "forzar" a que lo rastree, si tu site no es muy p
Post: Errores críticos originados por el robots.txt