Por qué Google no identifica la fuente original

Publicado el 14 de junio del 2010

Muchas veces Google ha comentado que lucha contra el contenido duplicado y que cada vez identifica mejor la fuente original, pero ¿que de cierto hay en esto?

Yo comienzo a dudar que Google haga un esfuerzo claro por identificar  cuál es la fuente original de un contenido (texto, imagen, vídeo, etc) , y es que puede que eso le de igual.

Google quiere satisfacer a su usuario (que no se nos olvide), a ese usuario que ha entrado a buscar algo y al cual Google intentará ofrecer los resultados que crea mejores para satisfacerle, no es su objetio mostrarle la fuente original sino la información más útil y puede que una página plagiadora tenga, además de ese contenido (copiado), otro contenido relacionado (también copiado) en otra sección que pueda complementar la información que busca el usuario. Si lo hace, Google habrá cumplido su función, dar al usuario lo que buscaba.

Vale que intente identificar páginas que copian webs enteritas de arriba abajo ya que esas páginas realmente no aportan nada, son meras copias. Pero no hace nada contra las páginas que van copiando de poco en pcoo, de aquí, de allá y que tienen más autoridad, más contenido y unos cuantos links más.

Si lo pensamos no sería muy difícil saber por parte de Google saber cuál es el contenido original, por ejemplo viendo la fecha que descubrió ese contenido. Vale  que se equivoque alguna vez porque haya rastreado antes la página plagiadora que la fuente original pero serían la minoría de veces.

Otro método que podrían usar sería mirando los pings, ahí no habría ninguna duda, la página que antes envie el ping es la original sí o sí. Es cierto que para usar este método tendría que comenzar anunciándolo antes de ponerlo en práctica y evangelizando a los webmasters para que actualizasen sus sistemas y envien ping cada vez que se publica algo. No creo que los webmsaters tardasen mucho tiempo en hacerlo cuando se juegan el salir o no en los buscadores, al cabo de poco tiempo todas las páginas webs lo harían, de hecho la mayoría de gestores ya lo hacen como Worpress por ejemplo.

Entonces ¿por qué no hacen todo lo posible por identificar la fuente original? pues porque no es necesario para Google, aunque sea una putada para los creadores de contenido original.




 


perico (@)hace Hace más de 14 años y 166 días

El ping no hace falta que lo hagan los webmaster a google, ya google trabaja dia a dia, para hacer el ping al primero que publica jeje

Errioxa (@)hace Hace más de 14 años y 166 días

@perico, el ping hay qwue enviarlo desde tu site, es un xml que se envía a una URL específica de Google.

Saludos!

Bufa (@)hace Hace más de 14 años y 153 días

Yo tengo varias experiencias en este sentido. Y tampoco lo entiendo... tan sencillo como identificar la fecha de indexación por ejemplo...
Yo me he limitado en algunos casos a remitir a google mi queja hacia ciertas webs que me plagian el contenido... y sin éxito.

cletu (@)hace Hace más de 14 años y 82 días

Hola, a mi me clonaron una buena parte de un portal local, dando a los clientes el servicio a mitad de precio, con lo que más o menos voy siguiendo este tipo de temas porqué me perjudicó en diversos sentidos... a cual más molesto, y no tengo intención de que se repita.

Siguiendo las recomendaciones de un amigo SEO, me limité a intentar contactar, y al no tener respuesta y dejé un mensaje al elemento en cuestión, con lo que no tuve ningún resultado.

De todos modos si hay algo que hacer, puesto que se puede contactar con su proveedor de hosting, y éste (por lo menos si está en España) tiene que retirar los contenidos plagiados, lo mismo que si se trata de una sola imagen (que también me ha pasado).

Lo que yo he experimentado, es que los contenidos duplicados perjudican tanto al plagiador como al plagiado. el primero apenas saca provecho (la programación de la página estaba bastante bien y era accesible, y a día de hoy apenas supera un Alexa 3.000.000). En cuanto a mi página, perdió entre un 30% y un 40% de las visitas (bastantes más de las que pueda tener en total la otra), por lo que supongo que debía copiar contenido de otros sitios.

Este es un factor que el Pagerank tiene en cuenta, diría que si Google identifica contenidos duplicados lo que hace (ni corto ni perezoso) es castigar a todos los que los tengan sin entrar en más consideraciones.

Por cierto, buena página, llevo un buen rato mirando qué podía aportar y me ha costadoo!!!



Lea otros artículos de Como evitar contenido duplicado

Últimos posts

Últimos comentarios


Dana

Post: Experimento para comprobar la teoría del primer enlace

JaviLazaro
Ya me has dado la necesidad de crear un comaando en bash para hacer estas cosas. Gracias Lino por estos tips
Post: Obtener KWs de varias fuentes usando la línea de comandos

Señor Muñoz
Lino, el 11% más de clicks y el 47% más de impresiones diarias ¿es algo constante o depende de cada sitio web?
Post: Diferencias entre la exportación de datos de Search Console usando BigQuery o usando la API

Carlos
Hola En mi blog tengo artículos atemporales (es decir, no caducan nunca, de manera que sirve para quien lo lea hoy o lo lea dentro de 5
Post: Tratamiento de urls que tienen un tiempo de vida muy corto

Profe Ray
Veo que hay comentarios de hace 5 años y de hace 3 años. ¿Habrá algun post actualizado sobre este tema o sigue funcionando? Lo cierto es
Post: Cómo cargar css y js y no bloquear la carga de contenido

Pepe
Muchas gracias por el articulo!! Muy buena información.
Post: Qué es ofuscar enlaces y cómo mejora el enlazado interno

María
Sí, he buscado el archivo robots.txt y todo está correcto. La última versión vista con error fue el 08/11/2021 y la última vez que el
Post: Errores críticos originados por el robots.txt

Lino
@María un placer verte por aquí :) Lo primero, a veces, con el robots.txt no se puede "forzar" a que lo rastree, si tu site no es muy p
Post: Errores críticos originados por el robots.txt

María
Hola Lino, tengo el mismo problema. El probador de robots de google me indica: "Error al obtener el archivo robots.txt Tienes un archivo ro
Post: Errores críticos originados por el robots.txt

Mario
Estoy tratando de vincular los datos en Google Data Studio y he combinado los datos de la tabla "Impresión del sitio" con "Impresión de UR
Post: Datos incoherentes y cálculo de la posición media en Search Console