¿Usará Google su Knowledge Graph para ordenar sus resultados?

Publicado por Errioxa el 24 de enero del 2014

Desde hace un tiempo se viene viendo como Google usa cada vez más su Knowledge Graph para insertar determinados resultados específicos para el tipo  de búsqueda que se haya hecho.

Por ejemplo si realizamos una búsqueda con algún término que coincida con el nombre de una ciudad hay muchas probabilidades de que te muestre resultados de Google Maps, si buscas un término que conlleva una marca de producto es posible que te muestre resultados de Google Shopping, si buscas un artista te saldrá información sobre su discografía, artículo de la Wikipedia, etc.

Joaquin Sabina


También podíamos aplicar esto a determinados filtros que nos sugería Google, por ejemplo al buscar el nombre de "Joaquín Sabina" nos salen estos filtros

Filtros para Joaquin Sabina


Estos filtros varían según la búsqueda, o sea, que tiene en cuenta qué se ha buscado y con que filtro estaría relacionado, de eso se trata el Knowledge Graph, de saber que tipo de resultado pertenece a que "categoría" y poder ofrecer a los usuarios información más relevante. Si por ejemplo buscamos algo como "entropía" vemos como estos filtros varían ligeramente, pero correcto.

Filtros para Entropía

Vemos como ahora nos aparece un filtro de "libros" y tiene toda su lógica.

El cómo hace esto Google se nos escapa de las manos a todos los que no seamos matemáticos y expertos en procesamiento de lenguajes, pero nos podemos hacer una idea abstracta de su funcionamiento. Si en los términos de búsquda aparece algo (entidad) que lo tengo identificado en un conjunto de resultados (filtro) pues muestro estos filtros como sugerencias.

Hace poco han desaparecido muchos de estos filtros que antes salían para las búsquedas, por ejemplo el filtro de "recetas", o de "foros", supongo que será porque pocos usuarios lo usaban. Google no hace nada a lo tonto, si lo hace será por algo.

Todo esto no es nuevo, exceptuando estos filtros eliminados, pero hay un par de hechos que me han llevado a crearme una sospecha ¿estará Google variando sus resultados dependiendo del tipo de búsqueda que identifica?

Yo creo que Google ha tratado hasta hace poco todos los resultados de la misma manera, no "ordenaba" ss resultados según el tipo de búsqueda que hacía. Daba igual buscar un artista que una receta, el algoritmo era el mismo, el conjunto de posibles resultados era el mismo, se fijaba en sus más de 200 variables para determinar que resultado es relevante.

Pero desde hace algún tiempo llevo viendo muchas webs grandes que paulatinamente van callendo en tráfico, poco a poco van perdiendo entradas por tráfico orgánico y sin embargo no se ve reflejado en los rankings de las KW que se monotorizan.

¿Cómo puede ser que descienda el tráfico orgánico si el posicionamiento no ha caído?

Para esta pregunta tengo dos posibles respuestas
  1. Google le da más visibilidad a sus nuevos servicios
    Por lo tanto el CTR de los resultados orgánicos es menor. Esto tiene su lógica, si antes salía en los 200 primeros pixels ahora sale después del carrusel de imágenes, 3 anunciantes AdWords, y puede que 10 resultados locales....

    No perderíamos posicionamiento, pero si visibilidad y por lo tanto usuarios

  2. Google está empezando a filtrar sus resultados si cree adivinar el tipo de búsqueda que hacemos.
    O sea, si cree que estamos buscando algo con la palabra "comprar" o el nombre de un producto ¿nos ofrecerá resultados orgánicos que sepa que sean sitios ecommerce? ¿si buscamos información sobre por ejemplo la entropía dará más valor a resultados de grandes artículos?

    Esto sería otra explicación a caídas progresivas sin pérdida de posicionamiento en las KW que monotorizamos, porque los términos que los SEOs vigilamos suelen ser los más claros y potenciales para el site, pero no solemos trackear el long tail, que es dónde más se notaría este cambio de Google.
Como digo, esto sólo es una impresión, pero podría estar dándose. El primer caso estoy seguro de qe sí, pero el segundo estoy empezando a sospechar de que Google podría estar haciéndolo también, y si no lo está haciendo ya, posiblemente lo haga algún día.

 



 




Lea otros artículos de Google Search Console

Últimos posts

Últimos comentarios


Resham Singh Mahal

Post: Experimento para comprobar la teoría del primer enlace

Joakim Hov Johnsen

Post: Experimento para comprobar la teoría del primer enlace

Dana

Post: Experimento para comprobar la teoría del primer enlace

JaviLazaro
Ya me has dado la necesidad de crear un comaando en bash para hacer estas cosas. Gracias Lino por estos tips
Post: Obtener KWs de varias fuentes usando la línea de comandos

Señor Muñoz
Lino, el 11% más de clicks y el 47% más de impresiones diarias ¿es algo constante o depende de cada sitio web?
Post: Diferencias entre la exportación de datos de Search Console usando BigQuery o usando la API

Carlos
Hola En mi blog tengo artículos atemporales (es decir, no caducan nunca, de manera que sirve para quien lo lea hoy o lo lea dentro de 5
Post: Tratamiento de urls que tienen un tiempo de vida muy corto

Profe Ray
Veo que hay comentarios de hace 5 años y de hace 3 años. ¿Habrá algun post actualizado sobre este tema o sigue funcionando? Lo cierto es
Post: Cómo cargar css y js y no bloquear la carga de contenido

Pepe
Muchas gracias por el articulo!! Muy buena información.
Post: Qué es ofuscar enlaces y cómo mejora el enlazado interno

María
Sí, he buscado el archivo robots.txt y todo está correcto. La última versión vista con error fue el 08/11/2021 y la última vez que el
Post: Errores críticos originados por el robots.txt

Lino
@María un placer verte por aquí :) Lo primero, a veces, con el robots.txt no se puede "forzar" a que lo rastree, si tu site no es muy p
Post: Errores críticos originados por el robots.txt