Google y las búsquedas personalizadas

Hoy, 15 de Mayo de 2007, leo en el blog de Google como ven ellos el tema sobre resultados personalizados a cada usuario en base a su historial de búsquedas.

Según Google los webmasters / SEO  no debemos tener ningún miedo a esto, sino todo lo contrario, porque así podrán asociar cuando haya resultados ambiguos, el tema que más interese a ese usuario.

Dejemos el tema de la privacidad a un lado y vamos a analizar esto que para mi tiene muchísima importancia. 
La verdad es que un buscador hoy en día tiene que dar resultados relevantes a cada usuario y cada vez vemos que hay más páginas webs las cuales acaparan muchos resutados para muchas búsquedas que a veces nada tienen que ver con lo que estás buscando.

Un caso muy familiar para mi es por ejemplo cuando hago la búsqueda SEO, como primer resultado me sale una página sobre pájaros, que si bien sus siglas son SEO y está muy relacionado con la palabra que busco realmente no me interesan nada los pájaros un lunes por la mañana. La palabra SEO en este caso es ambigua, tiene más de un significado, y cualquiera que me conozca un poco sabría que lo que busco es información sobre el posicionamiento en buscadores y no sobre la asociación de pájaros en cuestión.

Esto es lo que quiere decir Google en su comunicado, que está guardando nuestras búsquedas y comportamiento para saber darnos los resultados que nosotros queramos. Y realmente pueden tener razón, dejando el tema de la privacidad a un lado, es una muy buena manera de filtrar resultados y habrá muchas páginas que se verán beneficiadas por estos métodos. Pongamos el ejemplo de una página que hable de pájaros y de la organización SEO será muy difícil que salga para búsqudas con esa palabra ya que hay miles de páginas que se esfuerzan en salir por ese término y un usuario amante de los pájaros no podrá obtener mucha información sobre esta organización con un par de clicks.
En cambio si también se basaran en el historial de búsquedas del usuario, facilmente sabrían que buscan el otro significado de la palabra y realmente esto sí sería bueno para todos:

  1. El usuario encuentra lo que quiere
  2. La página sobre pájaros atrae un nuevo visitante potencial
  3. La página sobre posicionamiento en buscadores no pierde ni transferencia, ni recursos en ese usuario inutil para ellos

Así que puede ser una gran idea, y no muy difícil de llevar a cabo.

¿Será ésta la nueva forma que tendrán los buscadores del mañana?

 




Lea otros artículos de Google Updates

Últimos posts

Últimos comentarios


Resham Singh Mahal

Post: Experimento para comprobar la teoría del primer enlace

Joakim Hov Johnsen

Post: Experimento para comprobar la teoría del primer enlace

Dana

Post: Experimento para comprobar la teoría del primer enlace

JaviLazaro
Ya me has dado la necesidad de crear un comaando en bash para hacer estas cosas. Gracias Lino por estos tips
Post: Obtener KWs de varias fuentes usando la línea de comandos

Señor Muñoz
Lino, el 11% más de clicks y el 47% más de impresiones diarias ¿es algo constante o depende de cada sitio web?
Post: Diferencias entre la exportación de datos de Search Console usando BigQuery o usando la API

Carlos
Hola En mi blog tengo artículos atemporales (es decir, no caducan nunca, de manera que sirve para quien lo lea hoy o lo lea dentro de 5
Post: Tratamiento de urls que tienen un tiempo de vida muy corto

Profe Ray
Veo que hay comentarios de hace 5 años y de hace 3 años. ¿Habrá algun post actualizado sobre este tema o sigue funcionando? Lo cierto es
Post: Cómo cargar css y js y no bloquear la carga de contenido

Pepe
Muchas gracias por el articulo!! Muy buena información.
Post: Qué es ofuscar enlaces y cómo mejora el enlazado interno

María
Sí, he buscado el archivo robots.txt y todo está correcto. La última versión vista con error fue el 08/11/2021 y la última vez que el
Post: Errores críticos originados por el robots.txt

Lino
@María un placer verte por aquí :) Lo primero, a veces, con el robots.txt no se puede "forzar" a que lo rastree, si tu site no es muy p
Post: Errores críticos originados por el robots.txt