Keywords para hoy not provided para mañana

Publicado el 4 de abril del 2013 by Lino Uruñuela

Como todos sabemos desde hace más de un año el Not Provided cada vez aglutina más keywords en nuestras estadísticas y aunque aun podemos trabajar casi igual que hace dos años, no creo que podamos hacerlo dentro de otros dos...


El crecimiento del término Not Provided en las estadísticas de entrada de los sites es un poco alarmante.

Fucking not provided


Yo en algunos casos llego casi al 40%, y estoy empezando a "preocuparme" y por lo tanto en ir pensando en cómo resolver este problema que se nos avecina. En inglés todavía es mayor


Fucking not provided

Ya comentó Iñaki Huerta con su idea sobre cómo habría que analizar los datos de entrada de los usuarios a nuestro site y como deberíamos ir pensando en aprender a intuir que Keywords llegan a cada URL.

La verdad que dentro de nuestro site pocas cosas se pueden hacer, lo único que veo posible es aplicar una regla de tres y si para una URL tengo 100 entradas en total, de las cuales 70 son "not provided", 15 con kw1, 7 con kw2, 4 con kw3 y 1 con kw4 podríamos imaginar que de los 70 not provided se repartiran en proporción.

O sea, que de los 70
  • 10,5 son con Kw1
  • 4,9 con kw2
  • 2,8 con kw3
  • 0,7 con kw4


Pero claro nunca lo sabremos seguro, pero es una manera de intuirlo.

Mis grandes dudas son

  • ¿Cómo voy a saber que keywords me convierten y cuáles no?
    Ah! sí, con AdWords sí te da esos datos.

  • ¿Cómo voy a realizar una estrategia de generación de contenido en base a la demanda?
    Ah síl, con AdWords podré verlo

  • ¿Cómo voy a saber que keywords debo potenciar o que tal de efectiva está siendo una campaña SEO para determinadas KW?
    Ah sí, con AdWords puedo.....

  • Las herramientas de tracking de keywords como SEOMoz, AWR etc no tendrán tanta utilidad ya que lo único que harán será trackear posiciones sin poder cruzar datos.


Creo que esto puede fomentar el scrapeo de la competencia y de todas las fuentes que podamos para así intenar posicionarnos por las KW por las que nuestra competencia esté posicionada. No digo que sea la mejor idea, pero es una fuente de "probables" kw que no sabremos sin funcionan o no, y como no tendremos esa visibilidad las burradas serán mayores.

Si vemos que una URL determinada o un grupo de urls determinadas experimenta una crecida de visitas desde Google, incoscientemente prestaremos más atención a ese contenido, aunque no tengamos ni pajolera idea de que se está cociendo... y en muchos casos nos desviará del camino que anteriormente nos habíamos marcado... y esto no es bueno.

No saber qué tipo de usuarios y por que tipo de búsquedas llegan a tu site no sólo fastidia al SEO sino a cualquier persona que realmente se interese por su producto. Muchas webs perderán credibilidad ante sus clientes, por ejemplo se me ocurren las típicas webs donde su modelo de negocio es vender posiciones más altas en los listados de sus categorías o productos. La conversión para el anunciante seguro que es muchísimo peor y generará desconfianza.


Un site que intente ofrecer la mejor opción para sus clientes podrá persuadirlos con datos de palabas potenciales para éste. En cambio los sites que vendan humo y que ofrecerán datos de miles de usuarios en determinados listados podrían estar mintiendo como auténticos bellacos...


Yo creo que que el no saber los términos por los que llegan los usuarios no sólo perjudica al SEO, produce daños colaterales a todos los departamentos

  • El departamento de producto no sabrá explicarse muchas cosas de las que ocurran en su web

  • El departamento de contenido tendrá que estrujarse más la cabeza para adivinar que podría interesar a sus usuarios y no recibirá las señales que las KWs te dan para esto.

  • El departamento de experiencia de usuario no tendrá tan fácl el adivinar por qué ciertos usuarios no convierten

  • El departamento comercial no tendrá datos fiables para vender.

  • Aumentará x100 los sitios duplicados y scrapeados. Muchos intentarán obtener posibles KW ya que el keyword research también se verá muy mermado. Guardar datos de estos años que tenemos información puede ser como invertir en oro....

Además, Google con el monopolio que ha creado como buscador podrá echar a todos sus competidores de analítica web. ¿Para que voy a contratar otra herramienta  si no me va a dar ni un 5% de las KW?

Creo que vamos a jugar a la gallinita ciega... y Google es el lobo que y sin pañuelo en los ojos

Ala.... me quedé agusto!


 




Lea otros artículos de Google Analytics

Últimos posts

Últimos comentarios


Resham Singh Mahal

Post: Experimento para comprobar la teoría del primer enlace

Joakim Hov Johnsen

Post: Experimento para comprobar la teoría del primer enlace

Dana

Post: Experimento para comprobar la teoría del primer enlace

JaviLazaro
Ya me has dado la necesidad de crear un comaando en bash para hacer estas cosas. Gracias Lino por estos tips
Post: Obtener KWs de varias fuentes usando la línea de comandos

Señor Muñoz
Lino, el 11% más de clicks y el 47% más de impresiones diarias ¿es algo constante o depende de cada sitio web?
Post: Diferencias entre la exportación de datos de Search Console usando BigQuery o usando la API

Carlos
Hola En mi blog tengo artículos atemporales (es decir, no caducan nunca, de manera que sirve para quien lo lea hoy o lo lea dentro de 5
Post: Tratamiento de urls que tienen un tiempo de vida muy corto

Profe Ray
Veo que hay comentarios de hace 5 años y de hace 3 años. ¿Habrá algun post actualizado sobre este tema o sigue funcionando? Lo cierto es
Post: Cómo cargar css y js y no bloquear la carga de contenido

Pepe
Muchas gracias por el articulo!! Muy buena información.
Post: Qué es ofuscar enlaces y cómo mejora el enlazado interno

María
Sí, he buscado el archivo robots.txt y todo está correcto. La última versión vista con error fue el 08/11/2021 y la última vez que el
Post: Errores críticos originados por el robots.txt

Lino
@María un placer verte por aquí :) Lo primero, a veces, con el robots.txt no se puede "forzar" a que lo rastree, si tu site no es muy p
Post: Errores críticos originados por el robots.txt