Cómo añadir el valor del meta Robots a Google Analytics via Google Tag Manager

Publicado el 24 de mayo del 2017, by Lino Uruñuela


Muchas veces los SEOs usamos determinados protocolos y/o directivas para dar determinadas señales a los Bots de los buscadores y otros servicios.

Así por ejemplo, podemos usar un meta para indicarles en qué fecha se publicó determinada noticia o a qué hora fue modificada por última vez.

		<meta property="article:published_time" content="2017-05-24T17:48:33+0200" />
		<meta property="article:modified_time" content="2017-05-24T17:48:34+0200" />
	


También tenemos otros protocolos/directivas para indicar a los robots que una url no es accesible para ellos, y que les prohibimos acceder a esa url, normalmente cuando sabemos que siempre querremos impedir el acceso a Google a determinadas urls usamos el robots.txt.


Meta NoIndex

Uno de los metas más usados es el meta robots, el cual indica a los buscadores que esa url no debe indexarse ni mostrarse en los resultados del buscador.

<meta name="robots" content="noindex,follow">

Este meta, al contrario que la directiva Disallow del robots.txt, no impide el acceso por parte del Bot al cotnenido de esa url, solo indica al buscador que ni el el contenido de esa url, ni la propia url debe ser mostrada en los resultados del buscador.

El meta robots se suele usar en urls que tienen contenido el cual podría ser considerado por Google como duplicado, o como thin content (contenido de baja calidad), de esta manera le damos una señal a Google para que no lo tenga en cuenta a la hora de evaluar el site porque sabemos que es contenido de baja calidad, ya sea por escaso, ya sea por duplicado, o ya sea porque realmente es de baja calidad, como ocurre a veces con los contenidos generados por los usuarios.

La mayoría de las veces usamos el meta noindex de una forma dinámica, es decir, dependiendo de diversos factores se le añadirá el meta noindex o no. Pongamos un ejemplo, tenemos un site donde los usuarios generan contenido, unos lo hacen muy bien, y otros en cambio lo hacen fatal, por ejemplo creando miles de contenidos con solo unas pocas palabras.

Queremos aprovechar el cotenido que creen los usuarios que cumpla ciertos requerimientos de calidad, por ejemplo, que el texto redactado contenga más de 200 palabras y una imagen. Todos los artículos que no cumplan al menos esta regla no queremos que Google lo valore como parte de nuestro site/contenido, una manera sencilla de realizarlo es introducir el meta con el valor noindex en aquellos contenidos que no satisfagan nuestras condiciones, y solo permitir su indexación (poniendo el meta robots con valor index) en aquellos contenidos con cierta calidad.

En muchas ocasiones, cuando el site tiene cierto histórico, el número de contenidos con el meta noindex puede ser muy superior al cotenido indexable, y eso no es bueno. Cada vez hay más urls de este tipo, que hacen perder el tiempo a Google, ya que aunque no lo indexa sí accede y la rastrea. Esto conlleva un gasto del presupuesto de rastreo que Google asigna al site, y lo gastará en urls que no van a darnos visitas al no ser indexanles.

Una de las mayores dificultades a las que me suelo enfrentar en sites grandes  (como webs de anuncios clasificados , o sites con un altísimo volumen de urls en su histórico) es saber cuántas y qué urls están, en ese u otro momento, con un meta noindex.


Cómo monitorizar el valor del meta Robots

Para saber el número de urls con meta noindex (o index) que tenemos en nuestro site podemos usar un crawler que rastree nuesrto site y nos lo indique. En webs grandes no hay crawler capaz de rastrear todas y cada una de las urls tal como hace Google. Normalmente estos crawlers o terminan con la memoria Ram de tu pc, como le ocurre a Screaming Frog, o terminan con tu cuenta bancaria como en el caso de Botify...

Hoy vamos a ver cómo ver y analizar el contenido de este meta en una dimensión personalizada de nuestro Google Analytics, y así poder segmentar y listar fácilmente las urls que tienen uno u otro valor, y lo mejor de todo, sin necesidad de implementación técnica en el código de nuestro site.

Para ello vamos a seguir estos pasos:

  1. Crear Dimensión personalizada en GA

    Llamaremos a esta nueva dimensión personalizada "MetaRobots", y nos fijaremos en el número del índice, en este caso el 3

  2. Creamos una variable en Tag Manager

    Dentro del Workspace de GTM creamos una variable del tipo JavaScript personalizada

  3. Añadimos el siguiente código JavaScript en la variable que acabamos de crear




  4. 						function metas() {
    				encontrada=0;
    				var metas = document.getElementsByTagName('meta'); 
    				for (i=0; i<metas.length; i++)
    				if (metas[i].getAttribute("name") == "robots") {
    				encontrada=1;
    				return metas[i].getAttribute("content"); 
    				}
    				if (encontrada==0)
    								return "index,follow";
    				}

     

  5. Crear dimensión personalizada en GTM

    En la configuración del tag de Universal Analytics en GTM creamos una dimensión personalizada
    El índice, en nuestro caso sería el 6 y el valor sería "{{MetaRobots}}"

  6. Pulbicamos el nuevo tag.

 

A partir de ahora ya podremos comprobar, mirando el tráfico de hoy por horas, que se está ejecutando de manera correcta. Yo he craedo dos segmentos avanzados, uno que contiene "noindex" en la dimensión secundaria MetaRobots y otro que no lo contiene



Para luego poder segmentar por el valor del meta y verlo así en los informes, este lo acabo de crear a la vez que este post, por eso hoy solo puedo visualizar los datos de las últimas hora.

 

Y podremos usar la nueva dimensión secundaria MetaRobots en nuestros informes de Google Analytics como cualquier otra

 

 

 

 

 

 


Javier Lorente (@)hace Hace más de 7 años y 212 días

Gracias Lino!

David Ruiz (@)hace Hace más de 7 años y 212 días

Muy útil...gracias!

David Girona (@)hace Hace más de 6 años y 44 días

Antes de Nada muchas gracias por la aportación.

Estoy probando de poner en marcha este procedimiento y me surgen un par de dudas.

En el punto 1 : Crear Dimensión personalizada en GA
Se informa que el id = 3, pero luego más adelante en el punto 4 : Crear dimensión personalizada en GTM se usa el id=6

Sobre el script, puede ser que falte cerrar una llave al código javascript?
En este código se define la función, pero cuando se ejecuta esta función si no se llama desde ningún sitio.

Y por último, ¿sería posible mediante este mismo procedimiento guardar la respuesta del servidor (404/200/500), el bot y la última fecha de visita?

Muchas gracias de antemano.





Lea otros artículos de Google Analytics

Últimos posts

Últimos comentarios


Resham Singh Mahal

Post: Experimento para comprobar la teoría del primer enlace

Joakim Hov Johnsen

Post: Experimento para comprobar la teoría del primer enlace

Dana

Post: Experimento para comprobar la teoría del primer enlace

JaviLazaro
Ya me has dado la necesidad de crear un comaando en bash para hacer estas cosas. Gracias Lino por estos tips
Post: Obtener KWs de varias fuentes usando la línea de comandos

Señor Muñoz
Lino, el 11% más de clicks y el 47% más de impresiones diarias ¿es algo constante o depende de cada sitio web?
Post: Diferencias entre la exportación de datos de Search Console usando BigQuery o usando la API

Carlos
Hola En mi blog tengo artículos atemporales (es decir, no caducan nunca, de manera que sirve para quien lo lea hoy o lo lea dentro de 5
Post: Tratamiento de urls que tienen un tiempo de vida muy corto

Profe Ray
Veo que hay comentarios de hace 5 años y de hace 3 años. ¿Habrá algun post actualizado sobre este tema o sigue funcionando? Lo cierto es
Post: Cómo cargar css y js y no bloquear la carga de contenido

Pepe
Muchas gracias por el articulo!! Muy buena información.
Post: Qué es ofuscar enlaces y cómo mejora el enlazado interno

María
Sí, he buscado el archivo robots.txt y todo está correcto. La última versión vista con error fue el 08/11/2021 y la última vez que el
Post: Errores críticos originados por el robots.txt

Lino
@María un placer verte por aquí :) Lo primero, a veces, con el robots.txt no se puede "forzar" a que lo rastree, si tu site no es muy p
Post: Errores críticos originados por el robots.txt