Google Vs JavaScript - Round 3

Publicado por Lino Uruñuela el 8 de abril del 2016


Hoy en una conversación con Duque me ha hecho volver a dudar de hasta que punto es capaz Google de interpretar JavaScript, cosa que hemos visto aquí en numerosas ocasiones

Uno de los test que mas me ha llamado la atención es este, concretamente el segundo test. Y es que Google ha sido capaz de resolver el "problema" y ha conseguido acceder a la url. Pero no sé si realmente ha ejecutado la función y por eso lo ha descubierto, o si ha dentificado la cadena  "archivoAjax_php?otroContenido=coneval", y como acostumbra cuando encuetra un patrón de url en un texto, ha intentado acceder a esa url.

Así que vamos a volver a probar el test, tanto en este post como en otros sites para así asegurarnos que de ninguna otra manera Google pudiese acceder, a fin de corraborar el test.

En este test he trabajado otra función, parecida a la del experimento anterior, pero con cadenas de texto que en principio no tiene formato de url


Ejemplo de la función JavaScript

function OcultaEnlace(cadena1,cadena2){
  cadena3=cadena1.replace("|","/")+cadena2.replace("|","/"); eval('document.' + '
  window' + '.location' + '.href '+'=http://'+cadena3.replace("^",".");
}

 

   Y el elemento HTML que hará de enlace 

 

Ejemplo del código HTML

<span onclick="OcultaEnlace('mecagoenlos','.com|experimento425^php');" >Texto de enlace</span>
  

Con esto queremos conseguir que Google no vea ese enlace. Las causas de que no queamos que "descubra" ese enlace pueden ser varias
  • Evitar enlazado a contenido que no queremos indexar (aunque podríamos usar otros métodos como el robots.txt)
  • Para hacer PR sculpting y así maximizar la efectividad de nuestros enlaces sin diluír su "poder" hacia urls que no nos interesa posicionar
  • Para evitar el rastreo automático de nuestro site ya sea por otros motores de búsqueda o por algún software de la competencia o de quien sea.
  • Eviar que nos relacione con el contenido enlazado, podría ser que enlazamos a una página porno y no queremos que Google haga esa relación...
  • etc

 

Así que vamos a probar con esta nueva función, a ver si Google es que ha mejorado en cómo renderiza y es capaz de interpretar el contenido obtenido en esa renderización.

En el fondo conocer esto es muy importante de cara al futuro, si Google algún día fuese capaz de ejecutar JavaScript como cualquier navegador, y sobretodo, fuese capaz de extraer y comprender el contenido devuelto al ejecutarlo para así poder procesarlo y valorarlo estaríamos ante un cambio de inflexión muy grande.

Y es que hoy en día parece ser que la tendencia va por usar Json como formato para la exrtacción de datos tanto en entornos web como otro tipo de aplicaciones y el gran avance en frameworks como AngularJS. Pero no solo eso, incluso podemos programar nuestros propios servidores usando JavaScript gracvias Node.js

Parece ser que la evolución va por ahí, y Google no podrá/deberá ser menos, si no es capaz de recorrer internet no podrá extraer, guardar y procesar el contenido de la red por lo que su gran negocio se podría ver seriamente afectado porque si no es capaz de comprender lo que su máquina JavaScript ejecuta no podrá ordenar los resultados.. a no ser que le de a la tecla del random.

Así que vamos a ello!

Ejemplo del código HTML

Cuando un usuario haga click en este enlace se ejecutará la función que hemos creado en JavaScript y abrirá en el navegador la págnia de destino de este experimento

  

Veamos como va este test, que lo haré tabién en otros sites para cercionarnos que el resultado es correcto.

 

 



Últimos posts

Últimos comentarios


Dana

Post: Experimento para comprobar la teoría del primer enlace

JaviLazaro
Ya me has dado la necesidad de crear un comaando en bash para hacer estas cosas. Gracias Lino por estos tips
Post: Obtener KWs de varias fuentes usando la línea de comandos

Señor Muñoz
Lino, el 11% más de clicks y el 47% más de impresiones diarias ¿es algo constante o depende de cada sitio web?
Post: Diferencias entre la exportación de datos de Search Console usando BigQuery o usando la API

Carlos
Hola En mi blog tengo artículos atemporales (es decir, no caducan nunca, de manera que sirve para quien lo lea hoy o lo lea dentro de 5
Post: Tratamiento de urls que tienen un tiempo de vida muy corto

Profe Ray
Veo que hay comentarios de hace 5 años y de hace 3 años. ¿Habrá algun post actualizado sobre este tema o sigue funcionando? Lo cierto es
Post: Cómo cargar css y js y no bloquear la carga de contenido

Pepe
Muchas gracias por el articulo!! Muy buena información.
Post: Qué es ofuscar enlaces y cómo mejora el enlazado interno

María
Sí, he buscado el archivo robots.txt y todo está correcto. La última versión vista con error fue el 08/11/2021 y la última vez que el
Post: Errores críticos originados por el robots.txt

Lino
@María un placer verte por aquí :) Lo primero, a veces, con el robots.txt no se puede "forzar" a que lo rastree, si tu site no es muy p
Post: Errores críticos originados por el robots.txt

María
Hola Lino, tengo el mismo problema. El probador de robots de google me indica: "Error al obtener el archivo robots.txt Tienes un archivo ro
Post: Errores críticos originados por el robots.txt

Mario
Estoy tratando de vincular los datos en Google Data Studio y he combinado los datos de la tabla "Impresión del sitio" con "Impresión de UR
Post: Datos incoherentes y cálculo de la posición media en Search Console