Velocidad de carga de una página web, ¿factor relevante para Google?

Publicado el 14 de febrero del 2014 porLino Uruñuela (Errioxa)

Hoy leo en SEOby the Sea que Google incluye en una de sus patentes la velocidad de una página web como factor de relevancia en sus resultados.

Esto no es nuevo, desde hace mucho se viene diciendo, casi casi lo mismo que lo de "El SEO ha muerto".... y ya véis, aquí seguimos dándolo todo!

Siempre he pensado que la velocidad no debería ser un factor para dar más relevancia a una página o a otra y que éste no sería nunca un factor determinante ni importante. Pero  no es así del todo, algo parece ser que lo tiene en cuenta.

Creo que Google podría "penalizar" una url porque tarda demasiado en cargar, o sea, que Google no compara este dato con otros sites para ver cuál es más rápido sino que en el caso de exceder cierto tiempo,por ejmplo más de X segundos, Google  determina que es malo para su usuario porque se va a fustrar al no cargarse esa url en un tiempo coherente. A esto sí le veo todo el sentido, un resultado no es bueno si la página tarda 45 mimutos en cargar.

Dar menos valor a una página que tarda un segundo más o dos segundos más en cargar que otra, no quiere decir que vaya a satisfacer mejor a la búsqueda del usuario, y por esto creo que nunca tendrá en cuenta la velocidad de carga tal como la plantean muchos.

En la patente parece decir que ante dos resultados con la misma relevancia primará la que cargue más rápido. Hombre.... si son las dos exactamente igual de relevantes pues trendría sentido este factor, en lo que dudo es que haya dos urls con la misma relevancia, si nos creemos lo que nos dice siempre Matt Cutts por activa y por pasiva, que Google tiene en cuenta más de 200 factore en su algoritmo.

Así que una de dos... o Google miente o Google miente porque tú me dirás, con 200 factores a tener en cuenta,entre billones de urls y millones de nuevas consultas cada día a valorar, no creo que coincidiesen muchas en la misma puntuación para la misma búsqueda....


Lino Uruñuela Lino | SEO Mecagoenlos.com Lino Uruñuela | Errioxa Lino Uruñuela | Blog SEO Lino Uruñuela | probando Google Lino Uruñuela | Prueba de imágenes


A lo que voy, está claro que de alguna manera lo contempla, pero sigo creyendo que lo hará como comenté en las primeras líneas, o sea, que podría penalizar a las urls que tarden "demasiado" en cargar. Este "demasiado" podría ser, o un valor absoluto como por ejemplo 30 segundos (exajerando un poco) y si pasa de ahí y no carga pues restarle algún puntito o calcular la media de web similares.

Podría calcular el tiempo medio de carga de páginas similares y ver si se desvía mucho de la media, este método sería más efectivo porque distintos sites tienen distintos fines y por lo tanto distintos tipos de contenidos. Nunca cargará igual de rápido una web de un periódico que tiene muchísimo contenido en sus portadas que otro tipo de webs, por eso digo que podría tener en cuenta el tiempo medio de carga de webs "parecidas".

Esto lo veo bastante complejo y poco relevante como para que Google de mucha importancia a este factor, mi consejo, mientras que no tengas problemas de carga no te preocupes demasiado... por lo menos por ahora.



 


Alex Luque (@)hace Hace más de 10 años y 53 días

Hola:
Me gustaría posicionar mi web en los primeros puestos. En un plazo de 7 u 8 meses. Me dedico al sector turístico en San Sebastian. Hago tours privados. Hay algo de competencia y creo que estar bien posicionado en esto es vital. Mi web es sansebastiantrips.com.
Si puedes quedamos un día y hablamos.
Un saludo



Lea otros artículos de On Page

Últimos posts

Últimos comentarios


Dana

Post: Experimento para comprobar la teoría del primer enlace

JaviLazaro
Ya me has dado la necesidad de crear un comaando en bash para hacer estas cosas. Gracias Lino por estos tips
Post: Obtener KWs de varias fuentes usando la línea de comandos

Señor Muñoz
Lino, el 11% más de clicks y el 47% más de impresiones diarias ¿es algo constante o depende de cada sitio web?
Post: Diferencias entre la exportación de datos de Search Console usando BigQuery o usando la API

Carlos
Hola En mi blog tengo artículos atemporales (es decir, no caducan nunca, de manera que sirve para quien lo lea hoy o lo lea dentro de 5
Post: Tratamiento de urls que tienen un tiempo de vida muy corto

Profe Ray
Veo que hay comentarios de hace 5 años y de hace 3 años. ¿Habrá algun post actualizado sobre este tema o sigue funcionando? Lo cierto es
Post: Cómo cargar css y js y no bloquear la carga de contenido

Pepe
Muchas gracias por el articulo!! Muy buena información.
Post: Qué es ofuscar enlaces y cómo mejora el enlazado interno

María
Sí, he buscado el archivo robots.txt y todo está correcto. La última versión vista con error fue el 08/11/2021 y la última vez que el
Post: Errores críticos originados por el robots.txt

Lino
@María un placer verte por aquí :) Lo primero, a veces, con el robots.txt no se puede "forzar" a que lo rastree, si tu site no es muy p
Post: Errores críticos originados por el robots.txt

María
Hola Lino, tengo el mismo problema. El probador de robots de google me indica: "Error al obtener el archivo robots.txt Tienes un archivo ro
Post: Errores críticos originados por el robots.txt

Mario
Estoy tratando de vincular los datos en Google Data Studio y he combinado los datos de la tabla "Impresión del sitio" con "Impresión de UR
Post: Datos incoherentes y cálculo de la posición media en Search Console