Generador de sitemaps de Google

Publicado el 14 de enero del 2009

Una de las cosas que más dolores de cabeza nos pueden dar las páginas web muy muy grandes es la de creación de sitemaps generales. En páginas web normales es relativamente sencillo crear un sitemaps mediante programación php + MySql pero cuando detrás de un sitio hay muchos servidores distribuidos, millones de artículos, miles de artículos diarios es muy difícil hacer un sitemaps de toda la web cada día.

Hasta ahora se podía usar un Generador de Sitemaps de Google, que es un programa en phyton que se instala en el servidor y te metía TODO lo que encontrara en las carpetas de dicho servidor en el sitemap.

Aunque tenía un archivo de configuración donde le dabas los filtos que querías para que no lo añadiera al sitemaps (gif, jppg, carpetas que no querías que fuesen publicadas, etc) era muy complicado de hacer correctamente, por lo menos en nuestro caso.

Ahora Google ha sacado un nuevo generador de sitemaps que se basa en los logs del servidor, otro método que posiblemente funcione mejor. Lo voy a probar a ver que tal va.

¿Alguien sabe de algún generador de sitemaps online que te deje crear uno de millones de URLs?. Creo que no lo hay pero si alguien conoce alguno le agradecería que lo mencionara a ver si me quito un problema de encima jeje.


 


Carlos (@)hace Hace más de 15 años y 346 días


Mira que intenté veces hacer un sitemap de un sitio gigantesco con Xenu, pero siempre se acaba bloqueando a partir de las 100.000 paginas creo recordar.

El nuevo generador no es mala idea, pero no acabo de confiar en que funcione bien la verdad.

Edgar Granados (@)hace Hace más de 15 años y 346 días

El limite de urls por sitemap de Google es de 50.000 urls, con lo que si tienes 1 millón deberás de crear un index de sitemap que apunte hacia los X sitempas con 50.000 urls cada una.

Raquel (@)hace Hace más de 15 años y 346 días

no le hay...lo busqué pero no lo encontré ...así que no le hay... Hoy nos hemos puesto de acuerdo en el post??? saludos Lino :)

SrLansky (@)hace Hace más de 15 años y 345 días

Saludos, hombre del futuro... En serio, corrige lo de la fecha.

Errioxa (@)hace Hace más de 15 años y 345 días

@SrLansky jaja tienés razón!



Lea otros artículos de Google Search Console

Últimos posts

Últimos comentarios


Resham Singh Mahal

Post: Experimento para comprobar la teoría del primer enlace

Joakim Hov Johnsen

Post: Experimento para comprobar la teoría del primer enlace

Dana

Post: Experimento para comprobar la teoría del primer enlace

JaviLazaro
Ya me has dado la necesidad de crear un comaando en bash para hacer estas cosas. Gracias Lino por estos tips
Post: Obtener KWs de varias fuentes usando la línea de comandos

Señor Muñoz
Lino, el 11% más de clicks y el 47% más de impresiones diarias ¿es algo constante o depende de cada sitio web?
Post: Diferencias entre la exportación de datos de Search Console usando BigQuery o usando la API

Carlos
Hola En mi blog tengo artículos atemporales (es decir, no caducan nunca, de manera que sirve para quien lo lea hoy o lo lea dentro de 5
Post: Tratamiento de urls que tienen un tiempo de vida muy corto

Profe Ray
Veo que hay comentarios de hace 5 años y de hace 3 años. ¿Habrá algun post actualizado sobre este tema o sigue funcionando? Lo cierto es
Post: Cómo cargar css y js y no bloquear la carga de contenido

Pepe
Muchas gracias por el articulo!! Muy buena información.
Post: Qué es ofuscar enlaces y cómo mejora el enlazado interno

María
Sí, he buscado el archivo robots.txt y todo está correcto. La última versión vista con error fue el 08/11/2021 y la última vez que el
Post: Errores críticos originados por el robots.txt

Lino
@María un placer verte por aquí :) Lo primero, a veces, con el robots.txt no se puede "forzar" a que lo rastree, si tu site no es muy p
Post: Errores críticos originados por el robots.txt