Peticiones a Google

Publicado el 12 de junio del 2009

Hoy Google ha anunciado que ha hecho algunas mejoras en el tratamiento de los sitemaps, como que podemos tener hasta 50.000 índices de sitemaps (para indicar dónde están nuestros sitemaps).

Pero veo que podría ser mucho más sencillo para nosotros que en vez de aumentar ese número posible del índice de sitemaps que podamos meter más de 50.000 urls en uno sin tener que ir creando otros. Me resulta mucho más sencillo poner 1.000.000 de urls en un fichero que ir teniendo que serpararlas de 50.000 en 50.000 e ir creando varios archivos.

Al tiempo que doy mi punto de vista sobre esto me gustaría hacer una lista de cosas que mejorarías o que crearíais que deberían ponenrnos desde Google.

  • Que se puedan meter más de 50.000 URLs en un sitemaps. Así evitamos dolores de cabeza como los que decía antes

  • Que podamos decir a Google cuándo debe pasar. Hay páginas que tienen un pico de usuarios por ejemplo a la mañana que dejan los servidores al límite, si pasa Google a esas horas los servidores entran en estado crítico y puede llegar a tumbarlos. Por eso estaría bien que le pudiésemos decir a Google sobre que horas pasar a rastrear nuestro site. (Me lo dijo Dictna)

  • Que nos de la opción de ubicar nuestro site no por geolocalización, sino por idioma. Las páginas en castellano destinadas a todos los hispanohablantes tenemos un gran problema con esto. Si tenemos un .com y un hosting en USA y geolocalizamos la web para España nos veremos perjudiacados en Google Argentina, Ecuador, etc. No lo veo lógico y supongo que les ocurrirá lo mismo a los países de habla inglesa.

  • Que nos de opción de excluír determinadas carpetas o subdominios de Google News. Últimamente estoy viendo como foros y algunas carpetas que no deberían están saliendo en Google News. No hay un robot específico para Google News y por eso desde el robots.txt no se puede hacer ya que también dejaría de indexarse para los resultados del buscador web. Esto perjudica tanto a Google News como a la página ya que no tiene credibilidad los hilos de los foros como noticias.

  • Que nos deje borrar el histórico de errores de Webmaster Tools. Veo errores de hace años que ya no están y me distraen de los errores actuales. Estaría bien que pudiéramos "empezar de nuevo" con los errores a 0 y que nos marcará los errores que se vean a partir de ese momento y no antes.

Seguro que hay muchas más cosas que se os ocurren, ¿cuales son vuestras sugerencias?

 


Dictina (@)hace Hace más de 15 años y 163 días

Ay sí, el histórico de errores de la WMT... yo por mi parte un día de estos les escribo al foro (al inglés, claro) para ver si me permiten hacer sculpting con mi sitemap, porque lo de molestarme en darle prioridad a mis URLs si luego no lo usan no tiene sentido.



Lea otros artículos de Otras noticias sobre Google

Últimos posts

Últimos comentarios


Dana

Post: Experimento para comprobar la teoría del primer enlace

JaviLazaro
Ya me has dado la necesidad de crear un comaando en bash para hacer estas cosas. Gracias Lino por estos tips
Post: Obtener KWs de varias fuentes usando la línea de comandos

Señor Muñoz
Lino, el 11% más de clicks y el 47% más de impresiones diarias ¿es algo constante o depende de cada sitio web?
Post: Diferencias entre la exportación de datos de Search Console usando BigQuery o usando la API

Carlos
Hola En mi blog tengo artículos atemporales (es decir, no caducan nunca, de manera que sirve para quien lo lea hoy o lo lea dentro de 5
Post: Tratamiento de urls que tienen un tiempo de vida muy corto

Profe Ray
Veo que hay comentarios de hace 5 años y de hace 3 años. ¿Habrá algun post actualizado sobre este tema o sigue funcionando? Lo cierto es
Post: Cómo cargar css y js y no bloquear la carga de contenido

Pepe
Muchas gracias por el articulo!! Muy buena información.
Post: Qué es ofuscar enlaces y cómo mejora el enlazado interno

María
Sí, he buscado el archivo robots.txt y todo está correcto. La última versión vista con error fue el 08/11/2021 y la última vez que el
Post: Errores críticos originados por el robots.txt

Lino
@María un placer verte por aquí :) Lo primero, a veces, con el robots.txt no se puede "forzar" a que lo rastree, si tu site no es muy p
Post: Errores críticos originados por el robots.txt

María
Hola Lino, tengo el mismo problema. El probador de robots de google me indica: "Error al obtener el archivo robots.txt Tienes un archivo ro
Post: Errores críticos originados por el robots.txt

Mario
Estoy tratando de vincular los datos en Google Data Studio y he combinado los datos de la tabla "Impresión del sitio" con "Impresión de UR
Post: Datos incoherentes y cálculo de la posición media en Search Console