Nuevo sitemaps para Google News

El otro día Google anunció que el formato de los sitemaps de Google News han cambiado y que tenemos 6 meses para modificarlos.

Si aún tienes el formato viejo te salrá un icono de advertencia en webmsater tools, pero según Google hasta dentro de 6 meses seguirán funcionando.

Yo cambié ya al nuevo formato de sitemaps de Google News, pero hay una cosa que dicen que creo está mal redactada
"La etiqueta <name> es el nombre de la publicación. Debe coincidir exactamente con el nombre que aparezca en los artículos de su sitio incluidos en news.google.com/news?ned=es, omitiendo cualquier paréntesis posterior"

En las webs que aparecen paréntesis es por el nombre de la región, en mi caso, y SÍ he tenido que poner los paréntesis porque si no daba fallo.

Otra cosa extraña es que sí me rastrea todas las URLs pero me indica que hay 0 indexadas sinembargo en Gogle News sí está. Supongo que será algún fallo de la herramienta como ya pasó hace algunos días

¿Os ocurre lo mismo?

Este nuevo sitemaps nos permite indicar el tipo de acceso que necesita el usuario para poder ver la información, el tipo de contenido que es (si es redactado por el medio, por los usuarios o blogs), keywords de la noticia y una etiqueta para noticias bursátiles con cotizaciones.



 


JDavid (@)hace Hace más de 15 años y 6 días

Buenas.
Yo lo he adaptado ya hace una semana o dos y la verdad es que me esta funcionando muy bien.
Me han subido las visitas bastante de google news.

Saludos.



Lea otros artículos de Google Search Console

Últimos posts

Últimos comentarios


Dana

Post: Experimento para comprobar la teoría del primer enlace

JaviLazaro
Ya me has dado la necesidad de crear un comaando en bash para hacer estas cosas. Gracias Lino por estos tips
Post: Obtener KWs de varias fuentes usando la línea de comandos

Señor Muñoz
Lino, el 11% más de clicks y el 47% más de impresiones diarias ¿es algo constante o depende de cada sitio web?
Post: Diferencias entre la exportación de datos de Search Console usando BigQuery o usando la API

Carlos
Hola En mi blog tengo artículos atemporales (es decir, no caducan nunca, de manera que sirve para quien lo lea hoy o lo lea dentro de 5
Post: Tratamiento de urls que tienen un tiempo de vida muy corto

Profe Ray
Veo que hay comentarios de hace 5 años y de hace 3 años. ¿Habrá algun post actualizado sobre este tema o sigue funcionando? Lo cierto es
Post: Cómo cargar css y js y no bloquear la carga de contenido

Pepe
Muchas gracias por el articulo!! Muy buena información.
Post: Qué es ofuscar enlaces y cómo mejora el enlazado interno

María
Sí, he buscado el archivo robots.txt y todo está correcto. La última versión vista con error fue el 08/11/2021 y la última vez que el
Post: Errores críticos originados por el robots.txt

Lino
@María un placer verte por aquí :) Lo primero, a veces, con el robots.txt no se puede "forzar" a que lo rastree, si tu site no es muy p
Post: Errores críticos originados por el robots.txt

María
Hola Lino, tengo el mismo problema. El probador de robots de google me indica: "Error al obtener el archivo robots.txt Tienes un archivo ro
Post: Errores críticos originados por el robots.txt

Mario
Estoy tratando de vincular los datos en Google Data Studio y he combinado los datos de la tabla "Impresión del sitio" con "Impresión de UR
Post: Datos incoherentes y cálculo de la posición media en Search Console