Links en las descripciones de las serps de Google

El otro día Isaac Sunyer comentó en una lista de correo, que había visto un link dentro de las descripciones de las serps de Google, la búsqueda es esta sobre marihuana (6º resultado). También otra persona vio otro link igual en esta otra búsqueda

Parece que está claro que se debe a por enlaces dentro de la misma página hacia esas secciones, y que la palabra que hace el enlace ancla es que se busca.

Con esto se me ha venido una idea para saltarse el primer link.

Pongamos que tenemos una sección que queremos posicionar por más de una frase, como siempre, usaremos una palabra inexistante en los resultados, y pondré un ancla en este párrafo.

También creare otro ancla aquí con otra palabra.

Lo que haré, es linkar desde el siguiente post que esciba a la URL de este post, y los enlaces con ancla, todos con las distintas palabras. De esta manera, si cuando busquemos esos textos que aquí no menciono para que salga en los resultados por simple indexación, se mostraran en los resultados de Google podría ser una muy buena forma de saltarte el prier link.

Lo suyo si saliese es adaptar el CMS o con lo que trabajáis para tener unos determinados anlcas en toda las páginas. Estos anclas deberían crearse en las zonas superiores de la web para que cuando el usuario entre vea la página entera, y así podremos meter más de un link desde la misma página con distintas palabras a una única URL de destino.

Probemos!

 


Carlos R. (@)hace Hace más de 15 años y 72 días


Lino, veremos si funciona, he probado a ver si me sacaba los anclas, pero creo que si no enlazas las anclas desde otro domino no aparecerá en las SERPS.

Dictina (@)hace Hace más de 15 años y 50 días

Ummm, esto es estupendo para redactar las páginas de Ayuda

Errioxa (@)hace Hace más de 15 años y 49 días

@Dictina que más da! si van a ir con nofollow js ;)



Lea otros artículos de Google Updates

Últimos posts

Últimos comentarios


Dana

Post: Experimento para comprobar la teoría del primer enlace

JaviLazaro
Ya me has dado la necesidad de crear un comaando en bash para hacer estas cosas. Gracias Lino por estos tips
Post: Obtener KWs de varias fuentes usando la línea de comandos

Señor Muñoz
Lino, el 11% más de clicks y el 47% más de impresiones diarias ¿es algo constante o depende de cada sitio web?
Post: Diferencias entre la exportación de datos de Search Console usando BigQuery o usando la API

Carlos
Hola En mi blog tengo artículos atemporales (es decir, no caducan nunca, de manera que sirve para quien lo lea hoy o lo lea dentro de 5
Post: Tratamiento de urls que tienen un tiempo de vida muy corto

Profe Ray
Veo que hay comentarios de hace 5 años y de hace 3 años. ¿Habrá algun post actualizado sobre este tema o sigue funcionando? Lo cierto es
Post: Cómo cargar css y js y no bloquear la carga de contenido

Pepe
Muchas gracias por el articulo!! Muy buena información.
Post: Qué es ofuscar enlaces y cómo mejora el enlazado interno

María
Sí, he buscado el archivo robots.txt y todo está correcto. La última versión vista con error fue el 08/11/2021 y la última vez que el
Post: Errores críticos originados por el robots.txt

Lino
@María un placer verte por aquí :) Lo primero, a veces, con el robots.txt no se puede "forzar" a que lo rastree, si tu site no es muy p
Post: Errores críticos originados por el robots.txt

María
Hola Lino, tengo el mismo problema. El probador de robots de google me indica: "Error al obtener el archivo robots.txt Tienes un archivo ro
Post: Errores críticos originados por el robots.txt

Mario
Estoy tratando de vincular los datos en Google Data Studio y he combinado los datos de la tabla "Impresión del sitio" con "Impresión de UR
Post: Datos incoherentes y cálculo de la posición media en Search Console