Cutre tags dobles

Publicado el 23 de enero del 2010

El otro día miré las páginas indexadas de mi dominio y eran más de 2.000 cuando yo sólo he escrito unos 200 artículos como mucho.

Esto es debido a los cutre-tags que tengo debajo de cada artículo. Hacen una búsqueda por esas palabras dentro de mi web y los llamo cutres porque son cutres de cara a la relevancia de los resultados para los usuarios, pero lo más interesante es que es un listado de resultados con links creados en JavaScript.

De esta manera al usuario le doy la posibilidad de buscar por esas palabras y a Google le hago creer que son páginas de contenido en vez de páginas de listados o links.

Creo que entre estos dos tipos de páginas, listados Vs contenidos, hay una gran diferencia, y cada vez supongo que la habrá más.

A google no le interesa enviar al usuario a una página con links, como podría ser este caso, sino que le interesa enviar al usuario directamente a donde este picharía y creo que eso es un punto negativo para este tipo de páginas de cara a Google, creo que las valora menos. De ahí el hecho de intentar engañar a Google con los enlaces en JavaScript.

Casi el 100% de los usuarios que llegan a esas páginas lo hacen a través de Google. Y cada vez llegan más! Pero claro, esto no es una técnica recomendable para muchas webs, por lo menos no de esta manera tan descarada, ya que es creado casi únicamente para el posicionamiento en buscadores y esto a Google no le gusta nada.

Debemos saber usarlo de forma moderada y en directorios concretos. Ya que si te banean es probable que sólo lo hagan para ese directrio donde metes todos los términos y no para el resto de la web, pero fíate. Creo que es un recurso a la desesperada, pero que de momento puede funcionar.

Estoy probando alguna cosa algo más complicada, pero que debería funcionar mucho mejor, sobretodo si tenemos una buena masa de usuarios. Ya os comentaré de que se trata, seguro que os gusta ;)


A partir de ahora voy a linkar en vez de cada término, los dos primeros juntos, y los demás por separado. Por ejemplo para un artículo que lo titule "Como encontrar directoros dofollow" los cutre tags serían (como encontrar) (directorios) (dofollow) y aunque sólo buscaré por la primera palabra del cutre-tag compuesto en el title saldrá entero, ya que sino la mayoría devolverían cero resultados. Además voy a cambiar el title de esas páginas añadiendo la palabra marketing.

Quiero comprobar si funciona con cosas un poco competidas y si es mejor con una o dos palabras. Luego supongo que lo quitaré porque como sabéis no gano ni ganaré nada de dinero con este blog, simplemente son pruebas.


 


Diana (@)hace Hace más de 14 años y 341 días

¿pero para que vale exactamente esto? como lo tenias antes te daba muchas paginas indexadas pero haciendolos dobles que ganas?

Errioxa (@)hace Hace más de 14 años y 341 días

@Diana esto sirve para conseguir más entradas por long tail. Al hacerlo con una sola palabra creo que podría ser más difícil conseguir posicionarte, pero al hacerlo de dos en dos cuando el usuario busque esas dos palabras en Google puede que sí salga la web.



Lea otros artículos de SEO Black Hat

Últimos posts

Últimos comentarios


Resham Singh Mahal

Post: Experimento para comprobar la teoría del primer enlace

Joakim Hov Johnsen

Post: Experimento para comprobar la teoría del primer enlace

Dana

Post: Experimento para comprobar la teoría del primer enlace

JaviLazaro
Ya me has dado la necesidad de crear un comaando en bash para hacer estas cosas. Gracias Lino por estos tips
Post: Obtener KWs de varias fuentes usando la línea de comandos

Señor Muñoz
Lino, el 11% más de clicks y el 47% más de impresiones diarias ¿es algo constante o depende de cada sitio web?
Post: Diferencias entre la exportación de datos de Search Console usando BigQuery o usando la API

Carlos
Hola En mi blog tengo artículos atemporales (es decir, no caducan nunca, de manera que sirve para quien lo lea hoy o lo lea dentro de 5
Post: Tratamiento de urls que tienen un tiempo de vida muy corto

Profe Ray
Veo que hay comentarios de hace 5 años y de hace 3 años. ¿Habrá algun post actualizado sobre este tema o sigue funcionando? Lo cierto es
Post: Cómo cargar css y js y no bloquear la carga de contenido

Pepe
Muchas gracias por el articulo!! Muy buena información.
Post: Qué es ofuscar enlaces y cómo mejora el enlazado interno

María
Sí, he buscado el archivo robots.txt y todo está correcto. La última versión vista con error fue el 08/11/2021 y la última vez que el
Post: Errores críticos originados por el robots.txt

Lino
@María un placer verte por aquí :) Lo primero, a veces, con el robots.txt no se puede "forzar" a que lo rastree, si tu site no es muy p
Post: Errores críticos originados por el robots.txt