Haciendo autocrítica SEO y AdSense

Otra vez me vuelve a resurgir ese odio de los dominios aparcados y con publicidad AdSense. Ayer buscando información, da igual el tipo que sea, llegué sin mucho esfuerzo y sin querer a páginas sin información relevante y con AdSense, posicionadas para determinadas palabras.

Cada vez que veo una de este tipo, me quema la sangre. No sólo pensando en la gente que llega a ese dominio y debe o retroceder o pinchar en la publicidad, sino también pensando en los webmasters que de verdad se lo están trabajando.

Está muy bien que Google nos deje poner AdSense en nuestras páginas webs, para algunos es nuestra principal fuente de ingresos, para otros la única, etc. Pero a costa de esto ¿qué estamos consiguiendo? una internet llena de basura. Cualquiera pone una web, la posiciona si sabe de SEO y si el contenido no es muy bueno pues mejor así tendré más CTR y ganaré más dinero.

¿Hasta dónde llegará el punto de crear contenidos para ganar dinero y no para informar?
Tambien hago autocrítica de mi, porque tengo páginas que hablo de cosas de las cuales no tengo ni puta idea, como puede ser Fernando Alonso . La página está desactualizada, sin un buen diseño, en fin... descuidada. Este es un ejemplo de basura en internet, tengo otras webs que son mucho más interesantes para el público y de las cuales si estoy moralmente tranquilo. ¿realmente le interesa esta información al que busque Fernando Alonso en un buscador? Pues no, pero ahí está, y si no asciendo posiciones es porque no le dedico ni los 10 minutos al día que necesitaría durante menos de un mes. Pero realmente paso de meterme en movidas de marcas con este señor y paso.

Me da que para esto nunca habrá solución a nos ser que se revisen manualmente las páginas que acceden al programa, algo ahora imposible. Pero desde aquí aporto mi granito de arena, por lo menos haciendo autocrítica.

 


angel (@)hace Hace más de 16 años y 42 días

Hola, justo hoy, hablabamos de este tema en el trabajo.
La de páginas basura que se están creando, simplemente por el tema del adsense, y sacarse unos dinerillos.

Yo, la verdad, nunca he utilizado adsense en mi trabajo por cuenta propia, en mi empresa si que se utiliza, pero es una web seria, muy actualizada y con mucho trabajo detrás.

Pero vaya, esta tarde, comentábamos el tema de dar una web de alta, posicionarla y meterle publicidad. Yo en parte no estoy muy de acuerdo, pero piensas, que soy una hermanita de la caridad, en comparación con otra gente más espabilada.

Dilema este. Lo consultaré con la almohada.

Por cierto, enhorabuena por tu blog. Lo tengo entre mis favoritos.



Lea otros artículos de Sin clasificar

Últimos posts

Últimos comentarios


Dana

Post: Experimento para comprobar la teoría del primer enlace

JaviLazaro
Ya me has dado la necesidad de crear un comaando en bash para hacer estas cosas. Gracias Lino por estos tips
Post: Obtener KWs de varias fuentes usando la línea de comandos

Señor Muñoz
Lino, el 11% más de clicks y el 47% más de impresiones diarias ¿es algo constante o depende de cada sitio web?
Post: Diferencias entre la exportación de datos de Search Console usando BigQuery o usando la API

Carlos
Hola En mi blog tengo artículos atemporales (es decir, no caducan nunca, de manera que sirve para quien lo lea hoy o lo lea dentro de 5
Post: Tratamiento de urls que tienen un tiempo de vida muy corto

Profe Ray
Veo que hay comentarios de hace 5 años y de hace 3 años. ¿Habrá algun post actualizado sobre este tema o sigue funcionando? Lo cierto es
Post: Cómo cargar css y js y no bloquear la carga de contenido

Pepe
Muchas gracias por el articulo!! Muy buena información.
Post: Qué es ofuscar enlaces y cómo mejora el enlazado interno

María
Sí, he buscado el archivo robots.txt y todo está correcto. La última versión vista con error fue el 08/11/2021 y la última vez que el
Post: Errores críticos originados por el robots.txt

Lino
@María un placer verte por aquí :) Lo primero, a veces, con el robots.txt no se puede "forzar" a que lo rastree, si tu site no es muy p
Post: Errores críticos originados por el robots.txt

María
Hola Lino, tengo el mismo problema. El probador de robots de google me indica: "Error al obtener el archivo robots.txt Tienes un archivo ro
Post: Errores críticos originados por el robots.txt

Mario
Estoy tratando de vincular los datos en Google Data Studio y he combinado los datos de la tabla "Impresión del sitio" con "Impresión de UR
Post: Datos incoherentes y cálculo de la posición media en Search Console