Ejemplo SEO Black Hat

El otro día comenté de manera abstracta como generar contenidos automáticamente en tu web, también de cómo ya había cosas hechas de black hat SEO.

Aquí os dejo un cacho de código black hat por si a alguno le interesa ver por dónde van los tiros, y si lo hece que comparta sus resultados aunque NUNCA LO HARÉ con páginas que aprecie, para concursos y cosas así, ya veremos.

De momento para el de hoteldipity ese, no tengo tiempo para hacerla, pero sería un ambiente muy bueno para probar esto, puesto que no perjudicas a nadie porque todas las páginas que se están creando realmente son todas spam.

 Código  SEO Black Hat
<?
//aquí definimos nuestra palabras cave, en negrita y todo
$key='<b> palabra clave</b>';

//ahora vamos a robar contenido a una web con queryString
//desde el 2000, hasta el último artículo, eso sí al azar
//podemos usar un array para tener distanas webs como fuentes
//pero eso lo dejo para vosotros
$id=rand(2000,299999);

//obtenemos el código fuente de nuesta víctima
$codigo=file_get_contents('http://paginarobada .com/?id='.$id);

//ahora, quitamos su Adsense
$texto=explode('<!-- google_ad_section_start -->',$codigo);
$texto_primero=$text[1];
$texto2=explode('<!-- google_ad_section_end -->',$texto_primero);
$articulo=$texto2[0];

//eliminamos el HTML
$articulo=strip_tags($articulo);

//cambiamos los puntos por nuestra palabra
$articulo = str_replace(".",$key",$articulo);


//pasamos al juego de caracteres que nos interese
$articulo=iconv('UTF-8','ISO-8859-1//IGNORE',$articulo);

//este texto lo metemos en nuestra plantilla
//o nuesta base de datos dependiendo cómo lo hagamos.

//Ya está. sólo hay que mejorar y adaptarlo un poco para crearlo
?>
 

Está claro que aún quedaría curro para hacerlo bueno de verdad, como desordenar un poco las palabras que forman el contenido que has robado porque sino, pues sería contenido duplicado y como si no hicieses casi nada, pero el texto ya sabes como robarlo y crearlo un poco a tu gusto.
Tampoco es que quites contenido a una web, puesto que realmente el tuyo luego no va a tener mucho sentido cuando lo lean.

Como he dicho antes, no recomiendo estás prácticas de Black Hat SEO porque tarde o temprano os eliminarán de los resultados, además de que no sé si te sentirás muy orgullos de ellas cuando las vea casi cualquier humano.

 


angel (@)hace Hace más de 14 años y 192 días

vaya vaya vaya, me has dejao con la boca abierta... ya tienes nuevo seguidor!



Lea otros artículos de SEO Black Hat

Últimos posts

Últimos comentarios


Dana

Post: Experimento para comprobar la teoría del primer enlace

JaviLazaro
Ya me has dado la necesidad de crear un comaando en bash para hacer estas cosas. Gracias Lino por estos tips
Post: Obtener KWs de varias fuentes usando la línea de comandos

Señor Muñoz
Lino, el 11% más de clicks y el 47% más de impresiones diarias ¿es algo constante o depende de cada sitio web?
Post: Diferencias entre la exportación de datos de Search Console usando BigQuery o usando la API

Carlos
Hola En mi blog tengo artículos atemporales (es decir, no caducan nunca, de manera que sirve para quien lo lea hoy o lo lea dentro de 5
Post: Tratamiento de urls que tienen un tiempo de vida muy corto

Profe Ray
Veo que hay comentarios de hace 5 años y de hace 3 años. ¿Habrá algun post actualizado sobre este tema o sigue funcionando? Lo cierto es
Post: Cómo cargar css y js y no bloquear la carga de contenido

Pepe
Muchas gracias por el articulo!! Muy buena información.
Post: Qué es ofuscar enlaces y cómo mejora el enlazado interno

María
Sí, he buscado el archivo robots.txt y todo está correcto. La última versión vista con error fue el 08/11/2021 y la última vez que el
Post: Errores críticos originados por el robots.txt

Lino
@María un placer verte por aquí :) Lo primero, a veces, con el robots.txt no se puede "forzar" a que lo rastree, si tu site no es muy p
Post: Errores críticos originados por el robots.txt

María
Hola Lino, tengo el mismo problema. El probador de robots de google me indica: "Error al obtener el archivo robots.txt Tienes un archivo ro
Post: Errores críticos originados por el robots.txt

Mario
Estoy tratando de vincular los datos en Google Data Studio y he combinado los datos de la tabla "Impresión del sitio" con "Impresión de UR
Post: Datos incoherentes y cálculo de la posición media en Search Console