Como eliminar mi web de Google

Publicado el jueves 10 de Enero de 2008

Para evitar que salgan nuestra página web en Google tenemos una serie de opciones, bueno más bien sólo hay una correcta y segura, Matt Cutts nos dice cómo hacer para que Google no muestre ni tenga contenido que no deseemos en sus servidores.


  • No enlazar la página: no creas que sólo porque una página no tenga ningún link apuntándola no va a ser rastreada por los buscadores. Si tienes permisos de listar el directorio y no tienes index la pillarán, si alguien que sepa o pruebe a poner la URL entrará podrá verla, apuntarla desde una página suya y Google la verá....

  • .htaccess: sin duda la mejor opción. Desde este archivo nosotros indicamos que tipo de usuarios aceptamos, si es necesario autentificarse... Es el archivo que busca el servidor desde el dominio raiz hasta la carpeta donde se encuentra el archivo que un usuario ha pedido por medio de la URL. Si en el archivo .htaccess no ponemos nada para restringir la entrada podrá verlo, pero si ponemos que el usuario debe estar autentificado no podrá entrar. Así es la mejor manera de asegurarte que un documento no pueda ser leído por un buscador.

  • robots.txt: otro método para decirle a los bscadores qué archivos o directorios de nuestra web pueden rastrear y cuáles no. Los principales buscaores como Google, Yahoo o Live lo respetan, pero cualquier usuario u otros buscadores que no cumplan con los estándares pueden llegar a los documentos. Por eso tampoco es recomendable.


  • noindex: un meta tag que le dice a los buscadores que ese archivo no quieres que sea incluído en sus índices. Pero lo mismo que en el caso anterior si un usuario sabe de la URL llegaría y otros buscadores también es posible que ignoren este meta tag.

  • nofollow: según Google cuando hacemos enlaces con la propiedad nofollow, no los contará ni rastreará. Este atributo se ha sacado Google de la manga hace poco para que los links que son comprados no sean tenidos en cuenta por el buscador a la hora de posicionar una página y así no deteriorar sus resultados. Pero además de que casi sólo Google cumple con esto, no mimpedirá que si te apunta otra web sin nofollow sea indexado y mostrado en los resultados

  • Borrar URL a través de Google Webmasters Tools: es una solución rápida para borrar páginas del índice de google que ya estan en sus serps. Pero en cualquier otro buscador podrás salir esa información que no querías.

Conclusión:
Si quieres evitar que un buscador indexe contenido de tu web, usa el .htaccess y nunca podrán entrar. Si no, dependerás de la suerte.

Aquí os dejo el vídeo en el que hablará más o menos de esto.

 


jose guarachi (@)hace Hace más de 16 años y 230 días

hola por favor ayudenme a borrar o eliminar todo mi pagina web sere muy agradecido jose atte...

Errioxa (@)hace Hace más de 16 años y 230 días

@jose para eso tienes dos opciones o creas un archivo que se llame robots.txt que ponga



User-agent:*

Disallow:/




Para eso debes tener un hosting que no sea gratuito, dónde lo tienes alojado?

bel (@)hace Hace más de 15 años y 323 días

hola para eliminar web de google
vas a -configuracion del sitio
-otras cosas
-suprimir este sitio
clickeas en -aceptar si estas muy segura/o de eliminarlo y listo!
bye
Bel

MISAEL (@)hace Hace más de 15 años y 201 días

POR FABOR ALLUDENMEN QUIERO ELIMINAR MI PAGINA GOOGLE , ME A FECTADO MUCHO LAS COSAS QUE LA GENTE PONE YA QUE ME ROBARON MI CONTRASAÑA QUIERO QUE LA BORREN, Y CON QUE AUTORISACION PONEN USTEDES LA VIDA PRIVA DE LA GENTE, ELIMINEN MI PAGINA POR FABOR

alexka (@)hace Hace más de 15 años y 131 días

porfabor

jony (@)hace Hace más de 14 años y 321 días

SOIS unos PUtos pariaas de mierda par que quereis QITARLO GILIPOLLAS QITENSE LA LEFA DE LOS COJONES

toni (@)hace Hace más de 14 años y 308 días

La verdad no lo entiendo, debería tener una contraseña para que su propietario pueda quitar su pagina igual que la puso. Veo mucha facilidad para ponerla y todo son problemas para quitarla. gracias.

Oscar García (@)hace Hace más de 13 años y 76 días

Hola soy Oscar y soy idiota, estafo a la gente en diversas páginas webs como maquinariayocio.com y ventageneradoreselectricos.com. El que caiga en mis manos de ahí no sale. En algún momento me pillarán y caeré preso pero mientras tanto os estafaré a todos, pandillas de incodumentados!!!

PD: Los que piensen que los generadores Taiguer son Alemanes son retrasados mentales, pero salud por ellos, que ellos vivo!!!



Lea otros artículos de Otras noticias sobre Google

Últimos posts

Últimos comentarios


Resham Singh Mahal

Post: Experimento para comprobar la teoría del primer enlace

Joakim Hov Johnsen

Post: Experimento para comprobar la teoría del primer enlace

Dana

Post: Experimento para comprobar la teoría del primer enlace

JaviLazaro
Ya me has dado la necesidad de crear un comaando en bash para hacer estas cosas. Gracias Lino por estos tips
Post: Obtener KWs de varias fuentes usando la línea de comandos

Señor Muñoz
Lino, el 11% más de clicks y el 47% más de impresiones diarias ¿es algo constante o depende de cada sitio web?
Post: Diferencias entre la exportación de datos de Search Console usando BigQuery o usando la API

Carlos
Hola En mi blog tengo artículos atemporales (es decir, no caducan nunca, de manera que sirve para quien lo lea hoy o lo lea dentro de 5
Post: Tratamiento de urls que tienen un tiempo de vida muy corto

Profe Ray
Veo que hay comentarios de hace 5 años y de hace 3 años. ¿Habrá algun post actualizado sobre este tema o sigue funcionando? Lo cierto es
Post: Cómo cargar css y js y no bloquear la carga de contenido

Pepe
Muchas gracias por el articulo!! Muy buena información.
Post: Qué es ofuscar enlaces y cómo mejora el enlazado interno

María
Sí, he buscado el archivo robots.txt y todo está correcto. La última versión vista con error fue el 08/11/2021 y la última vez que el
Post: Errores críticos originados por el robots.txt

Lino
@María un placer verte por aquí :) Lo primero, a veces, con el robots.txt no se puede "forzar" a que lo rastree, si tu site no es muy p
Post: Errores críticos originados por el robots.txt