Privacidad en Internet

En el blog de Mutt Cutts parece ser que también han llegado las protestas por la falta de privacidad en la nueva herramienta de Google Web History.

Mutts Cutts nos comenta ahora que además de que Google hace mucho más por slavaguardar la información que tiene sobre los usuarios que cualquier otro motor de búsqueda, que deberíamos pensar también en nuestro proovedor de internet el cual puede recopilar muchos más datos que el propio Google.

Para ello nos dice que si tú apagas el módem y borras las cookies, cuando vuelvas a conectarte, Google no sabrá quién eres en cambio tu proovedor de internet sí y éste sabe por dónde estás navegando y cuándo.

Pues sí, tiene razón, también estamos vigilados por nuestros proovedores de internet y estas empresas españolas no dudarán en facilitar los datos a cualquier gobierno si se los piden y posiblemente tampoco se lo niguen a cualquier empresa que se precie a pagar por ellos.

No sé que ley está sobre esto, ni que obligaciones tienen de guardar esos datos de acceso a internet y no hacerlos públicos. Esperemos esté bien regulado este tema.

La verdad es que visto desde este punto de vista, confío mucho más en Google que en cualquier proovedor de internet español como telefóncia, ¿no?.

En fín, que a ver a qué nos conduce esto porque puede que un día lleguen unos policías a casa y te detengan porque han visto (gracias a telefónica) que navegas mucho por páginas de
marihuana y podrías llegar a ser un delicuente potencial.

 




Lea otros artículos de Otras noticias sobre Google

Últimos posts

Últimos comentarios


Dana

Post: Experimento para comprobar la teoría del primer enlace

JaviLazaro
Ya me has dado la necesidad de crear un comaando en bash para hacer estas cosas. Gracias Lino por estos tips
Post: Obtener KWs de varias fuentes usando la línea de comandos

Señor Muñoz
Lino, el 11% más de clicks y el 47% más de impresiones diarias ¿es algo constante o depende de cada sitio web?
Post: Diferencias entre la exportación de datos de Search Console usando BigQuery o usando la API

Carlos
Hola En mi blog tengo artículos atemporales (es decir, no caducan nunca, de manera que sirve para quien lo lea hoy o lo lea dentro de 5
Post: Tratamiento de urls que tienen un tiempo de vida muy corto

Profe Ray
Veo que hay comentarios de hace 5 años y de hace 3 años. ¿Habrá algun post actualizado sobre este tema o sigue funcionando? Lo cierto es
Post: Cómo cargar css y js y no bloquear la carga de contenido

Pepe
Muchas gracias por el articulo!! Muy buena información.
Post: Qué es ofuscar enlaces y cómo mejora el enlazado interno

María
Sí, he buscado el archivo robots.txt y todo está correcto. La última versión vista con error fue el 08/11/2021 y la última vez que el
Post: Errores críticos originados por el robots.txt

Lino
@María un placer verte por aquí :) Lo primero, a veces, con el robots.txt no se puede "forzar" a que lo rastree, si tu site no es muy p
Post: Errores críticos originados por el robots.txt

María
Hola Lino, tengo el mismo problema. El probador de robots de google me indica: "Error al obtener el archivo robots.txt Tienes un archivo ro
Post: Errores críticos originados por el robots.txt

Mario
Estoy tratando de vincular los datos en Google Data Studio y he combinado los datos de la tabla "Impresión del sitio" con "Impresión de UR
Post: Datos incoherentes y cálculo de la posición media en Search Console