Publicado el viernes 11 de Enero de 2008
Según se comenta en los foros de WebMasterWorld, están viendo penalizaciones #6.
Este tipo de "penalización" causa la bajada del TOP 1 o TOP 2 de Google al puesto 6. Parecen demasiados casos a la vez como para que sea una coincidencia, y es que hace una semana o dos ya aparecieron algunos casos pero ahora parace ser que hay bastantes más y todos a la vez, que es lo que me inclina a pensar que sí, sí se está produciendo ese tipo de "penalización".
El por qué de esta "penalización" #6 no se sabe, seguiremos pensando y escuchando otras opiniones.
Pongo penalización entre comillas porque no creo que sea una penalización, si fuese una así posiblemente sacarían las webs afectadas de la primera página de los resultados por lo menos y no ocurre. Pensando en otras teorías a mi parecer puede ser que Google esté haciendo pruebas con los primeros resultados para poder ver el comportamiento de los usuarios, o la variación de los ingresos por la publicidad que pone ahí o las dos cosas a la vez que sería lo más probable.
Repito que no sabemos por qué lo está haciendo (yo por lo menos), pero pensemos en los dos casos que pongo y por qué esta´ría tomando estas medidas:
Si estuviese estudiando el cambio de comportamiento de los usuarios según ponga una u otra página para medir el caso de éxito de los resultados del buscador.
Podría utilizarlo para ver el porcentaje de abandonos, las páginas vistas por cada usuario, el tiempo de permanencia y como varían estos datos según ponga una página u otra en la primera posición. Podría sacar conclusiones válidas.
Yo siempre he dicho que no se puede medir el éxito de un resultado por el comportamiento del usuario porque no es lo mismo el tiempo necesario para consultar el horario de un autobús que aprender trigonometría en una web pero bueno quizás me equivoque y se puedan saber el éxito de un resultado por esos datos, pero no creo.
Podría utilizarlo para ver cómo cambia el porcentaje de clicks en los primeros resultados para usarlo con sus servicios, publicidad, etc.
De esta forma podría ver qué páginas le dan más ingresos, o sea para que se me entienda un poco lo que quiero decir ya que tengo una idea bastante abstracta de todo, para ver cómo puede ganar más dinero poniendo uno u otro resultado.
Aquí os dejo el hilo de WebMasterWorld y el abierto en los foros de Dirson a ver si sacamos alguna conclusión....
Estrella (@)hace Hace más de 16 años y 319 días
Ale! Ya me he vuelto a reir sin que sepan porqué en la oficina.
Vinagre Asesino (@)hace Hace más de 16 años y 316 días
Amigo no estoy de acuerdo con lo que planteas sobre el comportamiento de los usuarios y el tiempo de permanencia en una página.
Dices que no es lo mismo aprender algo que mirar un horario, correcto, pero supongo que para la búsqueda \"horarios autobuses\" habrá un patrón de permanencia en la página similar para todas y supuestamente corto. La alarma saltará cuando el retorno a la página previa sea instantáneo o muy inferior al patrón de tiempo asociado a esa búsqueda concreta.
Luego cuando se busque \"aprender la regla de tres\" será lógico suponer que los que realicen la búsqueda invertirán más tiempo en leer las página, estableciendo una media para esa búsqueda (patrón) que deberán cumplir la página que respondan a esa búsqueda. Si el tiempo de permanencia desciende drásticamente está claro que no ofrece lo que se busca.
Bastaría entonces con establecer un nuevo valor a cada cadena de búsqueda que midiese los tiempos de permanencias.
Creo que es importante.
Saludos avinagrados.
Errioxa (@)hace Hace más de 16 años y 316 días
Sí, también había pensado esa opción pero ¿cómo das un patrón a cada búsqueda?.
No creo que puedas hacerlo por medio de un algoritmo porque ¿el primer patrón de dónde lo sacas? y si tiene que ir un humano haciéndolo... no creo que fuese rentable.
¿Y si el tipo de perfil de la gente que hace una búsqueda determinada también influyese en el tiempo de permanencia?.
Para la búsqueda "viajes inserso" puede haber dos tipos de usuarios, las personas de edad avanzada que quieren irse de viaje o los hijos de éstos que quieren mandarles de viaje. Seguro que si son los hijos tardan menos en darse cuenta que no es una buena página y hacer click hacia atrás que los abuelos que tardarán 2 minutos.
Y dentro de los hijos, los habrá con más y menos experiencia en internet por lo que tardarán más o menos en darse cuenta de que es un mal resultado.
Creo que ejemplos así encontraríamos muchos, pero bueno, también puede que haya un sistema y yo no me lo imagine. No sería tan raro, pero así de primeras no lo veo tan fácil, no?
Pero bueno, pudiera ser y a mi no se me ocurre.
Vinagre Asesino (@)hace Hace más de 16 años y 316 días
Tienes razón, es muy complejo, pero la algoritmia está para eso. Los ejemplos que pones demuestran que no se trataría de una solución trivial, pero creo que es posible. Ahora bien ¿será significativo para Google?. Es curioso ver como en las estadísticas abiertas de blogs con gran tráfico la duración de las visitas no pasa de los 5 segundos superando ampliamente el 70 % del total de las visitas. Y Google les siga mandando gente.
Bueno es otro de los miles de debate que pueden generarse sobre posicionamiento. A mi me gusta hacer pruebas para probar lo que pienso, pero en última instancia me muevo por instinto y algo me dice que el porcentaje de retorno es importante.
Martin (@)hace Hace más de 16 años y 311 días
Creo que soy un afectado por esa posible posición 6ª y he posteado en dirson. Una de las razones que se citan es tiempo de permanencia en la web. Pero si tienes adsense como tengo yo y tienes éxito en los click, resulta que salen de la web y el primer interesado en Google.