Google es vulnerable

Después de leer el artículo publicado por mi compañero Jose Júan Corpas (sin tilde en la «a») y reflexionar un poco sobre el tema, no puedo estar más deacuerdo con él.

A los buscadores aún les queda mucho camino por recorrer. Las «trampas» que realizan muchos desarrolladores para conseguir un mejor posicionamiento y la falta de presición de los buscadores para detectarlas, están haciendo que los resultados naturales bajen de calidad.

Mi opinión personal respecto a las prácticas de Spamdexing la tengo bastante clara: tarde o temprano, estas páginas caen, andan por el filo de la navaja y corren el riesgo de ser penalizadas. Los buscadores aunque ahora sean vulnerables ante este hecho, cada vez son más «humanos» y tarde o temprano darán con estos «timadores».

Ojo, hay que saber diferenciar lo que es saber posicionar una página en buscadores a «ser una mente poco inteligente» y usar técnicas penalizables.

No es un disparate pensar que por culpa de esta «vulnerabilidad», Google esté tardando tanto en actualizar su valorado Pagerank temiendo esa creciente ola de páginas que están desvirtuando la calidad de sus resultados.

No dejo de estar intrigado ante la reacción que puede suceder ante tanto spamer.

No descuidemos nuestras páginas, pueden «rodar cabezas».

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *