Miguel Ángel Criado me hizo algunas preguntas para un artículo de Público acerca de la decisión anunciada por Google de permitir que los usuarios oculten sitios en las páginas de resultados para mejorar la calidad de sus búsquedas, especulando hasta qué punto podría significar este tema algún tipo de cambios en el algoritmo o en la forma de proceder de Google. Ayer lo publicó bajo el título «El buscador cede el control al internauta» (ver en pdf).
Mi opinión, básicamente, es que para Google, esta cuestión significa una especie de «segunda revelación» en torno a lo social: la primera «revelación» en este sentido fue el momento en que Larry y Sergey, todavía en Stanford, cayeron en la cuenta de que la mejor manera de ordenar por relevancia una consulta a una base de datos de páginas en función de la incidencia de un término o términos determinados era haciéndolo en función de criterios que estuvieran fuera del control de los autores de esas páginas; en función de las preferencias que otros usuarios expresaran de aquellas páginas en función de sus vínculos hacia ellas. Esta metodología, basada en convertir un algoritmo en social – tener en cuenta la opinión no de todos los usuarios, pero sí de aquellos que tenían páginas en la red – transformó el mundo de la búsqueda y convirtió a Google en un competidor que superó claramente al resto de la industria en un tiempo sumamente corto. En realidad, una gran parte del liderazgo de Google consiste en haber sido capaz de entender y desarrollar la importancia del componente social, de la información bidireccional que fluye desde los usuarios, nada menos que en 1998.
La «segunda revelación» consiste en volver a introducir la parte social: pedir a los usuarios en tiempo real que expresen sus preferencias, en este caso negativas, sobre los resultados que reciben del buscador. En principio, una mejora percibida de la calidad de los resultados que los propios usuarios se trabajan ellos mismos en función de sus preferencias, pero obviamente, una enorme posibilidad de trabajar con el agregado de esos datos. Si muchos usuarios ocultan los resultados de un sitio determinado, el algoritmo podría tenerlo en cuenta, con las correcciones y precauciones adecuadas, y hacer descender la relevancia del sitio en cuestión. Ante técnicas de SEO que amenazaban progresivamente con devolver al webmaster un control que según Google nunca debe tener, y con distorsionar los resultados de la búsqueda cada vez más, este cambio puede permitir que se vuelva a situar el control en manos de los usuarios. Todo ello dicho, por supuesto, con las debidas precauciones que deben tenerse cuando únicamente se pueden hacer hipótesis sobre cómo manejará Google esa corriente de datos procedente de los usuarios. Pero sin duda, las posibilidades son importantes, con potencial para volver a marcar diferencias, y basadas en algo que se encuentra en los orígenes de la ventaja que permitió a Google hacerse con el liderazgo que hoy ostenta.
A continuación, el texto completo de las preguntas y respuestas que intercambié con Miguel:
P. ¿Como ves el movimiento de Google?
R. Google siempre ha sido muy críptica a la hora de explicar «su fórmula de la cocacola»: no es «secreto» como tal, pero si se quiere tener una idea real de los factores que afectan al famoso algoritmo de indexación hay que trabajárselo mediante técnicas de ingeniería inversa. En ese sentido, lo que Google aparentemente ofrece es una simple medida de conveniencia para que los usuarios retiren de sus resultados aquellos dominios que para ellos son irrelevantes (algo que redunda en una percepción individual de mejora de la relevancia de los resultados y permite eliminar sitios incómodos o molestos), pero a nadie se le escapa que millones de usuarios expresando sus preferencias en este sentido ofrecen una posibilidad enormemente ventajosa de depurar en tiempo real un algoritmo que muchos consideraban que, a medida que las técnicas de manipulación y SEO mal entendido progresaban, estaba perdiendo gran parte de su calidad y su sentido.
P. Supone una renuncia de Google a su sacrosanto algoritmo?
R. Todo lo contrario. El algoritmo de Google se caracterizó precisamente por adelantarse a la web social, muchos años antes de que nadie hablase de Web 2.0, de redes sociales o de bidireccionalidad: ¿qué llevó a Google a barrer del mapa a sus competidores, que llevaban más tiempo en el mercado? Su capacidad de incorporar en el algoritmo las preferencias expresadas por los usuarios, un algoritmo social que dependía fundamentalmente de un factor situado fuera del control de los webmasters: el número de enlaces entrantes generados por otras páginas. Con este movimiento, Google podría estar incorpora un segundo nivel de depuración de los resultados igualmente basado en un parámetro social, y que podría estar muy relacionado con su anuncio de penalizar a las «content farms», sitios que no generan contenido original o de calidad pero que lograban indexar bien con los parámetros anteriores: si los usuarios señalan un sitio como no deseado, puede responder a muchos factores, pero uno de ellos podría hipotéticamente ser su irrelevancia.
P. Como puede afectar a las búsquedas?
R. Hay muchos factores detrás de la idea de relevancia, y que muchos millones de usuarios expresen sus preferencias en ese sentido proporciona a Google una visibilidad agregada descomunal. En la pauta de comportamiento de los usuarios está la navegación de prueba y error desde las páginas de resultados, y el coste adicional de evaluar un sitio negativamente si es irrelevante y aparece de manera repetitiva en sus resultados es nulo. Google podría, en virtud de los resultados entregados por ese proceso, optar por quedarse en una mejora a nivel individual expresada directamente por cada usuario, o procesar dichas preferencias a partir de unos niveles determinados. No puede saberse qué tipo de tratamiento dará Google a los resultados, pero que un número significativamente grande de usuarios manifiestan de manera inequívoca que no quieren ver en sus búsquedas las páginas de un dominio determinado, puede lógicamente considerarse una variable importante a la hora de situarlo más arriba o más abajo en los mismos, sobre todo si se usa en conjunción con otras variables que también están al alcance de ese «ojo que todo lo ve» de Google.
Lo que entiendo del asunto es que aquel que este logueado siempre que busque y que vaya rechazando resultados erróneos a la larga tenga mejores resultados de búsqueda que aquél que prefiera buscar anónimamente sin registrarse.
Buen golpe contra el anonimato y un paso más para controlarnos mejor por parte de Google si esto es así. Aunque también un empujón para la competencia que haga de la privacidad su carácter diferenciador.
Entiendo que al igual que se han inventado técnicas de manipulación para alterar la primera revelación social del algoritmo de búsqueda (las «content farms», por ejemplo) se inventarán otras para alterar también la segunda revelación social (así, de pronto, se me ocurre poder utilizar las «content farms» para desprestigiar a la competencia).
Saludos,
Jose
Se trata de una innovación de gran interés, sobre todo por devolver el control de alguna manera al usuario del buscador, y «democratizar» y ajustar los resultados a los interes reales de los mismos, y no al del sitio web que más y mejor emplea las técnicas de posicionamiento.
Google lo que quiere es cambiar las estrategias de indexacion, como lo hizo siempre, y tratar de desplazar los sitios que no aportan