Mi columna de esta semana en El Español se titula «Páginas basura«, y trata de conceptualizar uno de los problemas actuales del periodismo, la abundancia de páginas basadas en el clickbait, el sensacionalismo, el amarillismo y la desinformación, al hilo del reciente anuncio de Facebook de comenzar a «enterrar» en su algoritmo de recomendación de contenidos todas aquellas noticias procedentes de páginas calificadas como de baja calidad.
Las páginas basura son uno de los contenidos que más ha crecido en la web, alimentadas en gran medida por un efecto secundario de algoritmos como el de Google: lo que al principio era un algoritmo interesante basado en la contabilización de los enlaces externos y basado en la traslación a la web del conocido citation index del mundo académico, utilizado desde hace varios siglos, se convirtió, con la popularización de las redes sociales, en una métrica que privilegiaba en exceso lo social sobre la calidad. Peor aún: basándose en métricas como los Likes, los Shares, los retweets, etc., que los usuarios marcaban en muchos casos con un componente muy escaso de introspección o reflexión, lo que debía ser una métrica de relevancia se convirtió, en realidad, en algo que privilegiaba aquella información que más sorprendía, más llamaba la atención o más intrigaba.
El cómo una métrica de relevancia se estropea al pasar a un mecanismo de captación de indicadores supuestamente más democrático es un tema que, como tal, me parece fascinante: en la web de 1990, cuando Google comenzó a escalar en popularidad, las métricas que recogía eran enlaces a páginas con palabras clave (el anchor text) cualificados a su vez en función del número de enlaces entrantes que poseía la página origen, unido a algunos factores más de corrección. Para Larry Page, pasar a la web un algoritmo con el que estaba perfectamente familiarizado, el citation index que le indicaba como estudiante doctoral si un paper académico era o no relevante en función de las veces que aparecía en las referencias de otros papers, fue en realidad una idea genial. El sistema funcionaba: no solo lograba una métrica de relevancia convincente, sino que además, alejaba el control de las manos de los autores de las páginas, lo que lo hacía menos manipulable que los anteriores. Al producirse la popularización de las redes sociales, Google detectó que mecanismos como el Like de Facebook o los trending topics de Twitter podían convertirse en métricas de relevancia más rápidas que la suya, y comenzó a basar su algoritmo cada vez más en este tipo de parámetros. El resultado de privilegiar esas métricas fue una hiperinflación de la web en torno a lo social: las páginas se llenaron de «pegatinas» que pedían el Like, el Share, el retweet o la compartición de todo tipo, y la aparición cada vez más persistente de páginas orientadas a generar esas métricas. A todos los efectos, una concepción errónea de relevancia.
Con el tiempo, Google parece haber ido corrigiendo ese mecanismo: los parámetros sociales llevan tiempo descendiendo en su ponderación, y la compañía parece evolucionar hacia algo como el KBT, del que hemos hablado en otras ocasiones, para determinar una métrica de calidad de las páginas y, consecuentemente, de su relevancia. La consigna es clara: no se puede privilegiar en términos de relevancia a páginas que busquen el clic a toda costa basándose en técnicas que nadie considera bueno privilegiar.
El gran problema de las páginas basura, no obstante, es su heterogeneidad y la laxitud en su definición. Son, en muchos sentidos, como la famosa resolución de aquel juez norteamericano que trataba de explicar si un contenido era o no obsceno con la frase «I know it when I see it«, «lo sé cuando lo veo». La medida anunciada por Facebook es, claramente, una manera de intentar determinar precisamente eso: si una página es basura o no, en función de una definición establecida como “páginas que contengan poco contenido sustantivo, cubiertas de anuncios molestos, excesivamente impactantes o maliciosos”. Y si efectivamente lo es, tratar de evitar la posibilidad de que alcance más visibilidad gracias a sus algoritmos.
Las páginas basura son el equivalente en la web del periodismo amarillo y de los tabloides: sin duda, un contenido que tiene sus adeptos, y que en algunos países genera un negocio importante. En su paso a internet, con la disminución de la fricción y con la facilidad para generar métricas de relevancia erróneas, el fenómeno se disparó hasta límites insostenibles. Medidas como las tomadas por Facebook o Google son fundamentales para poner coto a su desarrollo, para mejorar la calidad de la web. El resto de la responsabilidad corresponde al usuario, que si bien debe seguir manteniendo la libertad de poder compartir lo que le venga en gana, debe reflexionar sobre la idoneidad de asociar su imagen con la de páginas de esas características, y desarrollar unas mínimas opciones y criterio sobre la calidad de la información que maneja y comparte.
En cualquier caso, todo indica que las cosas estarán más difíciles para los medios que en su momento, y con una orientación claramente cortoplacista, optaron por ese tipo de tácticas para incrementar su visibilidad. Medidas que tienden a hacer algo muy necesario y positivo: poner las cosas en su sitio y sacar la basura a donde corresponde.
This post is also available in English in my Medium page, “Putting the trash out where it belongs»
Interesante artículo Enrique aunque me gustaría puntualizar que Google ha afirmado que NO utiliza las señales sociales (shares, likes, tweets) cómo factor para el posicionamiento orgánico. Según ellos, nunca lo ha hecho.
Interesante artículo que explica un poco más sobre la posible relación entre señales sociales y posicionamiento orgánico: What’s the Real Relationship Between Organic Rankings & Social Shares? (Hint: They’re Related, But Not the Way You Think)
Seria interesante ver como categorizan las paginas de los medios oficiales del gobierno de turno, donde solo publican la «basura» que a ellos les conviene.
Una entrada muy interesante y necesaria. Lo único que echo de menos es la comparación con otros buscadores.
Aquí un artículo para quien le interese conocer la complejidad del algoritmo de Google y las constantes actualizaciones;
Cambios en el Algoritmo de Google
Tratar de ordenar los contenidos por la calidad y no por la popularidad, debería ser el objetivo de cualquier algoritmo de recomendación que pretenda ser prescriptor de contenidos., El problema está en como saber valorar mecánicamente la calidad. En cambio valorar la popularidad es bastante mas sencillo, razón por la cual al final el «peso» de la popularidad se valora en exceso.
Bienvenidos sean los esfuerzos por valorar la calidad , lo haga quien lo haga y para el producto que sea.
¿Por qué hay gente pidiendo en la calle? Porque sale a cuenta.
¿Por qué casi nadie llama a la puerta de casa a pedir dinero? Porque nos molesta esa actitud y no damos nada. Por eso se ha abandonado esa costumbre.
Existe prensa basura, televisión basura, páginas web basura, comida basura… porque nos gusta y por ello nos lo ofrecen e incluso lo buscamos directamente.
La mayor parte de lo bueno y lo malo que nos sucede es por nuestra culpa. El buscador no tiene nada que ver.
A modo de ejemplo: Cada vez es más habitual ver en las portadas de periódicos de información general, e incluso económica, noticias más propias de una infame cadena de tv por todos conocida. Pongamos uno cualquiera:
http://www.abc.es/
¿Seguro que la culpa es de Google?
No, la culpa de que haya periodismo basura y amarillo no es de Google. Pero en la difusión salvaje que ha llegado a alcanzar en la red sí tiene Google algo que ver, por acción o por omisión. Y afortunadamente, junto con otros como Facebook, está en vías de corregir el tema.
Si Google o el Caralibro eliminan o limitan esos contenidos, dudo que lo lleguen a hacer, los consumidores de ese producto buscarán otras vías y ellos perderán visitas.
De hecho una de las razones fundamentales razones del éxito del Caralibro es que cualquiera puede sentirse como una estrella regalando su intimidad, sin que nadie le pregunte. Semos asín. Ni George Orwell hubiera imaginado un sometimiento voluntario de tal magnitud.
En la calle o en la red, la libertad de uno para tirar basura acaba donde empieza la libertad del otro para no tener que sufrirla… debía ser simple llegar a un acuerdo (lo difícil entre humanos será ponerlo en práctica, claro).
Porque las moscas lo tienen claro, pero que considera basura un ser humano adulto?
Es curioso como incluso los medios «serios» se están dejando tentar cada vez más por estos recursos primarias para captar la atención: titulares en forma de interrogación, listados, insinuaciones inacabadas… sin darse cuenta que sí, pueden generar algunos clicks más, pero también empobrecen la experiencia de lectura y frustran al usuario que, a menudo, ve insatisfechas unas expectativas innecesariamente infladas.
Hoy mismo, en El País:
– ¿Qué le pasa a tu cerebro cuando te equivocas?
– Así ha conseguido este pueblo tener la luz más barata de España
– ¿Estarías dispuesto a que tu voto no fuera secreto?
– ¿Qué gastos de la hipoteca asume ya la banca?
– 11 gestos absurdamente masculinos (y lo que significan)
– 10 aventuras para escaladores principiantes en España
– 18 preguntas que todo madrileño se ha hecho alguna vez
– El coche que deberías comprarte (y el que no) si quieres viajar seguro
– El infalible truco de un padre para parar el llanto de su bebé
…
Uno ya no sabe si está leyendo el periódico, el muro de facebook, o el Superpop. :(