Facebook decide resolver la controversia en torno a la posible editorialización de sus trending topics surgida el pasado mayo mediante la sustitución del equipo completo de personas que llevaban a cabo esta tarea por un algoritmo que lo hará de manera automática, supervisado por ingenieros de la compañía.
Un equipo de entre 15 y 18 personas subcontratadas que se dedicaban a seleccionar las noticias y temáticas que generaban mayor atención en la red – o, más propiamente, aquellas en las que la atención generada se incrementaba de una manera más rápida – que recibieron la noticia de su despido a las cuatro de la tarde, en la que se les decía que tenían que abandonar el edificio a las cinco, tras cobrar el sueldo completo hasta el día 1 de septiembre más dos semanas adicionales como compensación. Debido a la rotación practicada por la empresa que suministraba estos trabajadores, ninguno llevaba en su puesto más de año y medio.
En su lugar, Facebook empleará a un grupo de ingenieros de la compañía encargados de supervisar el aprendizaje del algoritmo que seleccionará las noticias, con el fin de asegurarse de que los temas seleccionados sean genuinamente dignos de atención, se eviten repeticiones de titulares que reflejen los mismos temas, o se impida que temas antiguos puedan surgir con la apariencia de nuevos. En la mejor de las teorías, el papel de estos ingenieros debería ir reduciéndose con el tiempo a medida que el algoritmo de aprendizaje automático vaya haciendo cada vez mejor su trabajo. El cambio se acompaña también de un nuevo formato de presentación, en el que los temas se reflejarán de una forma más aséptica en la lista mediante una simple etiqueta, aunque se desplegarán con titulares completos cuando el usuario pase el ratón sobre ellos.
Facebook sabe perfectamente que el sesgo no es una característica intrínseca de los editores humanos, y que el uso de un algoritmo automatizado no librará a sus trending topics de contenerlo. Desde el artículo de Gizmodo que entrevistaba a ex-empleados encargados de confeccionar los trending topics, la compañía ha sido investigada por el Senado norteamericano, ha rediseñado en varias ocasiones el proceso, ha proporcionado formación a sus empleados sobre cómo reconocer y evitar el sesgo político, y se ha reunido con políticos conservadores para tranquilizarlos sobre las alegaciones de sesgo: eliminar al equipo de editores humanos es tan solo el último paso de todo un proceso frenético en el que la compañía intenta por todos los medios no ser etiquetada políticamente y no perder el favor de todo un hemisferio del pensamiento político.
¿Es la decisión de eliminar al equipo de editores una forma real de luchar contra el sesgo, o simplemente una acción simbólica, una forma de tener una excusa ante posibles acusaciones posteriores? La eliminación de un equipo de personas que desarrollaban una tarea y su sustitución por un algoritmo y unos ingenieros que lo supervisan es un proceso al que, sin duda, tendremos que acostumbrarnos a partir de ahora, pero en este caso, aparte de esa curiosa consideración de «el humano como el débil» o «el prescindible», nos encontramos, en el contexto de una compañía no especialmente presionada por la reducción de costes que conlleva eliminar los sueldos de personas, con la cuestión de que resulta muy posible que el problema real no desaparezca tras la sustitución, o incluso pueda empeorar, porque no hay ni persona perfecta, ni algoritmo perfecto. En la práctica, todo indica que se hace simplemente como forma de justificar algo desde un punto de vista estético, por tener un chivo expiatorio sin rostro al que señalar en caso de problemas, considerando que para el conjunto de la sociedad, la atribución del sesgo a las personas frente a unos algoritmos supuestamente neutrales es una creencia que, aunque errónea, aún se encuentra suficientemente arraigada. En reputación con respecto al sesgo, entre personas y algoritmos, gana el algoritmo, aunque sea por penalty injusto…
Es normal en cualquier empresa, sustituir un equipo de trabajadores por una máquina. A mi juicio, el problema de los sesgos no tiene que ver con quien haga las selección, sea algoritmo o persona, y si con las normas que se den para hacer la selección, si las normas no han cambiado los resultados serán similares y si han cambiado tendrán otros sesgos, pero no serán de ningún modo «objetivas», pues tal cosa es imposible, las razones para priorizar una noticia sobre otra, es siempre por fuerza subjetiva.
Ya que es un sistema automático, que aprovecen lo bueno que tiene y que personalicen los resultados. Yo desearía que eliminaran de mi TL las noticias donde aparecen, niños, perros y gatitos y todas las referidas a quien ha decidido actualizar su foto del perfil. Puedo asegurar por lo más sagrado, que tales noticias son para mí intrascendentes. A ver si con ello conseguimos dar un poco de interés a mi FB.
Yo me apunto también a eso de filtrar imágenes de perros y gatos de Facebook, ¡y de Twitter!
Coincido también en eso que sueles comentar de que estas inteligencias artificiales nos parecen un poco tontas. En Google Now por ejemplo me ofrecen publicaciones por temas de interés, pero sin discriminar si es a favor o en contra, por ejemplo en temas de política, alternando de la razón o de público, cuando son medios con lectores no intercambiables. En este caso realmente el algoritmo es objetivo, recomienda algo que supongo que habrá tenido relevancia, pero soy yo el subjetivo, que según qué medio no me interesan demasiado sus noticias o sus enfoques.
Yo creo que como en otros temas, necesitamos saber qué queremos antes de disparar desde la cintura. Queremos objetividad basada en la trascendencia tipo menéame? Queremos noticias bajo nuestra ideología, curadas de acuerdo a nuestro sesgo? Queremos noticias plurales con distintos enfoques para construirnos una opinión? Si no nos ponemos de acuerdo en esto, no matemos al algoritmo mensajero…
¿Y si el sesgo está en la lectura y no en la edición? Quiero decir, si el objetivo es seleccionar las noticias y temáticas que generan más atención en la red, ¿esta sesgado el algoritmo por presentarnos más noticias de gatitos si son las que generan más visitas, comentarios y publicaciones?
En USA Trump es un auténtico generador de noticias por sus comentarios fuera de lugar e ideología, ¿tiene el algoritmo que ignorarlos para no ser sesgado políticamente ? ¿O ponerlos en relevancia porque generan mucha más atención (positiva y negativa) que los de Clinton?
Mi titular sería otro: «Entre personas y algoritmo, gana el usuario/a»
Creo que es un paripé provisional en toda regla. Ese proceso de automatización no elimina totalmente el sesgo porque se basa en una serie de manos humanas que le dan al algoritmo las pautas. Como se ha dicho en los comentarios anteriores, el algoritmo no es subjetivo, pero quien lo programa sí.
Otra cosa -y esto si sería realmente innovador- y tarde o temprano será el sistema, es que Facebook tratase de crear una herramienta totalmente personalizable que se definiera no por el sesgo de FB, sino el sesgo de cada usuario/a. Por ejemplo, si estoy hasta el gorro de Donald Trump y sus disparates, que yo pueda decir «No me interesa la noticia» o en última instancia, que se eliminen todos los titulares que incluyan el nombre del magnate. Ese será el tipo de algoritmo que no dejará lugar para el debate porque el censor, si lo hay, será el usuario/a si desea personalizar las noticias que salen por defecto por sus propias preferencias.
Me parece muy buena idea eso de que el usuario pueda filtrar las noticias que no le interesen. En muchos sitios hay etiquetas que te permiten seleccionar aquellos artículos que la tienen asignada, pero todavía no he visto ninguno donde exista la opción de que no te muestre las noticias que llevan esa etiqueta.
El algoritmo siempre superará a las personas ya que siempre será exactamente igual, sin embargo jamás superará la imaginación de superación propia, todo siempre para beneficio del usuario, claro.
¿Que hay de malo en ser subjetivo?. Este blog tiene sesgo, y lo sabéis, sus lectores lo tenemos y los comentaristas más. Puedes no estar de acuerdo y querer leer distintos puntos de vista. Este es tu sitio porque FB nunca lo ha sido. El gran hermano te lo pone fácil, si no te gusta este post, no sigas leyendo, que Enrique no censura sus ideas, y la mayoría de nosotros tampoco.
¿Un algoritmo? ¿al final tendrá un sesgo?. Claro no tener sesgo es un sesgo. Prohibido prohibir del 68, que lujo, tan lejos y tan cerca.
No es deficiente recurrir a que un tercero distrópico y chapuzas te resuma su actualidad, ¿ha comido del árbol del bien y del mal? ya seas FB o fueras Google News en su momento.
Es al revés, tú pequeño descerebrado, si tú producto de FB tienes que escoger con que versión te quedas, y no que te den todo mascado como si fueras un bebé comiendo potitos. Allí fuera hay gente haciendo alta cocina. Ve a las fuentes a informarte… Y tú sigues delante del monitor mientras abres tu FB y se te cae la babá mientras lees lo que unos matados han puesto para ti y ahora lo que una rutina de medio pelo, piensa por ti.
Corolario: Tampoco McChicken es alta cocina.
Trending por automatismo, creo… ;-)
http://tecnologia.elpais.com/tecnologia/2016/08/30/actualidad/1472517847_415055.html
Sólo se han recortado las funciones en la edición por el departamento encargado de esa editorialización, para evitar acusaciones de sesgo político, y tratar de otorgar más relevancia a la selección automatizada de titulares.
Pero los algoritmos siguen la siendo los mismos, y seguirán cribando noticias mediante supervisión, como ha sucedido ayer mismo con una noticia falsa sobre una periodista que cubre la elecciones de EE.UU.
Cuando un proyecto no obtiene los resultados esperados, la medida habitual es despedir al departamento al completo, y proceder a una renovación del mismo, como se sabe que es habitual en este sector. Es una medida drástica, pero bastante efectiva en términos de comunicación, cuando se trata de recuperar la confianza. Y bastante habitual.
–
«A new group of humans will still be involved with Trending, although they’ll be asked to focus on correcting the algorithm’s mistakes, like preventing mundane or repetitive stories (…)»
–
Search FYI: An Update to Trending
A fake headline about Megyn Kelly was trending on Facebook – WaPo
Facebook is trying to get rid of bias in Trending news by getting rid of humans
Quizá fue un poco prematuro deshacerse de los becarios. https://www.washingtonpost.com/news/the-intersect/wp/2016/08/29/a-fake-headline-about-megyn-kelly-was-trending-on-facebook/
Aparte de mi opinión personal sobre leer refritos de noticias hechas por «contractors», o por «robotijos». la realidad es que los algoritmos de IA no están tan avanzados como algún «jefe cabr» quisiera para deshacerse de las personas. Me alegro.
Lo que hay detrás de esta noticia es una gestión empresarial arrogante y con el ahorro de costes como única medida. Van de error en error, como siempre. Lo depurarán pero la filosofía en que se fundamenta. Evidentemente, no.
Pero no nos engañemos, es lo que es FB, ni más ni menos. Hasta su vocero lo dice sin verguënza
http://newsroom.fb.com/news/2016/08/search-fyi-an-update-to-trending/
Operar a gran escala, dinero, dinero y más dinero. Vomitivo. Si vendes tu alma al diablo luego no te quejes… de ser un desalmado odiado, por mucha campaña revestida de charity global day, y demás payasadas yanquis.
http://tecnologia.elpais.com/tecnologia/2016/08/30/actualidad/1472517847_415055.html
Van de error en error, como siempre.
Valoración de la acción de FB al 30 de Agosto
«126,54USD Price increase1,58 (1,26 %)»
Algún acierto de vez en cuando, deben tener
Si están podridos de dinero
Ese es el objetivo de las sociedades anónimas ¿O no?
Si.
¿Y?
Que ten mal no lo harán, digo yo
Dice Vd.
Los que se niegan a ser sustituidos por un algoritmo, me recuerda a aquellos que pensaban que con una regla de calculo eran mas rapidos que con las primeras calculadoras…
¿Significa eso que todo va a ser sustituido?
Mi previsión es que la mayor parte si, pero siempre quedará la intervención humana para corregir o aportar cierta lógica a cosas que un algoritmo no podría entender.
¿Significa que habrá mas paro? Esta pregunta es difícil de responder ya que la ecuación es muy compleja porque lo que se destruye por un lado se genera en otro tipo de perfiles.
¿Soy el único al que le parece mucho más fácil introducir un sesgo en un algoritmo controlado por unos pocos ingenieros que en un equipo grande de personas que además rotan bastante y se pueden ir de la lengua si se les ha adoctrinado….?
A mi al menos el argumento de que es para garantizar que no hay sesgos me parece una tomadura de pelo
No. No lo eres