La ineludible responsabilidad de los algoritmos
Portada » Internet » La ineludible responsabilidad de los algoritmos

La ineludible responsabilidad de los algoritmos

Es imposible que no hayas leído en las últimas semanas algún artículo sobre el papel de la noticias falsas (fake news) en las últimas elecciones en EEUU. Resulta curioso ver como hay una especie de locura colectiva, especialmente en el ala demócrata, para intentar buscar explicaciones a cómo ha sido posible que Donald Trump haya sido elegido el presidente número 45 de los Estados Unidos de Norte América.

De toda la polémica relativa a las difusión de noticias falsas, especialmente sobre la candidata demócrata Hillary Clinton, me interesa particularmente el papel que han jugado los algoritmos en las Redes Sociales.

Un reciente artículo publicado por Facebook en la revista Science (gracias a Zeynep Tufekce por la referencia) muestra una correlación entre la posición de una publicación en el muro de Facebook y la probabilidad de conseguir un click.

Facebook-filtrado-y-placements.png

 

Se puede observar como el ratio de click baja a la mitad a partir de la posición número 10 en el muro y desde ahí sigue cayendo paulatinamente con una pendiente mucho menor. Resulta intuitivo pensar que hay una correlación entre el ratio de click y la visibilidad de un contenido, es decir, cuanto más arriba está un contenido mayor es la probabilidad de que lo vea un usuario.

Hace algunos años (2011!) tuve ocasión de escuchar la charla de Eli Pariser en TED, que incluyo a continuación,  y luego leer el libro del mismo autor y el mismo tema «The Filter Bubble: What The Internet Is Hiding From You«.  En la charla Pariser nos lleva a ver los riesgos de un sistema en el que los algoritmos seleccionan el contenido que vemos o, al menos, el que tenemos más probabilidad de ver. El problema, cómo argumenta Pariser, es que los algoritmos son una caja negra, de ahí que el autor abogue por una mayor transparencia sobre los criterios con los que filtran los algoritmos y un mayor control por parte del usuario.

Parece evidente que, en el fondo, los algoritmos están reflejando un conocido aspecto de la psicología humana: el sesgo de confirmación (confirmation bias). Este sesgo cognitivo lo define la wikipedia como «…la tendencia a favorecer, buscar, interpretar y recordar la información que confirma las propias creencias o hipótesis, dando desproporcionadamente menos consideración a posibles alternativas, lo que es lo mismo, el sesgo».

Siguiendo este razonamiento los investigadores de Facebook reconocen en su artículo de la revista Science que “the algorithm filters out 1 in 20 cross-cutting hard news stories that a self-identified conservative sees (or 5%) and 1 in 13cross-cutting hard news stories that a self-identified liberal sees (8%).” o lo que es lo mismo tienes menos probabilidad de ver contenidos con los que no estás de acuerdo en Facebook, aunque los hayan publicado tus amigos, porque el algoritmo del Edge Rank decide no mostrártelos. Si esto no fuese suficientemente relevante, como argumenta Zeynep Tufekce en su artículo en Medium, el efecto se multiplica bajo el peso de los clicks del usuario en el algoritmo. Es decir no sólo hay un filtrado de determinados contenidos sino que además los contenidos que tienen menos probabilidad de un click tienen más probabilidad de acabar en las últimas posiciones de nuestro muro, un caso de la profecía autocumplida.

El asunto está haciendo correr ríos de bits por internet. El conocido periodista Jeff Jarvis argumenta que Facebook no debería tener la responsabilidad de diferenciar entre la noticias reales y las falsas, afirmando que Facebook no es un medio aunque asume una parte de responsabilidad, y propone la colaboración con los medios para promover el contenido de calidad. Por su parte Tim O’Reilly  escribe un artículo interesantísimo («Media in the Age of Algorithms«) donde expone que Facebook, desde el momento que decidió empezar a filtrar la información que tiene más visibilidad en el muro del usuario en vez de seguir el estricto orden cronológico, asumió una responsabilidad. Al igual que Google lucha contra los que intentan engañar a sus algoritmos para mantener la calidad de las respuestas a las búsqueda de sus usuarios, Facebook debería hacer algo parecido.

Independientemente de la discusión sobre si Facebook tiene esa responsabilidad, discusión en la que yo coincido con la opinión de O’Reilly, es evidente que existe un riesgo de manipulación de los algoritmos para difundir noticias carentes de toda veracidad como ha ocurrido en la campaña. Esta manipulación se evidencia en el artículo del Washington Post en el que se acusaba a la propaganda rusa de haber difundido noticias falsa durante la campaña.

En su apasionante publicación «Fake News Is Not the Only Problem» el cientifico de datos  John Borthwick hace un imprescindible análisis exhaustivo de la difusión de noticias y memes sobre la polémica sobre los problemas de salud de la Sra. Clinton durante la campaña.

hillary-google-trends
Búsqueda de Google Trends sobre «Hillary Health»

Según Borthwick «Con la creciente polarización política, amplificada por homofilia – nuestra preferencia por conectar con gente similar a nosotros mismo – y los algoritmos de recomendación, estamos efectivamente construyendo nuestra propia realidad», la amenaza anticipada por Pariser se ha hecho realidad ante nuestros ojos sin apenas darnos cuenta.

Siguiendo con los argumentos de Borthwick en un mundo en el que las historias se crean tan rápidamente, ¿quién puede decidir lo que es real y lo que no?. En un mundo donde la noticias totalmente falsas conviven impunemente con las que contienen algo de verdad pero están sensiblemente sesgadas y el periodismo con oficio, aquel que aún cree en que hay que contrastar la información antes de publicarla, tenemos que pedirles a los que programan los algoritmos que ejerzan su responsabilidad más allá de la monetización de sus audiencia y de la profecía autocumplida de nuestros propios sesgos para encontrar la forma de que, lo que ha hecho grande a Internet, no desaparezca en manos de aquellos que mediante ingeniería inversa son capaces de descubrir como funciona el sistema, identificar sus fragilidades y aprovecharlas para manipular la opinión y la voluntad de sus ciudadanos.

CompartirFacebookX
Únete a la discusión

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.

Instagram

Instagram has returned empty data. Please authorize your Instagram account in the plugin settings .

Please note

This is a widgetized sidebar area and you can place any widget here, as you would with the classic WordPress sidebar.

Johannes

A multi-concept personal blog and magazine WordPress theme