“Un horrible error en el algoritmo de Facebook provoca la exposición a nuevas ideas”, dice el titular de The Onion. En el cuerpo de la noticia se asegura que “un equipo de ingenieros está trabajando para asegurarse de que no vuelva a pasar nada parecido” y que el consejero de la compañía, Mark Zuckerberg, se ha disculpado por este "fallo inexcusable".
The Onion es un diario satírico, claro. Esta noticia se ha compartido (en Facebook) unas 5.000 veces en menos de un día, muy por encima de lo que es habitual para este medio. Quizás porque, como los mejores titulares de The Onion, podría ser cierto: el contenido de la noticia se ajusta en gran medida a lo que ocurre con el algoritmo de la red social.
Este algoritmo es un conjunto de criterios diseñado para escoger las publicaciones que nos encontramos en la portada. Se basa en nuestros comentarios y en si pinchamos o no en los enlaces, además de en las interacciones que mantenemos con nuestros amigos o con las páginas a las que seguimos, entre otros factores. Su objetivo: que los contenidos nos gusten y que pasemos el mayor tiempo posible dentro de la red social.
De entrada, esto no suena mal: al fin y al cabo, es necesario algún tipo de filtro. Pero tiene sus riesgos. Primero, este artículo de The Washington Post recuerda que este sistema no está diseñado para ti, sino para los anunciantes. Y segundo, acaba provocando lo que Eli Pariser llama “burbuja de filtros”. Si el algoritmo aspira a mostrarnos solo lo que nos gusta, nos acabaremos perdiendo contenidos que podrían molestarnos y enfadarnos, y que aun así (o precisamente por eso) podrían ser importantes para nosotros.
Un ejemplo: el Wall Street Journal cuenta con un simulador que nos permite ver el aspecto que podría tener el newsfeed de un progresista y el de un conservador en lo que respecta a varios temas de actualidad. En la captura de pantalla se pueden ver las publicaciones sobre Hillary Clinton que aparecerían con facilidad en la portada de un simpatizante demócrata (en azul) y en la de uno republicano (en rojo).
La burbuja de filtros tampoco es exclusiva de esta red. Nos amenaza siempre que hay un algoritmo en juego. Desde hace unos meses, hay uno para Instagram. También está presente en las recomendaciones de Netflix e incluso en Google, que tiene en cuenta decenas de factores antes de mostrarnos los resultados de nuestra búsqueda, incluyendo nuestro historial, las páginas que hemos visitado e incluso dónde estamos.
Y, por supuesto, no toda la culpa es de Facebook, como se han encargado de subrayar desde la propia empresa: somos nosotros quienes no leemos esas noticias de los medios que no nos gustan y quienes ocultamos las publicaciones de ese amigo de derechas que es buena gente, pero que se pone insoportable cuando habla de política.
Además de eso, nosotros también podríamos esforzarnos más para buscar contenidos diferentes a los habituales. Por ejemplo, en Twitter no hay algoritmo salvo para seleccionar la decena de tuits que nos encontramos si llevamos tiempo sin entrar en la aplicación. Pero, aun así, tendemos a seguir a gente que piensa como nosotros.
De hecho, un estudio del instituto de análisis estadounidense Pew Research mostraba que cuando se habla de un tema político en esta red social, “es habitual ver cómo se establecen dos bandos separados. Forman dos grupos de debate diferentes que por lo general no interactúan el uno con el otro”.
Fuera de las redes también ocurre algo parecido, claro: leemos medios que son afines a nuestras ideas e incluso nos relacionamos más con personas que piensan como nosotros.
Pero aunque no toda la culpa sea de los algoritmos, estos influyen en lo que acabamos viendo y leyendo. De hecho, ese es su objetivo.
Uno de los principales problemas es que apenas podemos moderar su influencia. Por ejemplo y en lo que respecta a Facebook, no hay preferencias que podamos cambiar y, desde luego, tampoco podemos desactivarlo. Ni siquiera está claro cuál es el efecto de actuar de forma indirecta sobre el algoritmo (comenzando a seguir a ese periódico que no nos gusta, por ejemplo), por la sencilla razón de que sabemos muy poco acerca de cómo la red filtra los contenidos.
Por suerte, estos sistemas no son perfectos. Al menos, todavía. Intentan mostrarnos lo que nos va a gustar, pero a menudo nos encontramos con enlaces aburridos que nos recuerdan que deberíamos buscar contenidos en otro sitio. Y también es verdad que mucha gente se ha encontrado con el artículo de The Onion gracias precisamente a este algoritmo.