Facebook puede ser muy agradable: vemos las actualizaciones con las que estamos de acuerdo y a las personas que mejor nos caen. No aparece ni un solo titular de los periódicos que más nos desagradan y tampoco vemos ninguna novedad de ese tipo tan desagradable al que solo añadimos por compromiso.
Esto no es casualidad, claro. Tampoco es tan bueno como parece.
Eli Pariser es activista y fundador de la web de contenido viral Upworthy. En 2011 publicó un libro titulado The Filter Bubble, que arrancaba explicando los cambios en el algoritmo de Google de 2009, cuando el buscador comenzó a personalizar sus resultados para cada usuario.
El libro se acaba de publicar en español, con el título El filtro burbuja: cómo la red decide lo que leemos y lo que pensamos. Y, cosa poco habitual en un libro sobre internet, seis años más tarde sigue siendo tan relevante como lo era entonces. Incluso puede que más, después de la última campaña presidencial estadounidense.
Cómo funciona la burbuja de filtros
Aunque el libro de Pariser comienza hablando de Google, este buscador no está solo en lo que se refiere a la personalización: basta con pensar en esa tostadora que nos persigue banner tras banner después de haberle echado un vistazo en Amazon. Incluso Twitter nos recomienda tuits que “quizá nos perdimos” cuando entramos.
Facebook merece un punto y aparte. Su algoritmo, es decir, los criterios diseñados para escoger las publicaciones que nos encontramos en la portada, ha sido objeto incluso de chistes del diario satírico The Onion, el precursor estadounidense de El Mundo Today. “Un horrible error en el algoritmo de Facebook provoca la exposición a nuevas ideas”. En el cuerpo de la noticia se aseguraba que “un equipo de ingenieros está trabajando para asegurarse de que no vuelva a pasar nada parecido” y que el consejero de la compañía, Mark Zuckerberg, se ha disculpado por este "fallo inexcusable".
Fuera de Facebook, nadie sabe exactamente cómo funciona este algoritmo, pero en principio se basa en nuestros comentarios, en si pinchamos o no en los enlaces, en las interacciones que mantenemos con nuestros amigos y las páginas a las que seguimos, entre otros factores. La excusa es que no tendríamos tiempo para ver todas las actualizaciones de todos nuestros amigos, pero su objetivo real es que los contenidos que veamos nos gusten y que pasemos el mayor tiempo posible dentro de la red social.
Toda esta personalización, mucho más extendida ya que cuando Pariser escribió su libro, tiene sus ventajas, ya que nos puede resultar más fácil encontrar contenidos que nos gusten. Pensemos, por ejemplo, en las listas personalizadas que ofrece Spotify.
Pero tiene sus inconvenientes. El principal es que crea una burbuja que hace más lejanos e inaccesibles los puntos de vista diferentes. Este asunto salió a relucir durante las últimas elecciones estadounidenses, cuando se planteó el posible efecto de las redes sociales en la polarización de la opinión pública.
El Wall Street Journal incluso puso en marcha un simulador, del que ya hablamos en noviembre, que permitía ver el aspecto que podría tener el newsfeed de un progresista y el de un conservador en lo que respecta a varios temas de actualidad. En la captura de pantalla se pueden ver cómo un simpatizante del partido demócrata veía cómo se criticaba a Trump por no hacer públicas sus declaraciones de impuestos, mientras que a uno republicano le llegaban noticias sobre los correos electrónicos de Clinton.
La burbuja de filtros también ha influido en la difusión de las noticias falsas. No solo compartimos más lo que nos gusta, sino que somos menos críticos con esos contenidos. El sesgo de confirmación hace que demos por válido cualquier titular que cuadre con nuestra visión del mundo, mientras que rechazamos los que la contradicen, racionalizando a posteriori esta reacción casi visceral.
Si nos llega a través de un amigo un titular que cuadra con lo que pensamos, apenas perdemos tiempo poniéndolo en duda. Como decía otro titular de The Onion: “Un usuario de Facebook verifica la verdad de un artículo tras contrastarlo cuidadosamente con sus opiniones preconcebidas”.
Cómo escapar del algoritmo
Para Periser, una de las mejores cosas de internet es que ayuda a que nos encontremos por azar con ideas e iniciativas que desconocíamos. Y cree que además debemos estar abiertos a opiniones que no nos gustan. Si no, el diálogo en internet se ve sustituido por la creación de bandos impermeables.
“A pesar de que internet tiene el potencial de descentralizar el conocimiento y el control, en la práctica está concentrando este control de lo que vemos y de las oportunidades que se nos ofrecen en manos de menos gente que nunca”, escribe. Además, esta personalización es “invisible para los usuarios y, como resultado, está fuera de nuestro control”. A menudo no sabemos qué nos estamos perdiendo y cómo podríamos acceder a esos contenidos.
Periser cree que empresas como Facebook y Google deberían crear espacios más abiertos, que permitan la exposición a ideas diferentes, mediante, por ejemplo el control del alcance de este algoritmo. También deberían ser más transparentes: no solo deberíamos saber cómo decide Facebook (y compañía) qué nos muestra y qué no, sino que debería permitir el acceso a los datos que tiene de nosotros, cosa que es obligatoria según la ley europea.
Pero no toda la responsabilidad es de las redes sociales y de las empresas de publicidad. Nosotros también hemos de hacer el esfuerzo necesario para “encontrar nuevas ideas y personas”, ya sea buscándolas activamente o engañando a los algoritmos al mostrar interés y preferencias por temas y puntos de vista diferentes. También podemos borrar las cookies, usar navegadores en modo incógnito y, en la medida de lo posible, consultar y borrar los datos que los servicios tengan de nosotros (con Google, por ejemplo, se puede; al menos en parte).
De lo contrario, en lugar de redes nos tendremos que conformar con trincheras.
* También puedes seguirnos en Instagram y Flipboard. ¡No te pierdas lo mejor de Verne!