Cómo funciona el algoritmo de Twitter para que si buscas la palabra "racist" aparezca Trump

Según la empresa, esto se debe a que ambos términos aparecen juntos en muchos tuits

  • Comentar
  • Imprimir
Buscar racist en Twitter
Getty Images

Si uno busca en Twitter la palabra “racist”, racista en inglés, el primer resultado en la pestaña de “personas” es Donald Trump. También si se busca “racism”, racismo. Ocurre aunque se haga desde un navegador en modo de incógnito y sin registrarse en la red social, es decir, sin tener en cuenta nuestro perfil y nuestro historial de búsquedas. Esto no pasa cuando se introducen las palabras en español ("racista" y "racismo").

Tom Warren, periodista del medio tecnológico estadounidense The Verge, tuiteó el pantallazo de esta búsqueda el sábado. Desde entonces, otros usuarios la han repetido con los mismos resultados.

Esta asociación se debe a cómo funciona el algoritmo de búsqueda de la red social, tal y como explica la red social en un comunicado que ha hecho llegar a Verne. Si muchos tuits y usuarios mencionan a menudo una cuenta junto a ciertos términos, esta cuenta puede aparecer como resultado recomendado a la hora de buscar estas palabras. Al buscar tuits con las palabras racist y racism”, se puede ver que los términos aparecen a menudo asociados al nombre de Donald Trump en tuits recientes sobre las protestas contra la discriminación racial tras la muerte de George Floyd, asfixiado por un policía. Por poner otro ejemplo, si buscamos "racismo" en español, los primeros resultados son organizaciones antirracistas.

Captura de pantalla de la búsqueda de racist en un navegador en modo de incógnito hecha este lunes a las 8 de la mañana, hora española

Además y según Digimind, una herramienta de análisis de tuits, las palabras Trump y racist aparecen juntas en 1,5 millones de mensajes en esta red social desde el 29 de mayo, cuatro días después de la muerte de Floyd. Por comparar, Trump y "coronavirus" aparecen juntos en alredededor de un millón de tuits en el mismo periodo.

Todo esto viene tras la polémica por cómo Twitter ha etiquetado algunos mensajes recientes del presidente de Estados Unidos. En las últimas semanas, la red social ha avisado de que tres tuits de Trump contenían información errónea o, en el caso de un mensaje relacionado con las protestas, que glorificaba la violencia. En 2017 y tras las amenazas de guerra nuclear a Corea del Norte, Twitter ya avisó de que no eliminaría los mensajes del presidente al ser de “interés público”, pero en 2020 la red ha comenzado a usar un sistema de advertencias que también afecta a cargos públicos y candidatos. Estos mensajes no se borran, pero sí aparece un aviso acerca del contenido.

Del "Google bombing" a la "búsqueda inteligente" de YouTube

Los algoritmos de redes sociales y plataformas son los responsables, por ejemplo, de que veamos en Facebook más mensajes de amigos con los que interactuamos que de empresas. También de que en Twitter se nos recomiende seguir a ciertas cuentas, basándose en a quién leemos y con quién interactuamos. Del mismo modo, cuando buscamos un término en Twitter, en la pestaña de “Destacados” se nos muestran tuits populares y, además, ajustados a nuestro perfil (por ejemplo, de cuentas a las que seguimos).

Pero a veces dan esta clase de situaciones. Hace años, Google tuvo que modificar su algoritmo para atajar los “Google bombing”, que consistían en asociar un término a una persona o a una organización para que apareciera primero en los resultados. Así, hubo campañas para que al buscar “ladrones” el primer resultado fuera la SGAE (llegó a aparecer en la primera página), o que un usuario del buscador diera con el presidente George W. Bush al buscar en inglés “miserable failure” (fracaso miserable). Es decir, lo que ha pasado ahora con Twitter y Trump, pero intencionadamente.

Otro sistema automatizado que ha causado errores es el traductor de Google. Por ejemplo, hace unos años tradujo la “Feira do Grelo” de As Pontes por la feria del “clítoris”, al ser "grelo" argot brasileño para esta parte de la anatomía femenina. El error llegó a la página del Ayuntamiento. Y en 2019, durante las protestas de Hong Kong, Google Translate proponía traducir “estoy triste de ver a Hong Kong convertirse en parte de China” (en inglés) por “estoy feliz de ver a Hong Kong convertirse en parte de China” (en chino).

Facebook e Instagram también tienen automatizada la búsqueda de publicaciones que incumplen sus normas comunitarias, en busca de contenidos relacionados con violencia gráfica, lenguaje que incite al odio o al acoso, desnudos y actividad sexual. Esto ha provocado que se borraran fotos de obras de arte, al identificarse como desnudos, y, también, la imagen de un cocido gallego.

En ocasiones, los problemas han ido más allá de la anécdota y han incorporado sesgos. Un ejemplo polémico fue cómo Google Photos etiquetaba a personas negras como “gorilas”. La única solución que encontró Google fue borrar las etiquetas de estos animales.

Pero a veces los resultados de estas asociaciones son positivos. Por ejemplo, gracias a una funcionalidad de búsqueda de YouTube, uno puede encontrar la canción I want to break free, de Queen, si busca “aguan tu refri”.

* También puedes seguirnos en Instagram y Flipboard. ¡No te pierdas lo mejor de Verne!

  • Comentar
  • Imprimir

Comentar Normas

Lo más visto en Verne