Cuando le preguntas a Siri si es hombre o mujer, el asistente virtual de Apple sale por la tangente de diversas formas:
-Que no te confunda mi voz: no tengo sexo.
-Los humanos tienen sexo. Yo no.
-Mi voz es similar a la de una mujer, pero existo en un plano ulterior al del concepto humano del sexo.
Evidentemente, Siri es un programa y no una persona. Pero tiene nombre y voz de mujer. No es un caso único. Microsoft, Amazon y Apple ofrecen sus asistentes, basados en el reconocimiento del lenguaje. “Casi sin excepción -escribe Adam Greenfield en su libro Radical Technologies-, estos asistentes reciben nombres y voces femeninas, presumiblemente basándose en investigaciones llevadas a cabo en Estados Unidos que indican que los usuarios de todos los géneros prefieren interactuar con mujeres”. No solo ocurre con grandes empresas tecnológicas: también pasa con Irene, la asistente virtual de Renfe, por poner otro ejemplo.
Aunque muchos de estos sistemas ya ofrecen otras opciones de voz, la que viene por defecto en la mayoría suele ser femenina. La principal excepción quizás sea M, el asistente que está desarrollando Facebook y que, al menos por lo que se ha publicado hasta el momento, tendrá nombre masculino, Marvin, como el androide deprimido de la Guía del autoestopista galáctico, las novelas de humor y ciencia ficción de Douglas Adams.
¿Animada y alegre o asertivo y confiado?
El hecho de que los asistentes virtuales sean mayoritariamente femeninos ha sido criticado con anterioridad. Nuria Oliver, doctora por el Media Lab del Instituto Tecnológico de Massachusetts (MIT) y directora de investigación en ciencia de datos en Vodafone, explica a Verne que en un primer momento es probable que las empresas solo buscasen “una voz agradable y fácil de entender”, características “quizás más atribuibles a las femeninas”. Pero esta decisión ha acabado generando “reflexiones sobre su impacto en los estereotipos”.
Por ejemplo, Chandra Steele escribía en PC Mag que el hecho de que se asocien voces y nombres de mujer a las tareas de los asistentes virtuales reproduce tópicos sociales. Siri sigue siendo la secretaria eficiente y Alexa es el ama de casa que se encarga de las compras.
En The Atlantic, Adrienne Lafrance escribía algo en la misma línea: “Estamos condicionados para esperar a mujeres, y no hombres, en roles administrativos, y los fabricantes de asistentes digitales están influidos por estas expectativas”.
Coincide Amparo Alonso Betanzos, coordinadora del laboratorio de inteligencia artificial de la Universidad de A Coruña, que añade a Verne que “las voces masculinas a veces se interpretan como alguien dando órdenes, en lugar de ayudando”.
Es cierto que las empresas afirman haber hecho estudios de mercado antes de lanzar sus asistentes, pero se trata de un círculo vicioso. Estamos acostumbrados a que las mujeres tengan un papel de cuidadoras y asistentes, por lo que su voz en estas aplicaciones parece la opción más adecuada. Y cuando las empresas usan estas voces, acaban reforzando esas ideas preconcebidas y dificultando los cambios.
No es el único efecto que estos asistentes podrían tener: algunos padres han mostrado su preocupación por el hecho de que los niños les hablen sin mostrar modales, lo que podrían trasladar a otros ámbitos. Google anunció en mayo una actualización que agradece que los niños pidan las cosas por favor. Puede parecer anecdótico, pero la tecnología no es algo que esté al margen de la sociedad.
A menudo, las empresas no son conscientes de estos problemas hasta que es demasiado tarde: por ejemplo, el asistente Bixby, de Samsung ofrecía en 2017 voz femenina y voz masculina, pero añadía unos adjetivos para describir cada una de ellas. La voz femenina era “animada, clara y alegre”, mientras que la masculina era “asertiva, confiada y clara”. La empresa borró estos adjetivos tras las críticas.
En cambio, Google está intentando configurar un asistente neutro. O, al menos, más neutro. Aunque la voz por defecto es la de una mujer, en su versión en inglés ofrece otras seis voces que se identifican por colores, en lugar de por nombres, que se asignan de forma aleatoria.
La creación de asistentes neutros es la preferencia de, entre otros, de Justine Cassell, decana de la Escuela de Ciencias de la Computación de la Universidad Carnegie Mellon. En su opinión y como recogía la web de NPR, la radio pública estadounidense, con solo modificar ligeramente las voces se puede conseguir esa neutralidad de género, quitando de la ecuación estereotipos heredados que no afectan al uso.
Nuria Oliver cree que la solución puede pasar por la personalización. No solo se trata de que podamos cambiar la voz entre las que se nos ofrecen, sino que en un futuro podremos poner la nuestra o la de algún familiar, si eso es lo que queremos.
Equipos diversos para evitar los sesgos
Es verdad que ahora los asistentes ofrecen otras opciones de voz, igual que ahora hay distintos tonos de piel en los emoticonos, por ejemplo. Pero Oliver apunta que si se hubiera contado con equipos diversos desde un primer momento, habría sido más probable que al menos el problema se identificara y se discutiera antes de lanzar el producto.
También apunta que la diversidad no solo debería ser demográfica, “sino también disciplinar, incluyendo en estos equipos a gente procedente de otros campos además de la informática: diseño, sociología, psicología, ética… Estos grupos son más difíciles de gestionar, pero también pueden lograr mejores resultados”.
Alonso coincide: “Los equipos más diversos pueden dar más puntos de vista”. Pone el ejemplo de los sistemas de reconocimiento facial, que siguen cometiendo errores a la hora de identificar a las personas negras, en especial las mujeres. Como apuntaba un estudio reciente del MIT, la causa es que estas personas están infrarrepresentadas en las bases de datos que se usan para entrenar a los programas. El estudio es de 2018, tres años después de que se llamara la atención del problema cuando se vio que Google Photos podía etiquetar a personas negras como “gorilas”.
“Esto a lo mejor no habría pasado si en los equipos hubiera más gente negra, que se habría fijado antes en su infrarrepresentación”. Alonso añade que el ejemplo se puede extrapolar al caso de los asistentes con voz de mujer. “No nos damos cuenta de que introducimos sesgos en nuestro trabajo”.
Oliver añade otros dos ejemplos de “discriminación algorítmica”: si buscamos CEO en Google, vemos imágenes sobre todo de hombres blancos de mediana edad; si buscamos nurse (enfermero y enfermera) aparecen sobre todo mujeres.
Oliver recuerda que no se trata solo de que en el mundo aún haya más consejeros delegados que consejeras delegadas y más enfermeras que enfermeros: “A menudo, cuando un algoritmo detecta una minoría -por ejemplo, una consejera delegada mujer y negra-, interpreta que es ruido y elimina ese resultado”. En consecuencia, a menudo no se recoge una realidad, como podría parecer, sino que se amplifica un estereotipo.