Pourquoi les algorithmes sont-ils sexistes ? par Katia Elkaim
Dernière mise à jour : 3 mars 2021

Rien ne peut décrire mon mouvement d’humeur lorsque, pour la cinquantième fois, mon logiciel de traduction adoré a persisté à mettre au masculin, les belles tournures de phrases bien féminines que je lui demandais de me traduire en anglais. Mon interlocuteur, le programme, prenait ses aises en utilisant toute la latitude grammaticale unisexe que la langue de Shakespeare lui donne pour, subrepticement, dissimuler mes « elle » ou « sa » en « he » ou « his ».
Alors j’ai voulu en savoir plus : pourquoi nom d’un petit bonhomme, même chez une machine, le genre masculin prédomine spontanément ? Ce sont les algorithmes, me suis-je immédiatement imaginée, tout en me disant au fond de moi-même que lesdits algorithmes, que je visualisais comme une suite mathématique incompréhensible, ne pouvaient avoir de préférence de genre. Alors, comme toute curieuse qui se respecte, je suis allée me renseigner.
Point 1 : L’algorithme pour les nuls.
L’algorithme est une sorte de mode d’emploi par étapes pour parvenir à un but donné. La comparaison la plus souvent proposée est celle de la recette de cuisine. Par exemple, si votre but est de faire une pizza, alors votre recette algorithmique sera : prendre de la farine, puis de l’eau, puis de l’huile d’olive, puis de la sauce tomate etc…les étapes allant jusqu’à mettre la pizza façonnée au four à 180 degrés. La chose se complique lorsqu’il y a plusieurs options. Ainsi, au moment de mettre la garniture sur la pizza, l’algorithme pourra introduire, sous la forme d’un arbre, les variables en fonction de ce que vous avez dans le frigo. Par exemple, dans votre recette, à l’étape « choix de la garniture », l’algorithme peut définir que s’il y a des champignons, on en met. S’il n’y a pas de champignons, mais qu’il y a du jambon alors, on met du jambon. S’il n’y a ni champignon, ni jambon, alors on ne met rien d’autre que de la sauce tomate. S’il y a des champignons et du jambon, l’algorithme pourra examiner vos choix par le passé et décider tout seul ce qu’il vous proposera, en fonction de ceux-ci. C’est ainsi que l’on passe de la voiture autonome au diagnostic médical par l’intelligence artificielle ou encore à une analyse en temps réel des marchés financiers.
Bien entendu, derrière ce processus, il y a un humain qui traduit cette recette de cuisine en termes compréhensibles pour une machine, et c’est là que le bât blesse.
Flora Vincent et Aude Bernheim, dans « L’Intelligence artificielle, pas sans elles ! », paru en 2019 relèvent que l’IA reflète la société dans laquelle nous vivons et ses biais, et Aude Bernheim de prendre précisément l’exemple des logiciels de traduction.
Alléluia ! Je n’étais pas complètement dans le faux en m’interrogeant. Ainsi, « the doctor » est toujours « le docteur » et « the nurse » toujours l’infirmière.
Vous me direz que c’est assez anecdotique, mais ça l’est moins lorsque les logiciels de reconnaissance faciale s’entraînent majoritairement sur des images d’hommes blancs ou que les algorithmes de certaines IA ont appris à associer le genre féminin avec l’espace cuisine d’une habitation à travers les milliers d’images de femmes dans ce type de pièce. Les biais que l’on a connu jusqu’à ce jour sont non seulement répliqués, mais aussi et surtout amplifiés, comme le relève Hannah Kuchler dans un article du Financial Times du 9 mars 2018, « Tech’s sexist algorithms and how to fix them ».