Pour montrer à quel point les données utilisées pour entraîner l’algorithme sont cruciales, le MIT a d’ailleurs réalisé une expérience étrange : développer une IA psychopathe. Son petit nom ? Norman, comme le serial killer de Psychose, le film d’Hitchcock. « Les chercheurs ont entraîné deux intelligences artificielles à reconnaître des images. La première a ‘visionné’ toute une série de photos d’humains et d’animaux. La deuxième a été confrontée à des images de morts violentes. L’équipe leur a ensuite fait passer le test de Rorschach. Là où l’intelligence artificielle standard interprétait les taches d’encre comme un vase avec des fleurs, Norman voyait un homme se faire abattre devant sa femme», raconte Yves Deville, professeur d’informatique à l’Ecole Polytechnique de Louvain. Ici, l’apprentissage est volontairement biaisé mais ça montre à quel point on peut influencer le comportement d’une IA. Dans un sens comme dans l’autre d’ailleurs. « On pourrait même imaginer biaiser positivement les critères explicites d’un algorithme pour rééquilibrer les discriminations existantes dans la société. Mais c’est une technique à prendre avec délicatesse », insiste Aurélie Jean.   

Les intelligences artificielles, nouvelles féministes oeuvrant pour l’égalité hommes-femmes ?

On en est encore loin. Et la quantité de testostérone présente dans la Silicon Valley n’y est pas pour rien. Ce n’est pas un hasard si les robots ont des corps d’actrices porno et si pratiquement tous les assistants virtuels sont des femmes. D’après son créateur, Siri signifie en norvégien « belle femme qui vous conduit à la victoire » et le prénom de l’application de Microsoft, Cortana, vient de la bombasse du jeu vidéo Halo. Pour certains, il ne faut pas « aller chercher la petite bête ». Les assistants personnels ont des voix de filles par défaut, tout simplement parce que ça rassure les utilisateurs. Les autres y voient plutôt un renforcement des stéréotypes sexistes : les femmes sont cantonnées à ce rôle de secrétaire sexy à notre service.  

« C’est vrai, les études montrent que nous préférons les voix de femmes mais c’est une réponse simpliste. Quand il s’agit de commenter un match de foot ou un programme de télévision sérieux, les voix d’hommes sont privilégiées. C’est un biais culturel qui associe les mecs aux leaders et les filles aux subalternes », indique Anne Lise Kjaer. Futurologue danoise de renommée internationale, elle a donné des conférences au MIT ou à Cambridge notamment. « Ce n’est pas vraiment le fait qu’on utilise des voix de femmes pour les assistantes virtuelles qui me dérange mais plutôt ce qu’elles disent. Les géants de l’intelligence artificielle engagent des scénaristes hollywoodiens pour écrire les dialogues des robots, humaniser ces bots avec qui l’on ‘parle’ sur les chats. Mais il faudrait revoir la manière dont sont écrits ces scénarios, ils sont souvent extrêmement sexistes », raconte Caroline Lair.   

Et vu qu’une bonne partie des requêtes faites aux assistantes personnelles concerne leur vie sexuelle, la mesure serait plutôt utile. En 2017, une journaliste de Quartz avait d’ailleurs réalisé une expérience sur le sujet. Elle avait insulté quatre intelligences artificielles avant de leur proposer une soirée caliente. Résultat ? La plupart des « filles » évitent la question ou sont flattées. Quand on lui dit qu’elle est une salope, Alexa répond « Merci pour le feedback » et Siri affirme qu’elle « rougirait si elle pouvait » lorsqu’un utilisateur lui réclame une fellation. Un an plus tard, Amazon décide alors de modifier son assistante virtuelle. Alexa est dorénavant plus ferme face au harcèlement sexuel, mais pas encore assez à notre goût… Sa phrase fétiche ? « Je n’ai rien à vous répondre ». Il ne faudrait pas froisser le consommateur.