Grâce à elle, Netflix vise juste lorsqu’il nous suggère de commencer la série «The End of the F***ing World ». Siri comprend quand on lui demande de nous raconter une blague avec l’accent canadien et Facebook reconnaît le visage de nos copines pour les taguer sur nos photos de soirées. L’intelligence artificielle (IA) envahit notre quotidien. Et dans quelques années, elle touchera sûrement tous les secteurs de la société… Mais si on fantasme régulièrement sur les progrès de cette technologie, on oublie souvent d’aborder un point crucial : le manque de femmes. Spoiler alert : dans ce domaine, on retrouve principalement des mecs. Les hommes représentent la majorité des informaticiens et le manque de diversité provoque encore plus de dégâts qu’on ne le croit.                         

« C’est très important d’avoir une pluralité de visions, et donc une pluralité de personnes dans l’équipe qui développe des outils numériques », explique Aurélie Jean, codeuse et docteure en science qui milite pour diversifier le monde de la tech. « Sans ça, on risque de créer des discriminations technologiques : certaines personnes seront écartées parce qu’un biais a été introduit, de façon non intentionnelle, lors de la phase d’entraînement de l’algorithme ». Un exemple plus parlant ? Lorsque Siri est née en 2011, elle était incapable de nous indiquer où se procurer une pilule du lendemain. En fait, elle ne comprenait même pas la question. On l’aura deviné, la team de scientifiques chargés de développer l’assistant personnel d’Apple n’était composée que de mecs. Et vu que la contraception d’urgence ne faisait apparemment pas partie de leur réalité, ils n’y ont pas pensé. 

Mais c’est évidemment la diversité au sens large qu’il faut promouvoir.

Le but ? S’assurer que toutes les personnes soient représentées, quel que soit leur genre, leur couleur de peau, leur religion ou encore leur orientation sexuelle. Et c’est plus que nécessaire. Encore aujourd’hui, certains algorithmes de recrutement ont tendance à défavoriser les CV des femmes. Les logiciels de reconnaissance faciale sont toujours plus efficaces sur les hommes blancs et en 2015, l’algorithme de Google confondait les portraits d’Afro-Américains avec des gorilles… On l’a compris, les algorithmes ont tendance à reproduire les préjugés, parfois inconscients, de leurs créateurs.  

« Avant qu’un logiciel d’intelligence artificielle ne soit au point, il passe d’abord par une phase d’entraînement. L’informaticien va lui fournir une grande masse de données pour qu’il apprenne à faire des liens et à accomplir les tâches voulues. Mais si les données de départ ne sont pas assez variées, si elles sont orientées ou mal pondérées, cela pose problème. D’autant plus que, dans l’intelligence artificielle, les biais ont tendance à être automatisés et surtout amplifiés », explique Caroline Lair, cofondatrice de Women in AI, une association qui encourage les femmes à se lancer dans le secteur de l’intelligence artificielle. « Lorsque vous avez affaire à un humain, vous pouvez toujours débattre. C’est plus difficile de discuter et de rectifier le coup avec une machine ». On confirme. Vous vous souvenez de Tay, l’intelligence artificielle de Microsoft ? Censée incarner une teenager américaine, fan de Taylor Swift et du clan Kardashian, elle avait fait ses premiers pas sur Twitter en 2016… avant de vite être débranchée. En moins de 24 heures, elle était devenue raciste et sexiste au contact des internautes.