On évoque souvent la présence des femmes dans l’intelligence artificielle comme une case à cocher ou une exigence de diversité. Mais réduire ce sujet à un enjeu d’image revient à passer à côté de l’essentiel : la question n’est pas qui travaille dans la tech, mais qui décide des outils qui organiseront silencieusement le fonctionnement du monde. L’IA n’est plus une innovation périphérique, c’est l’ossature invisible de tous les secteurs : elle influence les diagnostics médicaux, infléchit les politiques de ressources humaines, trie les candidatures, priorise des investissements, détermine quels contenus sont visibles ou invisibles, modélise des risques climatiques et, de plus en plus, participe aux décisions publiques. Et pourtant, dans ce domaine stratégique, les femmes ne représentent que 22 % des effectifs mondiaux, 26,3 % en Europe et seulement 25 % en France, avec un décrochage encore plus fort dans la recherche ou les formations spécialisées.
Ce qui rend cette situation problématique n’a rien à voir avec une supposée “sensibilité féminine” qui manquerait au secteur, une vision réductrice et dépassée qu’il est urgent de laisser derrière nous. Le véritable enjeu tient au fait que lorsque les mêmes profils issus d’un même milieu, d’une même culture, d’un même imaginaire conçoivent et valident les architectures de décision, ils finissent, souvent malgré eux, par imprimer leurs biais dans les systèmes qu’ils développent. Et comme ces systèmes ne restent pas cantonnés aux laboratoires, mais interviennent désormais dans des domaines aussi décisifs que l’accès au logement, les soins, le crédit ou l’emploi, cette homogénéité devient un sujet de société bien plus large qu’une simple question de représentativité. Lorsqu’un algorithme analyse un dossier de location, il peut reproduire les schémas historiques qui ont rendu certains profils “moins solvables” dans les données d’entraînement. Lorsqu’un outil médical priorise des patients, il peut sous-évaluer la gravité de certaines personnes si ces dernières ont été historiquement moins prises en charge dans les bases utilisées. Lorsqu’un modèle bancaire évalue un crédit, il peut considérer comme “à risque” un groupe qui a simplement été moins financé par le passé. Et lorsqu’une IA trie des CV ou évalue un parcours professionnel, elle peut juger “supérieurs” les profils qui correspondaient aux habitudes de recrutement d’hier. Autrement dit, une IA conçue par une minorité homogène ne produit pas seulement des technologies imparfaites ; elle contribue, silencieusement, à reproduire des inégalités bien réelles dans la vie quotidienne.
L’absence des femmes dans l’IA n’est pas une question de motivation ou de légitimité ; elle s’explique par une chaîne de mécanismes accumulés au fil des décennies, où l’orientation scolaire a orienté subtilement les choix : les garçons encouragés vers les filières dites “dures”, les filles poussées vers des domaines considérés comme plus “adaptés”, alors même que ces catégorisations sont historiquement construites et scientifiquement infondées. À cela s’ajoute le manque de figures visibles capables d’incarner ces métiers, la force des réseaux professionnels déjà établis, les codes internes (parfois implicites) qui régissent une industrie dominée par des dynamiques héritées du passé, et la difficulté, encore trop fréquente, à se projeter dans un environnement où l’on ne se voit pas représentée. Les organisations reproduisent souvent leur propre image, par effet d’inertie, bien plus qu’elles ne reflètent la société dans laquelle elles évoluent.
Pourtant, le paysage bouge. Les entreprises, bousculées par l’arrivée massive de nouvelles régulations, par la pression éthique et par l’explosion des usages, commencent à réinterroger leurs pratiques. Plus de la moitié testent désormais leurs modèles pour détecter les biais ; la France s’illustre même avec 56 % d’entre elles dotées de comités d’éthique dédiés à l’IA, un taux qui place le pays en tête de l’Europe. Et surtout, 88 % prévoient d’augmenter leurs investissements dans ce domaine dans les douze prochains mois. Cette dynamique transforme profondément le secteur : l’IA n’est plus perçue comme un territoire réservé à celles et ceux qui codent, mais comme une infrastructure transversale où l’analyse, la stratégie, la compréhension des usages, l’interprétation des données, la communication et la gouvernance deviennent tout aussi cruciales que la programmation elle-même. Autrement dit, l’IA n’est plus un bastion technique fermé : c’est un espace d’opportunités où se redessinent les métiers et les responsabilités.
Si l’on veut que cette technologie reflète réellement la diversité des réalités humaines, il est indispensable que celles et ceux qui la conçoivent, qui l’entraînent, qui la déploient et qui en évaluent les impacts représentent l’ensemble de la société. Pas comme une contrainte, mais comme une condition de fiabilité, d’innovation et de justice. L’enjeu n’est pas de remplir une salle avec des profils “variés”, mais de garantir que l’outil le plus puissant de notre époque soit façonné par une pluralité de points de vue capables de comprendre ce que les données ne montrent pas spontanément.
La question n’est donc pas “où sont les femmes ?”, mais : quelle société voulons-nous construire à travers les technologies que nous créons ? Et surtout, qui aura un siège à la table où se décidera ce que sera l’intelligence demain.
Article écrit par Bathilde Ferreaux