Addactis Data Community

Vers une intelligence artificielle plus inclusive : enjeux et perspectives de genre

10/07/2025

Une représentation déséquilibrée des femmes dans le domaine de l’IA

L’intelligence artificielle (IA), omniprésente dans notre quotidien, influence de plus en plus les dynamiques sociales, économiques et professionnelles. Pourtant, une analyse genrée de son écosystème révèle de profondes inégalités et des biais systémiques qui pèsent sur la place et le rôle des femmes dans le domaine de l’IA. Cet article propose une exploration approfondie des multiples facettes de cette réalité, en s’appuyant sur une trentaine de rapports, publications scientifiques et études de terrain : Quelle est la représentation des femmes dans l’IA ? Existe-t-il des biais de genre dans les algorithmes ? Quels sont les impacts sur le domaine de la santé ? Et de l’assurance ?

Une sous-représentation persistante des femmes dans les STEM et l’IA

Comme nous le constatons depuis de nombreuses années, les femmes restent largement minoritaires dans les domaines scientifiques et techniques, notamment dans l’IA. Aujourd’hui, elles représentent environ 22 % des professionnels de l’IA à l’échelle mondiale, avec une présence encore plus faible dans les postes de direction, les universités et les équipes techniques. Cette situation est le fruit d’un cumul de facteurs : stéréotypes de genre sur les compétences, orientation scolaire biaisée, absence de modèles féminins, autocensure (c’est-à-dire l’auto-exclusion de certaines trajectoires perçues comme masculines), équilibre travail-vie personnelle avec des responsabilités familiales pesant davantage sur les femmes, ou encore sexisme au travail. Cette tendance se constate également dans le domaine académique. En effet, les femmes publient moins dans les journaux de recherche en IA et leurs articles sont globalement moins cités que ceux des hommes. Des recherches comme « Voices of Her » ou « Gender-Specific Patterns in the AI Scientific Ecosystem » montrent que les contributions féminines sont sous-valorisées dans les réseaux de publication scientifique.

Une défiance nourrie par des préoccupations éthiques, de transparence et de gouvernance

Au-delà des obstacles structurels à l’entrée dans les métiers de l’IA, plusieurs études mettent en lumière une forme de distance critique des femmes vis-à-vis de cette technologie. Cette réticence ne relève pas d’un désintérêt, mais plutôt d’un manque de confiance nourri par des inquiétudes légitimes, souvent rapportées dans les domaines de la santé, de la gouvernance des données et de la régulation éthique. Certaines femmes expriment ainsi des craintes autour de l’usage de leurs données personnelles, en particulier dans des secteurs sensibles comme la santé ou la finance. Dans ces domaines, les décisions algorithmiques peuvent avoir des conséquences concrètes (accès aux soins, crédits, assurances). Le manque de transparence sur les critères de décision des systèmes algorithmiques, souvent opaques ou difficilement compréhensibles, accentue ce sentiment de vulnérabilité. Plusieurs publications (Fondation Jean-Jaurès, Magellan Partners, Harvard Business Review) suggèrent aussi que l’absence de gouvernance perçue comme inclusive – avec des comités dominés par des profils masculins, peu de concertation citoyenne et une faible prise en compte des enjeux de genre – alimente ce scepticisme. Ces éléments contribuent à un rapport ambivalent des femmes à l’IA, où se mêlent espoirs, attentes de progrès, mais aussi vigilance face aux risques de reproduction des inégalités.

Biais de genre dans les algorithmes : un miroir amplifiant les inégalités

L’IA, notamment dans ses versions génératives (ChatGPT, Midjourney, etc.), apprend sur des corpus de données massifs, souvent issus d’Internet, réseaux sociaux ou archives numériques. Ces données sont imprégnées de stéréotypes et de représentations sexistes, que les modèles reproduisent ensuite. Plusieurs études (UNESCO, Conseil du statut de la femme du Québec, Public Sénat) démontrent que les IA génératives associent davantage les femmes aux activités domestiques, à l’apparence physique ou à des professions de soin, tandis que les hommes sont liés à la compétence, au pouvoir ou à la technologie. Ces biais peuvent impacter concrètement la vie des femmes : recrutement automatisé discriminatoire, systèmes de reconnaissance faciale moins précis pour les femmes racisées, inégalités d’accès aux services ou aux soins, diagnostics médicaux erronés ou inadaptés. Une IA non inclusive peut ainsi renforcer des discriminations déjà existantes.

Santé, IA et genre : pour une médecine réellement inclusive

Comme nous l’évoquions précédemment, le domaine de la santé constitue un terrain d’observation privilégié des biais de genre véhiculés par les technologies d’IA. Historiquement, la médecine a longtemps été pensée selon un modèle masculin par défaut, reléguant les spécificités biologiques et symptomatiques des femmes au second plan. Cette tendance se répercute aujourd’hui dans les systèmes de soins automatisés et les bases de données sur lesquelles s’entraînent les intelligences artificielles.
Des études ont ainsi montré que les symptômes de maladies cardiovasculaires chez les femmes sont souvent sous-estimés ou mal interprétés. Des pathologies spécifiquement féminines (endométriose, SOPK, douleurs menstruelles chroniques…) sont également peu intégrées dans les outils de diagnostic. Pourtant, l’IA pourrait jouer un rôle majeur dans la réduction de ces inégalités, à condition que les outils soient conçus de manière inclusive. Voici quelques exemples constatés :

  • Un algorithme de deep learning analysant des mammographies a permis de détecter précocement des risques de cancer du sein.
  • L’IA améliore la prédiction des complications post-partum ou les parcours de soins adaptés à la santé reproductive.
  • Des plateformes numériques facilitent un meilleur accès à l’information médicale et un suivi personnalisé pour les femmes.
Les inégalités de genre en santé concernent également la santé mentale, un champ encore trop peu pris en compte dans les dispositifs actuels. Or, les femmes sont plus fréquemment touchées par certaines pathologies psychologiques, comme les troubles anxieux, la dépression ou le burn-out. Ces affections, souvent sous-diagnostiquées et stigmatisées, gagneraient à être mieux intégrées dans les outils de prévention et de détection assistés par IA. L’analyse de données comportementales ou physiologiques (sommeil, rythme de vie, langage) pourrait contribuer à une identification précoce et à un accompagnement adapté. Pour cela, les modèles doivent être entraînés de manière représentative et sensible aux variations de genre. Enfin, une gouvernance paritaire du numérique en santé reste indispensable pour garantir une médecine inclusive.

IA et assurance : entre risques discriminatoires et leviers d’équité

Le secteur de l’assurance, notamment santé et prévoyance, mobilise l’IA pour affiner les évaluations de risque. Mais cette pratique n’est pas neutre. Si les modèles sont construits à partir de données biaisées ou surreprésentant certains profils, ils risquent de renforcer les inégalités existantes. Les femmes, par exemple, peuvent être pénalisées par des antécédents de santé spécifiques (grossesses, troubles hormonaux), sans que ces facteurs soient remis dans le contexte. Face à ce défi, plusieurs pistes d’action émergent :

  • L’adoption d’approches d’évaluation globale des risques, intégrant des facteurs comportementaux au lieu de se concentrer uniquement sur des pathologies féminines.
  • La transparence sur les critères utilisés pour fixer les primes en assurance, avec des audits d’algorithmes pour détecter d’éventuelles discriminations indirectes. Certains assureurs, notamment en assurance emprunteur, testent des solutions de scoring plus lisibles, où les critères d’acceptation sont expliqués plus clairement (ex. : stabilité de l’emploi, absence d’antécédents lourds, mode de vie sain), limitant ainsi l’opacité des décisions automatisées et favorisant l’équité.
  • La mesure et l’atténuation des biais via des techniques d’IA dites “fairness-aware”, qui intègrent des contraintes d’équité, comme la Fairness-aware PCA appliquée à la tarification de l’assurance vie et à la prévision de mortalité (étude arXiv) permettant de corriger certains effets de proxy discrimination.

L’IA comme moyen de prévention

L’IA peut également être un levier positif en matière de prévention. Dans une logique de prévention active et d’accompagnement personnalisé, certains assureurs santé commencent à développer des programmes de suivi médical à destination de leurs assurées identifiées comme présentant un risque accru – qu’il s’agisse d’antécédents médicaux ou de facteurs comportementaux détectés via des outils prédictifs. Bien que ces initiatives soient encore émergentes, elles témoignent d’une évolution vers une approche plus individualisée de la gestion des risques. Dans ce contexte, les assureurs ont un rôle important à jouer dans la prévention. Ils peuvent – sous réserve de respecter la réglementation de protection des données personnelles :

  • Individualiser les messages de prévention en fonction des données de santé ou de mode de vie (âge, alimentation, activité physique, sommeil, antécédents familiaux)
  • Proposer des programmes d’accompagnement numérique ou de coaching santé (applications mobiles, plateformes de conseils, suivi en ligne)
  • Favoriser le dépistage précoce de certaines pathologies sous-diagnostiquées chez les femmes (maladies cardiovasculaires, troubles hormonaux, certains cancers)

De plus, des mémoires en actuariat montrent que la régulation algorithmique est possible, à condition d’y intégrer des métriques d’équité, des seuils d’acceptabilité et des indicateurs de transparence exploitables. En France, l’Autorité de Contrôle Prudentiel et de Résolution (ACPR) a publié plusieurs recommandations pour encadrer l’usage de l’IA dans l’assurance. Son rapport de 2022 insiste sur :

  • Un encadrement rigoureux des modèles (documentation, audits, traçabilité)
  • Des contrôles de biais (éviter la proxy-discrimination)
  • Une vigilance sur les usages en santé
  • La désignation d’un responsable IA

Ces recommandations s’inscrivent dans le cadre du règlement européen IA Act, qui encadre les systèmes à haut risque (assurance, santé, crédit) et du futur FIDA (Framework for Integrated Data Analysis), visant à encadrer l’usage des données dans l’UE. Elles rappellent l’importance d’un pilotage humain des décisions algorithmiques, afin d’éviter que les biais techniques ne se traduisent en injustices concrètes pour les assurées.

Travail et IA : des effets différenciés selon le genre

L’IA transforme en profondeur les métiers, en automatisant certaines tâches tout en faisant émerger de nouveaux besoins en compétences techniques, éthiques et analytiques. Cependant, cette mutation du marché du travail n’est pas neutre du point de vue du genre. Des études de l’OCDE, de l’UNESCO et de l’ONU Femmes soulignent que les femmes sont surreprésentées dans les secteurs les plus exposés à l’automatisation (administratif, soin, éducation) et sous-représentées dans les secteurs technologiques en expansion. Le risque est double : perte d’emploi et moindre accès aux opportunités créées. L’absence de femmes dans la conception des outils d’IA perpétue cette invisibilité. Pourtant, l’IA peut aussi être un levier d’émancipation professionnelle pour les femmes si :

  • Les politiques de formation sont inclusives et ciblées.
  • Les femmes sont accompagnées pour accéder aux métiers de la data, du développement ou de l’éthique algorithmique.
  • Les outils numériques favorisent la conciliation des temps de vie ou la flexibilité choisie.

Vers une IA plus égalitaire : initiatives, gouvernance et régulation

Pour promouvoir une IA plus inclusive, des institutions comme l’UNESCO, le Conseil de l’Europe, le Laboratoire de l’Égalité ou Mila recommandent :

  • Une meilleure représentation des femmes dans les carrières scientifiques, dès l’éducation secondaire (modèle féminin, valorisation historique, mentorat…) et la parité dans les postes stratégiques au sein des entreprises technologiques.
  • Une analyse de genre tout au long du cycle de vie des technologies d’IA : collecte de données, développement, tests, déploiement.
  • Des outils de détection et de correction des biais dans les modèles d’IA.
  • Des chartes éthiques intégrant des principes d’égalité.
  • Une gouvernance inclusive des écosystèmes d’IA, avec une représentation paritaire dans les comités de décision.

Des initiatives comme Women4Ethical AI et le Pacte pour une IA égalitaire témoignent de cette mobilisation croissante. Le règlement IA Act (2024) et le règlement FIDA en construction fournissent désormais un cadre juridique structurant. Ensemble, ces textes constituent un levier important pour construire une IA respectueuse des droits fondamentaux et sensibles aux enjeux de genre.

Conclusion

L’intelligence artificielle est une technologie déterminante pour les décennies à venir. Si elle n’est pas délibérément orientée vers plus d’équité, elle pourrait reproduire, voire aggraver, les inégalités de genre. En revanche, si les femmes sont pleinement incluses dans sa conception, sa régulation et son déploiement, l’IA peut devenir un levier puissant de transformation sociale et d’émancipation. C’est l’enjeu d’une gouvernance inclusive, d’une éducation rééquilibrée et d’une volonté politique forte et équitable pour créer une intelligence artificielle vraiment au service de toutes et tous.

Découvrez nos autres contenus sur cette thématique :