Una inteligencia artificial más inclusiva: cuestiones y perspectivas de género
La inteligencia artificial (IA) está cada vez más presente en nuestra vida cotidiana e influye cada vez más en las dinámicas sociales, económicas y profesionales. Sin embargo, un análisis de género de su ecosistema revela profundas desigualdades y sesgos sistémicos que influyen sobre el lugar y el papel de las mujeres en el campo de la IA.
Este artículo ofrece un análisis en profundidad de las múltiples facetas de esta realidad, basadoen una treintena de informes, publicaciones científicas y estudios de campo : ¿Cómo están representadas las mujeres en la IA? ¿Existen sesgos de género en los algoritmos? ¿Cuáles son las repercusiones en el sector sanitario? ¿Y en los seguros?
La persistente subrepresentación de las mujeres en las ciencias, la tecnología, la ingeniería y en la IA
Como venimos observando desde hace muchos años, las mujeres siguen siendo minoría en los campos científicos y técnicos, especialmente en la IA. En la actualidad, representan alrededor del 22% de los profesionales de la IA en todo el mundo, con una presencia aún menor en puestos directivos, universidades y equipos técnicos.
Esta situación es el resultado de una combinación de factores: los estereotipos de género sobre las capacidades, una orientación educativa sesgada, la falta de modelos femeninos, la autocensura (es decir, la autoexclusión de determinadas carreras profesionales percibidas como masculinas), la conciliación de la vida laboral y familiar, en la que las responsabilidades familiares pesan más sobre las mujeres, y el sexismo en el trabajo.
Esta tendencia también se observa en el ámbito académico. Las mujeres publican menos en revistas de investigación sobre IA, y sus artículos se citan menos que los de los hombres en general. Investigaciones como «Voices of Her» o «Gender-Specific Patterns in the AI Scientific Ecosystem» muestran que las contribuciones de las mujeres están infravaloradas en las redes de publicación científica.
Desconfianza alimentada por la preocupación por la ética, la transparencia y la gobernanza
Más allá de los obstáculos estructurales para acceder a las profesiones relacionadas con la IA, varios estudios han puesto en evidenciauna forma de distancia crítica entre las mujeres y esta tecnología. Esta distanciano se deriva de una falta de interés, sino más bien de una falta de confianza alimentada por preocupaciones legítimas, a menudo señaladas en los ámbitos de la salud, la gobernanza de los datos y la regulación ética.
Algunas mujeres expresan temores sobre el uso de sus datos personales, especialmente en sectores sensibles como la salud y las finanzas. En estos ámbitos, las decisiones algorítmicas pueden tener consecuencias concretas (acceso a la atención sanitaria, créditos, seguros). La falta de transparencia sobre los criterios de decisión utilizados por los sistemas algorítmicos, a menudo opacos o difíciles de comprender, agrava este sentimiento de vulnerabilidad.
Varias publicaciones (Fondation Jean-Jaurès, Magellan Partners, Harvard Business Review) sugieren también que la falta de una gobernanza percibida como integradora -con comités dominados por perfiles masculinos, escasa consulta pública y poca consideración de las cuestiones de género- alimenta este escepticismo. Estos factores contribuyen a una relación ambivalente entre las mujeres y la IA, que combina la esperanza y expectativa de progreso con la alerta ante los riesgos de mantenerlas desigualdades.
El sesgo de género en los algoritmos: un espejo que amplifica las desigualdades
La IA, sobre todo en sus versiones generativas (ChatGPT, Midjourney, etc.), aprende a partir de masas masivas de datos, a menudo extraídos de Internet, las redes sociales o los archivos digitales. Estos datos están impregnados de estereotipos y representaciones sexistas, que los modelos reproducen a continuación. Varios estudios (UNESCO, Conseil du statut de la femme du Québec, Public Sénat) muestran que las IA generativas asocian más a las mujeres con las actividades domésticas, el aspecto físico o las profesiones asistenciales, mientras que a los hombres se les asocia con la competencia, el poder o la tecnología.
Estos prejuicios pueden tener un impacto real en la vida de las mujeres: contratación automatizada discriminatoria, sistemas de reconocimiento facial menos precisos para las mujeres racializadas, acceso desigual a servicios o cuidados, diagnósticos médicos incorrectos o inadecuados. La IA no inclusiva puede, por tanto, reforzar la discriminación existente.
Salud, IA y género: hacia una medicina verdaderamente inclusiva
Como hemos mencionado antes, el ámbito de la salud es un terreno de observación privilegiado para los prejuicios de género que transmiten las tecnologías de IA. Históricamente, la medicina se ha basado durante mucho tiempo en un modelo masculino por defecto, relegando a un segundo plano las características biológicas y sintomáticas específicas de las mujeres. Hoy en día, esta tendencia se refleja en los sistemas de atención automatizada y en las bases de datos en las que se entrenan las inteligencias artificiales.
Los estudios han demostrado que los síntomas de las enfermedades cardiovasculares en las mujeres suelen subestimarse o malinterpretarse. Las patologías específicamente femeninas (endometriosis, síndrome de ovario poliquístico, dolor menstrual crónico, etc.) también están poco integradas en las herramientas de diagnóstico.
Sin embargo, la IA podría desempeñar un papel importante en la reducción de estas desigualdades, siempre y cuando las herramientas se diseñen para ser inclusivas. He aquí algunos ejemplos:
- Un algoritmo de aprendizaje profundo que analiza mamografías ha permitido detectar tempranamente los riesgos de cáncer de mama.
- La IA mejora la predicción de complicaciones posparto o las vías de atención adaptadas a la salud reproductiva.
- Las plataformas digitales están facilitando un mejor acceso a la información médica y un seguimiento personalizado de las mujeres.
Las desigualdades sanitarias entre hombres y mujeres afectan también a la salud mental, un ámbito que aún no se tiene suficientemente en cuenta en los sistemas actuales. Las mujeres se ven más afectadas por ciertas patologías psicológicas, como los trastornos de ansiedad, la depresión y el agotamiento. Estas afecciones, a menudo poco diagnosticadas y estigmatizadas, se beneficiarían de una mejor integración en las herramientas de prevención y detección asistidas por IA. El análisis de datos comportamentales o fisiológicos (sueño, ritmo de vida, lenguaje) podría contribuir a una identificación temprana y a un apoyo adecuado. Para ello, es necesario entrenar los modelos de manera que sean representativos y sensibles a las variaciones de género.
Por último, la gobernanza conjunta de la salud digital sigue siendo esencial para garantizar una medicina inclusiva.
IA y seguros: entre riesgos discriminatorios y mecanismos de equidad
El sector de los seguros, en particular los de salud y previsión, está utilizando la IA para perfeccionar la evaluaciónde riesgo. Pero esta práctica no es neutral. Si los modelos se construyen con datos parcializados o sobrerrepresentan determinados perfiles, corren el riesgo de reforzar las desigualdades existentes. Las mujeres, por ejemplo, pueden verse penalizadas por historiales de salud específicos (embarazos, trastornos hormonales), sin que estos factores se pongan en contexto.
Ante este reto, han surgido varias iniciativas:
- La adopción de enfoques globales de evaluación del riesgo, que incorporen factores de comportamiento en lugar de centrarse únicamente en las patologías femeninas.
- Transparencia sobre los criterios utilizados para fijar las primas de seguros, con auditorías de los algoritmos para detectar cualquier discriminación indirecta. Algunas aseguradoras, sobre todo en los seguros de préstamos, están probando soluciones de puntuación más fáciles de leer, en las que los criterios de aceptación se explican con mayor claridad (por ejemplo, estabilidad laboral, ausencia de antecedentes médicos graves, estilo de vida saludable), limitando así la opacidad de las decisiones automatizadas y fomentando la equidad.
- Medir y mitigar los prejuicios mediante técnicas de IA denominadas » fairness-aware», que incorporan restricciones de equidad, como el ACP Fairness-aware aplicado a la tarificación de seguros de vida y la predicción de la mortalidad (estudio arXiv), que permite corregir ciertos efectos de discriminación indirecta.
La IA como herramienta de prevención
La IA también puede ser una herramienta positiva para la prevención. el objetivo de la prevención activa y el apoyo personalizado, algunas aseguradoras de salud están empezando a desarrollar programas de seguimiento médico para sus asegurados que han sido identificados como personas que presentan un mayor riesgo, ya sea debido a un historial médico o a factores de comportamiento detectados mediante herramientas predictivas. Aunque estas iniciativas están todavía en sus inicios, son prueba de una evolución hacia un enfoque más individualizado de la gestión del riesgo.
En este contexto, las aseguradoras tienen un papel importante que desempeñar en la prevención. Pueden – siempre que respeten la normativa sobre protección de datos personales :
- Personalizar los mensajes de prevención en función de los datos sobre la salud o el estilo de vida (edad, dieta, actividad física, sueño, antecedentes familiares).
- Ofrecer programas digitales de apoyo o coaching sanitario (aplicaciones móviles, plataformas de asesoramiento, seguimiento en línea).
- Fomentar la detección tempranade determinadas enfermedades poco diagnosticadas en las mujeres (enfermedades cardiovasculares, trastornos hormonales, determinados cánceres).
Además, las disertaciones actuariales han demostrado que la regulación algorítmica es posible, siempre que incorpore métricas de equidad, umbrales de aceptabilidad e indicadores de transparencia utilizables.
En Francia, la Autorité de Contrôle Prudentiel et de Résolution (ACPR) ha publicado varias recomendaciones para regular el uso de la IA en los seguros. Su informe 2022 insiste en
- Una supervisión rigurosa de los modelos (documentación, auditorías, trazabilidad).
- Controles de parcialidad (para evitar la discriminación por poder)
- Vigilancia de los usos en la asistencia sanitaria
- Nombramiento de un responsable de IA
Estas recomendaciones forman parte del reglamento europeo AI Act, que regula los sistemas de alto riesgo (seguros, sanidad, crédito) y del futuro FIDA (Marco para el Análisis Integrado de Datos), que pretende regular el uso de los datos en la UE. Reiteran la importancia de la supervisión humana de las decisiones algorítmicas, para evitar que los sesgos técnicos se traduzcan en injusticias concretas para los asegurados.
Trabajo e IA: los efectos diferenciados por género
La IA está transformando profundamente las profesiones, automatizando determinadas tareas y creando al mismo tiempo nuevas necesidades de competencias técnicas, éticas y analíticas. Sin embargo, esta transformación del mercado laboral no es neutra desde el punto de vista del género.
Estudios de la OCDE, la UNESCO y ONU Mujeres señalan que las mujeres están sobrerrepresentadas en los sectores más expuestos a la automatización (administración, cuidados, educación) e subrepresentadas en los sectores tecnológicos en expansión. El riesgo es doble: pérdida de empleo y menor acceso a las oportunidades creadas. La ausencia de mujeres en el diseño de las herramientas de IA mantiene esta invisibilidad.
Sin embargo, la IA también puede ser una herramienta de emancipación profesional para las mujeres si :
- Las políticas de formación son integradoras y selectivas.
- Las mujeres reciben apoyo para acceder a empleos en datos, desarrollo o ética algorítmica.
- Las herramientas digitales facilitan conciliar diferentes estilos de vida o elegir la flexibilidad.
Hacia una IA más igualitaria: iniciativas, gobernanza y regulación
Para promover una IA más inclusiva, instituciones como la UNESCO, el Consejo de Europa, el Laboratoire de l’Égalité y Mila recomiendan :
- Una mejor representación de las mujeres en las carreras científicas, desde la enseñanza secundaria (modelos femeninos, valorización histórica, tutoría, etc.) y paridad en los puestos estratégicos de las empresas tecnológicas.
- Análisis de género a lo largo del ciclo de vida de las tecnologías de IA: recopilación de datos, desarrollo, pruebas, despliegue.
- Herramientas para detectar y corregir el sesgo en los modelos de IA.
- Cartas éticas que incorporen principios de igualdad.
- Gobernanza inclusiva de los ecosistemas de IA, con representación paritaria en los comités de toma de decisiones.
Iniciativas como Women4Ethical AI y Pact for Equal AI dan testimonio de esta creciente movilización.
El Reglamento de la Ley de AI (2024) y el Reglamento del FIDA, en fase de elaboración, proporcionan ahora un marco jurídico estructurador. En conjunto, estos textos son una herramienta importante para construir una IA que respete los derechos fundamentales y sea sensible a las cuestiones de género.
Conclusión
La inteligencia artificial es una tecnología clave para las próximas décadas. Si no se orienta deliberadamente hacia una mayor equidad, podría reforzar o incluso exacerbar las desigualdades de género. En cambio, si se incluye plenamente a las mujeres en su diseño, regulación y despliegue, la IA puede convertirse en una poderosa herramienta de transformación y emancipación social. Este es el reto de una gobernanza inclusiva, una educación reequilibrada y una voluntad política firme y justa para crear una inteligencia artificial que realmente esté al servicio de todos.
Descubre otros contenidos sobre este tema:
El futuro de los seguros: el poder transformador de la IA en la explicabilidad de los resultados
Descubra cómo los agentes de IA contribuyen a la explicabilidad de los resultados proporcionando información y garantizando decisiones transparentes y comprensibles.
¿Cómo influyen las nuevas tecnologías en la gestión del riesgo de los seguros?
¿Cómo pueden las aseguradoras navegar la complejidad normativa y aumentar la rentabilidad? Explora el impacto de la innovación tecnológica y la IA en la gestión de riesgos y operaciones actuariales.