Inteligencia Artificial y sesgos de género: cuando los algoritmos aprenden nuestras desigualdades

La Inteligencia Artificial no es neutral. Sus algoritmos aprenden de los datos que les damos y, con ellos, heredan también nuestros prejuicios. En esta entrada analizamos cómo los sesgos de género se infiltran en la tecnología y qué podemos hacer para construir una IA más justa, diversa e inclusiva.

Qué es el sesgo de género en la IA

La Inteligencia Artificial (IA) se ha convertido en una presencia constante en nuestras vidas: selecciona las noticias que leemos, recomienda series, filtra currículums o incluso sugiere tratamientos médicos. Pero detrás de esta apariencia neutral y técnica se esconden las huellas de nuestra sociedad: prejuicios, desigualdades y estereotipos que los algoritmos aprenden, reproducen y, en ocasiones, amplifican.
Los sesgos en la IA no son un error puntual del sistema; son un espejo de cómo pensamos, decidimos y valoramos a las personas.

Hablamos de sesgo de género cuando una tecnología trata de manera diferente a las personas por su género, perpetuando estereotipos o desigualdades. Esto puede ocurrir en distintos niveles:

  • Datos de entrenamiento: predominan ejemplos masculinos o textos escritos por hombres.
  • Etiquetas y anotaciones: reflejan estereotipos o juicios subjetivos.
  • Diseño del modelo: si quienes lo crean comparten una visión parcial del comportamiento humano.
  • Falta de diversidad en los equipos: sin mujeres ni otras perspectivas, los sesgos pasan desapercibidos.

Un ejemplo de entrenamiento, se refleja en el estudio de VerificaRTVE. En este caso, se analizaron cómo diferentes inteligencias artificiales responden ante afirmaciones falsas sobre la violencia y la desigualdad de género entre los jóvenes. Se consultó a ChatGPT, Gemini, DeepSeek y Grok con varios tipos de preguntas en español e inglés, basadas en mitos como que “no existe la brecha salarial” o que “la violencia de género es un invento ideológico”.

Los resultados mostraron que ChatGPT, DeepSeek y Gemini desmintieron estas ideas con argumentos basados en datos y evidencias, mientras que Grok (la IA de X, antes Twitter) reprodujo parte de los discursos machistas y desinformativos.

La diferencia se debe al entrenamiento de los modelos: la mayoría de empresas de IA aplican auditorías y controles para reducir sesgos y fomentar respuestas fundamentadas, mientras que Grok utiliza datos sin filtrar procedentes de redes sociales y foros, donde abunda el discurso de odio. Bajo la gestión de Elon Musk, X justifica la falta de filtros como una defensa de la “libertad de expresión”, aunque esto favorece la difusión de mensajes sexistas y racistas.

El informe también destaca que los modelos de IA generativa de imágenes reflejan estos mismos sesgos, reproduciendo estereotipos de género y contribuyendo a mantener desigualdades en sus representaciones visuales.

En definitiva, los algoritmos no son neutrales: aprenden del pasado y lo proyectan hacia el futuro.

Cuando los datos heredan prejuicios

Los sistemas de IA aprenden a partir de grandes volúmenes de datos. Si esos datos reflejan una sociedad desigual, el resultado será una tecnología desigual. No es la máquina la que “decide” discriminar, sino que aprende a hacerlo porque fue alimentada con información que ya lo hacía.
En palabras de la experta Nerea Luis, directora de Data e IA en Singular: “La inteligencia artificial como tal no tiene sesgo de género; somos nosotros quienes introducimos orientaciones determinadas al incorporar nuevos datos.”

Ejemplos recientes lo demuestran. En 2018, Amazon tuvo que retirar su herramienta de selección de personal basada en IA al descubrir que penalizaba los currículos de mujeres. El sistema había aprendido de datos históricos de contratación, dominados por hombres, y acabó replicando ese patrón.

IA y desigualdad en el entorno laboral

El estudio de la Fundación Woman’s Week (2025), en colaboración con UGT, analizó las respuestas de seis grandes herramientas de IA (ChatGPT, Gemini, Copilot, DeepSeek, Grok y Claude) ante consultas sobre diferentes profesiones. El resultado fue revelador: la IA tendía a asociar profesiones de prestigio y alta cualificación con hombres, mientras que los roles de apoyo o cuidado aparecían representados por mujeres.

Este sesgo no es casual. Alrededor de un 30% de las personas dedicadas a la IA en España son mujeres, una cifra que evidencia la falta de diversidad en los equipos que diseñan estas herramientas.
Si la IA influye cada vez más en los procesos de selección o promoción profesional, la igualdad de oportunidades depende también de que sus algoritmos sean justos y transparentes.

Consecuencias más allá del mundo laboral

Los sesgos de género en la IA también afectan al ámbito sanitario, judicial o financiero. Investigaciones recientes (Amaya-Santos et al., 2024) muestran que los algoritmos clínicos pueden ofrecer diagnósticos menos precisos en mujeres porque la mayoría de los datos médicos históricos se basan en pacientes hombres.

Imagen extraída de: ¿Salud para quién? Interseccionalidad y sesgos de la inteligencia artificial para el diagnóstico clínico. Amaya‑Santos, S., Jiménez‑Pernett, J., y Bermúdez‑Tamayo, C. (2024). Anales del Sistema Sanitario de Navarra. 

En la justicia, el uso de sistemas predictivos puede reproducir estereotipos que agraven las desigualdades. Y en los préstamos bancarios, los modelos automatizados han mostrado diferencias en las condiciones ofrecidas según el género del solicitante.

Estos ejemplos evidencian que el problema no es técnico, sino estructural: la IA hereda nuestras desigualdades y las automatiza.

Sesgos que se ven y se aprenden desde la infancia

La educación digital también juega un papel esencial. En 2024, el laboratorio ODSLab y el ICEX organizaron talleres donde niñas y niños de 9 a 16 años aprendieron a detectar los sesgos de género en imágenes generadas por IA. Descubrieron que los algoritmos representaban a los hombres en puestos de liderazgo o ciencia, y a las mujeres en contextos domésticos o de cuidado.
Aprender a identificar estos sesgos desde edades tempranas no solo fomenta el pensamiento crítico, sino que siembra la base de una ciudadanía digital consciente y responsable.

El papel de las voces femeninas en la tecnología

Expertas como Nuria Oliver, Lorena Fernández o Zinnya del Villar insisten en que la clave no está solo en corregir los sesgos existentes, sino en transformar la forma en que construimos la tecnología.

La falta de participación femenina en la IA y en los procesos de toma de decisiones puede perpetuar la desigualdad durante años. Por ello, es esencial promover el acceso y liderazgo de niñas y mujeres en la educación y las carreras de ciencia, tecnología, ingeniería y matemáticas (STEM). El Foro Económico Mundial informó en 2023 que las mujeres representan solo el 29 % de la fuerza laboral en STEM, y aunque cada vez son más las que se incorporan, suelen concentrarse en puestos iniciales y tienen menos presencia en cargos directivos.

Qué podemos hacer: hacia una IA más inclusiva

Evitar el sesgo de género en la inteligencia artificial (IA) comienza por asumir la igualdad de género como un objetivo central desde el diseño y desarrollo de los sistemas. Esto implica revisar los datos para detectar representaciones erróneas, usar información que refleje la diversidad de experiencias de género y raza, y conformar equipos más diversos e inclusivos.

La ONU, la UNESCO y numerosas instituciones científicas coinciden en que necesitamos una inteligencia artificial con perspectiva de género. La experta Zinnya del Villar (UN Women) resume cinco claves esenciales para lograrlo:

  1. Usar datos diversos y representativos.
  2. Garantizar transparencia y trazabilidad en los algoritmos.
  3. Fomentar equipos de desarrollo diversos.
  4. Adoptar marcos éticos sólidos y supervisión legal.
  5. Integrar la perspectiva de género en cada fase del diseño tecnológico.

En España, la regulación empieza a avanzar —como señala el informe Digital Future Society (2022)—, pero los desafíos persisten: hacen falta auditorías independientes, protocolos de rendición de cuentas y una formación transversal en ética digital e igualdad.

Construir una IA que nos incluya

La inteligencia artificial puede ser una herramienta poderosa para el cambio, pero solo si la utilizamos con mirada crítica. Una IA sin perspectiva de género no solo distorsiona la realidad: la consolida.
Por eso, la próxima vez que un algoritmo nos recomiende algo, conviene recordar que detrás de esa decisión hay miles de datos… y que esos datos cuentan una historia.

La cuestión es: ¿queremos que repitan la historia de siempre o que ayuden a escribir una nueva?

Bibliografía

* Digital Future Society. (2022). Algorithmic discrimination in Spain: limits and potential of the legal framework. Barcelona, Spain. https://digitalfuturesociety.com/app/uploads/2022/09/Algorithmic_discrimination_Spain_legal_framework.pdf 

*Lopez Baroni, Manuel Jesús. Las narrativas de la inteligencia artificial. Rev. Bioética y Derecho [online]. 2019, n.46, pp.5-28. Disponible en: http://scielo.isciii.es/scielo.php?script=sci_arttext&pid=S1886-58872019000200002&lng=es&nrm=iso 

* Sesgos de género en el uso de inteligencia artificial para la gestión de las relaciones laborales: análisis desde el derecho antidiscriminatorio. Pilar Rivas Vallejo 2022. https://dialnet.unirioja.es/servlet/articulo?codigo=8527767

* Amaya-Santos S, Jiménez-Pernett J, Bermudez-Tamayo C. [Health for whom? Intersectionality and biases in the use of artificial intelligence in clinical diagnosis]. An Sist Sanit Navar. 2024 Jul 4;47(2):e1077. Spanish. doi: 10.23938/ASSN.1077. PMID: 38962956; PMCID: PMC11361283. https://pmc.ncbi.nlm.nih.gov/articles/PMC11361283/?utm 

* Pérez-Ugena Coromina, M. (2024). Sesgo de género (en IA). Eunomía. Revista en Cultura de la Legalidad, 26, pp. 311-330 DOI: ttps://doi.org/10.20318/eunomia.2024.8515 

* Iturmendi,  José  M.  2023.  «La  discriminación  algorítmica  y  su  impacto  en  la dignidad de la persona y los derechos humanos. Especial referencia a los inmigrantes.»Deusto Journal of Human Rights, No. 12: 257-284. https://doi.org/10.18543/djhr.2910 

Webgrafía

https://www.unwomen.org/en/articles/explainer/artificial-intelligence-and-gender-equality

https://www.unwomen.org/en/news-stories/interview/2025/02/how-ai-reinforces-gender-bias-and-what-we-can-do-about-it

https://www.unesco.org/en/articles/generative-ai-unesco-study-reveals-alarming-evidence-regressive-gender-stereotypes

https://unesdoc.unesco.org/ark:/48223/pf0000388971

https://www.internationalwomensday.com/Missions/14458/Gender-and-AI-Addressing-bias-in-artificial-intelligence

El sesgo de género en la IA: cómo los algoritmos perpetúan la discriminación en el mundo laboral • Fundación Woman’s Week

Sesgos de género en Inteligencia Artificial, una inquietud global

Cómo la inteligencia artificial refuerza los sesgos de género y qué podemos hacer al respecto | ONU Mujeres

Gender bias in artificial intelligence: A critical perspective and legal analysis | Amicus Curiae. Revista Electrónica de la Facultad de Derecho

Campaña #RompeElSesgoDigitalFM El impacto de las TIC en los procesos de selección: sesgos de género en la IA – Observatorio de Igualdad y Empleo

IA y sesgo de género: un problema a resolver

Día de la mujer 2025 – 8M: ¿La IA reproduce los sesgos de género?

Inteligencia artificial y equidad de género: un espejo de nuestras sociedades – Sostenibilidad