La IA amplifica los sesgos de género en jóvenes: en el 56% de los casos etiqueta a las chicas como “frágiles”

Written by on 12/03/2026

● La IA recomienda a las mujeres jóvenes buscar validación externa seis veces más que a los
hombres y redirige hasta un 75% más sus vocaciones hacia salud y ciencias sociales, mientras
que a ellos los orienta hacia ingeniería y resolución de problemas.
● Ante inseguridades personales, la IA ofrece consejos de moda un 48% más a mujeres, mientras
que a los hombres les sugiere acudir al gimnasio o practicar deporte hasta dos veces más.
● El informe “El espejismo de la IA, un reflejo incómodo con alto impacto en los jóvenes” analiza
9.600 respuestas generadas por cinco grandes modelos de lenguaje en 12 países durante 2025.
Colombia, marzo de 2026. La Inteligencia Artificial dejó de ser solo una herramienta para
convertirse en un actor que está moldeando la identidad y las ambiciones de la juventud. El
informe “El espejismo de la IA, un reflejo incómodo con alto impacto en los jóvenes” elaborado por
LLYC en el marco del Día Internacional de la Mujer, revela que, lejos de ser neutra, la IA
reproduce y amplifica patrones históricos de desigualdad.
El estudio demuestra que la IA no actúa igual con los jóvenes que con los chicos que con las
chicas. El 56% de las respuestas etiquetan a las jóvenes como “frágiles”, sitúandolas en una
posición de debilidad. Además, la IA recomienda a las mujeres buscar validación externa seis
veces más que a los hombres y redirige un 75% sus vocaciones hacia la salud y las ciencias
sociales.
“No es la IA la que está sesgada, es la realidad. Refleja y amplifica una mayor protección a ellas hasta
reducir su autonomía, refuerza techos de cristal e intensifica la presión estética. En lugar de
cuestionar los roles tradicionales, termina validándolos, por lo que, si no cambia la realidad, no
podemos pedirle a la IA que cambie sus respuestas.”, asegura Luisa García, socia y CEO Global de
Corporate Affairs en LLYC y coordinadora del estudio.
El informe, realizado en 12 países durante 2025, ha analizado el impacto de la inteligencia
artificial en jóvenes de 16 a 25 años a través del análisis de 9.600 recomendaciones y el
examen de 5 grandes modelos de IA (entre ellos, ChatGPT, Gemini o Grok).
Cuando el consejo deja de ser neutral
El 31% de los adolescentes afirma que hablar con un chatbot les resulta tan o más satisfactorio
que hacerlo con un amigo real, de acuerdo con cifras de Common Sense Media. En ese
contexto, la IA no solo informa: orienta. El informe detecta patrones diferenciados según el
género:
● La "amiga tóxica" digital: en una de cada tres interacciones con mujeres, la IA adopta un
tono de “amistad”, un 13% más frecuente que con hombres.
● Validación frente a acción: los modelos se personifican 2,5 veces más con ellas,
utilizando expresiones como “yo te entiendo”. En el caso de los hombres, predominan imperativos como “haz”, “di” o “ve”, lo que refuerza la idea de que el hombre es un
sujeto de acción.
El "techo de cristal programado": segregación desde el algoritmo
La IA orienta las vocaciones. El algoritmo redirige a las mujeres hasta tres veces más hacia
ciencias sociales y salud, mientras incentiva en los hombres el liderazgo y la ingeniería.
● Éxito bajo sospecha: la IA considera “impresionante” que una mujer gane más que un
hombre —una reacción que no aplica a la inversa— .En nueve de cada diez consultas en
las que ellas aparecen en minoría profesional, la IA construye escenarios laborales
descritos como hostiles.
● Doble rasero emocional: ante conflictos, la IA "politiza" el malestar femenino
vinculándolo al sistema o al patriarcado en el 33% de los casos, mientras despolitiza el
de los hombres, desplazándolo hacia el autocontrol o la patologización individual.
La mirada sesgada del algoritmo: cuando la repetición define "lo normal"
Una de las conclusiones más alarmantes del informe es cómo la IA entrena a los jóvenes para
aceptar la desigualdad como una norma generacional. Esta "mirada sesgada" se manifiesta en
la construcción de la identidad y el cuerpo:
● La trampa de la estética: ante inseguridades, la IA responde con consejos de moda un
48% más a las mujeres que a los hombres. En modelos de código abierto como LLaMA,
las menciones a la apariencia femenina son un 40% superiores.
● Cuerpos útiles vs. cuerpos únicos: mientras asocia a los hombres con la "fuerza y
funcionalidad", vincula el bienestar femenino a la "autenticidad" y a "sentirse única". De
hecho, recomienda a los hombres ir al gimnasio hasta dos veces más que a las mujeres
para superar las rupturas emocionales.
Roles familiares tradicionales replicados
En la esfera privada, los modelos también reproducen patrones históricos:
● El afecto aparece como atributo materno en una proporción tres veces superior a la
paterna.
● En el 21% de las respuestas, el padre es descrito como “ayudante” en la crianza, no
como corresponsable.
Según el estudio, estos patrones no son anecdóticos: cuando se repiten en miles de
interacciones, contribuyen a consolidar expectativas diferenciadas sobre liderazgo, cuidado,
autonomía y poder.
Acerca de LLYC
LLYC es el socio global de confianza en Marketing y Asuntos Corporativos. En un mundo en constante cambio,
ayudamos a los líderes empresariales a dar forma al futuro. Reunimos mentes excepcionales que combinan el
arte de la creatividad, la comunicación y la influencia con la ciencia de los datos para guiar el cambio, fortalecer la
reputación y tomar las decisiones correctas.

Fundada en 1995, la compañía cuenta con más de 1.300 profesionales en 28 centros de talento distribuidos por
Europa, Estados Unidos y América Latina. LLYC es considerada una de las 35 compañías independientes más
grandes del mundo en su sector, según los rankings de PRWeek y PRovoke.


Reader's opinions

Leave a Reply

Your email address will not be published. Required fields are marked *



Current track

Title

Artist