3/3/26 · 8M - Dia internacional de les dones

La nova bretxa invisible: l'ús de la IA en els processos de selecció reprodueix la discriminació de gènere

El 65% de les empreses ja utilitzen la IA durant el procés de selecció de personal

L'ascens de l'ús d'aquesta tecnologia fa créixer les advertències sobre la manca de neutralitat de la tecnologia

IA i discriminació de gènere en el treball.

L'àmbit dels recursos humans es veu impactat com tants d'altres per l'ús de la intel·ligència artificial, una tendència en ascens per seleccionar personal i que arrossega el conflicte de la discriminació de gènere, perquè la tecnologia s'ha entrenat amb bases de dades esbiaixades durant dècades. Segons el portal Infojobs, el 65 % de les empreses ja utilitzen la IA durant el procés de selecció de personal. Ara bé, estudis internacionals sobre la matèria, com la 2025 Global Guide to AI in Hiring, de l'empresa HireVue, revela que un 66 % dels més de 4.000 enquestats de tot el món es mostra contrari al fet que la IA prengui decisions finals sobre a qui contractar. A les portes del 8M, el Dia Internacional de les Dones, aquesta qüestió posa sobre la taula una problemàtica oculta: la discriminació algorítmica en els processos de selecció que perpetuen i, fins i tot, amplifiquen la discriminació de gènere si no s'apliquen mesures que ho corregeixin. Experts de la Universitat Oberta de Catalunya (UOC) aborden aquest debat des d'una mirada polièdrica, que engloba el vessant tecnològic, psicològic i legal.

 

Per què la intel·ligència artificial és masclista en la selecció?

Meritxell Beltrán, dels Estudis d'Economia i Empresa de la UOC i experta en l'impacte dels algoritmes en la igualtat de gènere, avisa que "és molt important" tenir present que aquests "treballen amb la informació que els proporcionem". "Si volem que faci una tria curricular –continua–, li hem de donar les pautes perquè sàpiga quins currículums ens interessen i ens els destaqui entre d'altres mostrant-li casos d'èxit". En aquest sentit, adverteix que "si estem cercant una persona per a una posició que està molt masculinitzada en les relacions laborals, com és una de directiva o de responsabilitat, que continuen acaparades per homes, la IA entén que aquest és el perfil que volem, ja que és un cas d'èxit que cal copiar en perfils futurs". Això fa que s'estiguin "perpetuant les discriminacions en el món laboral, reforçant la segregació vertical en les relacions laborals", reitera l'experta de la UOC.

 

L'algoritme com a mirall dels casos d'èxit masculinitzats

Per a Beltrán, els algoritmes sense pautes antidiscriminatòries "són una nova forma d'exercir la discriminació sistèmica que han patit i pateixen les dones en el món laboral: la mateixa discriminació amb una nova forma d'exercir-la". Afirma que "el gran repte que tenim amb la selecció de personal mitjançant la IA i els seus biaixos" és deixar d'atribuir-li neutralitat. "La tecnologia serà neutra si treballem perquè ho sigui", subratlla. A banda, la selecció de personal és un punt previ a la contractació laboral i "és complicat demostrar el biaix des de la posició de futura candidata a un lloc de feina". A més a més, afegeix l'experta, hi ha dificultats per poder assenyalar i corregir les discriminacions a causa de "l'opacitat algorítmica, el desconeixement –en molts casos del mateix equip que fa la selecció– en matèria algorítmica i la falta d'ètica i sensibilització en gènere".

La situació actual, però, es podria revertir. Beltrán explica que hi ha molts mecanismes que poden servir per treballar amb algoritmes de forma ètica i aportar transparència als processos de selecció de personal: posa com a exemple la "formació en sensibilització en gènere, en ètica algorítmica i en normativa antidiscriminatòria". A més a més, en les auditories algorítmiques, "cal que es preguntin, per exemple, què estem donant com a model d'èxit a l'algoritme", assenyala. Aquestes mesures es podrien aconseguir a través de la negociació col·lectiva, apunta la professora de la UOC: "Quan es negocien els convenis col·lectius, els plans d'igualtat o els pactes d'empresa amb la representació de la plantilla, s'ha de situar com a punt rellevant un ús ètic dels algoritmes en la selecció o la promoció del personal per evitar continuar perpetuant la discriminació sistèmica de les dones en el món laboral".

“Els algoritmes sense pautes antidiscriminatòries són una nova forma d'exercir la discriminació sistèmica que han patit i pateixen les dones en el món laboral”

La IA i la nova "bretxa invisible"

Més enllà de les implicacions tecnològiques de l'ús de la IA en els processos de selecció, el biaix de l'algoritme també té efectes en la cultura de l'empresa i la percepció de justícia dels candidats sobre l'objectivitat suposada de la tecnologia. Enrique Baleriola, professor col·laborador del màster universitari de Filosofia per als Reptes Contemporanis de la UOC, afirma que hi ha una tendència a pensar que la tecnologia és "més neutral, racional, potent i objectiva" que les persones, i amb prou feines es fa una segona reflexió més profunda davant d'una resposta obtinguda per algun sistema tecnològic, una dinàmica que es reprodueix també en els processos de selecció. Els candidats que saben que la IA ha intervingut en el procés poden experimentar "una sensació d'impotència davant l'anomenada 'bretxa invisible', que suposa el fet de ser descartat per un algoritme sense arribar a parlar amb un humà. Quan la decisió és responsabilitat d'un algoritme, els motius i el procés que han portat a la decisió s'invisibilitzen", remarca Baleriola.

Així doncs, aquesta tecnologia estaria reproduint el masclisme sense possibilitat de rèplica, adverteix l'expert: "Si els algoritmes i les eines de machine learning són masclistes i discriminatoris és perquè els propietaris d'aquestes megacompanyies tecnològiques, les nostres societats i les empreses ho són". Les màquines no tenen vida pròpia i "no fan res que no es trobi ja a les bases de dades amb les quals treballen, creades durant dècades a partir d'informació i dades esbiaixades i discriminatòries". I és per això que, assenyala l'expert, "les tecnologies mantenen l'statu quo social respecte a la discriminació contra les dones i altres col·lectius": si els homes fan treballs racionals i de força, les dones els de cura; i si els homes assoleixen llocs de més responsabilitat, les dones "continuen sota el sostre de vidre". "És sobre aquest tipus de premisses que treballen les plataformes de selecció i reclutament", adverteix l'expert.

 

Normativa vigent: de l'Estatut dels Treballadors a l'AI Act de la UE

La professora Eugènia Revilla, dels Estudis de Dret i Ciència Política de la UOC, explica que la IA en recursos humans es regula amb un sistema multinivell que combina garanties constitucionals, normativa laboral, protecció de dades i dret europeu. El dret a la igualtat i a la no-discriminació "actua com a límit material de qualsevol decisió empresarial"; el Reglament general de protecció de dades "introdueix garanties davant de decisions automatitzades"; l'Estatut dels treballadors "exigeix transparència sobre els algoritmes que afecten l'accés a l'ocupació o en les condicions de les persones treballadores", i el Reglament europeu d'intel·ligència artificial (AI Act) "imposa obligacions reforçades als sistemes de contractació, considerats d'alt risc".

Per l'experta, davant d'aquest context resulta fonamental "exigir una prevenció ex ante mitjançant avaluacions de riscos, supervisió humana i mesures específiques per detectar i corregir possibles biaixos abans que impactin en les persones candidates". Revilla avisa que, en el cas que es produeixi una decisió discriminatòria amb l'ajuda d'un algoritme, "la responsabilitat principal recau en l'empresa que l'ha fet servir". L'experta recorda que el dret laboral i el principi de no-discriminació "no permeten externalitzar aquesta decisió", encara que s'hagi basat en un sistema tecnològic. A banda, Europa imposa ara uns requisits als proveïdors de tecnologia usada en la contractació. "Si no es compleixen, el proveïdor pot incórrer en responsabilitat administrativa o contractual, i l'empresa podria reclamar-li pels danys derivats", conclou.

 

 

Experts UOC

Contacte de premsa

També et pot interessar

Més llegits

Veure més sobre Economia