26/11/20

Internet és racista i sexista?

S'han trobat algoritmes que no detecten persones negres o que prioritzen els currículums dels homes respecte dels de les dones

Els algoritmes poden contenir biaixos, conscients i inconscients, en la mesura que han estat dissenyats i entrenats per éssers humans
Freepik

Freepik

Algunes xarxes socials i altres tipus de pàgines de serveis sanitaris, d'educació o sobre investigacions criminals han estat acusades de racisme des de fa anys. Als Estats Units hi ha diversos estudis que intenten destapar aquests efectes. Un informe de 2019 mostra que el sistema sanitari assignava menys risc a les persones negres i, per tant, destinava fins a un 30 % més de recursos als blancs, i un altre exposa que segons els «m'agrada» de Facebook, uns investigadors aconseguien encertar l'orientació sexual en un 88 % dels casos i el color de la pell en el 95 %, la qual cosa, alertaven, pot mostrar productes o serveis amb «resultats perversos». Però, és racista la tecnologia o les persones que la fan servir?

La discriminació existeix, segons molts estudis, però, per a les expertes de la Universitat Oberta de Catalunya (UOC), la qüestió és clara: els algoritmes, que són els encarregats de mostrar-nos continguts personalitzats, estan guiats per humans i, per tant, mostren una discriminació que existeix en la societat. «Els algoritmes poden contenir biaixos, conscients i inconscients, en la mesura que han estat dissenyats i entrenats a partir d'informació generada prèviament pels mateixos humans», explica María Teresa Ballestar, professora col·laboradora i investigafora a l'i2TIC, grup de recerca interdisciplinària sobre les TIC de la UOC, que remarca que és «més senzill» culpar la tecnologia que a nosaltres mateixos. És de la mateixa opinió Lola Burgueño, professora dels estudis d'Informàtica, Multimèdia i Telecomunicació de la UOC: «Les xarxes socials poden ser racistes en la pràctica si no se supervisa bé el procés pel qual els seus algoritmes aprenen i, sobretot, les dades de les quals aprenen».

Un cas sonat que mostrava el racisme d'una eina de Google es va conèixer el 2015, quan una persona es va adonar que Google etiquetava persones negres com a «goril·les», recorda Burgueño, que justifica l'actuació apuntant que l'algoritme «no havia estat entrenat amb gaires fotos de persones negres». Aquest tipus de problemes, defensa, han provocat que les empreses tecnològiques hagin prestat «molta atenció» a evitar continguts «poc ètics». També les administracions públiques intenten salvar aquestes situacions, sobretot a Europa, apunta. El mateix president francès, Emmanuel Macron, exposava la importància de «crear condicions de justícia en els algoritmes» per garantir «que no hi ha parcialitat».

La societat també ha alçat la veu i han sorgit moviments socials de tot tipus per vigilar i denunciar aquestes qüestions. N'és un exemple la pàgina web creada per una jove dissenyadora amb el nom de World White Web, en la qual proposa emprar imatges de mans de totes les races per canviar els resultats» del cercador Google, ja que, segons ella mateixa va experimentar fa un lustre, si buscava aquesta part del cos només apareixien exemples de pell blanca, «sense importar en quin lloc del món estiguessis».

En aquesta mateixa línia es pronuncia Ballestar, que assenyala que els consumidors també podem «fer un consum responsable i sancionar continguts i marques que ofereixin informació o contingut que no es correspongui amb els nostres valors». Així, defensa que lluitar contra aquestes discriminacions ha de ser una «responsabilitat compartida», en la qual també inclou l'educació. I és que, per als joves, aquestes «desviacions» de l'algoritme, segons la professora, són un «risc molt important». «Han de ser especialment conscients d'aquest risc atès l'accés de les noves generacions a les xarxes socials i l'ús intensiu que en fan», adverteix.

I també són sexistes…

Aquestes situacions també s'han detectat pel que fa al sexisme. Fa dos anys Amazon va començar a elaborar una eina per triar currículums i, en entrenar la intel·ligència artificial amb els currículums que havien arribat a la companyia en la dècada anterior —la major part dels quals enviats per homes—, el sistema va assumir com a normal la discriminació de les dones. Tot i que la companyia va assegurar que mai no va emprar l'eina, una enquesta apunta que més de la meitat dels responsables de recursos humans als Estats Units estan convençuts que la intel·ligència artificial els ajudarà a fer la seva feina en els pròxims anys. Un altre cas va ser el d'una entitat bancària nord-americana, el sistema d'intel·ligència artificial de la qual va oferir fins a vint vegades més capacitat en el límit de la targeta de crèdit a un home que a la seva dona, sense que l'empresa pogués explicar els motius de la decisió.

Els errors existeixen, però es poden solucionar. La Fundació ENAR, que lluita contra el racisme a Europa, adverteix que els algoritmes estan dissenyats sense «proves suficients» per evitar la discriminació o avalar els drets humans. No obstant això, afirma Burgueño, els investigadors fan un «esforç» en aquest camp per detectar biaixos i ajudar a evitar-los i, en general, afegeix, hi ha «conscienciació» en les àrees d'enginyeria de programari i intel·ligència artificial per evitar el racisme. Això sí, alerta que la intel·ligència artificial és un sector «emergent», de manera que encara queda «camí per recórrer». «Els algoritmes poden presentar defectes que poden resultar racistes de vegades, però s'està lluitant per millorar-los i que això no passi», sosté.

Un altaveu social

Totes dues expertes coincideixen que la tecnologia és un instrument i, com a tal, té una guia. En les instruccions hi ha la clau, argumenten. «Si un algoritme no concedeix un crèdit de manera automàtica a una persona, tampoc no ho faria un treballador del mateix banc en una sucursal», justifica Ballestar, ja que tots dos, diu, segueixen «regles o criteris» marcats per l'entitat financera.

El que és evident per a totes dues expertes és que les situacions de racisme a la xarxa que es denuncien són una mostra del que passa en la societat, a l'altre costat de les pantalles. Segons la col·laboradora de la UOC, els algoritmes són «un altaveu d'una realitat social». «Poden servir com a altaveu d'aquest tipus de problemàtiques socials i reflectir una realitat que ha de ser gestionada, no tant en l'àmbit tecnològic sinó en el social», proposa. Per la seva banda, Burgueño constata que la presència de la discriminació que hi ha en la societat traslladada a les xarxes representa «un pas enrere en aquesta lluita», però també és optimista pel que fa al «potencial» de les mateixes xarxes per poder-nos conscienciar sobre aquesta problemàtica i intentar-la solucionar.

Contacte de premsa

També et pot interessar

Més llegits