Número 114 (octubre de 2021)

'Xatbots' i biaixos: aliats per al discurs de l'odi

Silvia Martínez Martínez

La intel·ligència artificial (IA) va guanyant terreny i la seva ocupació cada vegada es fa més extensiva. La fem servir de vegades sense adonar-nos-en, hi dialoguem en forma de xatbots i, molt sovint, la seva tasca pot condicionar de manera clara la nostra visió i la representació que rebem de la realitat. La detecció de biaixos que poden adquirir a la fase de disseny o desenvolupament posterior resulta clau i, per això, el seu estudi i la implementació d’iniciatives que advoquin per l’ètica i la transparència són necessàries.

Coneguda per les seves sigles com a IA, la intel·ligència artificial i els automatismes es van incorporant cada vegada a més àmbits i amb diferents usos i funcions. Es dissenyen per facilitar tasques en sectors tan variats com la medicina o la justícia, però qualsevol usuari els fa servir o en rep l’efecte de l’activitat fins i tot sense adonar-se’n. Els algoritmes que fan servir les xarxes socials en són un exemple clar. Aquests algoritmes apliquen diferents fórmules per seleccionar i mostrar els continguts que reps, que consultes i que et brinden, per tant, una imatge de la realitat. Darrere d’aquests robots, la intervenció humana té un paper clau en el seu disseny. Però, alguns aconsegueixen continuar aprenent un cop es posen en marxa i van incorporant noves dades i informació per adaptar la resposta que ofereixen. Entre aquests, hi pot haver els generadors de llenguatge o conversacionals, els xatbots, que es poden continuar instruint per comprendre i generar frases que semblin més naturals. Les grans companyies tecnològiques presumeixen dels seus assistents de conversa. Així, es va poder observar, per exemple, en la presentació de Meena de Google o en el llançament de BlenderBot de Facebook

 

L’efecte dels biaixos

 

Però aquests robots no són infal·libles. Si parlem de biaixos en aquests automatismes, lògicament podem intuir que poden tenir algun tipus d’efecte. La seva dimensió podria ser determinada, d’una banda, per l’àmbit d’aplicació i potser els més visibles i immediats són aquells que es poden fer servir, per exemple, en qüestions que es relacionen amb la salut de les persones. Però, de l’altra, hi ha altres biaixos amb efectes que poden no ser tan visibles en el curt termini o de manera immediata, són més subtils i poden passar més desapercebuts, tot i que també poden tenir conseqüències importants. Aquests biaixos poden ser incorporats en el moment del seu disseny i poden no ser intencionats (ser fruit d’un error accidental) , fins i tot, poden ser biaixos adquirits si el bot creat té la possibilitat de continuar aprenent un cop dissenyat. Precisament, és en aquests dos nivells en què els prejudicis, estereotips i marcs de desigualtat es filtren perquè molts d’aquests estan molt estesos en la societat i combatre’ls requereix una tasca i una revisió molt conscients de la presència d’aquestes injustícies per poder eliminar-les. 

 

Algun dels errors generats per biaixos són ben coneguts. Entre aquests, per esmentar-ne algun, hi ha Google Fotos, ja que el seu algoritme va arribar a etiquetar imatges de manera racista. O el xatbot que Microsoft va emprar a Twitter, Tay, amb el qual es volia establir converses amb joves i que va acabar publicant frases amb continguts xenòfobs i sexistes. En aquest cas, en un comunicat publicat en el blog oficial de Microsoft, lamentaven el que havia passat i argumentaven que la generació d’aquells missatges ofensius havia estat conseqüència d’un atac coordinat que va aconseguir superar els filtres per acabar fent un ús indegut de la tecnologia. Una actuació que va aconseguir convertir el bot, en aquest cas, el xatbot, en aliat del discurs de l’odi. 

 

Aquelles experiències permeten posar en relleu la complexitat i la necessitat de continuar treballant en la millora de la IA. Resulta crucial entrenar els professionals i formar-los perquè s’evitin aquests biaixos. L’aplicació de principis ètics resulta essencial. S’entén així que la Comissió Europea publiqués ja fa uns quants anys una guia ètica per a una IA fiable que va incloure entre les seves indicacions la «diversitat, la no-discriminació i l’equitat». Les companyies també presenten algunes directrius. Es poden consultar, per esmentar-ne algunes, Artificial Intelligence at Google: Our Principles, Microsoft AI principles o Facebook’s five pillars of Responsible AI. Aquestes s’han de fer efectives i avaluar-ne l’aplicació pràctica. Però, a més, si es tracta de bots de conversa, i més si són oberts a l’aprenentatge, les bases de la comunicació inclusiva haurien de formar part de la programació a l’hora de contemplar la complexitat de les interaccions i la riquesa del llenguatge (preveient les diferents connotacions i significats que es poden donar a les paraules) per així avançar-se i limitar aquests possibles biaixos que es puguin generar. 

 

Citació recomanada

MARTÍNEZ MARTÍNEZ, Silvia. ‘Xatbots’ i biaixos: aliats per al discurs de l’odi. COMeIN [en línia], octubre 2021, no. 114. ISSN: 1696-3296. DOI: https://doi.org/10.7238/c.n114.2168

mitjans socials;  ètica de la comunicació;  gènere;  cultura digital;