5/7/22 · Estudis d'Informàtica, Multimèdia i Telecomunicacions

Roboètica: es pot garantir una intel·ligència artificial justa?

Els agents morals artificials i la IA explicable, dos sistemes que permeten configurar algorismes que respectin els drets humans
La UOC celebrarà demà dimecres el seminari web Preguntes freqüents en la intel·ligència artificial
Si no es té en compte lètica, la Intel·ligència Artificial pot cometre errors greus. (Foto: Freepik)

Si no es té en compte lètica, la Intel·ligència Artificial pot cometre errors greus. (Foto: Freepik)

Han passat ja dues dècades des que l'investigador Gianmarco Veruggio va encunyar el terme roboètica en al·lusió a l'ètica de la robòtica, un camp de l'ètica aplicada que estudia les implicacions positives i negatives de la robòtica. L'objectiu és evitar el mal ús dels robots i de productes i serveis basats en la intel·ligència artificial (IA) contra la humanitat. "Atès que la IA es troba cada vegada en més i més sectors de les nostres vides (feina, educació, lleure, relacions socials, etc.), els efectes que els algorismes darrere d'aquestes aplicacions de la IA poden tenir sobre les persones, la societat i el món sencer són cada vegada potencialment més grans", afirma Joan Casas-Roma, investigador del grup Smartlearn, dels Estudis d'Informàtica, Multimèdia i Telecomunicació de la Universitat Oberta de Catalunya (UOC).

"Fuck the algorithm"

Un exemple és el que va passar durant la pandèmia de la COVID-19 en el sistema educatiu britànic, que va utilitzar un sistema automatitzat per, mitjançant les dades existents dels estudiants, predir la nota que s'estimava que haurien obtingut en un examen que, a causa del confinament, no es va poder dur a terme. El resultat? La insatisfacció general. Amb l'eslògan "Fuck the algorithm", els estudiants van sortir de manera massiva al carrer quan es va publicar la predicció de l'algorisme, que va resultar ser, en opinió dels mateixos professors i professores, extremadament inadequada. Com explica Joan Casas-Roma, en aquest cas, la decisió de delegar la predicció de la nota per complet a un sistema d'IA que només tenia en compte les dades dels estudiants que hi havia en el sistema, en lloc de comptar amb l'experiència i el coneixement dels seus docents, va estar a punt de posar en risc l'educació i el futur educatiu de molts d'ells. A causa de les protestes massives, el govern britànic va decidir no utilitzar aquesta predicció automatitzada. No obstant això, no sempre hi ha la possibilitat de fer marxa enrere.

"Malauradament, es poden posar molts exemples de com, si no es té en compte l'ètica, la IA pot cometre errors greus. Alguns dels casos més coneguts estan relacionats amb l'existència de biaixos i injustícies en tècniques de machine learning o aprenentatge automàtic", assenyala l'investigador de la UOC, i cita el cas d'un sistema automatitzat utilitzat en els processos de selecció d'una important companyia multinacional que va resultar prendre decisions clarament desfavorables cap a les candidates dones pel fet que les dades utilitzades per entrenar el sistema ja mostraven una desigualtat de gènere important en posicions similars a les que s'oferien. Un altre cas en el qual les dades triades per automatitzar decisions van resultar ser problemàtiques és el del sistema de recomanació judicial dels EUA que, a causa del biaix racista que hi havia en les dades policials sobre crims i criminals, mostrava recomanacions clarament desfavorables cap a persones afroamericanes.

"Els qui hem d'incorporar els codis ètics som les persones que programem les màquines i que prenem decisions amb les dades que aquestes màquines ens brinden", assenyala Anna Clua, professora i investigadora líder del grup Comunicació per a la Transformació de l'Esfera Pública (AGORA), adscrit als Estudis de Ciències de la Informació i de la Comunicació de la UOC, i afegeix que "les màquines no pensen. Fan". Segons Clua, l'ús de la IA ha de ser ètic per definició allà on s'apliqui, "ja sigui en les aplicacions dels nostres telèfons mòbils o en els algorismes amb els quals els hospitals cribren les urgències. El reconeixement dels drets de les persones, així com el compliment de les lleis (com ara la de protecció de dades), és una condició sine qua non de la utilització de la IA des de tots els camps", afirma.

IA explicable i agents morals artificials

La llista d'exemples amb efectes èticament adversos en sistemes d'IA és molt més llarga. Va ser una de les raons que van portar la Unió Europea a publicar unes directrius ètiques per a una IA fiable, basada en un conjunt de principis que el disseny ètic dels sistemes d'IA ha de respectar, amb recomanacions sobre com integrar aquests principis en el disseny dels sistemes i algorismes. I recentment, el Consell de la Informació de Catalunya publicava un estudi del qual també s'han extret una sèrie de recomanacions per al bon ús dels algorismes en les redaccions dels mitjans de comunicació. Es tracta de recomanacions en plena sintonia amb el codi deontològic de la professió periodística.

No són els únics passos que s'han donat per intentar que la roboètica sigui una realitat. De fet, el camp de la IA ètica s'ha convertit en una àrea de recerca important. D'això es parlarà en el seminari web de data science de la UOC, que se celebrarà demà amb el títol Preguntes freqüents en la intel·ligència artificial. En la sessió, a partir de diferents casos d'estudi, es revisaran els principis ètics per a una intel·ligència artificial de confiança i es reflexionarà sobre com aplicar la tecnologia sense vulnerar els drets humans.

Com explica el doctor en Representació del Coneixement i Raonament de la UOC Casas-Roma, entre les línies de recerca que estan centrant més esforços hi ha el tractament i el processament de les dades per evitar que un sistema d'IA basat en aprenentatge automàtic extregui correlacions esbiaixades i injustes, per exemple, mitjançant dades demogràfiques que no estan relacionades amb la decisió que la IA ha de prendre. "En aquesta àrea, els esforços s'adrecen a entendre com s'han de recollir, processar i utilitzar les dades per identificar, prevenir i mitigar l'aparició de patrons basats en característiques que, a més de ser irrellevants des d'un punt de vista causal per a la decisió que s'ha de prendre, reprodueixen decisions esbiaixades i injustes cap a determinats col·lectius socials", indica l'investigador de la UOC.

Una altra de les línies que s'està explorant en la recerca de la IA ètica es basa a integrar formes per poder seguir, entendre i valorar les decisions preses per un sistema d'IA. És el camp conegut com a IA explicable o explainable AI (XAI), "que busca evitar l'efecte 'caixa negra' en la qual, partint d'unes dades d'entrada concretes, un sistema d'IA pren una decisió específica, però sense que exteriorment un humà pugui entendre quin procés de raonament ha portat el sistema a prendre aquesta decisió, i no una altra de diferent. En aquest sentit, el camp de la XAI busca acostar el raonament que segueix un sistema d'IA a una forma de raonament comprensible per a un usuari humà".

A més, hi ha un altre camp que s'està investigant en l'àrea de l'anomenada moralitat artificial. Es tracta de la possibilitat de crear agents morals artificials o artificial moral agents (AMAs). Aquests agents incorporarien, com a part del seu codi i dels processos de raonament seguits, "una manera d'identificar, interpretar i valorar la dimensió moral de les decisions que es prenen per assegurar-se que aquestes decisions són èticament acceptables". Es tracta d'un repte que s'enfronta a com representar, de manera computacional, una cosa tan complexa i contextual com l'ètica.

"L'ètica, tal com l'entenem viscuda en una societat humana, té a veure amb uns principis generals, però també amb les particularitats de cada cas, amb els drets humans i l'espai i el potencial de creixement que tota persona hauria de poder tenir, a més de tenir les seves pròpies variacions culturals i històriques. Abans de poder integrar un codi moral general en una IA, segurament hauríem de poder capturar i representar tota aquesta complexitat i contextualitat en un llenguatge tan específic com el llenguatge computacional i matemàtic. I aquest és, ara mateix, un repte que té més d'humà que de tecnològic", afirma Joan Casas-Roma.

Per fer front a aquest repte, els experts consideren imprescindible la implicació de professionals de tots els àmbits, ja que les dades estan presents en tots els sectors. "No serveix dir que són competència única del camp de les enginyeries o les ciències de dades. El bon ús de la IA competeix als quadres professionals de les administracions públiques i de les empreses privades de qualsevol àmbit, s'utilitzi a gran escala o a petita escala", afirma la professora de la UOC. Però, a més, cal també la implicació dels consumidors i de la ciutadania. "Tenir més consciència del dret a la informació ens faria més exigents a l'hora de demanar rendició de comptes a qui no utilitzi la IA de manera socialment responsable", assegura Anna Clua.

Experts UOC

Contacte de premsa

També et pot interessar

Més llegits