2024

L'eHealth Center participa en un programa del Govern britànic per a una IA ètica en salut

Cinc conceptes clau per a una intel·ligència artificial ètica en salut
24/01/2024
Teresa Bau
La UOC, el King's College de Londres i el Govern català treballen junts per una IA ètica en salut

Amb l'emergència de la intel·ligència artificial (IA) com a eina de suport per a la presa de decisions clíniques, sorgeixen qüestions ètiques que cal tenir en compte. La IA es presenta com un recurs que pot millorar la capacitat dels professionals en algunes tasques mèdiques, com ara interpretar imatges mèdiques i fer diagnòstics relacionats, optimitzar processos assistencials i personalitzar tractaments. Tot i això, si s'aplica sense tenir en compte els aspectes ètics, sorgeixen diversos riscs, com ara la deshumanització de la pràctica de la medicina i la manca de transparència i d'accés igualitari. La Universitat Oberta de Catalunya (UOC) ha estat escollida per participar en el projecte The human role to guarantee an ethical AI for healthcare, liderat pel King's College de Londres i emmarcat en el prestigiós programa Responsible AI UK del Govern britànic. També hi participa la delegació del Govern de la Generalitat de Catalunya a Brussel·les.

L'objectiu del projecte és doble: d'una banda, validar un model ètic amb cinc conceptes que es puguin adoptar de manera pràctica en l'aplicació de la IA en salut; i de l'altra, generar reflexió sobre el paper dels professionals de la medicina (personal mèdic), dels desenvolupadors d'IA i dels pacients amb l'objectiu d'assolir una IA ètica. El model ha estat desenvolupat per la investigadora i doctora Raquel Iniesta, líder del grup Fair Modelling and TDA del Departament de Bioestadística i Informàtica de la Salut del King's College de Londres, que hi ha treballat juntament amb el seu equip. "Tot i que hi ha molta literatura mèdica publicada sobre la IA aplicada a la salut, encara tenim relativament pocs models d'IA que s'utilitzin en la pràctica clínica, atès que hi ha factors ètics que n'obstaculitzen la implementació. La integració de la IA ha de respectar l'espai que necessiten els pacients per expressar els seus problemes de salut. I per la seva banda, el col·lectiu mèdic ha de mantenir l'oportunitat de continuar desenvolupant el seu criteri clínic sense interferències."

 

Cinc conceptes bàsics per a la IA ètica en salut

El model desenvolupat per la investigadora, llicenciada en Matemàtiques per la Universitat Autònoma de Barcelona (UAB) i doctora en Salut Pública, conté cinc conceptes que cal incloure en la IA aplicada a la pràctica clínica: el respecte pel conjunt de pilars ètics de la professió mèdica; el fet que la tecnologia no pot substituir el coneixement dels professionals clínics, sinó complementar-lo; la responsabilitat dels metges en les decisions clíniques, malgrat que s'ajudin de la IA; l'empoderament i l'educació imprescindibles dels pacients, i la responsabilitat i el rendiment de comptes dels desenvolupadors davant decisions mèdiques automatitzades preses per la IA.

Iniesta explica que "cal col·laboració. La supervisió humana de les decisions mèdiques basades en algoritmes d'IA disminueix els perills potencials d'aquesta tecnologia. Caldrà validar de manera qualitativa el model que hem definit ara i obrir-lo al debat i a la reflexió per part de diversos actors: professionals clínics, representants de pacients, Acadèmia, governs i la societat en general". Amb aquest objectiu, durant l'any 2024 s'organitzaran reunions en tres ciutats diferents: Londres, Brussel·les i Barcelona. El projecte arrencarà oficialment el febrer de l'any vinent i s'allargarà fins a mitjan 2025.

Per part de la UOC, coordinarà el projecte el doctor Manuel Armayones, director del Behavioural Design Lab de l'eHealth Center i professor dels Estudis de Psicologia i Ciències de l'Educació. Segons Armayones, "el fet que la IA superi les capacitats humanes en certs àmbits, com el de les ciències de la salut, planteja dilemes ètics rellevants, com el risc de substitució humana i la possible deshumanització de la medicina. És fonamental integrar un component ètic que garanteixi que els beneficis de la IA siguin compatibles amb el respecte i la dignitat humana".

Concretament, des del Behavioural Design Lab s'explorarà com es poden integrar les estratègies de disseny persuasiu en els sistemes basats en la IA. "Caldrà veure si les tècniques persuasives incloses en el disseny de les aplicacions, combinades amb la personalització de les interaccions que permet la IA, queden fora o dins dels límits ètics. Les noves formes d'IA generativa ens portaran a situacions inimaginables, per la qual cosa és necessari fer una anàlisi prospectiva de futur a fi d'assegurar que l'ús que en fem queda dins dels marges ètics", explica Armayones.

El debat sobre qui hauria de ser responsable d'aplicar una IA ètica, tant en medicina com en altres camps, és en plena ebullició. L'impacte social que va causar el llançament de ChatGPT ara fa poc més d'un any ha portat el debat sobre la IA a la societat. Europa està a punt d'aprovar una llei per regular l'ús d'aquesta tecnologia. Com explica Iniesta, "els codis actuals tenen conceptes vagues; per exemple, diuen que cal garantir que la IA sigui justa o respecti la dignitat humana, però no són prou específics. Amb aquest projecte, volem generar debat sobre els aspectes ètics de la IA perquè, si ho fem bé, podrem gaudir dels beneficis que ens aporta sense deshumanitzar la pràctica mèdica"

Experts UOC

Foto del professor Manuel Armayones Ruiz

Manuel Armayones Ruiz

Professor dels Estudis de Psicologia i Ciències de l'Educació
Investigador de l'eHealth Center

Expert/a en: Salut electrònica (e-salut), internet i salut, e-pacients, salut en el futur, efecte psicològic de les TIC, xarxes socials de pacients, addicció, internet i noves tecnologies, psicologia i robòtica, malalties rares i internet, estratègies d'intervenció psicològica en línia i malalties rares i TIC.

Àmbit de coneixement: eHealth, eSalut, salut i xarxa.

Veure fitxa

Enllaços relacionats