2024

El eHealth Center participa en un programa del Gobierno británico para una IA ética en salud

Cinco conceptos clave para una inteligencia artificial ética en salud
24/01/2024
Teresa Bau
La UOC, el King's College de Londres y el Gobierno catalán trabajan juntos por una IA ética en salud

Con la emergencia de la inteligencia artificial (IA) como herramienta de apoyo para la toma de decisiones clínicas, surgen cuestiones éticas que se deben tener en cuenta. La IA se presenta como un recurso que puede mejorar la capacidad de los profesionales en algunas tareas médicas, como interpretar imágenes médicas y hacer diagnósticos relacionados, optimizar procesos asistenciales y personalizar tratamientos. Aun así, si se aplica sin tener en cuenta los aspectos éticos, surgen varios riesgos, como la deshumanización de la práctica de la medicina y la carencia de transparencia y de acceso igualitario. La Universitat Oberta de Catalunya (UOC) ha sido escogida para participar en el proyecto The human role to guarantee an ethical AI for healthcare, liderado por el King's College de Londres y enmarcado en el prestigioso programa Responsible AI UK del Gobierno británico. También participa en este proyecto la delegación del Gobierno de la Generalitat de Cataluña en Bruselas.

El objetivo del proyecto es doble: por un lado, validar un modelo ético con cinco conceptos que se puedan adoptar de manera práctica en la aplicación de la IA en salud; y por otro, generar reflexión sobre el papel de los profesionales de la medicina (personal médico), de los desarrolladores de IA y de los pacientes con el objetivo de lograr una IA ética. El modelo ha sido desarrollado por la investigadora y doctora Raquel Iniesta, líder del grupo Fair Modelling and TDA del Departamento de Bioestadística e Informática de la Salud del King's College de Londres, que ha trabajado en él junto con su equipo. "A pesar de que hay mucha literatura médica publicada sobre la IA aplicada a la salud, todavía tenemos relativamente pocos modelos de IA que se utilicen en la práctica clínica, dado que hay factores éticos que obstaculizan su implementación. La integración de la IA tiene que respetar el espacio que necesitan los pacientes para expresar sus problemas de salud. Y por su parte, el colectivo médico tiene que mantener la oportunidad de seguir desarrollando su criterio clínico sin interferencias".

 

Cinco conceptos básicos para la IA ética en salud

El modelo desarrollado por la investigadora, licenciada en Matemáticas por la Universitat Autònoma de Barcelona (UAB) y doctora en Salud Pública, contiene cinco conceptos que deben incluirse en la IA aplicada a la práctica clínica: el respeto por el conjunto de pilares éticos de la profesión médica; el hecho de que la tecnología no puede sustituir el conocimiento de los profesionales clínicos, sino complementarlo; la responsabilidad de los médicos en las decisiones clínicas, a pesar de que se ayuden de la IA; el empoderamiento y la educación imprescindibles de los pacientes, y la responsabilidad y el rendimiento de cuentas de los desarrolladores ante decisiones médicas automatizadas tomadas por la IA. 

Iniesta explica que "hace falta colaboración. La supervisión humana de las decisiones médicas basadas en algoritmos de IA disminuye los peligros potenciales de esta tecnología. Habrá que validar de manera cualitativa el modelo que hemos definido ahora y abrirlo al debate y a la reflexión por parte de varios actores: profesionales clínicos, representantes de pacientes, Academia, gobiernos y la sociedad en general". Con este objetivo, durante el año 2024 se organizarán reuniones en tres ciudades diferentes: Londres, Bruselas y Barcelona. El proyecto arrancará oficialmente en febrero del próximo año y se alargará hasta mediados de 2025.

Por parte de la UOC, coordinará el proyecto el doctor Manuel Armayones, director del Behavioural Design Lab del eHealth Center y profesor de los Estudios de Psicología y Ciencias de la Educación. Según Armayones, "el hecho de que la IA supere las capacidades humanas en ciertos ámbitos, como el de las ciencias de la salud, plantea dilemas éticos relevantes, como el riesgo de sustitución humana y la posible deshumanización de la medicina. Es fundamental integrar un componente ético que garantice que los beneficios de la IA sean compatibles con el respeto y la dignidad humana".

Concretamente, desde el Behavioural Design Lab se explorará cómo se pueden integrar las estrategias de diseño persuasivo en los sistemas basados en la IA. "Habrá que ver si las técnicas persuasivas incluidas en el diseño de las aplicaciones, combinadas con la personalización de las interacciones que permite la IA, quedan fuera o dentro de los límites éticos. Las nuevas formas de IA generativa nos llevarán a situaciones inimaginables, por lo que es necesario hacer un análisis prospectivo de futuro con el fin de asegurar que el uso de esta tecnología queda dentro de los márgenes éticos", explica Armayones.

El debate sobre quién tendría que ser responsable de aplicar una IA ética, tanto en medicina como en otros campos, está en plena ebullición. El impacto social que causó el lanzamiento de ChatGPT hace ahora poco más de un año ha llevado el debate sobre la IA a la sociedad. Europa está a punto de aprobar una ley para regular el uso de esta tecnología. Como explica Iniesta, "los códigos actuales tienen conceptos imprecisos; por ejemplo, dicen que hay que garantizar que la IA sea justa o respete la dignidad humana, pero no son lo bastante específicos. Con este proyecto, queremos generar debate sobre los aspectos éticos de la IA porque, si lo hacemos bien, podremos disfrutar de los beneficios que nos aporta sin deshumanizar la práctica médica".

Expertos UOC

Foto del profesor Manuel Armayones Ruiz

Manuel Armayones Ruiz

Profesor de los Estudios de Psicología y Ciencias de la Educación
Investigador del eHealth Center

Experto/a en: Salud electrónica (e-salut), internet y salud, e-pacients, salud en el futuro, efecto psicológico de las TIC, redes sociales de pacientes, adicción, internet y nuevas tecnologías, psicología y robótica, enfermedades raras e internet, estrategias de intervención psicológica en línea y enfermedades raras y TIC.

Ámbito de conocimiento: eHealth, eSalud, Salud y Red.

Ver ficha

Enlaces relacionados