2023

"Investigamos la comunicación social y emocional que puede haber entre un robot y una persona"

Agata Lapedriza

Agata Lapedriza

27/04/2023
Teresa Bau
Àgata Lapedriza, investigadora líder en el ámbito de la inteligencia artificial a escala internacional y jefe del grupo AIWELL adscrito al eHealth Center

 

Àgata Lapedriza es una investigadora líder en el ámbito de la inteligencia artificial a escala internacional, jefe del grupo Artificial Intelligence for Human Wellbeing (AIWELL) —adscrito al eHealth Center de la Universitat Oberta de Catalunya (UOC)— y también investigadora en el prestigioso Massachusetts Institute of Technology (MIT). Profesora, además, de los Estudios de Informática, Multimedia y Telecomunicación, su investigación se enfoca a la visión por computador y a la robótica social, y sus artículos se han citado miles a veces en los últimos años.

¿Cómo valoras los últimos adelantos en inteligencia artificial, especialmente el chat OpenGPT? ¿Por qué ha causado tanta sensación?

El progreso de la inteligencia artificial en los últimos debe años ha sido espectacular y el ritmo al cual avanza hace que continúe en ascenso. Lo que hace ChatGPT es increíble. Ya hace tiempo que existen asistentes virtuales orientados a tareas concretas, como por ejemplo bots que pueden ayudarnos a reservar una mesa en un restaurante o a encontrar un producto en una página web. Estos asistentes virtuales orientados a tareas funcionan relativamente bien, pero son muy limitados. La diferencia es que ChatGPT es un sistema de diálogo abierto, con el cual, en principio, puedes hablar de cualquier tema. Crear sistemas de diálogo abiertos es mucho más complicado que hacer sistemas de diálogo orientados a una tarea. Hace cinco años trabajé en un proyecto relacionado con modelos de diálogo abierto y todo funcionaba muy mal.

¿Tiene mucho margen de mejora ChatGPT?

Este tipo de tecnologías todavía necesitan muchas iteraciones antes de poderse utilizar en casos prácticos, porque hay que entender plenamente como se comportan (por ejemplo, qué sesgos tienen, qué información no son capaces de representar correctamente, etc.). Pero, sin duda, lo que se está consiguiendo hoy es fantástico y cuando esté maduro puede ser muy útil.

Una parte de tu trabajo se enfoca a explicar cómo funciona la inteligencia artificial, para que no sea una "caja negra"...

El último artículo que hemos publicado en este ámbito propone un método de explicabilidad para entender mejor cómo funcionan los modelos de aprendizaje profundo (deep learning) que hacen clasificación de caras. Por ejemplo, los sistemas de verificación facial, que usan muchos modelos de teléfono móvil para desbloquearse de forma segura. Trabajamos para diseñar modelos computacionales que puedan dar explicaciones sobre sus respuestas, y ser así más transparentes. Estas explicaciones nos ayudan a saber si podemos fiarnos de la respuesta del sistema de inteligencia artificial.

¿Cómo pueden detectarse los sesgos a menudo presentes en la inteligencia artificial?

Mediante los mecanismos de explicabilidad podemos descubrir comportamientos sesgados del sistema. Tanto la transparencia como la detección de sesgos son importantes para asegurarnos de que la inteligencia artificial funciona de manera justa y fiable. Esto es especialmente esencial cuando esta tecnología se utiliza para tomar decisiones que pueden afectar a las personas, como por ejemplo para asistir en el diagnóstico de dolencias. La transparencia y el comportamiento no sesgado de los sistemas de inteligencia artificial son necesarios para desarrollar una inteligencia artificial responsable que tenga un impacto positivo en la sociedad.

Otro foco de tu investigación es la interacción entre robots y personas.

Este año queremos dedicar una parte de los esfuerzos a la robótica social, para entender las carencias que tienen los sistemas de percepción de comunicación verbal y no verbal cuando procesan información a tiempo real. Investigamos la comunicación de carácter social y emocional que puede haber entre un robot y una persona. Por ejemplo, en una interacción entre ambos, que el robot sea capaz de percibir si la persona le está prestando atención, si le está expresando una emoción concreta o si le está indicando que espera una respuesta del robot.

También tienes proyectos en sistemas de visión por computador, que es una de tus especialidades.

Sí, queremos avanzar en el diseño de dispositivos que capturen imágenes de la retina y la creación de sistemas de visión por computador que analicen estas imágenes para detectar dolencias de forma precoz. Estos proyectos los están liderando los profesores David Merino y David Masip, en colaboración con universidades como por ejemplo la de California en Berkeley (EE. UU.) y hospitales como Vall d'Hebrón de Barcelona. También en relación con el diagnóstico de dolencias, el profesor Carles Ventura está empezando un proyecto muy interesante de detección del cáncer de boca a partir de imágenes.

¿En qué momento estamos en las tecnologías de visión por computador?

En los últimos años se ha hecho un adelanto espectacular en la detección de patrones: por ejemplo, la detección de objetos, el reconocimiento facial, la detección de puntos faciales de interés (como por ejemplo los extremos de los ojos o de la boca), la reconstrucción 3D a partir de una o varias imágenes en 2D, o las herramientas por el diagnóstico basadas en el análisis automático de imágenes médicas, como por ejemplo mamografías o radiografías. Todo este progreso ha sido gracias al aprendizaje profundo, los grandes volúmenes de datos disponibles y la disponibilidad de hardware para poder realizar cálculos más efectivos (por ejemplo las GPU).

¿Cuáles son las debilidades de estos sistemas, actualmente?

Algunas de las debilidades son los sesgos o la poca capacidad de generalizar en grupos de datos que no están muy representados. Entender cómo superar estas debilidades es un reto y se están dedicando muchos esfuerzos a ello. Además, hay muchos retos generales de la inteligencia artificial que también afectan la visión por computador, por ejemplo, poder aprender de conjuntos de datos más pequeños. Los algoritmos de aprendizaje profundo necesitan grandes volúmenes de datos etiquetados —por ejemplo, para aprender a detectar neumonía en radiografías de tórax necesitas muchas imágenes de radiografías de personas sanas y de personas con neumonía—, y tener estas imágenes es costoso. Sería fantástico que la inteligencia artificial aprendiera de manera robusta con pocos ejemplos, pero hoy en día esto todavía no es posible.

También trabajas en soluciones que predigan problemas de salud a partir del análisis de nuestros datos personales.

El profesor Xavier Baró y yo exploramos posibles soluciones basadas en datos capturados por dispositivos electrónicos personales —como por ejemplo el móvil o un reloj inteligente— para detectar dolencias mentales de forma precoz. Nuestra hipótesis es que los datos que capturan los dispositivos personales, junto con los sensores (como por ejemplo el acelerómetro, el sensor de luz o señales fisiológicas como por ejemplo el ritmo cardíaco) contienen información sobre nuestros hábitos (por ejemplo, cuántas horas dormimos o si nos movemos mucho o poco). Esta información tiene un interés clínico, porque los cambios de hábitos pueden ser motivo (o consecuencia) de un problema de salud mental. Por ejemplo, se sabe que una alteración del patrón de seño puede estar relacionada con un incremento del estrés, y un estrés prolongado puede derivar en dolencias mentales graves. Estamos estudiando si se puede utilizar la información que los sensores capturan para detectar precozmente dolencias mentales, momento en que las intervenciones serían más. En este proyecto trabajamos en colaboración con personal investigador del Massachusetts Institute of Technology (MIT, EE. UU.), la Universidad d'Albizu (Florida, EE. UU.) y el Instituto Politécnico Nacional (México). Esperamos hacer progresos interesantes durante el 2023.

¿Alguna otra investigación que quieras destacar?

  En los últimos tres años hemos trabajado en la detección de incidentes y desastres naturales (por ejemplo, incendios forestales, terremotos o accidentes de coche) en imágenes de las redes sociales. Una de las motivaciones es poder detectar imágenes de acontecimientos que pueden requerir ayuda humanitaria y facilitar una respuesta rápida de las ONG, que habitualmente tienen problemas para conseguir información sobre qué está pasando. Nuestro último artículo muestra experimentos sobre cómo pueden detectarse imágenes de incidentes en redes sociales, y los resultados son muy prometedores. También hemos desarrollado una aplicación web para poder hacer esta monitorización a tiempo real. Para esta investigación colaboramos con personal investigador del MIT y del Qatar Computing Research Institute.

Has sido profesora visitante en Google. ¿Cómo ha sido la experiencia de trabajar con esta compañía?

Estuve un año en Google Research con el programa Visiting Faculty. Fue la primera vez que hice investigación en una empresa, fuera de la academia. Fue una experiencia muy interesante y positiva, que me ayuda a mentorizar mejor al estudiantado que quiere ir a la industria después de acabar el doctorado.

Por último, ¿cuál sería tu mensaje para motivar a las niñas a dedicarse a las matemáticas y la tecnología?

Les diría que las matemáticas y la tecnología sirven para encontrar soluciones en una variedad enorme de problemas, en ámbitos tan diversos como la salud, la educación, el entretenimiento, la planificación urbanística o el diseño. También pueden utilizarse para crear arte visual, música o literatura. Y les diría que no se crean los estereotipos que nos venden en las películas o en las series, en que las personas que se dedican a la tecnología son raras o antisociales. Todo esto es falso. Hay gente maravillosa, abierta y sociable que trabaja en tecnología, y es divertido y apasionando poder participar en el progreso de todos estos ámbitos. Nos hace falta gente con diferentes perfiles, sensibilidades e inquietudes que contribuya a la creación de tecnología inclusiva.

 

El eHealth Center investiga cómo las tecnologías digitales contribuyen a mejorar la salud y el bienestar individuales y colectivos, cómo nos permite reforzar —a partir de la tecnología, la comunicación y los datos— los sistemas de salud y sus profesionales, y cómo la salud digital nos ayuda a tener más conocimiento y una mejor capacidad de decisión sobre la propia salud.

Enlaces relacionados