28/6/22 · Investigación

Cómo la tecnología puede detectar fake news en vídeo

La UOC lidera un proyecto transdisciplinario con investigadores japoneses y polacos para distinguir de forma automática entre contenidos multimedia originales y falsos
Los investigadores combinan técnicas de análisis forense de contenidos digitales, marcas de agua e inteligencia artificial
Un proyecto internacional desarrolla herramientas contra la desinformación audiovisual digital (foto: Camilo Jiménez / unsplash.com)

Un proyecto internacional desarrolla herramientas contra la desinformación audiovisual digital (foto: Camilo Jiménez / unsplash.com)

Las redes sociales en línea son una importante vía de distribución de noticias falsas y desinformación. Esta situación se ha agravado con los recientes avances en las herramientas de edición de imagen y de inteligencia artificial, que permiten falsificar fácilmente documentos audiovisuales como los llamados deepfakes, que combinan y superponen imágenes, audios y videoclips para crear videomontajes que parecen reales. Investigadores del grupo K-riptography and Information Security for Open Networks (KISON) y del Communication Networks & Social Change (CNSC), ambos del Internet Interdisciplinary Institute (IN3) de la Universitat Oberta de Catalunya (UOC), han puesto en marcha un nuevo proyecto transdisciplinario para desarrollar herramientas tecnológicas innovadoras que, usando técnicas de ocultación de datos e inteligencia artificial, ayuden a los usuarios a distinguir de forma automática entre contenido multimedia original y alterado, con lo que contribuyen a minimizar la redistribución de informaciones falsas. DISSIMILAR es una iniciativa internacional liderada por la UOC en la que también participan investigadores de la Universidad Tecnológica de Varsovia (Polonia) y de la Universidad de Okayama (Japón).  

"El proyecto tiene un objetivo doble: por un lado, proporcionar a los creadores de contenido herramientas para identificar con marcas de agua sus creaciones, con lo que se consigue que cualquier modificación sea fácilmente detectable; por otro, dotar a los usuarios de las redes sociales de herramientas basadas en procesamiento de señales de última generación y métodos de aprendizaje automático para detectar contenido digital falso", explica el catedrático David Megías, investigador líder de KISON y director del IN3. Además, DISSIMILAR pretende incluir "la dimensión cultural y la visión del usuario final durante todo el proyecto", desde la concepción de las herramientas hasta el estudio de la experiencia de usabilidad en sus diversas fases.  

El peligro de los sesgos 

En la actualidad, las herramientas de detección de noticias falsas son básicamente de dos tipos. Por un lado, instrumentos automáticos basados en aprendizaje automático, de los que, de momento, solo existen algunos prototipos. Y, por otro lado, las plataformas de detección de noticias falsas con intervención de personas, como sucede en Facebook o Twitter, en las que es necesario la participación humana para descubrir si un determinado contenido es genuino o falso. Según David Megías, esta solución centralizada puede estar sujeta a "diferentes sesgos" y fomentar la censura. "Pensamos que una evaluación objetiva basada en herramientas tecnológicas puede ser una mejor opción, siempre que el usuario tenga la última palabra para decidir, en función de una preevaluación, si confía en un contenido o no", explica. 

Para el catedrático de la UOC, no existe "una única bala de plata" que permita detectar noticias falsas, sino que la detección debe hacerse mediante la combinación de diversas herramientas. "Por eso, en el proyecto hemos optado por explorar la ocultación de información (marcas de agua), las técnicas de análisis forense de contenidos digitales (en gran parte basadas en procesamiento de señales) y, cómo no, el aprendizaje automático", destaca. 

Verificar automáticamente documentos multimedia

Las marcas de agua digitales son un conjunto de técnicas, de la rama de la ocultación de datos, que consisten en incrustar información imperceptible en el archivo original para poder verificar "fácil y automáticamente" un documento multimedia. "Pueden servir para indicar la legitimidad de un contenido, por ejemplo, verificar que un vídeo o una fotografía ha sido distribuido por una agencia de noticias oficial; también se pueden utilizar como marca de autentificación, que se eliminaría en caso de modificación del contenido, o para trazar el origen de los datos, es decir, para saber si una fuente de información (por ejemplo, una cuenta de Twitter) está distribuyendo contenido falso", enumera David Megías. 

Técnicas de análisis forense de contenidos digitales

El desarrollo de marcas de agua se combinará en el proyecto con la aplicación de técnicas de análisis forense de contenidos digitales. El objetivo es utilizar la tecnología de procesamiento de señales para detectar las distorsiones intrínsecas producidas por los dispositivos y programas que se utilizan cuando se crea o modifica cualquier documento audiovisual. Estos procesos producen una serie de alteraciones, como ruidos del sensor o distorsiones ópticas, que podrían identificarse mediante modelos de aprendizaje automático. "La idea es que la combinación de todas estas herramientas mejore los resultados en comparación con el uso de soluciones de un solo tipo", incide David Megías. 

Estudios con usuarios de Cataluña, Polonia y Japón

Una de las características fundamentales de DISSIMILAR es incorporar un enfoque "holístico" y recoger "las percepciones y los componentes culturales de las noticias falsas". Para ello, se llevarán a cabo diferentes estudios centrados en el usuario, estructurados en varias fases. "En primer lugar, queremos conocer cómo se relacionan los usuarios con las noticias, qué les interesa, qué medios consumen según sus intereses, en qué se basan para identificar ciertos contenidos como fake news y qué están dispuestos a hacer para comprobar su veracidad. Si identificamos estos elementos, será más fácil que las herramientas tecnológicas que diseñemos puedan contribuir a evitar la propagación de las noticias falsas", explica David Megías.

La medición de estas percepciones se llevará a cabo en lugares y contextos culturales diferentes, con estudios con grupos de usuarios de Cataluña, Polonia y Japón, para incorporar así sus particularidades en el diseño de las soluciones. "Esto es importante porque, por ejemplo, en cada país hay un mayor o menor grado de credibilidad en las instituciones públicas o en el gobierno. Esto influye en el seguimiento de las noticias y en el apoyo a las noticias falsas: si no creo en el gobierno ni en las instituciones públicas, ¿para qué voy a estar pendiente de las noticias que provengan de estas fuentes? Esto se pudo ver durante la crisis de la COVID-19: en los países donde se confiaba menos en las instituciones públicas, se acataban menos las sugerencias o normas con respecto al manejo de la pandemia y a la vacunación", describe Andrea Rosales, investigadora del CNSC.

Un producto fácil de usar y comprensible

En una segunda fase, los usuarios participarán en el diseño de la herramienta para "asegurar que el producto va a ser bien recibido, fácil de usar y comprensible", resalta Andrea Rosales. "Nos gustaría que nos acompañaran a lo largo de todo el proceso hasta llegar al prototipo final, porque así podremos responder mejor a sus necesidades y prioridades y llegar adónde otras soluciones no han podido llegar", añade David Megías.

Esta aceptación entre los usuarios podría ser una vía para que, en un futuro, las plataformas de redes sociales lleguen a incorporar las soluciones desarrolladas en el proyecto. "Si nuestros experimentos funcionan, sería fantástico que integrasen estas tecnologías. De momento, nos conformamos con tener un prototipo funcional y una prueba de concepto que pueda animar a las plataformas sociales a incorporar estas tecnologías en el futuro", concluye David Megías. 

Artículos relacionados

D. Megías, M. Kuribayashi, A. Rosales, K. Cabaj and Wojciech Mazurczyk, "Architecture of a fake news detection system combining digital watermarking, signal processing, and machine learning". Special Issue on the ARES-Workshops 2021, 2022. pp. 33-55. DOI: 10.22667/JOWUA.2022.03.31.033

A. Qureshi, D. Megías and M. Kuribayashi, "Detecting Deepfake Videos using Digital Watermarking". 2021 Asia-Pacific Signal and Information Processing Association Annual Summit and Conference (APSIPA ASC), 2021, pp. 1786-1793. https://ieeexplore.ieee.org/document/9689555

David Megías, Minoru Kuribayashi, Andrea Rosales, and Wojciech Mazurczyk. 2021. "DISSIMILAR: Towards fake news detection using information hiding, signal processing and machine learning". In The 16th International Conference on Availability, Reliability and Security (ARES 2021). Association for Computing Machinery, New York, NY, USA, Article 66, 1–9. DOI: https://doi.org/10.1145/3465481.3470088

Esta investigación de la UOC favorece el objetivo de desarrollo sostenible (ODS) 9, industria, innovación e infraestructura, y 16, paz, justicia e instituciones sólidas.

 

El proyecto Detection of Fake News on Social Media Platforms está financiado por el Ministerio de Ciencia e Innovación, a través de la Agencia Estatal de Investigación, con la referencia PCI2020-120689-2 / AEI / 10.13039 / 501.100.011.033.

UOC R&I

La investigación e innovación (RI) de la UOC contribuye a solucionar los retos a los que se enfrentan las sociedades globales del siglo xxi, mediante el estudio de la interacción de la tecnología y las ciencias humanas y sociales, con un foco específico en la sociedad red, el aprendizaje en línea y la salud digital. Los más de 500 investigadores e investigadoras y los 51 grupos de investigación se articulan en torno a los siete estudios de la UOC y dos centros de investigación: el Internet Interdisciplinary Institute (IN3) y el eHealth Center (eHC).

La Universidad impulsa también la innovación en el aprendizaje digital a través del eLearning Innovation Center (eLinC) y la transferencia de conocimiento y el emprendimiento de la comunidad UOC con la plataforma Hubbik.

Los objetivos de la Agenda 2030 de Desarrollo Sostenible de las Naciones Unidas y el conocimiento abierto son ejes estratégicos de la docencia, la investigación y la innovación de la UOC. Más información: research.uoc.edu #25añosUOC

Expertos UOC

Contacto de prensa

También te puede interesar

Más leídos

Ver más sobre Investigación