Com la tecnologia pot detectar fake news en vídeo

  Persones mirant el mòbil

Un projecte internacional desenvolupa eines contra la desinformació audiovisual digital (foto: Camilo Jiménez / unsplash.com)

28/06/2022
Agustín López

La UOC lidera un projecte amb investigadors japonesos i polonesos per distingir de manera automàtica entre continguts multimèdia originals i falsos


Els investigadors combinen tècniques d'anàlisi forense de continguts digitals, marques d'aigua i intel·ligència artificial

Les xarxes socials en línia són una important via de distribució de notícies falses i desinformació. Aquesta situació s'ha agreujat amb els avanços recents en les eines d'edició d'imatge i d'intel·ligència artificial, que permeten falsificar fàcilment documents audiovisuals com els anomenats deepfakes, que combinen i superposen imatges, àudios i videoclips per crear videomuntatges que semblen reals. Investigadors del grup K-riptography and Information Security for Open Networks (KISON) i del Communication Networks & Social Change (CNSC), tots dos de l'Internet Interdisciplinary Institute (IN3) de la Universitat Oberta de Catalunya (UOC), han posat en marxa un nou projecte transdisciplinari per desenvolupar eines tecnològiques innovadores que, usant tècniques d'ocultació de dades i intel·ligència artificial, ajudin els usuaris a distingir de manera automàtica entre contingut multimèdia original i alterat, amb la qual cosa contribueixen a minimitzar la redistribució d'informacions falses. DISSIMILAR és una iniciativa internacional liderada per UOC en la qual també participen investigadors de la Universitat Tecnològica de Varsòvia (Polònia) i de la Universitat d'Okayama (el Japó). 

"El projecte té un objectiu doble: d'una banda, proporcionar als creadors de contingut eines per identificar amb marques d'aigua les seves creacions, amb la qual cosa s'aconsegueix que qualsevol modificació sigui fàcilment detectable; de l'altra, dotar els usuaris de les xarxes socials d'eines basades en processament de senyals d'última generació i mètodes d'aprenentatge automàtic per detectar contingut digital fals", explica el catedràtic David Megías, investigador líder de KISON i director de l'IN3. A més, DISSIMILAR vol incloure "la dimensió cultural i la visió de l'usuari final durant tot el projecte", des de la concepció de les eines fins a l'estudi de l'experiència d'usabilitat en les seves diverses fases.

 

El perill dels biaixos 

En l'actualitat, les eines de detecció de notícies falses són bàsicament de dos tipus. D'una banda, instruments automàtics basats en aprenentatge automàtic, dels quals, de moment, només hi ha alguns prototips. I, d'altra banda, les plataformes de detecció de notícies falses amb intervenció de persones, com ocorre a Facebook o Twitter, en què cal la participació humana per descobrir si un determinat contingut és genuí o fals. Segons David Megías, aquesta solució centralitzada pot estar subjecta a "diferents biaixos" i fomentar la censura. "Pensem que una avaluació objectiva basada en eines tecnològiques pot ser una opció millor, sempre que l'usuari tingui l'última paraula per decidir, en funció d'una preavaluació, si confia en un contingut o no", explica. 

Per al catedràtic de la UOC, no hi ha "una única bala de plata" que permeti detectar notícies falses, sinó que la detecció s'ha de fer mitjançant la combinació de diverses eines. "Per això, en el projecte hem optat per explorar l'ocultació d'informació (marques d'aigua), les tècniques d'anàlisi forense de continguts digitals (en gran part basades en processament de senyals) i, naturalment, l'aprenentatge automàtic", destaca. 

 

Verificar automàticament documents multimèdia

Les marques d'aigua digitals són un conjunt de tècniques, de la branca de l'ocultació de dades, que consisteixen a incrustar informació imperceptible en l'arxiu original per poder verificar "fàcilment i automàticament" un document multimèdia. "Poden servir per indicar la legitimitat d'un contingut, per exemple, verificar que un vídeo o una fotografia ha estat distribuït per una agència de notícies oficial; també es poden utilitzar com a marca d'autenticació, que s'eliminaria en cas de modificació del contingut, o per traçar l'origen de les dades, és a dir, per saber si una font d'informació (per exemple, un compte de Twitter) distribueix contingut fals", enumera David Megías. 

 

Tècniques d'anàlisi forense de continguts digitals

El desenvolupament de marques d'aigua es combinarà en el projecte amb l'aplicació de tècniques d'anàlisi forense de continguts digitals. L'objectiu és utilitzar la tecnologia de processament de senyals per detectar les distorsions intrínseques produïdes pels dispositius i programes que s'utilitzen quan es crea o modifica qualsevol document audiovisual. Aquests processos produeixen una sèrie d'alteracions, com ara sorolls del sensor o distorsions òptiques, que es podrien identificar mitjançant models d'aprenentatge automàtic. "La idea és que la combinació de totes aquestes eines millori els resultats en comparació amb l'ús de solucions d'un sol tipus", incideix David Megías. 

 

Estudis amb usuaris de Catalunya, Polònia i el Japó

Una de les característiques fonamentals de DISSIMILAR és que incorpora un enfocament "holístic" i recull "les percepcions i els components culturals de les notícies falses". Per fer-ho, es duran a terme diferents estudis centrats en l'usuari, estructurats en diverses fases. "En primer lloc, volem saber com es relacionen els usuaris amb les notícies, què els interessa, quins mitjans consumeixen segons els interessos que tenen, en què es basen per identificar certs continguts com a fake news i què estan disposats a fer per comprovar-ne la veracitat. Si identifiquem aquests elements, serà més fàcil que les eines tecnològiques que dissenyem puguin contribuir a evitar la propagació de les notícies falses", explica David Megías.

El mesurament d'aquestes percepcions es durà a terme en llocs i contextos culturals diferents, mitjançant estudis amb grups d'usuaris de Catalunya, Polònia i el Japó, per incorporar així les seves particularitats en el disseny de les solucions. "Això és important perquè, per exemple, en cada país hi ha un grau més o menys elevat de credibilitat en les institucions públiques o en el govern. Això influeix en el seguiment de les notícies i en el suport a les notícies falses: si no crec en el govern ni en les institucions públiques, per què he d'estar pendent de les notícies que provinguin d'aquestes fonts? Això es va poder veure durant la crisi de la COVID-19: als països en què es confiava menys en les institucions públiques, s'acataven menys els suggeriments o les normes respecte a la gestió de la pandèmia i a la vacunació", descriu Andrea Rosales, investigadora del CNSC.

 

Un producte fàcil d'emprar i comprensible

En una segona fase, els usuaris participaran en el disseny de l'eina per "assegurar que el producte serà ben rebut, fàcil d'emprar i comprensible", ressalta Andrea Rosales. "Ens agradaria que ens acompanyessin al llarg de tot el procés fins a arribar al prototip final, perquè així podrem respondre més bé a les seves necessitats i prioritats i arribar on altres solucions no han pogut arribar", afegeix David Megías.

Aquesta acceptació entre els usuaris podria ser una via perquè, en un futur, les plataformes de xarxes socials arribin a incorporar les solucions desenvolupades en el projecte. "Si els nostres experiments funcionen, seria fantàstic que integressin aquestes tecnologies. De moment, ens conformem amb el fet de tenir un prototip funcional i una prova de concepte que pugui animar les plataformes socials a incorporar aquestes tecnologies en el futur", conclou David Megías. 

 

Articles relacionats

D. Megías, M. Kuribayashi, A. Rosales, K. Cabaj and Wojciech Mazurczyk, "Architecture of a fake news detection system combining digital watermarking, signal processing, and machine learning". Special Issue on the ARES-Workshops 2021, 2022. pp. 33-55. DOI: 10.22667/JOWUA.2022.03.31.033

A. Qureshi, D. Megías and M. Kuribayashi, "Detecting Deepfake Videos using Digital Watermarking". 2021 Asia-Pacific Signal and Information Processing Association Annual Summit and Conference (APSIPA ASC), 2021, pp. 1786-1793. https://ieeexplore.ieee.org/document/9689555

David Megías, Minoru Kuribayashi, Andrea Rosales, and Wojciech Mazurczyk. 2021. "DISSIMILAR: Towards fake news detection using information hiding, signal processing and machine learning". In The 16th International Conference on Availability, Reliability and Security (ARES 2021). Association for Computing Machinery, New York, NY, USA, Article 66, 1–9. DOI: https://doi.org/10.1145/3465481.3470088

 

Aquesta recerca de la UOC afavoreix els objectius de desenvolupament sostenible (ODS) 9, indústria, innovació i infraestructura, i 16, pau, justícia i institucions sòlides.

 

El projecte Detection of Fake News on Social Media Platforms és finançat pel Ministeri de Ciència i Innovació, a través de l'Agència Estatal de Recerca, amb la referència PCI2020-120689-2 / AEI / 10.13039 / 501.100.011.033.

 

UOC R&I

La recerca i innovació (R+I) de la UOC contribueix a solucionar els reptes a què s'enfronten les societats globals del segle xxi, mitjançant l'estudi de la interacció entre la tecnologia i les ciències humanes i socials, amb un focus específic en la societat xarxa, l'aprenentatge en línia i la salut digital. Els més de 500 investigadors i investigadores i els 51 grups de recerca s'articulen entorn dels set estudis de la UOC i dos centres de recerca: l'Internet Interdisciplinary Institute (IN3) i l'eHealth Center (eHC).

A més, la Universitat impulsa la innovació en l'aprenentatge digital a través de l'eLearning Innovation Center (eLinC) i la transferència de coneixement i l'emprenedoria de la comunitat UOC amb la plataforma Hubbik.

Els objectius de l'Agenda 2030 de desenvolupament sostenible de les Nacions Unides i el coneixement obert són eixos estratègics de la docència, la recerca i la innovació de la UOC.

Més informació: research.uoc.edu #25anysUOC

Experts UOC

Foto del professor David Megías Jiménez

David Megías Jiménez

Director de l'Internet Interdisciplinary Institute (IN3)
Catedràtic dels Estudis d'Informàtica, Multimèdia i Telecomunicació

Expert/a en: Seguretat i privadesa de la informació i de xarxes. Especialment en Information hiding: marcatge (watermarking), esteganografia i estegoanàlisi.

Àmbit de coneixement: Seguretat i privadesa de xarxes i de la informació.

Veure fitxa
Foto d'Andrea Rosales

Andrea Rosales

Investigadora de l'Internet Interdisciplinary Institute (IN3)

Expert/a en: Anàlisi de registres digitals per a entendre les experiències d'usuari, en combinació amb aproximacions etnogràfiques des d'una perspectiva generacional, focalitzades especialment en la gent gran.

Àmbit de coneixement: Experiència d'usuari, gent gran i registres.

Veure fitxa

Enllaços relacionats