12/11/20

Vídeos i àudios 'deepfake': un pas més cap a l'engany a les xarxes socials

El 96 % de vídeos deepfake, que incrusten artificialment cares de persones famoses en cossos d'altres persones, són pornogràfics

Els experts adverteixen que cada vegada seran més habituals per extorsionar o atemptar contra l'honor
Foto: Kate Torline / Unsplash

Foto: Kate Torline / Unsplash

És un fenomen nou, però ja està molt estès. Des de fa poc més de dos anys, circulen per internet fragments de vídeos en què veiem, per exemple, actrius famoses en escenes pornogràfiques. Les cares són seves, però els cossos, no. A l'Estat espanyol es va popularitzar una paròdia d'El equipo A, anomenada El equipo E, amb diversos polítics espanyols. Eren els seus rostres, però els cossos pertanyien als actors de la famosa sèrie dels vuitanta. Són els anomenats vídeos hipertrucats (deepfakes), i també existeixen en forma d'àudios en què se simula que una persona famosa diu coses que realment no ha dit mai.

Els experts afirmen que és un pas més cap a l'engany a les xarxes socials. Es tracta d'un fenomen estès que s'ha duplicat durant el 2019 i que continua creixent, segons els expertsUn estudi de l'any 2019 revela que, tot i que hi ha vídeos d'entreteniment o de caràcter polític, el 96 % dels vídeos deepfakes són pornogràfics, i els quatre webs més visitats d'aquesta mena de continguts tenen més de 134 milions de visualitzacions. Les dones constitueixen el col·lectiu més afectat, sobretot les actrius angleses i les cantants sud-coreanes. «Els deepfakes pornogràfics busquen rellevància i moltes visualitzacions, i la indústria s'adreça molt més a homes que no pas a dones», explica Josep Navarro, professor col·laborador dels Estudis d'Informàtica, Multimèdia i Telecomunicació de la Universitat Oberta de Catalunya (UOC). Els estudis han detectat una vintena de webs amb fòrums en què participen fins a 100.000 membres, la majoria dels quals —el 90 %— són de països occidentals.

Segons el docent, aquesta mena de productes són una «baula més» perquè els receptors dubtin de qualsevol vídeo, àudio, notícia o fitxer que els arribi per mitjà de les xarxes socials. Som davant de la confiança zero? «No és l'únic aspecte que ens hi porta, sinó la suma dels enganys constants que patim a les xarxes socials des de fa ja uns quants anys», lamenta Navarro, que considera que hi ha dues qüestions que cal tenir en compte pel que fa a l'expansió dels vídeos i els àudios deepfakes. D'una banda, que les empreses privades propietàries de les xarxes socials intenten adoptar mesures i excloure continguts que no compleixen les lleis dels drets d'autor, però «no els bloquegen», apunta l'expert. I, de l'altra, que s'elaboren amb eines tecnològiques que es popularitzen per la «senzillesa» i pel «fàcil accés».

Un estudi del gener del 2020 assegura que els programes són cada vegada més «eficients i pràctics», de manera que es produiran més continguts deepfakes per «monetitzar-los» i aquests seran «més realistes», mentre que els sistemes de control de Facebook o Google «queden endarrere» dels avenços d'aquests continguts, afegeixen els investigadors. Aquest mateix informe conclou que, de moment, els actors, els polítics o els empresaris en seran les víctimes principals, ja que per difamar un ciutadà anònim calen «moltíssimes imatges» prèvies capaces de reconstruir moviments falsos. No obstant això, l'expert de la UOC no està d'acord amb aquesta afirmació i adverteix que tots tenim «una gran quantitat de fotos, vídeos i àudios a les xarxes socials» als quals qualsevol persona podria accedir i que podrien servir per crear un vídeo o un àudio falsos. «Cada vegada seran més habituals els deepfakes per extorsionar o atemptar contra l'honor de les persones corrents i no solament el dels famosos», alerta.

El parpelleig dels ulls, un moviment facial natural... Així es detecta un deepfake

Les celebritats han estat les primeres a patir les conseqüències dels vídeos i els àudios deepfakes. «El problema més greu és que els protagonistes veuen que la seva imatge s'empra amb objectius maliciosos i, principalment, que la seva reputació pot quedar afectada abans de poder desmentir el missatge», ressalta el docent de la UOC, que opina que la responsabilitat i l'actitud individual són fonamentals a l'hora de detectar aquests continguts i no caure en l'engany. «No ens hem de creure el que ens envia un amic o un conegut dient-nos que a ell l'hi ha enviat una persona de confiança», diu. «Cal contrastar la veracitat de la informació perquè, en cas contrari, estem alimentant el fenomen», afegeix. Per poder comprovar la veracitat del vídeo o l'àudio que rebem, Navarro enumera les mesures següents: que hi hagi parpelleig d'ulls, que els moviments facials siguin «naturals» o que no hi hagi canvis en la lluminositat o en els tons de pell. Segons l'expert, es tracta de precaucions que no són difícils de prendre. «Encara que no en siguem conscients, el cervell està acostumat a detectar aquesta mena d'aspectes d'una manera força natural, perquè ho hem après des de petits», assegura.

La cara positiva dels deepfakes

Però, com moltes altres eines tecnològiques, els vídeos i els àudios deepfakes són fruit d'un avenç de la intel·ligència artificial que té infinits usos positius. «Aquesta tècnica va aparèixer en el cinema el 2016 per donar vida a una actriu que havia mort durant el rodatge», recorda Navarro. La indústria del cinema és una de les més beneficiades per aquesta tecnologia, i Disney ja ha anunciat que la fa servir. Altres aplicacions importants podrien ser els audiollibres llegits per autors morts o la millora d'assistents de veu com Google Maps. I és que la part només auditiva també té l'efecte doble —positiu i negatiu— en continguts que rebem per les xarxes o per internet. És més, el professor universitari assegura que a l'Estat espanyol s'han registrat més continguts deepfakes d'aquesta mena amb personatges famosos, alguns dels quals ja són morts. Segons ell, «amb un vídeo podem tenir més dubtes de si és veraç o no, però amb un àudio, no». Els efectes perniciosos d'una trucada o un missatge de veu poden ser molt greus, com va passar al Regne Unit, en què una trucada d'un suposat director executiu (CEO) d'una empresa va aconseguir que un treballador fes una transferència de 200.000 euros que va resultar ser una estafa.

Contacte de premsa

També et pot interessar

Més llegits