20/1/26 · Comunicació

Torna allò humà: serà l'etiqueta "sense IA" un nou segell de prestigi?

Experts de la UOC analitzen com la bretxa de confiança i els nous criteris dels cercadors estan revaloritzant l'autoria humana enfront de l'automatització

El 66% de la població utilitza la IA habitualment, però menys de la meitat hi confia

El 76% dels usuaris exigeix saber si un contingut és artificial o humà
-

"Si vols, també puc crear una versió encara més vistosa, de l'estil de la portada, amb estadístiques impactants (...) Vols que ho faci a continuació?". Aquest text, generat per una IA, es va colar per error en una notícia del diari Dawn. La relliscada va desencadenar una onada de crítiques i va reobrir el debat sobre l'ús de la IA en la redacció de notícies. "Ja és molt difícil diferenciar el contingut generat per IA de l'elaborat per éssers humans, i cada vegada ho serà més", adverteix Ferran Lalueza, professor dels Estudis de Ciències de la Informació i de la Comunicació de la Universitat Oberta de Catalunya (UOC). "Acabarem assumint que, per defecte, tots els continguts que consumim poden haver estat elaborats utilitzant eines d'IA, excepte aquells provinents de fonts que facin bandera de l'autoria humana", afegeix.

 

La paradoxa de la confiança

Tot i l'adopció massiva d'aquestes eines, existeix el que els experts denominen la bretxa de confiança. Segons un informe elaborat en 47 països per la Melbourne Business School en col·laboració amb KPMG, encara que el 66% de la població utilitza la IA habitualment, ni tan sols la meitat (46%) hi confia realment. Les persones confien en la capacitat tècnica de la IA per processar dades, però són molt més escèptiques pel que fa a la seguretat i a l'impacte social. En aquesta línia, un estudi del Pew Research Center (setembre de 2025) indica que el 50% dels entrevistats es mostra més preocupat que emocionat per l'avanç de la IA, i el 53% tem especialment la pèrdua de la capacitat de pensament creatiu humà.

I és que la IA té grans avantatges, però també mancances: "Falta d'autenticitat, de responsabilitat ferma, de compromís ètic, de confiabilitat, de traçabilitat i d'empatia real (no impostada)", enumera Lalueza. Per la seva banda, Alexandre López Borrull, també professor dels Estudis de Ciències de la Informació i de la Comunicació de la UOC, destaca que la creació humana permet, a diferència de la generació per IA, oferir diferents capes de context i valors al relat d'una mateixa dada, a més de tenir la capacitat de personalitzar i adaptar el coneixement a cada pregunta.

“Dir que no s'ha utilitzat la IA pot tenir un valor a curt termini, però en el pèndol del temps no s'entendrà com a artesanal, sinó com a poc eficient”

El factor humà, un nou criteri de valor?

Davant d'aquestes deficiències, els cercadors i les plataformes d'IA estan ajustant els seus algorismes per respondre a criteris com l'EEAT (experiència, coneixement, autoritat i confiança, per les sigles en anglès) que valora, situa i premia en millors posicions el contingut escrit o signat per humans.

En un món impregnat per continguts sintètics, es podria convertir l'etiqueta "made by a human" en un criteri de valor positiu? La demanda social ja existeix: per al 76 % dels adults és extremament important o molt important poder distingir si un text, imatge o vídeo ha estat creat per una IA o una persona, segons l'esmentat estudi del Pew Research Center.

Ja existeixen iniciatives en aquest sentit per certificar l'autoria humana en diferents camps: en el sector editorial, destaquen segells com "Organic Literature" (Literatura escrita per humans), de Books by People, i "Human Authored" (Escrit per humans), de The Authors Guild; en el camp gràfic, existeixen insígnies com "Not By AI" (No fet per IA) o la certificació "AI Free" (Lliure de IA), i en l'àmbit dels videojocs, hi ha el segell "No Gen AI" (Sense IA generativa).

 

El blindatge de la ciència: sense responsabilitat no hi ha autoria

Com es protegeix el coneixement científic davant la irrupció de la IA? Segons López Borrull, l'àmbit acadèmic està aixecant murs des de dues vessants. La primera és la transparència. "S'exigeix detallar en quines fases exactes del procés de recerca s'ha utilitzat la IA (traducció, revisió d'estil, etc.)", comenta l'expert. La segona és la confidencialitat. "Les editorials científiques estan prohibint que s'alimenti les IA generatives amb manuscrits no definitius o que s'utilitzin aquestes eines per redactar informes d'avaluació d'experts (peer review), amb la finalitat de protegir la propietat intel·lectual de dades encara no publicades", detalla el també investigador del Grup de Recerca en Aprenentatges, Mitjans i Entreteniment (GAME).

A més, s'ha resolt el debat sobre si una IA pot signar un paper. "El consens acadèmic és que no es pot ser autor si no es pot assumir la responsabilitat ètica i jurídica de la recerca; per exemple, respondre davant resultats falsos o errors en els experiments. Si no se li pot exigir responsabilitat, no és un autor; és una eina", adverteix López Borrull.

 

L'humà com a servei prèmium

Així doncs, seran aquests segells un distintiu de qualitat, ètica i connexió emocional? "Penso que hi haurà dues grans tendències: una de plena acceptació de la IA com a recurs vàlid per generar continguts de manera ràpida i econòmica, i una altra que potenciarà el contingut elaborat sense cap mena de suport de la IA com a distintiu de qualitat prèmium", afirma Lalueza. López Borrull aposta per una etiqueta com ara "supervisat per un expert", que oferiria una capa de valor addicional. "L'èxit vindrà d'aquells que tinguin els millors experts i hagin sabut adaptar adequadament la IA generativa per millorar la qualitat, i no la quantitat", matisa.

No obstant això, que aquesta etiqueta es converteixi en un element de prestigi dependrà, segons els experts, de les preferències dels usuaris. "No crec que sigui determinant a l'hora de consumir continguts, sinó una acció que dependrà més de gustos personals que de les eines utilitzades. Sobretot, perquè hi haurà molta hibridació, des de continguts generats gairebé només per IA fins a continguts en què l'ús de la IA és present, però de manera residual", comenta Lalueza, també investigador del grup GAME.

Hi ha escenaris en els quals descobrir una IA darrere genera rebuig immediat pel factor de l'engany, com ara l'art, les opinions personals o la informació signada. En canvi, per a resums, consultes tècniques ràpides o dades utilitàries (el temps, resultats esportius), el pragmatisme guanya.

 

El problema de la transparència

Aquí sorgeix el problema: encara que hi ha interès en la transparència dels continguts, la capacitat real dels usuaris per detectar si l'origen és humà o sintètic és deficient. El 53% de les persones enquestades no està gaire segur o gens segur de poder distingir si una cosa ha estat creada per IA o per una persona, segons l'estudi del Pew Research Center. "Ens passem molt temps intentant veure si el resultat final té indicis de IA (en el format, en el text), però potser hauríem de valorar més el procés, si ha aportat valor com ho hagués fet en el cas humà o si en canvi, li ha llevat originalitat, espontaneïtat i ètica", puntualitza López Borrull.

Estudis recents indiquen que identificar els continguts com creats per una IA no redueix l'aversió dels lectors a la IA. Saber que l'autor és una màquina manté intacta la preferència del públic per les notícies escrites per humans, especialment quan es tracta de temes complexos o sensibles que requereixen matisos més enllà de la simple dada. Hi ha una bona disposició a llegir la màquina per novetat i utilitat, però es continua reservant la credibilitat per a l'humà.

Aquesta aversió provoca que, avui, la transparència no sempre estigui ben vista; de vegades sembla un engany o una falta de professionalitat. "S'emet un missatge com si tot fos humà, però al backoffice hi ha IA generativa, perquè el seu ús declarat sembla penalitzat, ja que encara no se'n percep el valor", comenta López Borrull.

Potser, amb el temps, etiquetes com "made by a human", "assistit per una IA" o "creat per una IA" modifiquen el valor que tenen en l'imaginari social. "Dir que no s'ha utilitzat la IA pot tenir un valor a curt termini, però en el pèndol del temps no s'entendrà com a artesanal, sinó com a poc eficient", conclou López Borrull.

Experts UOC

Contacte de premsa

També et pot interessar

Més llegits

Veure més sobre Comunicació