La brossa digital generada per la IA amenaça la qualitat d'internet
La Xina, Europa i els Estats Units busquen frenar l'avenç de l'AI slop amb regulacions diferentsLa saturació de contingut generat per IA erosiona la confiança i canvia el consum a les xarxes
La revolució de la intel·ligència artificial (IA) generativa ha comportat un fenomen inesperat: l'augment massiu de contingut de baixa qualitat, anomenat AI slop o brossa digital. Plataformes com TikTok, YouTube o Instagram ja mostren senyals de saturació. Com indica The New York Times, alguns exemples d'aquest AI slop són les respostes automàtiques de Google que suggereixen "afegir cola no tòxica" per fer que el formatge s'enganxi millor a la pizza, llibres digitals barats que imiten títols populars però de molta menys qualitat, o publicacions de Facebook que apareixen aleatòriament als murs de notícies dels usuaris sense una font fiable.
El fenomen va créixer especialment el maig del 2024, després que el model Gemini de Google s'integrés en els resultats de cerca als Estats Units i la funció AI Overview comencés a generar respostes automàtiques en comptes de mostrar enllaços directament. Segons experts de la Universitat Oberta de Catalunya (UOC), la massificació de contingut implica riscos com ara la saturació o el soroll per contingut buit, la desinformació o la crisi de confiança en internet.
“L'experiència a les plataformes podria no ser tan satisfactòria com voldria l'usuari, i es podria generar més escepticisme respecte al contingut que es consumeix”
"El risc principal és que internet s'ompli de 'soroll': textos buits, repetitius o enganyosos que amaguen la informació útil", explica Antonio Pita Lozano, professor dels Estudis d'Informàtica, Multimèdia i Telecomunicació de la UOC i investigador del grup ICSO. Aquesta massificació fa que sigui complicat trobar contingut de valor i, alhora, pot fer disminuir la confiança en aquest contingut, perquè no se sap si darrere hi ha una persona informada o simplement una màquina que deixa anar "frases boniques però buides", afegeix.
Hi ha solucions tècniques per frenar l'allau de brossa digital? "Sí, però no són màgiques", adverteix el professor de la UOC. Les plataformes poden fer servir filtres automàtics, eines de detecció de contingut duplicat o mecanismes per verificar l'autoria i la qualitat. El problema és que aquestes solucions arriben tard: els generadors de contingut brossa evolucionen molt ràpidament, i distingir-los dels que generen contingut de qualitat no és tan fàcil com sembla.
La necessitat de regular l'AI slop
De fet, continua l'expert, els creadors de contingut generats per IA l'intenten adequar al que demanen les plataformes, de manera que desplacen ràpidament la resta. "S'està treballant en normatives per poder establir regles sobre aquesta qüestió. Un exemple interessant és el de la Xina, que ha establert una sèrie de regulacions per controlar el contingut generat per IA. Aquestes mesures inclouen l'obligació d'etiquetar clarament el contingut creat per intel·ligència artificial i assegurar que les dades utilitzades per entrenar aquests models siguin precises i no infringeixin drets d'autor", explica Pita.
La Unió Europea ja ha adoptat mesures per frenar la inundació de contingut de baixa qualitat generat per IA. El 2024, Brussel·les va aprovar la Llei d'intel·ligència artificial (AI Act), que, entre altres coses, imposa obligacions de transparència, com ara el fet d'etiquetar el contingut sintètic per advertir els usuaris. En contraposició, els Estats Units encara no tenen cap regulació específica contra aquesta "contaminació digital", i es basen principalment en iniciatives voluntàries de la indústria mentre es debat la introducció de lleis similars en el futur. Entre els enfocaments emergents comuns, destaca l'exploració de marques d'aigua digitals i sistemes de procedència de contingut per identificar automàticament el material generat per IA, amb l'objectiu de complementar les mesures reguladores vigents o en desenvolupament.
La intel·ligència artificial també pot formar part de la solució? "Sí, i de fet ja ho fa", respon Pita. La mateixa tecnologia que genera textos es pot entrenar per identificar quan un contingut és superficial o manipulador. La IA ens pot ajudar a classificar i resumir continguts, comparar fonts i detectar patrons sospitosos. "Però necessita regles clares, ètiques i un bon criteri humà darrere: si deixem que ho decideixi tot la IA sola, el remei pot ser pitjor que la malaltia", assegura el professor.
Silvia Martínez Martínez, professora dels Estudis de Ciències de la Informació i de la Comunicació de la UOC i investigadora del grup GAME, explica que la presència d'AI slop ja afecta negativament l'experiència d'ús de les xarxes socials. La majoria d'internautes s'han trobat en algun moment amb aquesta mena de contingut. "Si no s'adopten mesures, la incidència d'aquesta mena de materials augmentarà, tant per l'increment de missatges com pel contacte prolongat amb l'usuari", assenyala.
La primera conseqüència d'aquesta saturació seria la sensació de pèrdua de temps, pel fet de no trobar contingut de valor. Però els efectes podrien ser encara més greus si es tenen en compte els usos maliciosos de l'AI slop, com ara la generació d'incertesa, confusió o desinformació. "L'experiència a les plataformes podria no ser tan satisfactòria com voldria l'usuari, i es podria generar més escepticisme respecte al contingut que es consumeix", alerta Martínez, també directora del màster universitari de Social Media: Gestió i Estratègia.
A més, l'usuari podria percebre que se l'utilitza per generar interacció o augmentar el nombre de visualitzacions i seguidors, cosa que el podria impulsar a participar en les xarxes de manera més moderada.
Pèrdua de confiança a la xarxa
Una anàlisi recent de Harvard Business Review alerta que l'expansió de contingut generat per intel·ligència artificial agreuja la crisi de confiança en internet. La proliferació de l'anomenat AI slop —material irrellevant, imprecís o enganyós produït a gran escala per màquines— no només deteriora la qualitat de la informació disponible, sinó que contribueix a una sensació de saturació i de desconfiança entre els usuaris. La situació s'ha vist agreujada per les retallades en moderació humana a grans plataformes com Meta, YouTube o X, que han substituït una bona part dels equips per sistemes automatitzats que no són capaços de frenar l'allau de brossa digital.
L'article subratlla que, tot i que iniciatives com el marcatge de contingut (watermarking) i les noves regulacions dels Estats Units i la Unió Europea busquen etiquetar i controlar els materials generats per IA, l'aplicació d'aquestes mesures és desigual i deixa més exposades les regions de fora d'aquests grans mercats. A més, adverteix que, tenint en compte l'avenç dels hipertrucatges (deepfakes) i el volum massiu de brossa incentivada per algorismes de recomanació, la tendència global és cap a un creixement de la desinformació, no cap a la contenció. Davant aquest escenari, els experts conclouen que reforçar l'alfabetització digital dels usuaris serà tan imprescindible com millorar els mecanismes de regulació i supervisió del contingut.
Respecte a la responsabilitat de les plataformes, l'experta de la UOC subratlla que són aquestes les que, a través dels algorismes, condicionen l'experiència dels usuaris i prioritzen el contingut que els pot cridar més l'atenció. "Si quan ens connectem només trobem contingut brossa o que no aporta valor, això repercutirà directament en els objectius de les plataformes", explica. Per aquest motiu, sembla lògic que algunes comencin a anunciar mesures per combatre l'AI slop, com ara sistemes automàtics de detecció o marcatge per intentar recuperar la confiança dels usuaris. No obstant això, Martínez també assenyala que aquestes solucions no sempre són efectives.
Finalment, Silvia Martínez apunta que, tot i que el contingut generat per IA es pot percebre com a irreal o poc útil, en alguns casos també aconsegueix captar l'atenció de certs usuaris. Això pot provocar que les plataformes, tot i identificar que aquests continguts han estat generats per una IA, els continuïn promocionant per maximitzar la interacció. "Serà interessant veure com s'aconsegueix l'equilibri entre les mesures adoptades i els interessos creuats", conclou.
Experts UOC
Contacte de premsa
-
Núria Bigas Formatjé