25/1/22 · Estudis d'Informàtica, Multimèdia i Telecomunicacions

Navegar contra els algorismes: sis consells perquè les galetes no decideixin per tu

Per què cal ser prudents i què podem fer per protegir-nos dels efectes més nocius?
Els experts adverteixen que el tractament ètic de les dades és fonamental perquè la IA estigui al servei de la societat
Els experts adverteixen que el tractament ètic de les dades és fonamental perquè la IA estigui al servei de la societat (Foto: Freepik)

Els experts adverteixen que el tractament ètic de les dades és fonamental perquè la IA estigui al servei de la societat (Foto: Freepik)

Les famoses galetes o cookies i els algorismes que les rastregen dominen, cada vegada més, les nostres vides. El comportament que tenim a internet fa que les grans corporacions tinguin un retrat més afinat de cada usuari. La pregunta és: per què cal ser prudents amb els algorismes i què podem fer per protegir-nos dels seus efectes més nocius?

Un usuari visita una botiga en línia i, quan després accedeix a una altra pàgina web, els articles que ha mirat hi apareixen com per art de màgia. O parla a Google o per WhatsApp del seu desig de viatjar i, de sobte, en la publicitat sorgeixen ofertes d'aquest viatge de somni. Instagram acaba triant per als seus usuaris la publicitat dels articles que sap que els interessen. Aquest accés continu a tot tipus de serveis i contingut, tal com anticipa el doctor Pierre Bourdin Kreitz, professor dels Estudis d'Informàtica, Multimèdia i Telecomunicació de la UOC, no surt de franc. «Si t'ofereixen tot aquest contingut és perquè a les empreses els convé.» Les ofertes d'hotels, vols, ocupació… són a un clic; sabem com s'arriba d'un punt a un altre amb la geolocalització; estem al dia de qualsevol tema que ens interessi. A canvi, els dispositius emmagatzemen i envien contínuament dades a grans corporacions, que les utilitzen per estudiar el comportament de cada persona connectada.

«Els ordinadors i mòbils que tenim actualment tenen la potència computacional que abans tenien màquines enormes», explica Bourdin, «la qual cosa els permet tractar més dades; per exemple, pagar amb el mòbil és més còmode, però el banc ara sap més dels nostres hàbits que quan ho pagàvem tot en efectiu. Això fa que la connexió entre les dades recollides i els algorismes sigui més gran». En conseqüència, ordinadors, tauletes i mòbils aprenen a seleccionar quina informació ens fan arribar. «Es tracta d'una intel·ligència artificial basada en l'aprenentatge automàtic: per això necessita tantes dades. A través d'aquestes dades detecta patrons, fa prediccions o, simplement, classifica», afegeix Bourdin.

Per què hem de ser prudents?

Perquè no sempre l'encerta. És més, els errors en la deducció d'aquests algorismes van més enllà d'una dissonància de criteri entre l'home i la màquina. «Si els algorismes creuen dades sobre la relació entre quant guanya una persona i la seva despesa en salut conclouran que els pobres estan més sans que els rics», posa per exemple Bourdin. Aquestes operacions computacionals són perfectes per a tasques repetitives, però poden ser molt perilloses quan requereixen una gran variabilitat. D'una banda, els qui els programen no deixen de ser persones que introdueixen un biaix (de gènere, raça, etcètera). «Fins fa poc», explica Pierre Bourdin, «gairebé tots els grans sistemes com Google o Microsoft han tingut errors. Detectaven correctament els homes caucàsics, però no les persones asiàtiques o negres», continua, la qual cosa introdueix un biaix racial que a la llarga constitueix un dilema ètic, moral i amb efecte acumulatiu: el sistema acaba afavorint els forts i castigant els qui ja tenen problemes. No són pocs els casos en què els algorismes d'internet han discriminat col·lectius determinats.

El «parany» dels algorismes que ja ha entelat el sistema judicial

No és quelcom que podria passar: ja ha passat. En la cerca permanent del sistema judicial per agilitar certs processos, s'intenta solucionar amb algorismes alguns tràmits. Hi va haver un cas mediàtic als Estats Units: en alguns jutjats es va introduir un algorisme anomenat COMPAS per predeterminar les possibilitats de reincidir dels delinqüents. Una recerca de ProPublica, agència de notícies independent i sense ànim de lucre, va destapar-ne el biaix racial: a les persones negres se'ls atribuïa una taxa de reincidència més alta i a les blanques, una de més baixa.

No podem oblidar tampoc quina és la finalitat dels algorismes: obtenir més beneficis. Com analitza Bourdin, res no és a canvi de no res. «Les empreses per si soles no són dolentes, però busquen millorar les xifres o els beneficis», afegeix, la qual cosa pot donar lloc a polítiques perverses.

Com ho podem posar difícil als algorismes?

Amb tot el que sabem, quines pràctiques poden ajudar els usuaris a evitar que els algorismes ho sàpiguen tot d'ells? El professor Bourdin dona algunes claus:

  1. Prendre's el temps necessari per revisar la política de protecció de dades i els permisos que donem a cada pàgina que visitem. Sovint, en la lletra petita ens afegeixen compromisos que no sabem que adquirim.
  2. Navegar en mode d'incògnit. És una mica menys àgil perquè la màquina no desa els URL visitats, però limitarem deixar-hi rastre. Pot passar que, si cerquem bitllets d'avió amb una destinació concreta, per exemple, el preu d'aquests hagi pujat en visitar aquesta pàgina de nou. Això passa perquè l'algorisme ha detectat l'interès de l'usuari i sap que comprarà més car si cal. Amb la navegació en mode d'incògnit no s'emmagatzema la visita si tanquem el navegador i tornem a començar de zero cada vegada.
  3. Eliminar o rebutjar les galetes o cookies (petits fragments d'informació dels llocs web que visitem, que s'emmagatzemen als nostres dispositius). Els algorismes les fan servir per nodrir-se d'informació amb la qual ens poden oferir, per exemple, publicitat.
  4. Confondre els algorismes. Alguns experts proposen navegar per llocs que no ens suscitin cap interès: l'excés d'informació que s'envia des del dispositiu farà que els veritables gustos de l'usuari quedin camuflats i no se'n pugui definir el perfil.
  5. Eliminar els anuncis que passen per les xarxes socials, o clicar en anuncis a l'atzar per fer tornar boig l'algorisme. Hi ha una aplicació, Ad Nauseam, que té aquesta funció: convertir els algorismes en inservibles prement anuncis aleatòriament (Google Chrome ha eliminat aquesta aplicació: els algorismes són la base del seu gran negoci).
  6. Desactivar el sistema de predicció que completa el que volem escriure. Gmail, per exemple, és un sistema de correu que clarament escaneja els nostres missatges de correu electrònic a canvi d'oferir-nos els seus serveis. Limitar l'ús d'assistents (Google, Siri, Alexa) és una altra bona pràctica.

 

L'ètica com a base de tot

Més enllà que els algorismes puguin perjudicar-nos de vegades com a usuaris («cal ser prudent, però no paranoic», insisteix Bourdin), hi ha una qüestió ètica de fons. A més del cas esmentat de COMPAS, una filtració va permetre conèixer la repressió del Govern xinès a minories ètniques i religioses gràcies als algorismes, per no parlar de l'últim gran escàndol de Facebook. Si bé és veritat que la UE protegeix molt més i millor les dades dels seus ciutadans, les tortuositats legals de les grans corporacions per apoderar-se'n són constants. Per exemple, tenim el cas de WhatsApp, que amb el seu canvi de normativa d'ús de les dades va provocar una onada de reaccions dels usuaris. «El consumidor té el poder, però no és fàcil que hi hagi una reacció massiva com aquella», assenyala Pierre Bourdin.

Avui, la tendència entre els experts és aplicar l'ètica als algorismes i a les grans corporacions que s'alimenten de la nostra informació. «Tanmateix, l'acció política és necessària, així com reforçar i protegir la independència de les comissions sense ànim de lucre que poden actuar de salvaguarda», conclou el professor. Precisament en aquesta línia, en la de posar els algorismes al servei de la societat, treballa la UOC juntament amb investigadors internacionals.

Experts UOC

Contacte de premsa

També et pot interessar

Més llegits