Qui decideix l'ètica de les màquines?

En menys de 15 anys, els vehicles autònoms representaran el 75% de la circulació total. Experts adverteixen que es necessària una ètica universal compartida per a programar aquestes màquines autònomes

L’any 2030, la indústria de cotxes autònoms posarà fi a la venda d’automòbils tradicionals, segons previsions de Mojo Motors. El 2040 representaran entre el 50% i el 75% de la circulació total de vehicles, i arribaran al 75% el 2060. Davant aquest escenari d’automatització comença a ser imprescindible pensar en proveir d’ètica aquestes màquines. Prenen decisions que poden afectar de manera important béns bàsics, el nostre benestar, la nostra integritat o, en casos extrems, la nostra vida i tot. «Pensem en un vehicle autònom que en una situació en què no pot evitar un accident ha de decidir entre protegir els ocupants del vehicle o protegir els vianants; no solament és aconsellable, sinó també indispensable, que els algoritmes incloguin paràmetres ètics», afirma David Martínez, professor de Filosofia del Dret de la UOC.  
 
Les màquines s’equivoquen molt menys que els humanssegons un informe de la consultora McKinseyel vehicle autònom evitaria un 90% dels accidents. En el 85% hi intervé la distracció com a factor determinant. Així i tot, en situacions en què el dany pugui ser inevitable, el cotxe autònom hauria d’aprendre dels patrons majoritaris de la conducta humana al volant.
 
«Tindran l’ètica que els humans conscientment hi hagin incorporat en el disseny i desenvolupament, basada en regles, normalment a imatge humana», explica la professora dels Estudis d’Informàtica, Multimèdia i Telecomunicació de la UOC Maria Antònia Huertas. Sembla que, segons afirmen estudis de comportament, els humans estem preparats per a aquest canvi. El 58% dels conductors es deixaria portar per un cotxe autònom segons dades del Fòrum Econòmic Mundial. I a Espanya, el 34% dels espanyols que condueixen se sentiria a gust compartint carretera amb cotxes autònoms, segons un estudi de GoodYear.
 
L’Institut Tecnològic de Massachusetts (MIT) ha posat en marxa el projecte Màquina de la moral. Es presenten diferents escenaris en què els cotxes han de prendre decisions davant de situacions en què l’automòbil està 100% segur que algú patirà un dany i s'ha de triar qui el patirà. Aquest web recull l’opinió de qualsevol persona que es vulgui entretenir a decidir què hauria de fer el cotxe en cada un dels casos. Amb aquestes dades, científics del MIT Media Lab elaboren un estudi sobre l’ètica de les màquines autònomes basant-se en l’ètica humana per a crear uns patrons sobre com haurien d’actuar davant dilemes morals. «El que és més important en aquest cas és com es prenen les decisions sobre els paràmetres ètics que s’incorporaran a les màquines», considera Martínez.
 
Però aquesta ètica ha de venir d’instàncies superiors com una autoritat moral, intel·lectual i religiosa?, o ha de ser la que majoritàriament accepti una població?, es pregunta en la mateixa línia la professora Maria Antònia Huertas. «És important que intervingui el major nombre possible d’implicats en aquest debat ètic, ja que la capacitat de raonament, de justícia i del que és correcte o no és assequible per a tothom», confirma Martínez. Google, en canvi, ha creat un comitè d’ètica per als productes que funcionen amb intel·ligència artificial, en el qual compta amb 25 personalitats independents del món acadèmic.

Aquesta experiència del MIT posa exemples d’escenaris amb un desenllaç fatal en què l’usuari ha de triar, per exemple, entre atropellar un grup en què hi ha tres homes i un vagabund o salvar una embarassada i un gos. «Les màquines autònomes tenen capacitat per a discernir aquesta informació i reconèixer qui o què tenen davant. Amb metodologies basades en algoritmes genètics, en la robòtica la visió per ordinador permet que un cotxe intel·ligent determini les característiques d’un “objecte”», afirma Huertas.
 

A la cerca d'una moral universal
 
«Hem de distingir entre la moral social i la crítica», explica: «La primera és vinculada a grups socials, que poden tenir concepcions molt diverses sobre el que és moralment correcte o incorrecte, per exemple, en tema d’esclavitud, maltractament animal, etc.; la segona prové d’una reflexió teòrica, a la recerca d’un conjunt de criteris, valors i principis morals universals, comuns per a tota l’espècie humana amb independència del context social i històric».  
 
«Tot i que la pretensió de trobar una “moral objectivament correcta, universal i immutable” és només un ideal, el que sí que podem observar és que els valors i els principis ètics més fonamentals són molt semblants en tota l’espècie humana, de manera que no és desgavellat pensar en una ètica universalment compartida en el seu nucli més bàsic», considera Martínez.
 
Bourdin, professor d’Informàtica de la UOC, afirma que és important que l’ésser humà sempre tingui l’última paraula. «La màquina intel·ligent és capaç d’aprendre conductes per si mateixa, copia, analitza accions del comportament humà i les pot arribar a reproduir». Aquest és el cas de cercadors com Google o Flickr programats amb intel·ligència artificial que etiqueten a persones de raça negra, goril·les i ximpanzés seguint exemples racistes. «Aquest és un escenari possible, aquestes intel·ligències artificials poden inferir o desenvolupar regles ètiques pròpies», afirma Huertas, «aquestes intel·ligències artificials poden inferir o desenvolupar regles ètiques pròpies».

 

#expertsUOC

Foto del professor David Martínez Zorrilla

David Martínez Zorrilla

Expert/a en: Teoria general del Dret i conflictes normatius.

Àmbit de coneixement: Filosofia del Dret.

Veure fitxa
Foto de la professora Maria Antonia Huertas Sánchez

Maria Antonia Huertas Sánchez

Expert/a en: Aprenentatge virtual (e-learning) de les matemàtiques, representació del coneixement i del raonament.

Àmbit de coneixement: Aprenentatge virtual (e-learning) i representació del coneixement.

Veure fitxa