¿Quién decide la ética de las máquinas?

En menos de 15 años, los vehículos autónomos supondrán el 75% de la circulación total. Expertos advierten de que es necesaria una ética universal compartida para programar estas máquinas autonómas

En 2030 la industria de coches autónomos terminará con la venta de automóviles tradicionales, según previsiones de Mojo Motors. En 2040 supondrán entre el 50 % y el 75 % de la circulación total, y llegarán al 75 % en 2060. Ante este escenario de automatización empieza a ser imprescindible pensar en proveer de ética a estas máquinas. Toman decisiones que pueden afectar de manera importante a bienes básicos, a nuestro bienestar, a nuestra integridad o incluso, en casos extremos, a nuestra vida. «Pensemos en un vehículo autónomo que en una situación en la que no puede evitar un accidente debe decidir entre proteger a los ocupantes del vehículo o proteger a los peatones; no solo es aconsejable, sino también indispensable, que los algoritmos incluyan parámetros éticos», afirma David Martínez, profesor de Filosofía del Derecho de la UOC. 
 
Las máquinas se equivocan mucho menos que los humanossegún un informe de la consultora McKinseyel vehículo autónomo evitaría un 90% de los accidentes. En el 85 % de ellos interviene el despiste como factor determinante. Aun así, en situaciones donde el daño fuera inevitable, el coche autónomo debería aprender de los patrones mayoritarios de la conducta humana al volante.
 
«Tendrán la ética que los humanos conscientemente les hayan incorporado en el diseño y desarrollo, basada en reglas, normalmente a imagen humana», explica la profesora de los Estudios de Informática, Multimedia y Telecomunicación de la UOC Maria Antonia Huertas. Parece que, según afirman estudios de comportamiento, los humanos estamos preparados para el cambio. El 58% de los conductores se dejaría llevar por un coche autónomo según datos del Foro Económico Mundial. Y en España, el 34% de los españoles que conducen se sentiría a gusto compartiendo carretera con coches autónomos, según un estudio de GoodYear.
 
El Instituto Tecnológico de Massachusetts (MIT) ha puesto en marcha el proyecto Máquina de la moral. Se presentan diferentes escenarios en los que los coches deben tomar decisiones ante situaciones en las que el automóvil está 100 % seguro de que alguien sufrirá un daño y se debe escoger quién lo sufrirá. Este web recoge la opinión de cualquier persona que quiera entretenerse a decidir qué debería hacer el coche en cada uno de los casos. Con estos datos, científicos del MIT Media Lab elaboran un estudio sobre la ética de las máquinas autónomas basándose en la ética humana para crear unos patrones sobre cómo deberían actuar ante dilemas morales. «Lo más importante en este caso es cómo se toman las decisiones sobre los parámetros éticos que se incorporarán en las máquinas», considera Martínez.
 
Pero esta ética ¿debe venir de instancias superiores como una autoridad moral, intelectual y religiosa, o debe ser la que mayoritariamente acepte una población?, se pregunta en la misma línea la profesora Maria Antonia Huertas. «Es importante que intervenga el mayor número de implicados en este debate ético, pues la capacidad de razonamiento, de justicia y de lo que es correcto o no es asequible para todo el mundo», confirma Martínez. Google, en cambio, ha creado un comité de ética para los productos que funcionan con inteligencia artificial, en el que cuenta con 25 personalidades independientes del mundo académico.
 
Esta experiencia del MIT pone ejemplos de escenarios con un fatal desenlace donde el usuario debe escoger, por ejemplo, entre atropellar a un grupo en el que hay tres hombres y un vagabundo o salvar a una embarazada y a un perro. «Las máquinas autónomas tienen capacidad para discernir toda esta información y reconocer a quién o qué tienen delante. Con metodologías basadas en algoritmos genéticos, en la robótica la visión por ordenador permite que un coche inteligente determine las características de un “objeto”», afirma Huertas.
 

En busca de una moral universal
 
«Debemos distinguir entre la moral social y la crítica», explica: «la primera está vinculada a grupos sociales, que pueden tener concepciones muy diversas sobre lo que es moralmente correcto o incorrecto, por ejemplo, en tema de esclavitud, maltrato animal, etc.; la segunda proviene de una reflexión teórica, en busca de un conjunto de criterios, valores y principios morales universales, comunes para toda la especie humana con independencia del contexto social e histórico».
 
«Aunque la pretensión de encontrar una “moral objetivamente correcta, universal e inmutable” es solo un ideal, lo que sí que podemos observar es que los valores y los principios éticos más fundamentales son muy similares en toda la especie humana, por lo que no es descabellado pensar en una ética universalmente compartida en su núcleo más básico», considera Martínez.
 
Bourdin, profesor de Informática de la UOC, afirma que es importante que el ser humano siempre tenga la última palabra. «La máquina inteligente es capaz de aprender conductas por sí misma, copia, analiza acciones del comportamiento humano y puede llegar a reproducirlas». Este es el caso de buscadores como Google o Flickr programados con inteligencia artificial que etiquetan a personas de raza negra, a gorilas y chimpancés. «Este es un escenario posible, estas inteligencias artificiales pueden inferir o desarrollar reglas éticas propias», afirma Huertas.

 

#expertosUOC

Foto del profesor David Martínez Zorrilla

David Martínez Zorrilla

Experto/a en: Teoría general del Derecho y conflictos normativos.

Ámbito de conocimiento: Filosofía del Derecho.

Ver ficha
Foto de la profesora Maria Antonia Huertas Sánchez

Maria Antonia Huertas Sánchez

Experto/a en: Aprendizaje virtual (e-learning) de las matemáticas, representación del conocimiento y del razonamiento.

Ámbito de conocimiento: Aprendizaje virtual (e-learning) y representación del conocimiento.

Ver ficha