13/12/17 · Institucional

«Hay mucha demanda de profesionales de inteligencia artificial, pero son pocos los que están bien preparados»

Foto: UOC

Foto: UOC

Ramon López de Mántaras , director del Instituto de Investigación en Inteligencia Artificial del Consejo Superior de Investigaciones Científicas (CSIC)

 

Su nombre es referencia internacional en el campo de la inteligencia artificial. De hecho, desde este verano es el primer investigador premiado por las tres organizaciones más importantes del mundo en este ámbito. Doctor en física y en informática, Ramon López de Mántaras dirige el Instituto de Investigación en Inteligencia Artificial del Consejo Superior de Investigaciones Científicas (CSIC). A comienzos de noviembre fue uno de los invitados a la jornada Profesionales competentes para organizaciones inteligentes, organizada por UOC Corporate.

 

 

Su nombre es referencia internacional en el campo de la inteligencia artificial. De hecho, desde este verano es el primer investigador premiado por las tres organizaciones más importantes del mundo en este ámbito. Doctor en física y en informática, Ramon López de Mántaras dirige el Instituto de Investigación en Inteligencia Artificial del Consejo Superior de Investigaciones Científicas (CSIC). A comienzos de noviembre fue uno de los invitados a la jornada Profesionales competentes para organizaciones inteligentes, organizada por UOC Corporate.

 

¿Qué empresas o entidades utilizan en su día a día la inteligencia artificial más sofisticada, ya en el día de hoy?
Miles y miles de empresas la utilizan en todo lo que tiene que ver con la toma de decisiones. Por ejemplo, en Amazon quieres comprar y la inteligencia artificial te recomienda productos. También en el sector financiero recomienda productos financieros. O existen sistemas para agilizar la respuesta dada a los clientes, como es el caso de quienes se quejan a una compañía aérea de que han perdido la maleta. O en el mundo del entretenimiento: hay mucha inteligencia artificial detrás de los juegos de ordenador, en los que quien controla a los personajes que tú no controlas es la inteligencia artificial. En las empresas de manufactura sirve para tomar las mejores decisiones de compra según las necesidades que se tengan y de este modo diversificar proveedores. O en el transporte: sirve para enviar camiones a toda Europa a llevar y recoger productos intentando minimizar los kilómetros, el consumo de gasolina, y que el camión vuelva lleno y no vacío, y teniendo en cuenta que los conductores tienen que descansar unas horas. En medicina pasa lo mismo, o en control de calidad con visión por ordenador. ¡Está lleno!

¿Y en la manufacturación?

Hace muchos años que la robótica industrial que monta o pinta coches la usa, pero son un tipo de robots que, por ejemplo en el caso de pintar un coche, si el coche no está, pintarían igualmente en el aire [ríe]. Los robots de cadena de montaje son de la poca inteligencia artificial que, hoy en día, sustituye a personas. La mayoría ayuda a personas. Pero mira qué ha hecho Mercedes: ha vuelto a incorporar personas en la cadena de montaje porque ahora ya no montas mil coches seguidos exactamente iguales. Ahora la variabilidad del coche personalizado es tan alta que han dicho: «El robot nos sale más caro que la persona». Pues la máquina no dispone de esta capacidad de adaptación que tenemos nosotros, instantánea.

¿Cuáles son las principales limitaciones de la inteligencia artificial, a estas alturas?

No tiene capacidad de generalizar ni de entender el mundo. Eso no sabemos cómo tiene que hacerlo. Un ejemplo muy interesante es este: imagínate que en un futuro hipotético, dentro de diez años, tienes un robot doméstico que te ayuda en las tareas del hogar. Hace muchas cosas. Incluso puede preparar comida. Tú marchas por la mañana y le das órdenes. Y le dices que cuando vuelvas por la noche quieres una cena rica en proteínas. Vuelves a casa y sale del horno un olor muy apetitoso de carne guisada. Muy bien. ¿Dónde está el gato? El robot es muy inteligente, pero, si no tiene un sentido común como el humano, y en la nevera no había carne, va y te cocina el gato. Si el robot no sabe que el valor sentimental de un gato es más importante que el valor nutritivo de lo que comemos, al menos en nuestra cultura, puede que te cocine al gato. Porque lo que sí hará es prácticamente lo que sea para cumplir tus órdenes.
Como en las leyes de la robótica de Azimov, que un robot debe obedecer las órdenes de los seres humanos sin que los humanos sufran daños.

Con estas leyes no hay suficiente.

De todos modos, ¿los avances en inteligencia artificial los guía, ahora mismo, el lucro económico?

En el mundo académico no pasa, pero en el mundo empresarial sí, porque quiere optimizar el proceso de toma de decisiones: mejor y más rápido, a ser posible.

¿Qué riesgos tiene esto?

El problema es que las empresas que actualmente están en plena ebullición se llevan también cientos de personas del mundo académico. Pero debemos pensar que, si lo hacen, es a fin de que estas personas se dediquen a investigar. Tanto Microsoft, que tiene unas tres mil personas investigando en inteligencia artificial, como Google, Uber, Amazon, etc. contratan gente para inventar el futuro. Preparan el futuro. Necesitan catedráticos de universidad, gente muy brillante, gente a la que ofrecen sueldos estratosféricos, para hacer investigación.

Pero que lo hagan grandes corporaciones ¿no tiene riesgos?

Claro, porque como empresa que son, su prioridad son los beneficios. En el mundo académico, en la investigación pública así como en la de las universidades privadas, se supone que los investigadores en inteligencia artificial hacen realmente lo que ellos quieren, aunque lo que hacen también está determinado por las fuentes de financiación. Por ejemplo, cuando agencias públicas de financiación priorizan ciertas áreas, influyen en la investigación, hacen que el mundo académico presente proyectos en las áreas en las que existe más probabilidad de financiación. Libertad absoluta para investigar lo que nos gusta no la tenemos al 100 %. Ahora bien, es de esperar que el mundo de la investigación académica tenga más libertad que el mundo empresarial.
Científicos de Australia y Canadá se han pronunciado este mes a fin de que sus gobernantes respectivos pidan a la ONU posicionamientos similares al de la no proliferación nuclear para las armas autónomas basadas en inteligencia artificial.
Por su naturaleza, este es un tipo de investigación que no se hace público. Si tú vas al principal congreso de inteligencia artificial, no te vendrá alguien que trabaja para un centro de I+D de Defensa de Estados Unidos para decirte: «Hacemos este tanque autónomo o este dron autónomo, capaz de llevar suficiente carga para lanzar misiles, y lo hacemos de esta manera». Esto existe y no se publica. Es confidencial. Por lo tanto, no sabemos muy bien hasta dónde han llegado. Yo creo que tampoco tienen la fórmula mágica, y, por lo tanto, los problemas son los mismos que hay en el mundo académico para aplicaciones no militares. Pero el riesgo está ahí. Un tanque autónomo... acabará construyéndose. Y drones autónomos que decidirán cuándo dispararán y sobre qué, acabarán haciéndose. En Estados Unidos hablan del dilema del Terminator.

¿...?

Dicen: «Imaginemos que nosotros, como estado de derecho, democrático y concienciado, que queremos el bien de la humanidad, decidimos no desarrollar armas autónomas, abandonamos esta línea. Nuestro enemigo no lo hará. Este es el dilema. ¿Estaremos desprotegidos?». Es un dilema, lo reconozco. Pero es importante que exista regulación y prohibición para que, a quien haga uso de estas armas, puedan exigírsele responsabilidades.

¿Qué pueden hacer gobiernos y filántropos para fomentar el uso de la inteligencia artificial para reducir desigualdades?

Pues pueden invertir en investigación en aplicaciones positivas y socialmente responsables. Pero, vuelta a empezar, es difícil, por el dilema del Terminator, por ejemplo. Sería ideal que se priorizara la investigación en inteligencia artificial para cuestiones como el envejecimiento, la energía o el medio ambiente, lo que ya se hace, pero quizás debería financiarse más, para compensar.

En cuanto a la enseñanza, en la mesa redonda comentabais que la ética y la formación humanística pueden ser clave.

Quizás es un poco naíf, pero cuanto más humanista sea un tecnólogo, creo que es mejor. ¿Acaso eso te saca horas para formarlo tecnológicamente? Si a lo largo de tu formación te has enfrentado a resolver problemas complejos de una forma crítica y tienes curiosidad y ganas de trabajar, es lo que hace falta. Por lo tanto, creo que una formación más humanística sería un añadido muy interesante para los futuros tecnólogos.

Si usted fuera de la UOC y quisiera desempeñar un papel activo en esta revolución y no ir a remolque, ¿hacia dónde encararía la formación de sus estudiantes?

No sé cuál es la fórmula. Pero la educación continua debe ser la clave de todo. Como mínimo, hay que mentalizar a los estudiantes de que no desempeñarán el mismo trabajo toda la vida laboral, no solo en la misma empresa, sino también el mismo tipo de trabajo.

Una consultora pronosticó recientemente que hasta 2020 se destruirán 1,8 millones de puestos de trabajo por la inteligencia artificial pero se crearán 2,3 millones...

Hay quien cree eso, y hay quien cree lo contrario. No lo veo improbable. En todo el mundo, tampoco es una cantidad enorme de gente. Así como el sector del automóvil o el de la telefonía dan trabajo no solo a los trabajadores sino también a millones de proveedores, en otros sistemas físicos como los robots puede pasar lo mismo. Pero también puede darse el caso en sistemas que no son físicos, como el software. De hecho, ahora tenemos una falta importante de gente experta en informática, no solo en España, sino también en general.

¿Qué tipo de expertos?

Ingenieros de informática, o de telecomunicación. En todo el mundo, gente muy bien preparada en inteligencia artificial solo hay unas decenas de miles. No son cientos de miles. Hay mucha demanda de niveles muy altos. Hacen falta informáticos con un máster y, si tienen un doctorado en inteligencia artificial, aún mejor.

De hecho, si debemos entender el cerebro humano, aún nos falta mucho...

Pero la inteligencia artificial no intenta imitar el funcionamiento del cerebro humano a escala microscópica. Si hay progresos en neurociencia en cuanto a saber cómo funciona el cerebro humano, puede ser útil. Pero en inteligencia artificial no es lo que es más importante. Del mismo modo que los aviones no mueven las alas para volar, lo importante es conseguir que las máquinas hagan cosas que hace una persona aunque sea por medios completamente distintos. No se trata de mimetizar hasta el más mínimo detalle cómo disparan las neuronas en el cerebro. Se trata de inspirarse en eso.
¿Qué es lo que más le motiva ahora?

Los sistemas capaces de aprovechar lo aprendido haciendo una tarea sencilla, con la que aprenden más rápidamente a hacer otra más compleja y que está relacionada. Es decir, lo aprendido de forma sencilla te sirve para aprender mejor otra tarea más complicada. Se denomina aprendizaje por transferencia. Y los humanos y los animales lo hacemos continuamente.

 

Contacto de prensa

También te puede interesar

Más leídos

Ver más sobre Institucional