Entrevistas

Francisco Oliva: «Es básico el control ético y jurídico cuando se combina la inteligencia artificial y el autoaprendizaje en la robótica»

El catedrático de Derecho Civil de la UPO aborda en una entrevista los retos de la incorporación de la inteligencia artificial y el autoaprendizaje a la sociedad, explicando las principales iniciativas de regulación a nivel europeo

Francisco Oliva Blázquez es catedrático de Derecho Civil en la Universidad Pablo de Olavide y vocal, en calidad de jurista experto, del Comité de Bioética de Andalucía. El profesor, que ha participado también en la redacción de la Ley de Derechos y Garantías de la Dignidad de la Persona en el Proceso de Muerte, considera imprescindible la regulación y el control de los nuevos escenarios que provoca la inteligencia artificial a través de dos instrumentos: la Ética y el Derecho.

¿Cuáles son los principales retos de la incorporación de la tecnología con inteligencia artificial y autoaprendizaje a la vida cotidiana de las personas?

Los principales retos de la inteligencia artificial, combinada con el llamado machine learning o deep learning de los robots, se pueden agrupar en dos vertientes: ética y jurídica. Pongo en primer lugar la cuestión ética porque me parece más importante. El hecho de que tengamos robots que tomen decisiones por sí mismos, sin necesidad de que exista un ser humano detrás dándole órdenes, crea un nuevo escenario al que debemos anticiparnos y la ética, en este sentido, va a ser esencial. Resulta muy necesario que todas las personas involucradas en el proceso de fabricación y puesta en marcha de un robot sepan distinguir claramente, aunque parezca muy obvio, lo que está bien y lo que está mal. Por ejemplo, hay proyectos de robótica e inteligencia artificial que son muy beneficiosos para la sociedad, como el proyecto de asistencia a personas ancianas donde el robot ayuda a las personas mayores a levantarse, a asearse. El problema se presenta cuando se plantea el uso de estos robots como soldados. Imagínese una guerra, que normalmente es terror y barbarie con máquinas que no van a contemplar la empatía, la piedad, la compasión…

Este último escenario que dibuja es aterrador…

Un experto norteamericano comentó en una ocasión que la robótica, si no la gestionábamos bien, podría ser la última invención del ser humano.  Por eso es básico el control ético y jurídico cuando se combina la inteligencia artificial y el autoaprendizaje. Se podría establecer una analogía con el campo de la biotecnología en el que existe afortunadamente desde hace tiempo la bioética. Se permite utilizar la técnica de la clonación por ejemplo para curar enfermedades pero no para producir seres humanos nuevos.

Los avances tecnológicos generan riesgos y frente a los riesgos la opción nunca puede ser cerrarse a ellos ni darles la espalda, la sociedad tiene que involucrarse en los mismos. Tras una consulta pública que se hizo en la Unión Europea sobre la regulación o no de la robótica, la mayoría de la población se mostró a favor de la regulación. Tenga en cuenta que el ser humano ha convivido siempre con el riesgo, especialmente a partir de la revolución industrial. Por lo tanto, estas iniciativas no hay que prohibirlas ni suspenderlas, simplemente controlarlas y regularlas para evitar que los riesgos creados sean excesivos e inasumibles.

¿Qué se está haciendo desde el punto de vista ético a nivel internacional?

Por lo que respecta a la ética, hay que destacar la resolución del Parlamento Europeo del año 2017, en la que claramente se aboga por establecer un código ético al cual deben someterse de manera obligatoria todos los ingenieros informáticos que participan en el proceso de diseño, fabricación, producción, etc. del robot.  También se prevé un control exterior, creación de comisiones de éticas regionales que controlen lo que están haciendo los ingenieros robóticos y todas las personas que participan en el proceso.

La otra vertiente de los retos en robótica que ha destacado es la jurídica ¿qué aspectos deben regularse en este campo?

La cuestión jurídica se ha planteado fundamentalmente desde el punto de vista de la responsabilidad civil, es decir, determinar quién tiene que responder cuando estas máquinas producen daños. El principal problema es que las instituciones clásicas de nuestro derecho no se adaptan a la realidad de este tipo de productos. Sirvan de ejemplo los accidentes que han tenido vehículos autónomos de Tesla y Uber, con dos víctimas mortales. Es un problema determinar de quién es la responsabilidad porque intervienen un gran número de agentes en este tipo de productos:  el dueño de la idea, el ingeniero informático, el ingeniero robótico, el constructor del hardware, del software, etc. Además, a esto debemos sumar un principio básico de nuestro derecho: hay que demostrar la culpa para que te puedan indemnizar. ¿Cómo demuestras la culpa cuando estamos hablando de un vehículo que está tomando decisiones autónomas?

¿Qué puede decirnos de la aplicación de la inteligencia artificial al mercado de valores?

El de los software de inversión es otro ejemplo que demanda regulación. En él entra en juego el big data, la capacidad de recopilar datos a una escala inimaginable anteriormente, con una nueva tecnología de software. Si utilizas todos los datos históricos del mercado de valores y le sumas el posible futuro y la rapidez de la tecnología, pueden tomarse una serie de decisiones de inversión. Yo he leído, por ejemplo, que hasta el 50% de inversiones en el mercado de valores se hace ya con inteligencia artificial. En el fondo son máquinas que toman decisiones. ¿Qué pasa -y ya ha ocurrido- cuando estas máquinas toman decisiones que alteran incluso la cotización de los valores en el mercado produciendo muchos daños a personas que son inversores? ¿Quién responde nuevamente cuando nadie ha tomado esa decisión?

¿Cómo se están resolviendo estos casos sobre accidentes con vehículos e inversiones con inteligencia artificial?

Se está investigando. En el segundo caso no se tiene incluso ni la certeza absoluta de cómo se produjo. En el primero probablemente se solucione con una indemnización pero el gran problema será cuando todo esto ocurra en masa. En Europa tenemos una legislación sobre productos defectuosos que también resulta difícilmente aplicable a estos casos porque el problema de la inteligencia artificial y del machine learning es que finalmente este tipo de robots o máquinas automatizadas terminan tomando decisiones en función de su propia experiencia porque tienen los algoritmos de autoaprendizaje. En estos casos finalmente la responsabilidad de un ser humano detrás acaba difuminándose tanto que prácticamente desaparece porque finalmente el programador, por poner un nombre al responsable, no le ha dicho que tome esa decisión sino que, en base precisamente a ese algoritmo de autoaprendizaje, esa máquina acaba tomando una decisión determinada. En ese supuesto ni siquiera la ley de productos defectuosos resulta fácilmente aplicable porque es discutible el mismo hecho de que se trate de un producto defectuoso a efectos legales. Realmente, es un terreno muy complicado.

¿Cuáles son las propuestas actualmente sobre la mesa para abordar el problema?

En la resolución del Parlamento Europeo se plantea la construcción de la llamada personalidad mecánica. Actualmente el derecho distingue entre la personalidad física, la personalidad jurídica (instituciones o sociedades, fundaciones) y se habla por primera vez de la creación de una tercera, la persona mecánica, que sería el robot, un ente al que adjudicarle la responsabilidad. ¿Quién es el culpable del accidente? El robot. Habría que demandar al robot y el robot tendría su propio seguro, un seguro con una responsabilidad. Por otro lado, se habla también de un fondo de compensación de víctimas para riesgos muy elevados.

Suena a ciencia ficción…

Si creas una máquina con 100 ó 200 instrucciones humanas la responsabilidad está clara porque la responsabilidad es humana. El problema es cuando creas una máquina con inteligencia artificial y autoaprendizaje. Las decisiones que se van tomando no son del ser humano que lo ha creado, son de la propia máquina. Ahí es donde aparece ese elemento de gran incertidumbre. No podemos decir “usted es el responsable de cosas que ni siquiera sabemos que van a suceder”. Los robots existen de hace tiempo pero el problema es cuando se combina la robótica con la inteligencia artificial y el autoaprendizaje porque va desapareciendo el control humano de las decisiones que toma el robot.  Este es el gran debate en torno a la robótica y el autoaprendizaje

¿Cuál es el papel de la Universidad en este ámbito?

Estamos trabajando en la materia desde el punto de vista académico, a través de la docencia y de la investigación. En la Universidad Pablo de Olavide somos varios los profesores que nos dedicamos a ello. Es un tema muy interesante, pero hay que esperar al desarrollo. Los dos planteamientos, tanto el jurídico como el ético, están claros, pero tampoco conviene adelantarse mucho porque no sabemos qué ocurrirá. Siempre pueden surgir nuevos retos.