{"id":30857704,"date":"2019-07-26T08:56:09","date_gmt":"2019-07-26T06:56:09","guid":{"rendered":"https:\/\/www.upo.es\/diario\/?p=30857704"},"modified":"2019-07-26T08:56:09","modified_gmt":"2019-07-26T06:56:09","slug":"control-etico-juridico-inteligencia-artificial-robotica","status":"publish","type":"post","link":"https:\/\/www.upo.es\/diario\/entrevista\/2019\/07\/control-etico-juridico-inteligencia-artificial-robotica\/","title":{"rendered":"Francisco Oliva: \u00abEs b\u00e1sico el control \u00e9tico y jur\u00eddico cuando se combina la inteligencia artificial y el autoaprendizaje en la rob\u00f3tica\u00bb"},"content":{"rendered":"<p><strong><a href=\"https:\/\/www.upo.es\/diario\/wp-content\/uploads\/2019\/07\/Francisco-Oliva.jpg\"><img loading=\"lazy\" decoding=\"async\" class=\"aligncenter size-large wp-image-30857705\" src=\"https:\/\/www.upo.es\/diario\/wp-content\/uploads\/2019\/07\/Francisco-Oliva-750x500.jpg\" alt=\"\" width=\"750\" height=\"500\" srcset=\"https:\/\/www.upo.es\/diario\/wp-content\/uploads\/2019\/07\/Francisco-Oliva-750x500.jpg 750w, https:\/\/www.upo.es\/diario\/wp-content\/uploads\/2019\/07\/Francisco-Oliva-360x240.jpg 360w, https:\/\/www.upo.es\/diario\/wp-content\/uploads\/2019\/07\/Francisco-Oliva-768x512.jpg 768w, https:\/\/www.upo.es\/diario\/wp-content\/uploads\/2019\/07\/Francisco-Oliva-600x400.jpg 600w, https:\/\/www.upo.es\/diario\/wp-content\/uploads\/2019\/07\/Francisco-Oliva-165x109.jpg 165w, https:\/\/www.upo.es\/diario\/wp-content\/uploads\/2019\/07\/Francisco-Oliva-1320x880.jpg 1320w\" sizes=\"auto, (max-width: 750px) 100vw, 750px\" \/><\/a>Francisco Oliva Bl\u00e1zquez es catedr\u00e1tico de Derecho Civil en la Universidad Pablo de Olavide y vocal, en calidad de jurista experto, del Comit\u00e9 de Bio\u00e9tica de Andaluc\u00eda. El profesor, que ha participado tambi\u00e9n en la redacci\u00f3n de la Ley de Derechos y Garant\u00edas de la Dignidad de la Persona en el Proceso de Muerte, considera imprescindible la regulaci\u00f3n y el control de los nuevos escenarios que provoca la inteligencia artificial a trav\u00e9s de dos instrumentos: la \u00c9tica y el Derecho. <\/strong><\/p>\n<p><strong>\u00bfCu\u00e1les son los principales retos de la incorporaci\u00f3n de la tecnolog\u00eda con inteligencia artificial y autoaprendizaje a la vida cotidiana de las personas?<\/strong><\/p>\n<p>Los principales retos de la inteligencia artificial, combinada con el llamado <em>machine learning<\/em> o <em>deep learning<\/em> de los robots, se pueden agrupar en dos vertientes: \u00e9tica y jur\u00eddica. Pongo en primer lugar la cuesti\u00f3n \u00e9tica porque me parece m\u00e1s importante. El hecho de que tengamos robots que tomen decisiones por s\u00ed mismos, sin necesidad de que exista un ser humano detr\u00e1s d\u00e1ndole \u00f3rdenes, crea un nuevo escenario al que debemos anticiparnos y la \u00e9tica, en este sentido, va a ser esencial. Resulta muy necesario que todas las personas involucradas en el proceso de fabricaci\u00f3n y puesta en marcha de un robot sepan distinguir claramente, aunque parezca muy obvio, lo que est\u00e1 bien y lo que est\u00e1 mal. Por ejemplo, hay proyectos de rob\u00f3tica e inteligencia artificial que son muy beneficiosos para la sociedad, como el proyecto de asistencia a personas ancianas donde el robot ayuda a las personas mayores a levantarse, a asearse. El problema se presenta cuando se plantea el uso de estos robots como soldados. Imag\u00ednese una guerra, que normalmente es terror y barbarie con m\u00e1quinas que no van a contemplar la empat\u00eda, la piedad, la compasi\u00f3n\u2026<\/p>\n<p><strong>Este \u00faltimo escenario que dibuja es aterrador\u2026<\/strong><\/p>\n<p>Un experto norteamericano coment\u00f3 en una ocasi\u00f3n que la rob\u00f3tica, si no la gestion\u00e1bamos bien, podr\u00eda ser la \u00faltima invenci\u00f3n del ser humano.\u00a0 Por eso es b\u00e1sico el control \u00e9tico y jur\u00eddico cuando se combina la inteligencia artificial y el autoaprendizaje. Se podr\u00eda establecer una analog\u00eda con el campo de la biotecnolog\u00eda en el que existe afortunadamente desde hace tiempo la bio\u00e9tica. Se permite utilizar la t\u00e9cnica de la clonaci\u00f3n por ejemplo para curar enfermedades pero no para producir seres humanos nuevos.<\/p>\n<p>Los avances tecnol\u00f3gicos generan riesgos y frente a los riesgos la opci\u00f3n nunca puede ser cerrarse a ellos ni darles la espalda, la sociedad tiene que involucrarse en los mismos. Tras una consulta p\u00fablica que se hizo en la Uni\u00f3n Europea sobre la regulaci\u00f3n o no de la rob\u00f3tica, la mayor\u00eda de la poblaci\u00f3n se mostr\u00f3 a favor de la regulaci\u00f3n. Tenga en cuenta que el ser humano ha convivido siempre con el riesgo, especialmente a partir de la revoluci\u00f3n industrial. Por lo tanto, estas iniciativas no hay que prohibirlas ni suspenderlas, simplemente controlarlas y regularlas para evitar que los riesgos creados sean excesivos e inasumibles.<\/p>\n<p><strong>\u00bfQu\u00e9 se est\u00e1 haciendo desde el punto de vista \u00e9tico a nivel internacional?<\/strong><\/p>\n<p>Por lo que respecta a la \u00e9tica, hay que destacar la resoluci\u00f3n del Parlamento Europeo del a\u00f1o 2017, en la que claramente se aboga por establecer un c\u00f3digo \u00e9tico al cual deben someterse de manera obligatoria todos los ingenieros inform\u00e1ticos que participan en el proceso de dise\u00f1o, fabricaci\u00f3n, producci\u00f3n, etc. del robot.\u00a0 Tambi\u00e9n se prev\u00e9 un control exterior, creaci\u00f3n de comisiones de \u00e9ticas regionales que controlen lo que est\u00e1n haciendo los ingenieros rob\u00f3ticos y todas las personas que participan en el proceso.<\/p>\n<p><strong>La otra vertiente de los retos en rob\u00f3tica que ha destacado es la jur\u00eddica \u00bfqu\u00e9 aspectos deben regularse en este campo?<\/strong><\/p>\n<p>La cuesti\u00f3n jur\u00eddica se ha planteado fundamentalmente desde el punto de vista de la responsabilidad civil, es decir, determinar qui\u00e9n tiene que responder cuando estas m\u00e1quinas producen da\u00f1os. El principal problema es que las instituciones cl\u00e1sicas de nuestro derecho no se adaptan a la realidad de este tipo de productos. Sirvan de ejemplo los accidentes que han tenido veh\u00edculos aut\u00f3nomos de Tesla y Uber, con dos v\u00edctimas mortales. Es un problema determinar de qui\u00e9n es la responsabilidad porque intervienen un gran n\u00famero de agentes en este tipo de productos:\u00a0 el due\u00f1o de la idea, el ingeniero inform\u00e1tico, el ingeniero rob\u00f3tico, el constructor del hardware, del software, etc. Adem\u00e1s, a esto debemos sumar un principio b\u00e1sico de nuestro derecho: hay que demostrar la culpa para que te puedan indemnizar. \u00bfC\u00f3mo demuestras la culpa cuando estamos hablando de un veh\u00edculo que est\u00e1 tomando decisiones aut\u00f3nomas?<\/p>\n<p><strong>\u00bfQu\u00e9 puede decirnos de la aplicaci\u00f3n de la inteligencia artificial al mercado de valores?<\/strong><\/p>\n<p>El de los software de inversi\u00f3n es otro ejemplo que demanda regulaci\u00f3n. En \u00e9l entra en juego el big data, la capacidad de recopilar datos a una escala inimaginable anteriormente, con una nueva tecnolog\u00eda de software. Si utilizas todos los datos hist\u00f3ricos del mercado de valores y le sumas el posible futuro y la rapidez de la tecnolog\u00eda, pueden tomarse una serie de decisiones de inversi\u00f3n. Yo he le\u00eddo, por ejemplo, que hasta el 50% de inversiones en el mercado de valores se hace ya con inteligencia artificial. En el fondo son m\u00e1quinas que toman decisiones. \u00bfQu\u00e9 pasa -y ya ha ocurrido- cuando estas m\u00e1quinas toman decisiones que alteran incluso la cotizaci\u00f3n de los valores en el mercado produciendo muchos da\u00f1os a personas que son inversores? \u00bfQui\u00e9n responde nuevamente cuando nadie ha tomado esa decisi\u00f3n?<\/p>\n<p><strong>\u00bfC\u00f3mo se est\u00e1n resolviendo estos casos sobre accidentes con veh\u00edculos e inversiones con inteligencia artificial?<\/strong><\/p>\n<p>Se est\u00e1 investigando. En el segundo caso no se tiene incluso ni la certeza absoluta de c\u00f3mo se produjo. En el primero probablemente se solucione con una indemnizaci\u00f3n pero el gran problema ser\u00e1 cuando todo esto ocurra en masa. En Europa tenemos una legislaci\u00f3n sobre productos defectuosos que tambi\u00e9n resulta dif\u00edcilmente aplicable a estos casos porque el problema de la inteligencia artificial y del <em>machine learning<\/em> es que finalmente este tipo de robots o m\u00e1quinas automatizadas terminan tomando decisiones en funci\u00f3n de su propia experiencia porque tienen los algoritmos de autoaprendizaje. En estos casos finalmente la responsabilidad de un ser humano detr\u00e1s acaba difumin\u00e1ndose tanto que pr\u00e1cticamente desaparece porque finalmente el programador, por poner un nombre al responsable, no le ha dicho que tome esa decisi\u00f3n sino que, en base precisamente a ese algoritmo de autoaprendizaje, esa m\u00e1quina acaba tomando una decisi\u00f3n determinada. En ese supuesto ni siquiera la ley de productos defectuosos resulta f\u00e1cilmente aplicable porque es discutible el mismo hecho de que se trate de un producto defectuoso a efectos legales. Realmente, es un terreno muy complicado.<\/p>\n<p><strong>\u00bfCu\u00e1les son las propuestas actualmente sobre la mesa para abordar el problema?<\/strong><\/p>\n<p>En la resoluci\u00f3n del Parlamento Europeo se plantea la construcci\u00f3n de la llamada personalidad mec\u00e1nica. Actualmente el derecho distingue entre la personalidad f\u00edsica, la personalidad jur\u00eddica (instituciones o sociedades, fundaciones) y se habla por primera vez de la creaci\u00f3n de una tercera, la persona mec\u00e1nica, que ser\u00eda el robot, un ente al que adjudicarle la responsabilidad. \u00bfQui\u00e9n es el culpable del accidente? El robot. Habr\u00eda que demandar al robot y el robot tendr\u00eda su propio seguro, un seguro con una responsabilidad. Por otro lado, se habla tambi\u00e9n de un fondo de compensaci\u00f3n de v\u00edctimas para riesgos muy elevados.<\/p>\n<p><strong>Suena a ciencia ficci\u00f3n\u2026<\/strong><\/p>\n<p>Si creas una m\u00e1quina con 100 \u00f3 200 instrucciones humanas la responsabilidad est\u00e1 clara porque la responsabilidad es humana. El problema es cuando creas una m\u00e1quina con inteligencia artificial y autoaprendizaje. Las decisiones que se van tomando no son del ser humano que lo ha creado, son de la propia m\u00e1quina. Ah\u00ed es donde aparece ese elemento de gran incertidumbre. No podemos decir \u201custed es el responsable de cosas que ni siquiera sabemos que van a suceder\u201d. Los robots existen de hace tiempo pero el problema es cuando se combina la rob\u00f3tica con la inteligencia artificial y el autoaprendizaje porque va desapareciendo el control humano de las decisiones que toma el robot.\u00a0 Este es el gran debate en torno a la rob\u00f3tica y el autoaprendizaje<\/p>\n<p><strong>\u00bfCu\u00e1l es el papel de la Universidad en este \u00e1mbito?<\/strong><\/p>\n<p>Estamos trabajando en la materia desde el punto de vista acad\u00e9mico, a trav\u00e9s de la docencia y de la investigaci\u00f3n. En la Universidad Pablo de Olavide somos varios los profesores que nos dedicamos a ello. Es un tema muy interesante, pero hay que esperar al desarrollo. Los dos planteamientos, tanto el jur\u00eddico como el \u00e9tico, est\u00e1n claros, pero tampoco conviene adelantarse mucho porque no sabemos qu\u00e9 ocurrir\u00e1. Siempre pueden surgir nuevos retos.<\/p>\n","protected":false},"excerpt":{"rendered":"<p>El catedr\u00e1tico de Derecho Civil de la UPO aborda en una entrevista los retos de la incorporaci\u00f3n de la inteligencia artificial y el autoaprendizaje a la sociedad, explicando las principales iniciativas de regulaci\u00f3n a nivel europeo <\/p>\n","protected":false},"author":6,"featured_media":30857705,"comment_status":"closed","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"_monsterinsights_skip_tracking":false,"_monsterinsights_sitenote_active":false,"_monsterinsights_sitenote_note":"","_monsterinsights_sitenote_category":0,"footnotes":""},"categories":[24],"tags":[764,145,4021,151,991,1224],"class_list":["post-30857704","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-entrevista","tag-derecho-civil","tag-etica","tag-francisco-oliva-blazquez","tag-inteligencia-artificial","tag-robotica","tag-tecnologia"],"_links":{"self":[{"href":"https:\/\/www.upo.es\/diario\/wp-json\/wp\/v2\/posts\/30857704","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.upo.es\/diario\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.upo.es\/diario\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.upo.es\/diario\/wp-json\/wp\/v2\/users\/6"}],"replies":[{"embeddable":true,"href":"https:\/\/www.upo.es\/diario\/wp-json\/wp\/v2\/comments?post=30857704"}],"version-history":[{"count":1,"href":"https:\/\/www.upo.es\/diario\/wp-json\/wp\/v2\/posts\/30857704\/revisions"}],"predecessor-version":[{"id":30857706,"href":"https:\/\/www.upo.es\/diario\/wp-json\/wp\/v2\/posts\/30857704\/revisions\/30857706"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.upo.es\/diario\/wp-json\/wp\/v2\/media\/30857705"}],"wp:attachment":[{"href":"https:\/\/www.upo.es\/diario\/wp-json\/wp\/v2\/media?parent=30857704"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.upo.es\/diario\/wp-json\/wp\/v2\/categories?post=30857704"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.upo.es\/diario\/wp-json\/wp\/v2\/tags?post=30857704"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}