{"id":30886243,"date":"2025-04-21T10:25:17","date_gmt":"2025-04-21T08:25:17","guid":{"rendered":"https:\/\/www.upo.es\/diario\/?p=30886243"},"modified":"2025-04-24T14:56:50","modified_gmt":"2025-04-24T12:56:50","slug":"nueva-metrica-revoluciona-explicabilidad-inteligencia-artificial","status":"publish","type":"post","link":"https:\/\/www.upo.es\/diario\/ciencia\/2025\/04\/nueva-metrica-revoluciona-explicabilidad-inteligencia-artificial\/","title":{"rendered":"Una nueva m\u00e9trica revoluciona la explicabilidad en la inteligencia artificial"},"content":{"rendered":"<figure id=\"attachment_30886244\" aria-describedby=\"caption-attachment-30886244\" style=\"width: 750px\" class=\"wp-caption aligncenter\"><a href=\"https:\/\/www.upo.es\/diario\/wp-content\/uploads\/2025\/04\/inves_rexqual.jpg\"><img loading=\"lazy\" decoding=\"async\" class=\"size-large wp-image-30886244\" src=\"https:\/\/www.upo.es\/diario\/wp-content\/uploads\/2025\/04\/inves_rexqual-750x477.jpg\" alt=\"\" width=\"750\" height=\"477\" srcset=\"https:\/\/www.upo.es\/diario\/wp-content\/uploads\/2025\/04\/inves_rexqual-750x477.jpg 750w, https:\/\/www.upo.es\/diario\/wp-content\/uploads\/2025\/04\/inves_rexqual-420x267.jpg 420w, https:\/\/www.upo.es\/diario\/wp-content\/uploads\/2025\/04\/inves_rexqual-768x488.jpg 768w, https:\/\/www.upo.es\/diario\/wp-content\/uploads\/2025\/04\/inves_rexqual-1536x977.jpg 1536w, https:\/\/www.upo.es\/diario\/wp-content\/uploads\/2025\/04\/inves_rexqual-2048x1303.jpg 2048w, https:\/\/www.upo.es\/diario\/wp-content\/uploads\/2025\/04\/inves_rexqual-1320x840.jpg 1320w\" sizes=\"auto, (max-width: 750px) 100vw, 750px\" \/><\/a><figcaption id=\"caption-attachment-30886244\" class=\"wp-caption-text\">De izquierda a derecha, Francisco Mart\u00ednez \u00c1lvarez, \u00c1ngela R. Troncoso Garc\u00eda, Alicia Troncoso Lora y Mar\u00eda Mart\u00ednez Ballesteros.<\/figcaption><\/figure>\n<p>La inteligencia artificial (IA) ha transformado sectores clave de la sociedad, desde la medicina hasta las finanzas, pasando por el transporte, la educaci\u00f3n o la industria, gracias a su capacidad para tomar decisiones complejas con una precisi\u00f3n sin precedentes. Sin embargo, esta potencia viene acompa\u00f1ada de un desaf\u00edo creciente: <strong>entender c\u00f3mo y por qu\u00e9 los modelos de IA llegan a ciertas conclusiones<\/strong>. La opacidad de estos sistemas, conocidos como \u2018cajas negras\u2019, plantea serios retos de confianza, transparencia y responsabilidad. \u00bfC\u00f3mo puede una persona confiar en una IA que toma decisiones sin ofrecer explicaciones claras y comprensibles?<\/p>\n<p>En este contexto, cobra protagonismo la <strong>inteligencia artificial explicable<\/strong> o <strong>XAI<\/strong> (por sus siglas en ingl\u00e9s, <em>eXplainable Artificial Intelligence<\/em>), un campo que busca desarrollar mecanismos para comprender, interpretar y confiar en los sistemas basados en <em>machine learning<\/em>. No se trata solo de un desaf\u00edo t\u00e9cnico, sino tambi\u00e9n de un imperativo \u00e9tico, legal y social: las personas tienen derecho a saber c\u00f3mo y por qu\u00e9 una m\u00e1quina toma decisiones que pueden afectar directamente a sus vidas.<\/p>\n<p>En respuesta a esta necesidad, el grupo de investigaci\u00f3n de la Universidad Pablo de Olavide <strong>Data Science &amp; Big Data Lab<\/strong> ha desarrollado <strong>RExQUAL<\/strong> (<em>Rules-Based Explanation Quality<\/em>), una nueva m\u00e9trica dise\u00f1ada para evaluar la calidad de las explicaciones generadas por t\u00e9cnicas de XAI, especialmente en tareas de predicci\u00f3n de series temporales.<\/p>\n<p>\u201cAunque en los \u00faltimos a\u00f1os han surgido diversos m\u00e9todos de XAI, no cont\u00e1bamos con una m\u00e9trica objetiva que permitiera comparar su efectividad explicativa\u201d, explica <strong>Alicia Troncoso Lora<\/strong>, investigadora principal del grupo.<\/p>\n<h3><strong>Un est\u00e1ndar para medir la calidad de las explicaciones<\/strong><\/h3>\n<p>RExQUAL llena ese vac\u00edo con una propuesta innovadora basada en reglas de asociaci\u00f3n, que permite medir de forma cuantitativa y objetiva la calidad de las explicaciones tanto a nivel local \u2014para predicciones individuales\u2014 como global \u2014para el comportamiento general del modelo\u2014. Esta combinaci\u00f3n ofrece una visi\u00f3n integral del grado de interpretabilidad que ofrecen los modelos de <em>machine learning<\/em>.<\/p>\n<p>Una de sus principales fortalezas es que no depende del modelo utilizado, lo que facilita su aplicaci\u00f3n en m\u00faltiples dominios. Utiliza m\u00e9tricas como el soporte y la confianza para evaluar si las caracter\u00edsticas resaltadas por los m\u00e9todos XAI realmente justifican las decisiones del modelo.<\/p>\n<p>\u201cLa hemos validado con datos reales de sectores como la energ\u00eda y la agricultura, donde es crucial entender por qu\u00e9 un modelo toma ciertas decisiones\u201d, a\u00f1ade <strong>Francisco Mart\u00ednez \u00c1lvarez<\/strong>, co-investigador principal del proyecto nacional <em>\u2018Efficient and explainable deep learning and online learning for sustainability\u2019<\/em>, en el que se enmarca este trabajo.<\/p>\n<h3><strong>Aplicaci\u00f3n pr\u00e1ctica y proyecci\u00f3n futura<\/strong><\/h3>\n<p>RExQUAL ya est\u00e1 disponible como software de c\u00f3digo abierto para la comunidad cient\u00edfica a trav\u00e9s de un repositorio en GitHub. La investigaci\u00f3n ha sido publicada en la prestigiosa revista <em>IEEE Transactions on Pattern Analysis and Machine Intelligence<\/em>, uno de los referentes internacionales en el campo de la inteligencia artificial.<\/p>\n<p>Adem\u00e1s, el equipo trabaja en el desarrollo de una nueva m\u00e9trica complementaria, orientada a medir la importancia de las variables que influyen en el modelo a partir de c\u00f3mo var\u00eda RExQUAL ante perturbaciones en los datos de entrada.<\/p>\n<h3><strong>Referencia<\/strong>:<\/h3>\n<p>R. Troncoso-Garc\u00eda, M. Mart\u00ednez-Ballesteros, F. Mart\u00ednez-\u00c1lvarez and A. Troncoso, <strong>A new metric based on association rules to assess feature-attribution explainability techniques for time series forecasting<\/strong>. <em>IEEE Transactions on Pattern Analysis and Machine Intelligence<\/em>, Vol. 47, no. 5, pp. 4140-4155, 2025. <a href=\"https:\/\/ieeexplore.ieee.org\/document\/10879535\">doi: 10.1109\/TPAMI.2025.3540513<\/a><\/p>\n","protected":false},"excerpt":{"rendered":"<p>La inteligencia artificial (IA) ha transformado sectores clave de la sociedad, desde la medicina hasta las finanzas, pasando por el transporte, la educaci\u00f3n o la industria, gracias a su capacidad para tomar decisiones complejas con una precisi\u00f3n sin precedentes. Sin embargo, esta potencia viene acompa\u00f1ada de un desaf\u00edo creciente: entender c\u00f3mo y por qu\u00e9 los modelos de IA llegan a ciertas conclusiones. La opacidad de estos sistemas, conocidos como \u2018cajas negras\u2019, plantea serios retos de confianza, transparencia y responsabilidad. \u00bfC\u00f3mo puede una persona confiar en una IA que toma decisiones sin ofrecer explicaciones claras y comprensibles?<\/p>\n","protected":false},"author":2,"featured_media":30886244,"comment_status":"closed","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"_monsterinsights_skip_tracking":false,"_monsterinsights_sitenote_active":false,"_monsterinsights_sitenote_note":"","_monsterinsights_sitenote_category":0,"footnotes":""},"categories":[3],"tags":[9156,7289,7294,9158,8686,151,6753,9157,9155],"class_list":["post-30886243","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-ciencia","tag-alicia-troncoso-lora","tag-data-science-big-data-lab","tag-deep-learning","tag-explicabilidad","tag-ia","tag-inteligencia-artificial","tag-machine-learning","tag-rexqual","tag-xai"],"_links":{"self":[{"href":"https:\/\/www.upo.es\/diario\/wp-json\/wp\/v2\/posts\/30886243","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.upo.es\/diario\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.upo.es\/diario\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.upo.es\/diario\/wp-json\/wp\/v2\/users\/2"}],"replies":[{"embeddable":true,"href":"https:\/\/www.upo.es\/diario\/wp-json\/wp\/v2\/comments?post=30886243"}],"version-history":[{"count":1,"href":"https:\/\/www.upo.es\/diario\/wp-json\/wp\/v2\/posts\/30886243\/revisions"}],"predecessor-version":[{"id":30886245,"href":"https:\/\/www.upo.es\/diario\/wp-json\/wp\/v2\/posts\/30886243\/revisions\/30886245"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.upo.es\/diario\/wp-json\/wp\/v2\/media\/30886244"}],"wp:attachment":[{"href":"https:\/\/www.upo.es\/diario\/wp-json\/wp\/v2\/media?parent=30886243"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.upo.es\/diario\/wp-json\/wp\/v2\/categories?post=30886243"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.upo.es\/diario\/wp-json\/wp\/v2\/tags?post=30886243"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}