{"id":30889861,"date":"2026-02-11T10:14:57","date_gmt":"2026-02-11T09:14:57","guid":{"rendered":"https:\/\/www.upo.es\/diario\/?p=30889861"},"modified":"2026-02-19T09:49:12","modified_gmt":"2026-02-19T08:49:12","slug":"proyecto-ai-fuse-comprension-robots-service-robotics-lab","status":"publish","type":"post","link":"https:\/\/www.upo.es\/diario\/ciencia\/2026\/02\/proyecto-ai-fuse-comprension-robots-service-robotics-lab\/","title":{"rendered":"La UPO participa en el proyecto AI-FUSE para facilitar que los robots comprendan y operen en el mundo real"},"content":{"rendered":"<p><a href=\"https:\/\/www.upo.es\/diario\/wp-content\/uploads\/2026\/02\/Frog-Robot.png\"><img loading=\"lazy\" decoding=\"async\" class=\"aligncenter wp-image-30889864 size-large\" src=\"https:\/\/www.upo.es\/diario\/wp-content\/uploads\/2026\/02\/Frog-Robot-e1770801153971-750x501.png\" alt=\"Robot Frog circulando en un entorno con personas\" width=\"750\" height=\"501\" srcset=\"https:\/\/www.upo.es\/diario\/wp-content\/uploads\/2026\/02\/Frog-Robot-e1770801153971-750x501.png 750w, https:\/\/www.upo.es\/diario\/wp-content\/uploads\/2026\/02\/Frog-Robot-e1770801153971-420x281.png 420w, https:\/\/www.upo.es\/diario\/wp-content\/uploads\/2026\/02\/Frog-Robot-e1770801153971-768x513.png 768w, https:\/\/www.upo.es\/diario\/wp-content\/uploads\/2026\/02\/Frog-Robot-e1770801153971-1536x1026.png 1536w, https:\/\/www.upo.es\/diario\/wp-content\/uploads\/2026\/02\/Frog-Robot-e1770801153971-165x109.png 165w, https:\/\/www.upo.es\/diario\/wp-content\/uploads\/2026\/02\/Frog-Robot-e1770801153971-1320x882.png 1320w, https:\/\/www.upo.es\/diario\/wp-content\/uploads\/2026\/02\/Frog-Robot-e1770801153971.png 1920w\" sizes=\"auto, (max-width: 750px) 100vw, 750px\" \/><\/a>La Universidad Pablo de Olavide participa en el <strong>proyecto de investigaci\u00f3n en el \u00e1mbito de la inteligencia artificial AI-FUSE<\/strong>, centrado en la comprensi\u00f3n de escenas (<em>Scene Understanding<\/em>), con la finalidad de que la IA sea capaz de explicar qu\u00e9 ocurre en im\u00e1genes y v\u00eddeos de forma similar a como lo har\u00eda un ser humano.<\/p>\n<p>Coordinado por la <strong>Universidad de Zaragoza<\/strong>, y con la colaboraci\u00f3n del <strong>Cima Universidad de Navarra<\/strong>, el proyecto de investigaci\u00f3n AI-FUSE nace con el ambicioso objetivo de desarrollar algoritmos generales de comprensi\u00f3n de escenas. Se trata de uno de los veinte consorcios seleccionados, entre m\u00e1s de doscientos presentados, a la convocatoria de la Agencia Estatal de Investigaci\u00f3n del Ministerio de Ciencia, Innovaci\u00f3n y Universidades para proyectos de inteligencia artificial.<\/p>\n<p>Con un enfoque interdisciplinar, el objetivo final del consorcio es desarrollar herramientas basadas en IA capaces de analizar im\u00e1genes y v\u00eddeos y explicar el contenido de cualquier escena, sin limitarse a un solo campo. As\u00ed, <strong>AI-FUSE probar\u00e1 su eficacia en tres \u00e1reas clave: rob\u00f3tica, biolog\u00eda celular y monitorizaci\u00f3n ambiental<\/strong>, utilizando datos reales proporcionados por colaboradores estrat\u00e9gicos.<\/p>\n<p>Para ello, el <a href=\"https:\/\/robotics.upo.es\/\"><em>Service Robotics Laboratory<\/em><\/a> de la Universidad Pablo de Olavide desarrolla el subproyecto <strong>AI-FUSE-ROBOT<\/strong>, que aborda un desaf\u00edo clave en la rob\u00f3tica: conseguir que los robots operen de forma aut\u00f3noma y robusta en entornos con personas. Los robots actuales suelen tener dificultades ante escenas concurridas y din\u00e1micas, y los modelos de IA se enfrentan a las limitaciones de potencia de c\u00e1lculo a bordo de los robots y a la falta de datos de entrenamiento.<\/p>\n<p>\u00abUno de los objetivos de nuestro subproyecto es construir robots que se muevan con facilidad entre personas, y que interaccionen de modo natural con ellas, lo que requiere de una capacidad de comprensi\u00f3n del entorno mucho m\u00e1s cercana a la humana\u00bb, comenta <strong>Luis Merino<\/strong>, catedr\u00e1tico de Ingenier\u00eda de Sistemas y Autom\u00e1tica e investigador principal del <em>Service Robotics Laboratory<\/em>. Esta tecnolog\u00eda ser\u00e1 fundamental para la pr\u00f3xima generaci\u00f3n de robots de servicios en \u00e1mbitos como la asistencia en hospitales o la log\u00edstica inteligente.<\/p>\n<p>Con este objetivo, <strong>AI-FUSE-ROBOT introduce tres innovaciones clave: fusi\u00f3n sensorial avanzada<\/strong>, de modo que los robots combinar\u00e1n visi\u00f3n artificial con LIDAR (<em>Light Detection and Ranging<\/em>) y otros sensores, para detectar a las personas, y seguir y predecir sus movimientos;<strong> integraci\u00f3n de datos reales<\/strong>, simulaciones y aprendizaje auto supervisado para reducir la necesidad de datos; y <strong>modelos de IA eficientes<\/strong>, optimiz\u00e1ndolos de forma que estos puedan ejecutarse directamente en el robot, permitiendo respuestas en tiempo real sin depender de la nube. Asimismo, AI-FUSE desarrollar\u00e1 nuevas herramientas y conjuntos de datos de prueba (<em>benchmarking<\/em>) que apoyen el avance en el desarrollo de estas t\u00e9cnicas.<\/p>\n<p>El consorcio <strong>cuenta con una financiaci\u00f3n de 1,2 millones de euros y trabajar\u00e1 en el proyecto durante los tres pr\u00f3ximos a\u00f1os<\/strong>. Esta financiaci\u00f3n procede del Ministerio de Ciencia, Innovaci\u00f3n y Universidades y la <a href=\"https:\/\/www.aei.gob.es\/convocatorias\/buscador-convocatorias\/proyectos-investigacion-ambito-inteligencia-artificial-2025\">Agencia Estatal de Investigaci\u00f3n<\/a> (MICIU \/AEI\/10.13039\/501100011033\/).<\/p>\n<p>&nbsp;<\/p>\n","protected":false},"excerpt":{"rendered":"<p>Un consorcio de investigaci\u00f3n desarrollar\u00e1 modelos de IA generales capaces de analizar escenas din\u00e1micas a partir de im\u00e1genes y v\u00eddeo en sectores como la salud, el medio ambiente y la rob\u00f3tica. El Service Robotics Lab llevar\u00e1 a cabo en la Olavide el subproyecto AI-FUSE-ROBOT para que los robots puedan operar de forma segura y eficiente entre multitudes y en entornos complejos.<\/p>\n","protected":false},"author":6,"featured_media":30889864,"comment_status":"closed","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"_monsterinsights_skip_tracking":false,"_monsterinsights_sitenote_active":false,"_monsterinsights_sitenote_note":"","_monsterinsights_sitenote_category":0,"footnotes":""},"categories":[3],"tags":[6666,8342,986,151,8238,2992,991,5532],"class_list":["post-30889861","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-ciencia","tag-agencia-estatal-de-investigacion","tag-area-de-ingenieria-de-sistemas","tag-ingenieria-informatica","tag-inteligencia-artificial","tag-luis-merino","tag-proyecto-de-investigacion","tag-robotica","tag-service-robotics-laboratory"],"_links":{"self":[{"href":"https:\/\/www.upo.es\/diario\/wp-json\/wp\/v2\/posts\/30889861","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.upo.es\/diario\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.upo.es\/diario\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.upo.es\/diario\/wp-json\/wp\/v2\/users\/6"}],"replies":[{"embeddable":true,"href":"https:\/\/www.upo.es\/diario\/wp-json\/wp\/v2\/comments?post=30889861"}],"version-history":[{"count":3,"href":"https:\/\/www.upo.es\/diario\/wp-json\/wp\/v2\/posts\/30889861\/revisions"}],"predecessor-version":[{"id":30889865,"href":"https:\/\/www.upo.es\/diario\/wp-json\/wp\/v2\/posts\/30889861\/revisions\/30889865"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.upo.es\/diario\/wp-json\/wp\/v2\/media\/30889864"}],"wp:attachment":[{"href":"https:\/\/www.upo.es\/diario\/wp-json\/wp\/v2\/media?parent=30889861"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.upo.es\/diario\/wp-json\/wp\/v2\/categories?post=30889861"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.upo.es\/diario\/wp-json\/wp\/v2\/tags?post=30889861"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}