La Universidad Pablo de Olavide participa en el proyecto de investigación en el ámbito de la inteligencia artificial AI-FUSE, centrado en la comprensión de escenas (Scene Understanding), con la finalidad de que la IA sea capaz de explicar qué ocurre en imágenes y vídeos de forma similar a como lo haría un ser humano.
Coordinado por la Universidad de Zaragoza, y con la colaboración del Cima Universidad de Navarra, el proyecto de investigación AI-FUSE nace con el ambicioso objetivo de desarrollar algoritmos generales de comprensión de escenas. Se trata de uno de los veinte consorcios seleccionados, entre más de doscientos presentados, a la convocatoria de la Agencia Estatal de Investigación del Ministerio de Ciencia, Innovación y Universidades para proyectos de inteligencia artificial.
Con un enfoque interdisciplinar, el objetivo final del consorcio es desarrollar herramientas basadas en IA capaces de analizar imágenes y vídeos y explicar el contenido de cualquier escena, sin limitarse a un solo campo. Así, AI-FUSE probará su eficacia en tres áreas clave: robótica, biología celular y monitorización ambiental, utilizando datos reales proporcionados por colaboradores estratégicos.
Para ello, el Service Robotics Laboratory de la Universidad Pablo de Olavide desarrolla el subproyecto AI-FUSE-ROBOT, que aborda un desafío clave en la robótica: conseguir que los robots operen de forma autónoma y robusta en entornos con personas. Los robots actuales suelen tener dificultades ante escenas concurridas y dinámicas, y los modelos de IA se enfrentan a las limitaciones de potencia de cálculo a bordo de los robots y a la falta de datos de entrenamiento.
«Uno de los objetivos de nuestro subproyecto es construir robots que se muevan con facilidad entre personas, y que interaccionen de modo natural con ellas, lo que requiere de una capacidad de comprensión del entorno mucho más cercana a la humana», comenta Luis Merino, catedrático de Ingeniería de Sistemas y Automática e investigador principal del Service Robotics Laboratory. Esta tecnología será fundamental para la próxima generación de robots de servicios en ámbitos como la asistencia en hospitales o la logística inteligente.
Con este objetivo, AI-FUSE-ROBOT introduce tres innovaciones clave: fusión sensorial avanzada, de modo que los robots combinarán visión artificial con LIDAR (Light Detection and Ranging) y otros sensores, para detectar a las personas, y seguir y predecir sus movimientos; integración de datos reales, simulaciones y aprendizaje auto supervisado para reducir la necesidad de datos; y modelos de IA eficientes, optimizándolos de forma que estos puedan ejecutarse directamente en el robot, permitiendo respuestas en tiempo real sin depender de la nube. Asimismo, AI-FUSE desarrollará nuevas herramientas y conjuntos de datos de prueba (benchmarking) que apoyen el avance en el desarrollo de estas técnicas.
El consorcio cuenta con una financiación de 1,2 millones de euros y trabajará en el proyecto durante los tres próximos años. Esta financiación procede del Ministerio de Ciencia, Innovación y Universidades y la Agencia Estatal de Investigación (MICIU /AEI/10.13039/501100011033/).
