Investigadores de la Universidad de Córdoba han desarrollado un innovador modelo que utiliza redes neuronales para mejorar la decodificación de marcadores fiduciales, esenciales para que las máquinas puedan detectar y localizar objetos en su entorno. Este avance representa un paso significativo en el ámbito de la visión artificial, especialmente en condiciones de poca iluminación.
Los marcadores fiduciales son herramientas clave en la configuración de robots, como el famoso Atlas de Boston Dynamics, que realiza diversas tareas como hacer ejercicio y organizar cajas. Estos códigos, similares a los códigos QR pero con la capacidad de ser detectados a mayores distancias, permiten a los robots moverse con precisión y reconocer objetos.
Desafíos en condiciones adversas
A pesar de su utilidad, el sistema tradicional enfrentaba limitaciones debido a la iluminación deficiente, lo que dificultaba la localización y decodificación efectiva de los marcadores. Para abordar este desafío, un equipo de investigadores compuesto por Rafael Berral, Rafael Muñoz, Rafael Medina y Manuel J. Marín ha implementado un sistema que permite detectar y decodificar estos marcadores incluso en entornos con poca luz.
“El uso de redes neuronales en nuestro modelo proporciona una detección más flexible y eficiente, solucionando problemas relacionados con la iluminación durante todas las fases del proceso”, explica Berral. El procedimiento se divide en tres etapas: detección de marcadores, refinamiento de esquinas y decodificación, cada una respaldada por una red neuronal específica.
Entrenamiento del modelo
Para entrenar este modelo integral, el equipo ha creado un conjunto de datos sintéticos que simulan las condiciones de iluminación adversas que pueden presentarse al trabajar con sistemas basados en marcadores. “El modelo fue evaluado tanto con datos generados internamente como con referencias obtenidas de investigaciones previas”, añaden los investigadores.
Tanto los datos sintéticos como aquellos obtenidos bajo condiciones reales están disponibles públicamente. Esto significa que el sistema puede ser utilizado actualmente, dado que el código ha sido liberado, facilitando su prueba con cualquier imagen que contenga marcadores fiduciales, según indica Muñoz.
Con este avance tecnológico, las aplicaciones de visión artificial logran superar un obstáculo importante, abriendo nuevas posibilidades incluso en situaciones oscuras.
Referencia:
Berral Soler, R., Muñoz-Salinas, R., Medina-Carnicer, R. & Marín-Jiménez, M.J. (2024) DeepArUco++: Improved detection of square fiducial markers in challenging lighting conditions, Image and Vision Computing, https://doi.org/10.1016/j.imavis.2024.105313
Preguntas sobre la noticia
¿Qué mejora se ha logrado en la visión artificial según la noticia?
Se ha desarrollado un modelo por la Universidad de Córdoba que utiliza redes neuronales para optimizar la decodificación de marcadores fiduciales, permitiendo su detección en condiciones de poca iluminación.
¿Quiénes son los investigadores detrás de este desarrollo?
Los investigadores Rafael Berral, Rafael Muñoz, Rafael Medina y Manuel J. Marín del grupo de investigación Aplicaciones de la Visión Artificial de la Universidad de Córdoba han trabajado en este sistema.
¿Cuál es el problema que aborda este nuevo sistema?
El sistema aborda la debilidad de las técnicas clásicas de visión artificial que fallan en condiciones de poca luz al detectar y decodificar marcadores fiduciales.
¿Cómo funciona el proceso de detección y decodificación?
El proceso completo consta de tres pasos: detección de marcadores, refinamiento de esquinas y decodificación, cada uno basado en una red neuronal diferente.
¿Está disponible el código del modelo desarrollado?
Sí, el código está liberado y se pueden hacer pruebas con cualquier imagen que contenga marcadores fiduciales.
¿Qué tipo de datos se utilizaron para entrenar el modelo?
Se creó un conjunto de datos sintéticos que reflejan las circunstancias de iluminación desfavorable y también se probaron datos del mundo real.