VOLVER

Share

DESARROLLAN UN SISTEMA DE VISIÓN ARTIFICIAL PARA INTEGRAR EN UN ROBOT SOCIAL


15 de marzo de 2011

Fuente: Andalucía Innova

 

De momento, hemos desarrollado un importante conjunto de funcionalidades que se integran en un sistema software de percepción, orientado a la interacción con personas y a la detección de marcas visuales para navegación», expone Bandera. Este sistema perceptivo se integraría, desde una perspectiva más general, «en un robot social, es decir, que comparte su entorno con personas y que exhibe un comportamiento socialmente correcto: te mira a los ojos cuando le hablas, te saluda si te lo cruzas, etc.», indica el profesor Bandera.

MUECAS es una cabeza robótica expresiva en la que se integrará el sistema perceptivo. Imagen: Sciencepics.El investigadore aclara: «En realidad, estamos trabajando en el desarrollo de una cabeza robótica expresiva (llamada MUECAS), en colaboración con la Universidad de Extremadura». No obstante, el sistema podría emplearse en cualquier robot de servicio, «bien con aspecto más o menos humanoide, o bien tipo silla motorizada o plataforma robótica», explica el responsable del proyecto.

De un modo más concreto, los investigadores de la UMA pretenden crear una arquitectura perceptiva, que dotaría al robot o cabeza robótica en que se instalara de una gran autonomía y capacidad de interacción. Se usaría un único sistema sensorial, consistente en un par de cámaras estéreo paralelas previamente calibradas.

Esta arquitectura se descompone en cuatro módulos perceptivos de bajo y medio nivel, que deben proporcionar la información necesaria para: permitir la autolocalización local del robot; evitar obstáculos; construir el mapa del entorno usando marcas naturales y proporcionar la capacidad de localización y global; y detectar la presencia de un usuario y reconocerlo, interpretando posibles comandos que éste pueda darle por reconocimiento de gestos manuales. Los científicos están trabajando ahora en cómo evitar obstáculos, ya que los otros tres puntos ya los han logrado.

Módulos software creados

Como indica el responsable del proyecto, el desarrollo del sistema perceptivo de visión artificial «se basa en crear una serie de módulos software que aportan funcionalidades muy concretas». Por el momento, se ha logrado ya un sistema de atención, que permite seleccionar de la escena aquellos elementos que destacan, bien por su color o contraste con respecto a los colores de las regiones que los rodean, o por su relevancia para que se realicen ciertas tareas.

También se han logrado funcionalidades que permiten detectar la presencia de una persona, extraer su silueta y reconocer gestos dinámicos que se realicen con ambas manos (por ejemplo, decir hola). Otro aspecto ya conseguido es la obtención de funcionalidades que permiten detectar la presencia de objetos llamativos (por su color o contraste con el fondo), que se usan como marcas visuales en un sistema de navegación para un robot móvil. Se ha estudiado cómo usar esta información para crear mapas del entorno que explora, y donde desarrollará su actividad el robot. También se ha analizado cómo dividir dicho mapa en zonas.

«En este sentido, el sistema implementado es capaz de detectar automáticamente estos cambios. La idea es que, en función de dónde estés (cocina, salón, etc.), te encontrarás ciertos objetos y desarrollarás ciertas funciones. Eso permite mejorar la eficiencia de los algoritmos y es algo que las personas también hacemos de forma intuitiva», explica Antonio Jesús Bandera.

Por último, el equipo ha creado un sistema de bajo coste computacional, que permite que el robot pueda tener una estimación de cuánto se va moviendo (odometría visual). Es una forma de cuantificar en qué medida se cumplen las órdenes de movimiento ejecutadas. «La idea es ampliar este conjunto de funcionalidades para incluir la evitación de obstáculos, entendiéndola también como una tarea reactiva, que se realiza rápido y sin pensarlo», señala Bandera. «Ya tenemos una propuesta que funciona muy bien con datos de distancia a obstáculos obtenidos de un sensor láser», añade.


Share

Últimas publicaciones

Descubre organizará más de 300 Cafés con Ciencia en Andalucía en los próximos 12 meses para acercar la investigación a la ciudadanía
Andalucía | 26 de julio de 2024

En su 15ª edición, esta actividad de divulgación científica contará con encuentros sobre salud mental, Cafés dedicados al colectivo LGTBI y un Café con Ciencia para conmemorar el Año Cajal dedicado a Ramón y Cajal. La organización de los Cafés con Ciencia se puede solicitar por correo electrónico cafeconciencia@fundaciondescubre.es hasta el 15 mayo de 2025.

Sigue leyendo
Patentan pastillas de soja biodegradables para el abono controlado de cultivos
Huelva, Sevilla | 25 de julio de 2024

Un equipo de investigación de las universidades de Sevilla y Huelva ha creado unas tabletas a partir de proteínas de soja que liberan progresivamente nutrientes a las plantas. El nuevo producto permite un crecimiento saludable, optimiza la producción agrícola y evita la contaminación de suelos y aguas subterráneas.

Sigue leyendo
Muestran la escasa importancia del mosquito tigre en la transmisión de la malaria aviar
Sevilla | 25 de julio de 2024

El equipo científico, formado por expertos de la Estación Biológica de Doñana (EBD-CSIC), del Consejo Superior de Investigaciones Científicas (CSIC); la Universidad de Granada y el Nature Research Centre de Lituania ha analizado el papel de este díptero como vector de patógenos de la malaria aviar. El estudio apunta a la preferencia del mosquito tigre por alimentarse de mamíferos como una de las posibles causas de la baja relevancia en la dispersión de la enfermedad.

Sigue leyendo

#CienciaDirecta

Tu fuente de noticias sobre ciencia andaluza

Más información Suscríbete

Ir al contenido