Diseñan un sistema que permite dirigir un robot con la voz
Fuente: Carolina Moya / Fundación Descubre
Investigadores del grupo ISIS de la Universidad de Málaga han diseñado un sistema para controlar de forma remota un robot con la voz. El método logra una alta tasa de reconocimiento de palabras y el control de la plataforma robótica en tareas de navegación, ventajas que abren la puerta a su futura aplicación a otros dispositivos, como sillas de ruedas, en entornos de asistencia a personas.
Según reconocen los expertos, en la actualidad existen diversos sistemas de reconocimiento de voz para el control robótico. Sin embargo, el suyo muestra diferencias en dos aspectos: el idioma, ya que es de los pocos para hispanohablantes y la tasa de éxito en el reconocimiento.
Los expertos han desarrollado su modelo acústico en el sistema operativo Linux, ya que la arquitectura para controlar el robot trabaja con varios procesos simultáneos. Asimismo, en lo referente al idioma, han utilizado un software denominado Julius/Julian, un sistema de reconocimiento de voz de código abierto. “Actualmente solo hay modelos acústicos para japonés e inglés. Al no existir modelo acústico específico para español, el desarrollo de este elemento ha supuesto la parte central de nuestro trabajo”, reconoce a la Fundación Descubre el investigador de la Universidad de Málaga Alberto Poncela, responsable del proyecto.
Otra ventaja son los resultados que obtiene ese modelo acústico en las pruebas a las que se somete. “Conseguimos una tasa de reconocimiento de palabras cercana al 99% y una tasa de reconocimiento de comandos, es decir, de órdenes, del 95% o superior. A esto se suma que el robot consigue ir al sitio que se le envía bajo el control de la voz de un usuario no experto”, subraya Poncela.
Los investigadores apuntan que estos resultados del estudio titulado ‘Command-based voice teleoperation of a mobile robot via a human/robot interface’ y publicado en la revista Robotica, abren la puerta a la posibilidad de adaptar el sistema a otras plataformas robóticas, como sillas de ruedas, lo que supondría su aplicación en entornos asistenciales.
Construyendo el modelo
¿Cómo reconoce el robot una orden emitida por una persona? Para ello se requieren varios elementos. Por un lado, el léxico, el conjunto de palabras que el sistema puede reconocer. A este se sumaría la gramática, las reglas y las restricciones de ese vocabulario. “Además hay que construir un modelo acústico, es decir, la representación estadística de los sonidos que forman cada una de las palabras habladas usadas en la gramática. El modelo acústico se obtiene tras una fase de entrenamiento. Nosotros hemos considerado 802 palabras, agrupadas en 72 frases”, precisa otra de las investigadoras participantes en el estudio Leticia Gallardo Estrella.
El sistema tiene que ser entrenado para cada usuario, ya que las características de la voz de cada persona son distintas, con lo que hay que afinar hasta hacerlo preciso y personalizado. “Para ello, se graban las frases de entrenamiento con un micrófono y se parametrizan con unos coeficientes numéricos con las características propias de la voz. A partir de estos coeficientes se construye el modelo acústico”, detalla la investigadora.
A continuación, el vocabulario, la gramática y el modelo acústico se introducen en el motor de voz, que tiene como salida la frase reconocida. “Definimos un juego de comandos técnicos de movimiento cortos, por ejemplo –parar-, y otros largos -girar 20 grados- que se emiten de forma remota con un micrófono, se reconoce el comando y, mediante wifi, la orden llega al robot, que tiene un punto de acceso”, especifica.
Pruebas de reconocimiento y navegación
Los investigadores han acometido dos tipos de pruebas para testear el sistema. Las primeras, para comprobar si el sistema reconoce la voz y las órdenes emitidas. Un comando sólo es correcto si se reconocen todas las palabras. Por ejemplo, la acción “girar” va asociada a un valor numérico (20) y una unidad (grados) en la frase “girar 20 grados”.
El sistema tiene en cuenta todas esas variables y consigue, en palabras de los investigadores, buenos resultados. “Alcanzamos una tasa de reconocimiento de palabras cercana al 99% y una tasa de reconocimiento de comandos del 95% o superior”, incide Alberto Poncela.
El segundo tipo de pruebas guardan relación con la navegación. Para ello, simularon entornos complejos para que un robot modelo Pioneer P2AT los recorriera y llegara a un punto. Un usuario no experto en robótica emitió las órdenes con un micrófono. “El resultado fue que esta persona hizo llegar el robot a su destino”, subraya.
Este trabajo se enmarca en el proyecto ‘Sistema Inteligente de Asistencia Domiciliaria’ SIAD destinado a crear una arquitectura genérica capaz de adaptarse por sí misma a distintos tipos de usuarios mediante aprendizaje y financiado por la Consejería de Economía, Innovación, Ciencia y Empleo de la Junta de Andalucía.
Referencia:
Alberto Poncela, Leticia Gallardo-Estrella. ‘Command-based voice teleoperation of a mobile robot via a human-robot interface’. Robotica, 33 (1), pp. 1-18, 2015.
Imágenes:
El investigador de la Universidad de Málaga Alberto Poncela, responsable del proyecto
https://www.flickr.com/photos/fundaciondescubre/16974751511/
https://www.flickr.com/photos/fundaciondescubre/16768294897/
Más información:
FUNDACIÓN DESCUBRE
Departamento de Comunicación
Teléfono: 954232349. Extensión 140
e-mail: comunicacion@fundaciondescubre.es
Últimas publicaciones
Un equipo de investigación de la Universidad de Málaga ha evaluado a casi un centenar de estudiantes de entre 8 y 12 años para entender mejor los desafíos léxicos a los que se enfrentan aquellos con pérdida auditiva. Las expertas sugieren un enfoque basado en relaciones entre determinadas clases de palabras para mejorar su aprendizaje y que puedan estudiar en igualdad de condiciones que sus compañeros oyentes.
Nos encontramos a menos de un día del solsticio de diciembre, que tendrá lugar a las 10:20 de este sábado, hora española. Esta efeméride marca el comienzo de las estación astronómicas de invierno para el hemisferio norte. Dejamos atrás el otoño, con sus tonalidades amarillas, naranjas y marrones, y damos paso al color blanco de los copos de nieve, a las luces de colores, y a las flores de pascua. Son algunos de los protagonistas de estas fiestas, que también tienen su ciencia. Por ello os proponemos descubrir diferentes curiosidades científicas relacionadas con la Navidad. ¿Sabías que el espumillón comenzó a fabricarse de aluminio y plomo y con el paso del tiempo ha variado su composición para hacerse ahora de PVC? ¿Te has preguntado alguna vez por qué las típicas flores de esta época del año son esas y no otras? ¿ O cuánto consumen las luces led del árbol que adornas cada año?
Sigue leyendoEl consejero de Universidad, Investigación e Innovación, José Carlos Gómez Villamandos, ha presidido el Patronato celebrado en Sevilla. El Plan prevé el fomento además de la divulgación en el ámbito de la emergencia, la seguridad y la defensa, al tiempo que comenzarán los trabajos para la divulgación del trío de eclipses solares previstos en la Península para 2026, 2027 y 2028. La Fundación ha celebrado previamente el acto de reconocimiento de las personas y entidades Colaboradoras Extraordinarias de Descubre.