El programa interactivo de los científicos informáticos ayuda a planificar el movimiento para entornos con obstáculos – ScienceDaily

El programa interactivo de los científicos informáticos ayuda a planificar el movimiento para entornos con obstáculos – ScienceDaily


Al igual que nosotros, los robots no pueden ver a través de las paredes. A veces necesitan un poco de ayuda para llegar a donde quieren ir.

Ingenieros de la Universidad de Rice han desarrollado un método que permite a los humanos ayudar a los robots a «ver» su entorno y realizar tareas.

La estrategia, llamada Bayesian Learning IN the Dark (CIEGO, para abreviar), es una solución novedosa al antiguo problema de la planificación del movimiento para los robots que trabajan en entornos donde todo no siempre es claramente visible.

El estudio revisado por pares, dirigido por los informáticos Lydia Kavraki y Vaibhav Unhelkar y los coautores Carlos Quintero-Peña y Constantinos Chamzas de la Escuela de Ingeniería George R. Brown de Rice, se presentó en la Conferencia Internacional sobre Robótica y Electrónica del Instituto de Electricidad. Ingenieros y Automatización a finales de mayo.

El algoritmo, desarrollado principalmente por Quintero-Peña y Chamzas, ambos estudiantes de doctorado que colaboran con Kavraki, mantiene a un humano informado para «mejorar la percepción del robot y, lo que es más importante, prevenir la ejecución de movimientos inseguros», según el estudio.

Para ello, combinaron el aprendizaje por refuerzo inverso bayesiano (en el que un sistema aprende a partir de información y experiencia actualizadas continuamente) con técnicas de planificación de movimiento establecidas para ayudar a los robots con «altos grados de libertad», es decir, muchas piezas móviles.

Para probar BLIND, el laboratorio de Rice instruyó a un robot de búsqueda, un brazo articulado con siete articulaciones, para agarrar un pequeño cilindro de una mesa y moverlo a otra, pero al hacerlo tenía que pasar una barrera.

«Cuando tienes más articulaciones, las instrucciones para el robot son complicadas», dijo Quintero-Peña. «Si estás dirigiendo a un humano, solo puedes decir, ‘Levanta la mano'».

Pero los programadores de un robot deben saber exactamente el movimiento de cada articulación en cada punto de su trayectoria, especialmente cuando los obstáculos bloquean la «visión» de la máquina de su objetivo.

En lugar de preprogramar una trayectoria, BLIND inserta a un humano en medio del proceso para refinar las opciones coreografiadas, o las mejores conjeturas, sugeridas por el algoritmo del robot. “BLIND nos permite tomar información en la mente humana y calcular nuestras trayectorias en este espacio con un alto grado de libertad”, dijo Quintero-Peña.

«Usamos una forma específica de retroalimentación llamada crítica, que es básicamente una forma binaria de retroalimentación en la que al humano se le asignan etiquetas en partes de la trayectoria», dijo.

Estas etiquetas aparecen como puntos verdes conectados que representan posibles rutas. A medida que BLIND va de un punto a otro, el humano está de acuerdo o en desacuerdo con cada movimiento para refinar el camino y evitar obstáculos de la manera más eficiente posible.

«Es una interfaz fácil de usar porque podemos decir ‘Me gusta’ o ‘No me gusta’, y el robot usa esa información para planificar», dijo Chamzas. Una vez que el robot es recompensado con un conjunto de movimientos aprobados, puede realizar su tarea, dijo.

«Una de las cosas más importantes aquí es que las preferencias humanas son difíciles de describir con una fórmula matemática», dijo Quintero-Peña. “Nuestro trabajo simplifica las relaciones humano-robot al incorporar las preferencias humanas. Así que creo que las aplicaciones obtendrán el mayor beneficio de este trabajo”.

«Este trabajo ilustra maravillosamente cómo la intervención humana pequeña pero específica puede mejorar en gran medida las habilidades de los robots para realizar tareas complejas en entornos donde algunas partes son completamente desconocidas para el robot pero familiares para los humanos», dijo Kavraki, un pionero de la robótica cuyo currículum incluye programación avanzada para Robonauta humanoide de la NASA a bordo de la Estación Espacial Internacional.

«Muestra cómo los métodos de interacción humano-robot, el tema de investigación de mi colega, el profesor Unhelkar, y la planificación automatizada, que fue pionera durante años en mi laboratorio, pueden fusionarse para ofrecer soluciones confiables que también tienen en cuenta las preferencias humanas».

El estudiante graduado de Rice, Zhanyi Sun, y Unhelkar, profesor asistente de informática, son coautores del artículo. Kavraki es profesor Noah Harding de informática y profesor de ingeniería biológica, eléctrica, informática y mecánica y director del Instituto Ken Kennedy.

La investigación fue apoyada por la Fundación Nacional de Ciencias (2008720, 1718487) y una subvención del Programa de Becas de Investigación para Graduados de la NSF (1842494).

Vídeo: https://youtu.be/RbDDiApQhNo

Related post

Tesla agrega la variante Model Y con baterías de hoja BYD en Alemania

Tesla agrega la variante Model Y con baterías de…

Según Alemania Tesla Mag, nuevos paquetes de baterías estructurales de BYD están llegando a la planta de Tesla en Grünheide, Alemania.…
WiTricity recauda $63 millones en una nueva ronda de financiamiento (con video)

WiTricity recauda $63 millones en una nueva ronda de…

WiTricity, la empresa de Massachusetts líder mundial en tecnología de carga inalámbrica, anunció esta semana que acaba de recaudar $63 millones…
Tennis League VR para Quest podría ayudarte a mejorar tu juego

Tennis League VR para Quest podría ayudarte a mejorar…

Amor. Frase. realidad virtual Liga de tenis VR es una experiencia de tenis increíblemente genial que te ayudará a mejorar todo,…

Leave a Reply

Tu dirección de correo electrónico no será publicada.