Tecnología

Empoderando a los robots con percepción humana para navegar por terreno difíciles de manejar

Crédito: Laboratorio de robótica general

La riqueza de información proporcionada por nuestros sentidos que permite que nuestro cerebro navegue por el mundo que nos rodea es notable. El tacto, el olor, la audición y un fuerte sentido del equilibrio son cruciales para superar lo que para nosotros parecen entornos fáciles, como una caminata relajante en una mañana de fin de semana.

Una comprensión innata de la sobrecarga del dosel nos ayuda a descubrir a dónde conduce el camino. El fuerte chasquido de ramas o el suave cojín del musgo nos informa sobre la estabilidad de nuestra base. El trueno de un árbol que cae o se ramifica en fuertes vientos nos hace saber de los peligros potenciales cercanos.

Los robots, en contraste, se han basado solo en información visual como cámaras o lidar para moverse por el mundo. Fuera de Hollywood, la navegación multisensorial ha seguido siendo desafiante para las máquinas. El bosque, con su hermoso caos de densa maleza, troncos caídos y terreno en constante cambio, es un laberinto de incertidumbre para los robots tradicionales.

Ahora, los investigadores de la Universidad de Duke han desarrollado un marco novedoso llamado Wildfusion que fusiona la visión, la vibración y el tacto para permitir a los robots “sentir” entornos al aire libre complejos al igual que los humanos. El trabajo está disponible en el servidor de preimpresión ARXIV y recientemente fue aceptado en la Conferencia Internacional de Robótica y Automatización de IEEE (ICRA 2025), que se llevará a cabo del 19 al 23 de mayo de 2025 en Atlanta, Georgia.

“Wildfusion abre un nuevo capítulo en navegación robótica y mapeo 3D”, dijo Boyuan Chen, profesor asistente de la familia Dickinson de Ingeniería Mecánica e Ciencia de Ciencia de Materiales, Ingeniería Eléctrica e Informática, e Informática en la Universidad de Duke. “Ayuda a los robots a operar con más confianza en entornos no estructurados e impredecibles como bosques, zonas de desastre y terreno todoterreno”.

“Los robots típicos dependen en gran medida de la visión o lidar solo, que a menudo vacilan sin caminos claros o puntos de referencia predecibles”, agregó Yanbaihui Liu, el autor principal y un doctorado de segundo año. Estudiante en el laboratorio de Chen.

“Incluso los métodos avanzados de mapeo 3D luchan por reconstruir un mapa continuo cuando los datos del sensor son escasos, ruidosos o incompletos, lo cual es un problema frecuente en entornos al aire libre no estructurados. Ese es exactamente el desafío que Wildfusion fue diseñado para resolver”.

Wildfusion, basado en un robot cuadrúpedo, integra modalidades de detección múltiple, incluida una cámara RGB, LiDAR, sensores de inercia y, en particular, micrófonos de contacto y sensores táctiles. Como en los enfoques tradicionales, la cámara y el lidar capturan la geometría, el color, la distancia y otros detalles visuales del entorno. Lo que hace que Wildfusion sea especial es su uso de vibraciones acústicas y tacto.

Wildfusion utiliza una combinación de visión, tacto, sonido y equilibrio para ayudar a los robots de cuatro patas a navegar mejor por terreno difícil como bosques densos. Crédito: Boyuan Chen, Universidad de Duke

A medida que el robot camina, los micrófonos de contacto registran las vibraciones únicas generadas por cada paso, capturando diferencias sutiles, como el crujido de hojas secas versus el suave squish del lodo.

Mientras tanto, los sensores táctiles miden cuánta fuerza se aplica a cada pie, ayudando a la estabilidad o la resbaladiza del robot en tiempo real. Estos sentidos agregados también se complementan con el sensor inercial que recopila datos de aceleración para evaluar cuánto se tambalea el robot, lanzando o rodando a medida que atraviesa un terreno desigual.

Cada tipo de datos sensoriales se procesa a través de codificadores especializados y se fusiona en una sola representación rica. En el corazón de Wildfusion hay un modelo de aprendizaje profundo basado en la idea de representaciones neuronales implícitas.

A diferencia de los métodos tradicionales que tratan el medio ambiente como una colección de puntos discretos, este enfoque modela superficies y características complejas continuamente, lo que permite que el robot tome decisiones más inteligentes e intuitivas sobre dónde pisar, incluso cuando su visión está bloqueada o ambigua.

“Piense en ello como resolver un rompecabezas donde faltan algunas piezas, pero puedes imaginar intuitivamente la imagen completa”, explicó Chen. “El enfoque multimodal de Wildfusion permite que el robot ‘complete los espacios en blanco’ cuando los datos del sensor son escasos o ruidosos, al igual que lo que hacen los humanos”.

Wildfusion fue probado en el Parque Estatal Eno River en Carolina del Norte, cerca del campus de Duke, ayudando con éxito a un robot a navegar por densos bosques, pastizales y caminos de grava.

“Ver al robot navegar con confianza el terreno fue increíblemente gratificante”, compartió Liu. “Estas pruebas del mundo real demostraron la notable capacidad de Wildfusion para predecir con precisión la traversabilidad, mejorando significativamente la toma de decisiones del robot en caminos seguros a través de un terreno desafiante”.

Wildfusion ayuda a los robots a identificar caminos seguros a través de un terreno desafiante, como el follaje alto que de otro modo podría parecer innegable. Crédito: Boyuan Chen, Universidad de Duke

Mirando hacia el futuro, el equipo planea expandir el sistema incorporando sensores adicionales, como detectores térmicos o de humedad, para mejorar aún más la capacidad de un robot para comprender y adaptarse a entornos complejos.

Con su diseño modular flexible, Wildfusion proporciona vastas aplicaciones potenciales más allá de los senderos forestales, incluida la respuesta a desastres en terrenos impredecibles, la inspección de la infraestructura remota y la exploración autónoma.

“Uno de los desafíos clave para la robótica actual es desarrollar sistemas que no solo funcionen bien en el laboratorio, sino que funcionan de manera confiable en entornos del mundo real”, dijo Chen. “Eso significa robots que pueden adaptarse, tomar decisiones y seguir moviéndose incluso cuando el mundo se vuelve desordenado”.

Más información: Yanbaihui Liu et al, Wildfusion: reconstrucciones 3D implícitas multimodales en la naturaleza, ARXIV (2024). Doi: 10.48550/arxiv.2409.19904

Sitio web del proyecto: GeneralRroboticsLab.com/wildfusion

Sitio web de General Robotics Lab: GeneralRoboticsLab.com

Información en la revista: ARXIV proporcionado por la Universidad de Duke

Cita: Empoderando a los robots con una percepción humana para navegar por terreno difíciles de manejar (2025, 19 de mayo) Recuperado el 19 de mayo de 2025 de https://techxplore.com/news/2025-05-empoderando-robots-human-perception-unwieldy.html

Este documento está sujeto a derechos de autor. Además de cualquier trato justo con el propósito de estudio o investigación privada, no se puede reproducir ninguna parte sin el permiso por escrito. El contenido se proporciona solo para fines de información.

Back to top button