Home Tecnología El marco de verificación descubre los lapsos de seguridad en el sistema...

El marco de verificación descubre los lapsos de seguridad en el sistema de autónomo de código abierto

30
0

Un escenario de tráfico simulado de los experimentos con AutoWare, donde un automóvil rojo en el carril adyacente corta el camino del vehículo autónomo. Crédito: Duong Dinh Tran de Jaist

Utilizando un marco de verificación recientemente desarrollado, los investigadores han descubierto limitaciones de seguridad en los sistemas de conducción autónoma de código abierto durante los movimientos de alta velocidad y los recortes repentinos, lo que aumenta las preocupaciones por las implementaciones del mundo real.

En este estudio, el profesor asistente de investigación Duong Dinh Tran del Instituto Avanzado de Ciencia y Tecnología de Japón (JAIST) y su equipo, incluido el profesor asociado Takashi Tomita y el profesor Toshiaki Aoki en JAIST, decidieron poner el sistema de conducción autónomo de código abierto, AutoWare, a través de una rigurosa verificación de verificación, que revela potenciales limitaciones de seguridad en las situaciones críticas de tráfico.

Para verificar completamente qué tan seguro es AutoWare, los investigadores construyeron un sistema especial de pruebas virtuales. Este sistema, explicado en su estudio publicado en la revista IEEE Transactions on Confiabilidad, actuó como un campo de pruebas digital para automóviles autónomos.

Utilizando un lenguaje llamado AWSIM-Script, podrían crear simulaciones de varias situaciones de tráfico difíciles: peligros del mundo real que los expertos en seguridad de automóviles en Japón han identificado. Durante estas simulaciones, una herramienta llamada Runtime Monitor mantuvo un registro detallado de todo lo que sucedió, al igual que la caja negra en un avión.

Finalmente, otro programa de verificación, AW-Checker, analizó estas grabaciones para ver si AutoWare siguió las reglas de la carretera, según lo definido por el estándar de seguridad de la Asociación de Fabricantes de Automóviles de Japón (JAMA). Este estándar proporciona una forma clara y estructurada de evaluar la seguridad de los sistemas de conducción autónomos (ADS).

Los investigadores se centraron en tres escenarios particularmente peligrosos y frecuentemente encontrados definidos por el estándar de seguridad de JAMA: corte (un vehículo que se mueve abruptamente hacia el carril del vehículo del ego), el corte (un vehículo que se avecina de repente cambia carriles) y desaceleración (un vehículo que se avecina de repente). Compararon el rendimiento de AutoWare con el “modelo de controlador cuidadoso” de JAMA, un punto de referencia que representa el nivel de seguridad mínimo esperado para los ADS.

Estos experimentos revelaron que AutoWare no cumplió constantemente los requisitos mínimos de seguridad según lo definido por el modelo de controlador cuidadoso. Como explicó el Dr. Tran, “los experimentos realizados con nuestro marco mostraron que AutoWare no pudo evitar constantemente colisiones, especialmente durante la conducción de alta velocidad y los movimientos laterales repentinos por otros vehículos, en comparación con un modelo de conductor competente y cauteloso”.

Una razón significativa para estas fallas parecía ser errores en cómo AutoWare predijo el movimiento de otros vehículos. El sistema a menudo predijo cambios de carril lento y gradual. Sin embargo, cuando se enfrentan a vehículos que realizan cambios de carril rápidos y agresivos (como en el escenario de corte con alta velocidad lateral), las predicciones de AutoWare fueron inexactas, lo que condujo a frenados retrasados ​​y colisiones posteriores en las simulaciones.

Curiosamente, el estudio también comparó la efectividad de las diferentes configuraciones de sensores para AutoWare. Una configuración usó solo LiDAR, mientras que los otros datos combinados de LiDAR y cámaras. Sorprendentemente, el modo solo LiDAR generalmente funcionó mejor en estos escenarios desafiantes que el modo de fusión de cámara-lidar. Los investigadores sugieren que las inexactitudes en la detección de objetos basada en el aprendizaje automático del sistema de cámara podrían haber introducido el ruido, afectando negativamente el rendimiento del algoritmo de fusión.

Estos hallazgos tienen importantes implicaciones del mundo real, ya que algunas versiones personalizadas de AutoWare ya se implementaron en carreteras públicas para proporcionar servicios de conducción autónomos. “Nuestro estudio destaca cómo un marco de verificación de tiempo de ejecución puede evaluar efectivamente los sistemas de conducción autónoma del mundo real como AutoWare.

“Hacerlo ayuda a los desarrolladores a identificar y corregir problemas potenciales antes y después de que el sistema se despliegue, fomentando en última instancia el desarrollo de soluciones de conducción autónoma más seguras y confiables para uso público”, señaló el Dr. Tran.

Si bien este estudio proporciona información valiosa sobre el rendimiento de AutoWare en alteraciones específicas del tráfico en caminos sin intersección, los investigadores planean expandir su trabajo para incluir escenarios más complejos, como los de las intersecciones e involucrando a los peatones. También tienen como objetivo investigar el impacto de factores ambientales como el clima y las condiciones de la carretera en futuros estudios.

Más información: Duong Dinh Tran et al, Análisis de seguridad de sistemas de conducción autónomos: un enfoque de verificación de tiempo de ejecución basado en simulación, transacciones IEEE sobre confiabilidad (2025). Doi: 10.1109/tr.2025.3561455

Proporcionado por el Instituto Avanzado de Ciencia y Tecnología de Japón

Cita: el marco de verificación descubre lapsos de seguridad en el sistema de autocompasión de código abierto (2025, 23 de mayo) Recuperado el 23 de mayo de 2025 de https://techxplore.com/news/2025-05-verification-framework-covers-safety-lapses.html

Este documento está sujeto a derechos de autor. Además de cualquier trato justo con el propósito de estudio o investigación privada, no se puede reproducir ninguna parte sin el permiso por escrito. El contenido se proporciona solo para fines de información.