Home Tecnología El experto discute el control de crucero a la toma de decisiones...

El experto discute el control de crucero a la toma de decisiones con IA

30
0

Para cada píxel, la distancia se estima utilizando redes neuronales. Aquí ilustrado con el color: cuanto más cálido sea el color, más cerca de la cámara. Crédito: Universidad de Lund

¿Qué sucede cuando salimos del asiento del conductor y nuestros vehículos se vuelven autónomos? El matemático Viktor Larsson está desarrollando métodos para permitir que los automóviles y los drones vean su entorno. Esta es su visión del presente y el futuro autónomo.

Cámaras, satnav, láser, radar y sensores. Para ganar el prefijo “autónomo” o “autónomo”, los vehículos necesitan una variedad de tecnologías capaces de detectar y evaluar el entorno de tráfico complejo e impredecible.

La capacidad de conducción autónoma se califica en una escala de cinco puntos establecida por la Sociedad de Ingenieros Automotrices. Muchos autos nuevos están al menos en el extremo inferior de la escala, con características como control de crucero, sensores ultrasónicos para una evaluación de distancia a corta distancia y satnav incorporado. Cuanto más alto sea la escala, mayores demandas están en la toma de decisiones y el “juicio”. Esto significa que la IA y el aprendizaje automático son un requisito previo para alcanzar los niveles más altos porque solo entonces el automóvil puede evaluar y actuar de manera segura.

Sin descanso

De los vehículos actualmente en uso, los taxis de los robots en algunas ciudades importantes de los Estados Unidos y China son los más cercanos a ser totalmente autónomos, es decir, el nivel cinco. De lo contrario, la mayoría todavía se está probando en entornos controlados. Según Viktor Larsson, un investigador de matemáticas que desarrolla algoritmos de visión informática, otros vehículos comerciales, como autobuses y camiones, podrían liberarse a gran escala a gran escala.

“Dichos vehículos operan rutas regulares y son caros, lo que hace que valga la pena ajustarse con más sensores. Y pueden correr las 24 horas del día: un conductor automatizado no necesita un descanso … no necesariamente tienen que trabajar todo el tiempo. Si surgiera un problema, un operador puede saltar y controlar el vehículo de forma remota”, dice.

Cámaras no solo más baratas

Los fabricantes de automóviles priorizan diferentes tecnologías. Por ejemplo, Tesla solo usa cámaras, mientras que su competidor Waymo también usa radar y LiDAR, es decir, medición de distancia basada en láser. Todos, sin embargo, usan una o más cámaras.

“Lidar es mucho mejor para medir la distancia que las cámaras. Es muy importante saber que el camino es claro. Pero debido a que las cámaras son mucho más baratas, los fabricantes de automóviles intentan resolver el problema de usarlas”.

Sin embargo, las cámaras no son simplemente más baratas. Cuando el automóvil intensifica su inteligencia y comienza a sacar conclusiones, su software debe ser alimentado con imágenes. ¿El niño corre en el pavimento en la calle? ¿Qué significa el Squiggle en el letrero?

“Por lo tanto, aún se necesitaría una cámara, incluso si el precio de Lidar y Radar cayera”.

Además, en un contexto militar, las cámaras son preferibles porque no emiten ninguna energía y, por lo tanto, son difíciles de detectar.

Adquirido por Apple y Meta

Los matemáticos en LTH han estado trabajando con la visión por computadora durante décadas, mucho antes de que el aprendizaje automático y los autos autónomos estuvieran en la agenda, y están detrás de varias compañías spin-offs como Spiideo, Cognimatics (adquirido por el eje), Mapillary (adquirido por Meta) y Polar Rose (adquirido por Apple).

Gracias al cambio tecnológico hacia la IA y el aprendizaje automático, el campo ha explotado y ahora hay varios cientos de equipos de investigación en todo el mundo, tanto en la academia como en los negocios, que trabajan en el campo.

Cómo la cámara obtiene la percepción de profundidad

El aprendizaje automático ahora se puede usar para resolver problemas donde una solución fue una vez inconcebible, como calcular distancias a todos los objetos en la vista de la cámara desde una sola imagen.

Tradicionalmente, esto se ha resuelto mediante el uso de dos cámaras, que se basa en el mismo principio que nosotros con dos ojos. Al examinar las diferencias en las dos imágenes, tanto nosotros como las cámaras obtienen la percepción de profundidad. Las cosas que están más cerca de nosotros se mueven más entre imágenes que cosas que están más lejos.

“Los humanos aún pueden adivinar la distancia incluso con un ojo cerrado, gracias al conocimiento adquirido del mundo que nos rodea”.

Ahora es posible crear redes neuronales profundas que, como el cerebro humano, puedan estimar la profundidad 3D de una sola imagen. Además del hecho de que una cámara es más barata que dos, los sistemas estéreo, que significan dos cámaras, a menudo son muy sensibles a los errores de calibración, es decir, cómo se colocan las cámaras en relación entre sí.

La capacidad de crear tus propios mapas

Viktor Larsson trabaja principalmente en el desarrollo de nuevos métodos para crear reconstrucciones 3D de la realidad, lo que permite un posicionamiento más preciso.

El posicionamiento se ha resuelto tradicionalmente usando GPS. Esta tecnología también es necesaria en autos autónomos, pero como la resolución a veces puede fallar a cinco a diez metros, se necesita un posicionamiento más preciso para que el vehículo funcione de manera completamente autónoma.

“El GPS tampoco funcionará si conduce a través de un túnel o en calles estrechas bordeadas de edificios altos que el satélite indica que rebotan. Por lo tanto, es importante poder colocar el vehículo con la ayuda de otros sensores”.

Idealmente, los mapas deben crearse utilizando datos del sensor recopilados por los propios vehículos. Confiar en su lugar en la información recopilada manualmente crea un riesgo de que los mapas se desactualicen rápidamente y, por lo tanto, menos útiles.

“Es por eso que es importante poder actualizar los mapas con datos recolectados por los usuarios, de modo que los cambios en el entorno, como los nuevos letreros de la tienda, las obras viales o las variaciones estacionales en la vegetación, se reflejen directamente en el mapa”.

Las oficinas monótonas y los entornos urbanos son desafiantes

Una de las dificultades es que nuestras ciudades y entornos interiores están llenos de estructuras y elementos repetitivos, lo que puede conducir a la incertidumbre en los algoritmos, explica Viktor Larsson.

“Muchos edificios son simétricos, por lo que puede ser difícil saber qué lado del edificio se muestra en una imagen de la fachada. Existen problemas similares en el interior, donde muchos edificios tienen diseños similares en diferentes pisos, y muchas oficinas se ven muy similares. Parte de mi investigación implica desarrollar nuevos métodos para abordar mejor estos problemas”.

Gran salario o libertad

¿Cómo es trabajar en la academia en un campo que se ha comercializado tanto? Después de todo, ¿no hay mucho dinero para quien gane la carrera tecnológica?

“Sí, a nuestros estudiantes y postdocs se les ofrece salarios mucho más altos por empresas que por nosotros, lo que hace que sean difíciles de aferrarse. Las empresas también disfrutan de otras ventajas, como más acceso a datos y más poder informático. En las conferencias, se ha convertido en común que las empresas presenten su investigación y publican documentos científicos … pero también son más sensibles al ciclo económico.

“En Suecia, la academia está en una posición relativamente buena gracias a las iniciativas de Wallenberg y los programas de financiación del gobierno como Elliit. Personalmente prefiero trabajar en la academia, ya que existe una libertad completamente diferente para explorar nuevos problemas, lo que encuentro estimulante”, dice Larsson.

Sociedad de Ingenieros Automotrices Niveles de automatización de conducción:

Nivel 0 – No conducir automatización. El conductor hace todo. El automóvil puede tener sistemas de advertencia (por ejemplo, advertencia de colisión), pero no se dirige a sí mismo de nivel 1: asistencia del ritmo. El sistema puede ayudar con una tarea a la vez, por ejemplo, control de crucero adaptativo o asistencia de carril. El conductor debe hacer el resto. Nivel 2: automatización de conducción particular. El automóvil puede manejar la dirección y la aceleración/frenado simultáneamente en algunas situaciones (por ejemplo, Tesla AutoPilot, Volvo Pilot Assist). Sin embargo, el controlador debe monitorear constantemente y estar listo para hacerse cargo. Nivel 3: automatización de conducción condicional. El automóvil puede conducir de forma autónoma en ciertos entornos (por ejemplo, autopista) y manejar todas las funciones de conducción allí. Los conductores humanos deben poder hacerse cargo cuando sea necesario, pero no necesitan monitorear activamente la situación todo el tiempo. Nivel 4: alta automatización de conducción. El vehículo puede conducir dentro de un área o escenario definido (por ejemplo, vecindario, Geofence). No se requiere un controlador humano dentro de esa área, pero fuera de él el sistema no funciona. Nivel 5: automatización de conducción llena. El automóvil puede conducir a cualquier parte, en cualquier situación en la que un humano pueda conducir. No se necesita volante ni pedales: el conductor es completamente superfluo. Proporcionado por la Universidad de Lund

Cita: El camino hacia un futuro sin conductor: el experto discute el control de crucero a la toma de decisiones con IA (2025, 17 de septiembre) recuperado el 17 de septiembre de 2025 de https://techxplore.com/news/2025-09-roadfuture-expert-discusses-cruise.html

Este documento está sujeto a derechos de autor. Además de cualquier trato justo con el propósito de estudio o investigación privada, no se puede reproducir ninguna parte sin el permiso por escrito. El contenido se proporciona solo para fines de información.

Fuente de noticias