Desde la izquierda, el profesor de ingeniería Morteza Lahijanian y el estudiante graduado Karan Muvvala observan mientras un brazo robótico completa una tarea utilizando bloques de madera. Crédito: Casey Cass/University of Colorado Boulder
Imagina por un momento que estás en una fábrica de automóviles. Un robot y un humano trabajan uno al lado del otro en la línea de producción. El robot está ocupado ensamblando rápidamente las puertas del automóvil, mientras que el humano administra el control de calidad, inspeccionando las puertas en busca de daños y asegurándose de que se unan como deberían.
Los robots y los humanos pueden hacer equipos formidables en fabricación, atención médica y muchas otras industrias. Si bien el robot puede ser más rápido y más efectivo en tareas monótonas y repetitivas como el ensamblaje de autopartes grandes, la persona puede sobresalir en ciertas tareas que son más complejas o requieren más destreza.
Pero puede haber un lado oscuro en estas interacciones robot-humanas. Las personas son propensas a cometer errores y actuar de manera impredecible, lo que puede crear situaciones inesperadas que los robots no están preparados para manejar. Los resultados pueden ser trágicos.
La investigación nueva y emergente podría cambiar la forma en que los robots manejan la incertidumbre que viene de la mano con las interacciones humanas. Morteza Lahijanian, profesora asociada en CU Boulder’s Ann y HJ Smead Departamento de Ciencias de la Ingeniería Aeroespacial, desarrolla procesos que permiten que los robots tomen decisiones más seguras alrededor de los humanos mientras intentan completar sus tareas de manera eficiente.
En un nuevo estudio presentado en el Conferencia internacional conjunta sobre inteligencia artificial En agosto de 2025, los estudiantes de Lahijania y Graduados Karan Muvvala y Qi Heng Ho idearon nuevos algoritmos que ayudan a los robots a crear los mejores resultados posibles de sus acciones en situaciones que tienen cierta incertidumbre y riesgo.
“¿Cómo vamos desde entornos muy estructurados donde no hay humanos, donde los robots están haciendo todo por sí mismos, a entornos no estructurados donde hay muchas incertidumbres y otros agentes?” Preguntó Lahijanian.
“Si eres un robot, debes poder interactuar con los demás. Tienes que ponerte allí y arriesgarse y ver qué sucede. Pero, ¿cómo toma esa decisión y cuánto riesgo quieres tolerar?”
Similar a los humanos, los robots tienen modelos mentales que usan para tomar decisiones. Cuando trabaje con un humano, un robot intentará predecir las acciones de la persona y responder en consecuencia. El robot está optimizado para completar una tarea, ensamblar una parte automática, por ejemplo, pero idealmente, también tendrá en cuenta otros factores.
En el nuevo estudio, el equipo de investigación se basó en la teoría de juegos, un concepto matemático que se originó en la economía, para desarrollar los nuevos algoritmos para los robots. La teoría de los juegos analiza cómo las empresas, los gobiernos e individuos toman decisiones en un sistema donde otros “jugadores” también están tomando decisiones que afectan el resultado final.
En robótica, la teoría del juego conceptualiza a un robot como uno de los numerosos jugadores en un juego que está tratando de ganar. Para un robot, “ganar” está completando una tarea con éxito, pero ganar nunca se garantiza cuando hay un humano en la mezcla, y mantener a los humanos a salvo también es una prioridad.
Entonces, en lugar de tratar de garantizar que un robot siempre gane, los investigadores propusieron el concepto de un robot que encontró una “estrategia admisible”. Usando dicha estrategia, un robot logrará la mayor cantidad posible de su tarea al tiempo que minimiza cualquier daño, incluso a un humano.
“Al elegir una estrategia, no quieres que el robot parezca muy adversario”, dijo Lahijanian. “Para dar esa suavidad al robot, observamos la noción de arrepentimiento.
Volvamos a la fábrica de automóviles donde el robot y el humano están trabajando uno al lado del otro. Si la persona comete errores o no coopera, utilizando los algoritmos de los investigadores, un robot podría tomar el asunto en sus propias manos. Si la persona está cometiendo errores, el robot intentará solucionarlos sin poner en peligro a la persona. Pero si eso no funciona, el robot podría, por ejemplo, recoger en qué está trabajando y llevarlo a un área más segura para terminar su tarea.
Al igual que un campeón de ajedrez que piensa que se avanzan en varios movimientos de un oponente, un robot intentará anticipar lo que hará una persona y seguir varios pasos por delante de ellos, dijo Lahijanian.
Pero el objetivo no es intentar lo imposible y predecir perfectamente las acciones de una persona. En cambio, el objetivo es crear robots que pongan la seguridad de las personas primero.
“Si quieres tener una colaboración entre un humano y un robot, el robot tiene que adaptarse al humano. No queremos que los humanos se adapten al robot”, dijo. “Puedes tener un humano que sea un novato y no sabe lo que están haciendo, o puedes tener un humano que es un experto. Pero como robot, no sabes qué tipo de humano vas a obtener. Por lo tanto, debes tener una estrategia para todos los casos posibles”.
Y cuando los robots pueden trabajar de manera segura junto con los humanos, pueden mejorar la vida de las personas y proporcionar beneficios reales y tangibles a la sociedad.
A medida que más industrias adoptan robots e inteligencia artificial, hay muchas preguntas persistentes sobre lo que la IA será capaz de hacer, ya sea capaz de hacerse cargo de los trabajos que las personas han hecho históricamente y lo que eso podría significar para la humanidad. Pero hay ventajas para los robots que pueden asumir ciertos tipos de trabajos. Podrían trabajar en los campos con escasez de mano de obra, como la atención médica para poblaciones mayores, y trabajos físicamente desafiantes que pueden afectar la salud de los trabajadores.
Lahijanian también cree que, cuando se usan correctamente, los robots y la IA pueden mejorar los talentos humanos y expandir lo que somos capaces de hacer.
“La colaboración humana-robot se trata de combinar fortalezas complementarias: los humanos contribuyen con inteligencia, juicio y flexibilidad, mientras que los robots ofrecen precisión, fuerza y confiabilidad”, dijo.
“Juntos, pueden lograr más de lo que cualquiera de los cuales podría solo, de manera segura y eficiente”.
Proporcionado por la Universidad de Colorado en Boulder
Cita: Remo Robot Remendo: Una nueva investigación ayuda a los robots a tomar decisiones más seguras alrededor de los humanos (2025, 28 de agosto) Recuperado el 28 de agosto de 2025 de https://techxplore.com/news/2025-08-robot-robots-safer-decisions-humans.html
Este documento está sujeto a derechos de autor. Además de cualquier trato justo con el propósito de estudio o investigación privada, no se puede reproducir ninguna parte sin el permiso por escrito. El contenido se proporciona solo para fines de información.