Crédito: dominio público CC0
Muchas discusiones políticas sobre la regulación de seguridad de la IA se han centrado en la necesidad de establecer “barandillas” regulatorias para proteger al público de los riesgos de la tecnología de IA. En un nuevo artículo publicado en la revista Risk Analysis, dos expertos argumentan que, en lugar de imponer barandillas, los formuladores de políticas deberían exigir “correas”.
Director del Programa Penn sobre Regulación y Profesor de la Facultad de Derecho de la Universidad de Pennsylvania Carey, Cary Coglianese y la Candidato Doctoral de Ciencias de la Computación de la Universidad de Notre Dame Colton R. Crum explica que la regulación basada en la gestión (una estrategia flexible de “correa”) funcionará mejor que un enfoque prescriptivo de Buardrail, ya que AI es demasiado heterogénea y dinámica para operar dentro de los carriles fijos.
Las correas “son flexibles y adaptables, tal como las correas físicas utilizadas al caminar a un perro a través de un vecindario permiten una variedad de movimiento y exploración”, escriben los autores. CREAR “Permite a las herramientas de IA explorar nuevos dominios sin que las barreras regulatorias se interpongan en el camino”.
Las diversas aplicaciones de IA incluyen redes sociales, chatbots, vehículos autónomos, medicina de precisión, asesores de inversiones fintech y muchos más. Si bien la IA ofrece beneficios para la sociedad, como elegir solo un ejemplo: la capacidad de encontrar evidencia de tumores cancerosos que los radiólogos bien capacitados pueden perderse, también puede plantear riesgos.
En su artículo, Coglianese y Crum ofrecen tres ejemplos de riesgos de IA: colisiones de vehículos autónomos (AV), suicidio asociado con las redes sociales y el sesgo y la discriminación provocados por la IA a través de una variedad de aplicaciones y formatos digitales, como texto, imágenes y videos generados por IA.
Con una regulación flexible basada en la gestión, las empresas que utilizan herramientas de IA que representan riesgos en cada uno de estos entornos, y en otros, se esperaría que pongan sus herramientas de IA en una correa mediante la creación de sistemas internos para anticipar y reducir el rango de posibles daños del uso de sus herramientas.
La regulación basada en la gerencia puede responder de manera flexible a los usos y problemas novedosos de “AI y mejor permite la exploración tecnológica, el descubrimiento y el cambio”, escriba Coglianese y Crum. Al mismo tiempo, proporciona “una estructura atada que, como una correa, puede ayudar a evitar que la IA” huya “.
Más información: correas, no barandillas: un enfoque basado en la gerencia para la regulación del riesgo de inteligencia artificial, análisis de riesgos (2025).
Proporcionado por la sociedad para el análisis de riesgos
Cita: El futuro de la regulación de la IA: por qué las correas son mejores que las barandillas (2025, 29 de mayo) Recuperado el 29 de mayo de 2025 de https://techxplore.com/news/2025-05-future-ai-leashes-guardrails.html
Este documento está sujeto a derechos de autor. Además de cualquier trato justo con el propósito de estudio o investigación privada, no se puede reproducir ninguna parte sin el permiso por escrito. El contenido se proporciona solo para fines de información.








