Crédito: Dominio público de Pixabay/CC0
A medida que más y más sectores experimentan con inteligencia artificial, una de las áreas que ha adoptado más rápidamente esta nueva tecnología es la aplicación de la ley. Se ha llevado a algunos dolores de crecimiento problemáticos, de arrestos falsos a preocupaciones sobre el reconocimiento facial.
Sin embargo, las agencias de aplicación de la ley ahora están utilizando una nueva herramienta de capacitación en todo el mundo para garantizar que los oficiales comprendan esta tecnología y la usen más éticamente.
Basado en gran medida en el trabajo de Cansu Cancca, director de práctica de IA responsable del Instituto de IA experimental de la Northeastern University, y diseñado en colaboración con las Naciones Unidas e Interpol, el Kit de herramientas de IA responsable es uno de los primeros programas de capacitación integrales para la policía centrada exclusivamente en AI. En el núcleo del kit de herramientas hay una pregunta simple, dice Cancca.
“Lo primero con lo que comenzamos es preguntarle a la organización, cuándo están pensando en construir o implementar IA, ¿necesitas AI?” Canca dice. “Debido a que cada vez que agrega una nueva herramienta, está agregando un riesgo. En el caso de la vigilancia, el objetivo es aumentar la seguridad pública y reducir el delito, y eso requiere muchos recursos. Existe una necesidad real de eficiencia y mejora, y la IA tiene una promesa significativa para ayudar a la aplicación de la ley, siempre que los riesgos puedan mitigarse”.
Miles de oficiales ya se han sometido a capacitación utilizando el kit de herramientas, y este año, CANCA dirigió una sesión de capacitación para 60 jefes de policía en los Estados Unidos, la ONU pronto implementará una capacitación adicional a nivel ejecutivo en cinco países europeos.
Los usos de la IA, como el reconocimiento facial, han atraído la mayor atención, pero la policía también está usando IA para cosas más simples como generar transcripciones de video a texto para imágenes de la cámara del cuerpo, descifrar los números de matrículas en videos borrosos e incluso determinar los horarios de patrulla.
Todos esos usos, no importa cuán menores puedan parecer, vienen con riesgos éticos inherentes si las agencias no entienden los límites de la IA y dónde se usa mejor, dice Cancro.
“Lo más importante es asegurarnos de que cada vez que creamos una herramienta de IA para la aplicación de la ley, tenemos lo más claro posible una comprensión de la probabilidad de que esta herramienta falle, dónde puede fallar y cómo podemos asegurarnos de que las agencias policiales sepan que podrían fallar de esas maneras particulares”, dice CANCA.
Incluso si una agencia afirma que necesita o quiere usar AI, la pregunta más importante es si está lista para implementar AI. El kit de herramientas está diseñado para hacer que las agencias de aplicación de la ley piensen en lo que mejor se adapta a su situación. Un departamento podría estar listo para desarrollar su propia herramienta de IA como un centro de crimen en tiempo real. Sin embargo, la mayoría de las que están listas para adoptar la tecnología tienen más probabilidades de obtenerla de un proveedor de terceros, explica Cancro.
Al mismo tiempo, es importante que las agencias también reconozcan cuándo aún no están listos para usar la IA.
“Si no está listo, si no puede mantener los datos seguros, si no puede garantizar niveles adecuados de privacidad, si no puede verificar si hay sesgo, básicamente si su agencia no puede evaluar y monitorear la tecnología para sus riesgos y mitigar esos riesgos, entonces probablemente no debería ser súper ambicioso todavía y, en cambio, no puede construir esos músculos éticos a medida que avanza lentamente con los sistemas de AI”, dice CANCA.
CANCA señala que el kit de herramientas no es de talla única. Cada sector, ya sea vigilancia o educación, tiene su propio marco ético que requiere un enfoque ligeramente diferente que sea sensible a los problemas éticos específicos de ese sector.
“La vigilancia no se separa de la ética” y tiene su propio conjunto de preguntas y críticas éticas, dice Cancro, incluido “un linaje realmente largo de sesgo histórico”.
Comprender esos sesgos es clave al implementar herramientas que podrían recreate esos mismos sesgoscreando un círculo vicioso de tecnología y práctica policial.
“Hay distritos que han sido históricamente sobrepoletos, por lo que si solo miras esos datos, es probable que vuelva a poner en exceso esas áreas nuevamente”, dice Cancca. “Entonces la pregunta se convierte en” Si entendemos que ese es el caso, ¿cómo podemos mitigar el riesgo de discriminación, ¿cómo podemos complementar los datos o garantizar que la herramienta se use para los fines correctos? “
El objetivo del kit de herramientas es evitar esas trampas éticas al hacer que los oficiales sean conscientes de que los humanos siguen siendo un componente vital de la IA. Un sistema de IA podría analizar una ciudad y sugerir qué áreas podrían necesitar más ayuda basada en los datos del crimen, pero depende de los humanos decidir si un vecindario específico podría necesitar más oficiales de patrulla o tal vez trabajadores sociales y profesionales de la salud mental.
“La policía no está capacitada para hacer las preguntas correctas en torno a la tecnología y la ética”, dice Cange. “Necesitamos estar allí para guiarlos y también impulsar a los proveedores de tecnología a crear mejores tecnologías”.
Proporcionado por la Universidad del Nordeste
Esta historia se vuelve a publicar por cortesía de Northeastern Global News News.northeastern.edu.
Cita: la aplicación de la ley está aprendiendo a usar AI más éticamente (2025, 16 de julio) Recuperado el 16 de julio de 2025 de https://techxplore.com/news/2025-07-law-ai-ethicalmente.html
Este documento está sujeto a derechos de autor. Además de cualquier trato justo con el propósito de estudio o investigación privada, no se puede reproducir ninguna parte sin el permiso por escrito. El contenido se proporciona solo para fines de información.









