Home Tecnología La AI policial predictiva está en aumento. Haciéndolo responsable del público podría...

La AI policial predictiva está en aumento. Haciéndolo responsable del público podría frenar sus efectos nocivos

4
0

Crédito: Dominio público de Pixabay/CC0

El thriller de ciencia ficción de 2002 “Informe minoritario” representaba un futuro distópico en el que una unidad policial especializada tenía la tarea de arrestar a las personas por crímenes que aún no habían cometido. Dirigida por Steven Spielberg y basada en una historia corta de Philip K. Dick, el drama giró en torno a “Precrime”, un sistema informado por un trío de psíquicos, o “Precogs”, que anticipó futuros homicidios, permitiendo a los oficiales de policía intervenir y evitar que los posicioneros reclamen la vida de sus objetivos.

La película investiga las fuertes preguntas éticas: ¿Cómo puede alguien ser culpable de un delito que aún no han cometido? ¿Y qué sucede cuando el sistema se equivoca?

Si bien no existe un “precog” componentes clave “precog” del futuro que imaginó el “informe minoritario” se han convertido en realidad aún más rápido de lo que sus creadores imaginaron. Durante más de una década, los departamentos de policía de todo el mundo han estado utilizando sistemas basados ​​en datos orientados a predecir cuándo y dónde pueden ocurrir crímenes y quién podría cometerlos.

Lejos de una presunción abstracta o futurista, la vigilancia predictiva es una realidad. Y los analistas del mercado están prediciendo un auge para la tecnología.

Dados los desafíos en el uso de aprendizaje automático predictivo de manera efectiva y de manera justa, la vigilancia predictiva plantea preocupaciones éticas significativas. En ausencia de soluciones tecnológicas en el horizonte, existe un enfoque para abordar estas preocupaciones: tratar el uso del gobierno de la tecnología como una cuestión de responsabilidad democrática.

Historia preocupante

La vigilancia predictiva se basa en la inteligencia artificial y el análisis de datos para anticipar la actividad criminal potencial antes de que suceda. Puede implicar analizar grandes conjuntos de datos extraídos de informes de delitos, registros de arresto e información social o geográfica para identificar patrones y pronosticar dónde pueden ocurrir delitos o quién puede estar involucrado.

Las agencias de aplicación de la ley han utilizado análisis de datos para rastrear tendencias amplias durante muchas décadas. Sin embargo, las poderosas tecnologías de IA de hoy adquieren grandes cantidades de datos de vigilancia e informes del crimen para proporcionar mucho análisis de grano más fino.

Los departamentos de policía utilizan estas técnicas para ayudar a determinar dónde deben concentrar sus recursos. La predicción basada en el lugar se centra en identificar ubicaciones de alto riesgo, también conocidas como puntos calientes, donde los delitos tienen más probabilidades de ocurrir. La predicción basada en la persona, por el contrario, intenta marcar a las personas que se consideran un alto riesgo de cometer o convertirse en víctimas del crimen.

Estos tipos de sistemas han sido objeto de una importante preocupación pública. Bajo un llamado programa de “vigilancia policial” dirigida por inteligencia “en el condado de Pasco, Florida, el Departamento del Sheriff compiló una lista de personas consideradas que probablemente cometeran delitos y luego envió repetidamente a sus hogares. Más de 1,000 residentes de PASCO, incluidos los menores, estaban sujetos a visitas al azar de los agentes de policía y fueron citados por cosas como los números de buzón faltantes y el césped cubierto de maleza.

Cuatro residentes demandaron al condado en 2021, y el año pasado llegaron a un acuerdo en el que la Oficina del Sheriff admitió que había violado los derechos constitucionales de los residentes a la privacidad y la igualdad de tratos según la ley. El programa ha sido descontinuado desde entonces.

Este no es solo un problema de Florida. En 2020, Chicago desmanteló su “lista de temas estratégicos”, un sistema donde la policía usó análisis para predecir qué delincuentes anteriores probablemente cometerían nuevos delitos o se convertirían en víctimas de futuros tiroteos. En 2021, el Departamento de Policía de Los Ángeles suspendió su uso de Predpol, un programa de software diseñado para pronosticar los puntos calientes del crimen, pero fue criticado por bajas tasas de precisión y reforzando los prejuicios raciales y socioeconómicos.

¿Innovaciones necesarias o extralimitación peligrosa?

El fracaso de estos programas de alto perfil destaca una tensión crítica: a pesar de que las agencias de aplicación de la ley a menudo abogan por las herramientas impulsadas por la IA para la seguridad pública, los grupos de derechos civiles y los académicos han expresado preocupaciones sobre las violaciones de la privacidad, los problemas de responsabilidad y la falta de transparencia. Y a pesar de estos retiros de alto perfil de la vigilancia predictiva, muchos departamentos de policía más pequeños están utilizando la tecnología.

La mayoría de los departamentos de policía estadounidenses carecen de políticas claras sobre la toma de decisiones algorítmicas y proporcionan poca o ninguna divulgación sobre cómo los modelos predictivos que usan se desarrollan, capacitan o monitorean para obtener precisión o sesgo. Un análisis de Brookings Institution encontró que en muchas ciudades, los gobiernos locales no tenían documentación pública sobre cómo funcionaba el software de vigilancia predictiva, qué datos se usaron o cómo se evaluaron los resultados.

Esta opacidad es lo que se conoce en la industria como una “caja negra”. Evita una supervisión independiente y plantea serias preguntas sobre las estructuras que rodean la toma de decisiones impulsadas por la IA. Si un ciudadano es marcado como un algoritmo de alto riesgo, ¿qué recurso tienen? ¿Quién supervisa la justicia de estos sistemas? ¿Qué mecanismos de supervisión independientes están disponibles?

Estas preguntas están impulsando debates polémicos en las comunidades sobre si la vigilancia predictiva como método debe reformarse, más estrechamente regulado o abandonado por completo. Algunas personas ven estas herramientas como innovaciones necesarias, mientras que otras las ven como una extralimitación peligrosa.

Una mejor manera en San José

Pero existe evidencia de que las herramientas basadas en datos basadas en los valores democráticos del debido proceso, la transparencia y la responsabilidad pueden ofrecer una alternativa más fuerte a los sistemas de vigilancia predictiva actual. ¿Qué pasaría si el público pudiera entender cómo funcionan estos algoritmos, en qué datos dependen y qué salvaguardas existen para evitar resultados discriminatorios y mal uso de la tecnología?

La ciudad de San José, California, se ha embarcado en un proceso que está destinado a aumentar la transparencia y la responsabilidad en torno a su uso de sistemas de IA. San José mantiene un conjunto de principios de IA que requieren que cualquier herramienta de IA utilizada por el gobierno de la ciudad sea efectiva, transparente para el público y equitativo en sus efectos en la vida de las personas. Los departamentos de la ciudad también deben evaluar los riesgos de los sistemas de IA antes de integrarlos en sus operaciones.

Si se toma correctamente, estas medidas pueden abrir efectivamente la caja negra, reduciendo drásticamente el grado en que las compañías de IA pueden ocultar su código o sus datos detrás de cosas, como protecciones para secretos comerciales. Habilitar el escrutinio público de los datos de capacitación puede revelar problemas como el sesgo racial o económico, que pueden mitigarse pero son extremadamente difíciles, si no imposibles de erradicar.

La investigación ha demostrado que cuando los ciudadanos sienten que las instituciones gubernamentales actúan de manera justa y transparente, es más probable que participen en la vida cívica y apoyen las políticas públicas. Es probable que las agencias de aplicación de la ley tengan resultados más fuertes si tratan la tecnología como una herramienta, en lugar de un sustituto, por la justicia.

Proporcionado por la conversación

Este artículo se vuelve a publicar de la conversación bajo una licencia Creative Commons. Lea el artículo original.

Cita: la AI policial predictiva está en aumento. Hacer que sea responsable ante el público podría frenar sus efectos nocivos (2025, 6 de mayo) recuperado el 6 de mayo de 2025 de https://techxplore.com/news/2025-05-policing-ai-accountable-curb-effects.html

Este documento está sujeto a derechos de autor. Además de cualquier trato justo con el propósito de estudio o investigación privada, no se puede reproducir ninguna parte sin el permiso por escrito. El contenido se proporciona solo para fines de información.