Home Tecnología Filadelfia está usando cámaras impulsadas por la IA para mantener los carriles...

Filadelfia está usando cámaras impulsadas por la IA para mantener los carriles de autobuses claros. La transparencia puede ayudar a generar confianza en el sistema

35
0

Más de 150 autobuses de la Autoridad de Transporte del Sureste de Pensilvania en Filadelfia están equipados con cámaras que detectan vehículos que bloquean los carriles de autobuses. Crédito: Han Zheng a través de Wikimedia Commons, CC By-SA

La Autoridad de Transporte del Sureste de Pensilvania pilotó una nueva herramienta de aplicación en Filadelfia En 2023: cámaras con IA montadas en siete de sus autobuses. Los resultados fueron inmediatos y dramáticos: en solo 70 días, las cámaras marcaron más de 36,000 autos que bloquean los carriles de autobuses.

El Resultados del piloto Dio la Autoridad de Transporte, también llamada SEPTA, datos valiosos en la obstrucción de la ruta del autobús y las ideas sobre el papel de la tecnología para combatir estos problemas.

En mayo de 2025, SEPTA y la Autoridad de Estacionamiento de Filadelfia oficialmente lanzó el programa en todo el City. Más de 150 autobuses y 38 carros en toda la ciudad están equipados con sistemas de inteligencia artificiales similares que escanean placas para posibles violaciones. El sistema utiliza cámaras con IA que utilizan la tecnología de visión por computadora para detectar vehículos que bloquean los carriles de autobuses y las placas de escaneos para identificar los vehículos que rompen las reglas. Si el sistema marca una posible infracción, un revisor humano lo confirma antes de emitir una multa: US $ 76 en Center City, $ 51 en otro lugar.

Este despliegue se produce cuando Septa se enfrenta a un $ 213 millones en déficit presupuestariocon recortes de servicios inminentes y caminatas de tarifas.

Soy un Profesor de Sistemas de Información y el director académico de Lebow College of Business’s Centro de AI aplicada y análisis de negocios en la Universidad de Drexel. La investigación del Centro se centra en cómo las organizaciones usan la IA, y qué significa eso para la confianza, la equidad y la responsabilidad.

En encuesta reciente El Centro realizado con 454 líderes empresariales de industrias, incluidas la tecnología, las finanzas, la atención médica, la fabricación y el gobierno, descubrimos que el uso de IA a menudo se implementa más rápido de lo que la gobernanza necesaria para asegurarse de que funcione de manera justa y transparente.

Esa brecha entre la eficiencia y la supervisión es especialmente común en las organizaciones del sector público, según nuestra encuesta.

Es por eso que creo que es importante que SEPTA administre cuidadosamente su sistema de aplicación de IA para ganar confianza pública, al tiempo que minimiza los riesgos.

Justicia y transparencia

Cuando los automóviles bloquean un carril de autobuses, obstruyen el tráfico. Los retrasos resultantes pueden estropear el día de una persona, causando conexiones perdidas o haciendo que los pasajeros lleguen tarde al trabajo. Eso puede dejar a los corredores con la sensación de que no pueden confiar en el sistema de tránsito.

Entonces, si la aplicación de IA ayuda a mantener esos carriles despejados, es una victoria. Los autobuses se mueven más rápido y los viajes son más rápidos.

Pero aquí está el problema: las buenas intenciones no funcionan si el sistema se siente injusto o no confiable. Nuestra encuesta también encontró que más del 70% de las organizaciones encuestadas no confían completamente en sus propios datos. Sin datos confiables, la venta de boletos con IA puede convertir la eficiencia en errores costosos, como las citas emitidas erróneamente que deben reembolsarse, perder el tiempo de corrección del personal e incluso desafíos legales. La confianza pública es importante aquí porque es más probable que las personas sigan las reglas y acepten las sanciones cuando ven el proceso como preciso y transparente.

Además, esto Encontrar de nuestra encuesta Realmente me llamó la atención: solo el 28% de las organizaciones informan que tiene un modelo de gobierno de IA bien establecido. Los modelos de gobernanza son las barandillas que mantienen a los sistemas de IA confiables y alineados con los valores humanos.

Eso es bastante preocupante cuando las empresas privadas están utilizando AI. Pero cuando una agencia pública como SEPTA mira una placa de conducir y envía un boleto al conductor, las apuestas son más altas. La aplicación pública tiene autoridad legal y exige un mayor nivel de equidad y transparencia.

El efecto de la etiqueta de IA

Uno puede preguntar: “¿No es este sistema de boletos como la luz roja o las cámaras de velocidad?”

Técnicamente, sí. El sistema detecta la ruptura de reglas, y un humano revisa la evidencia antes de emitir una cita.

Pero simplemente etiquetar la tecnología como AI puede transformar cómo se percibe. Esto se conoce como el efecto de encuadre.

Solo llamar a algo impulsado por la IA puede hacer que la gente confíe en él menos. La investigación ha demostrado, si un sistema está calificando documentos o contratando trabajadores, que exactamente el mismo proceso dibuja más escepticismo cuando se menciona AI que cuando no lo es. La gente escucha “AI” y asume que la máquina está haciendo llamadas de juicio, por lo que comienzan a buscar fallas. Incluso si piensan que la IA es precisa, la brecha de confianza nunca se cierra.

Esa percepción significa que las agencias públicas necesitan alinear la aplicación basada en la IA con transparencia, salvaguardas visibles y formas fáciles de desafiar los errores. Estas medidas aumentar la confianza en la aplicación basada en la IA.

Hemos visto lo que puede salir mal y qué tan rápido puede erosionar la confianza, cuando un sistema de aplicación basado en la IA no funciona mal. A finales de 2024, Cámaras de IA en autobuses de la Autoridad de Transporte Metropolitano En la ciudad de Nueva York emitió erróneamente miles de boletos de estacionamiento, incluidos casi 900 casos en los que los conductores habían seguido las reglas y estacionados legalmente.

Incluso si tales errores son raros, pueden dañar la confianza del público en el sistema.

Generar confianza en el sistema

La Organización para la Cooperación y el Desarrollo Económico, el organismo internacional que establece estándares de política de IA en docenas de países, ha encontrado que las personas tienen más probabilidades de aceptar decisiones impulsadas por la IA cuando entienden cómo se toman esas decisiones Y tenga una forma clara y accesible de desafiar los errores.

En resumen, las herramientas de aplicación de la IA deberían funcionar para las personas, no solo en ellas. Para SEPTA, eso podría significar lo siguiente:

Publicar reglas claras de carreras de autobuses y cualquier excepción, para que las personas sepan lo que está permitido. Explicando salvaguardas, como el hecho de que cada violación de la cámara de autobuses es revisada por el personal de la Autoridad de Estacionamiento de Filadelfia antes de emitir un boleto. Ofreciendo un proceso de apelaciones directo con revisión de la gerencia y derecho a apelar. Compartir datos de cumplimiento, como cuántas violaciones y apelaciones se procesan.

Estos pasos indican que el sistema es justo y responsable, lo que ayuda a cambiarlo de sentirse como una máquina de boletos a un servicio público en el que las personas pueden confiar.

Más información: 2025 Outlook: Tendencias e ideas de integridad de datos: www.lebow.drexel.edu/faculty-r … W-Precisamente#Investigación

Proporcionado por la conversación

Este artículo se republicó de La conversación bajo una licencia Creative Commons. Leer el artículo original.

Cita: Filadelfia está usando cámaras impulsadas por la IA para mantener los carriles de autobuses claros. La transparencia puede ayudar a generar confianza en el sistema (2025, 6 de agosto) Recuperado el 6 de agosto de 2025 de https://techxplore.com/news/2025-08-philadelphia-ai-driven-cameras-bus.html

Este documento está sujeto a derechos de autor. Además de cualquier trato justo con el propósito de estudio o investigación privada, no se puede reproducir ninguna parte sin el permiso por escrito. El contenido se proporciona solo para fines de información.

Fuente de noticias