Home Tecnología Cómo los estados están colocando barandillas alrededor de la IA en ausencia...

Cómo los estados están colocando barandillas alrededor de la IA en ausencia de una fuerte regulación federal

25
0

Crédito: imagen generada por IA

Las legislaturas estatales de los Estados Unidos son donde la acción es para colocar las barandillas en torno a las tecnologías de inteligencia artificial, dada la falta de una regulación federal significativa. El derrota rotunda en el Congreso De una moratoria propuesta sobre la regulación de IA a nivel estatal, los estados son libres de continuar llenando el vacío.

Varios estados ya han promulgado una legislación sobre el uso de la IA. Los 50 estados han introducido Varias legislación relacionada con la IA en 2025.

Cuatro aspectos de la IA en particular se destacan desde una perspectiva regulatoria: el uso del gobierno de la IA, la IA en la atención médica, el reconocimiento facial y la IA generativa.

Uso gubernamental de AI

La supervisión y el uso responsable de la IA son especialmente críticos en el sector público. La IA predictiva, AI que realiza un análisis estadístico para realizar pronósticos, ha transformado muchas funciones gubernamentales, desde determinar Elegibilidad de servicios sociales Para hacer recomendaciones en sentencia de justicia penal y libertad condicional.

Pero el uso generalizado de la toma de decisiones algorítmicas podría tener importantes costos ocultos. Potencial daños algorítmicos Planteado por los sistemas de IA utilizados para los servicios gubernamentales incluyen prejuicios raciales y de género.

Reconociendo el potencial de daños algorítmicos, Las legislaturas estatales han introducido proyectos de ley centrado en el uso del sector público de IA, con énfasis Transparencia, protección del consumidor y reconocimiento de riesgos de despliegue de IA.

Varios estados han requerido que los desarrolladores de IA revelen los riesgos planteados por sus sistemas. El Colorado Ley de inteligencia artificial Incluye los requisitos de transparencia y divulgación para los desarrolladores de sistemas de IA involucrados en la toma de decisiones consecuentes, así como para aquellos que los implementan.

Montana’s Nueva ley de “derecho a calcular” Establece requisitos que adoptan los desarrolladores de IA marcos de gestión de riesgos—El métodos para abordar la seguridad y la privacidad en el proceso de desarrollo: para los sistemas de IA involucrados en la infraestructura crítica. Algunos estados han establecido organismos que proporcionan autoridad reguladora y de supervisión, como aquellos especificado en el SB 8755 de Nueva York factura.

IA en atención médica

En la primera mitad de 2025, 34 estados introducidos sobre 250 facturas de salud relacionadas con la IA. Los proyectos de ley generalmente se dividen en cuatro categorías: requisitos de divulgación, protección del consumidor, uso de la IA y el uso de la IA.

Las facturas sobre la transparencia definen los requisitos para la información que los desarrolladores y organizaciones del sistema de IA que implementan los sistemas divulgan.

Las facturas de protección del consumidor tienen como objetivo evitar que los sistemas de IA discriminen injustamente a algunas personas y garanticen que los usuarios de los sistemas tengan una forma de impugnar las decisiones tomadas utilizando la tecnología.

Las facturas que cubren las aseguradoras proporcionan supervisión del uso de la IA por parte de los pagadores para tomar decisiones sobre las aprobaciones y pagos de la atención médica. Y las facturas sobre los usos clínicos de la IA regulan el uso de la tecnología en el diagnóstico y el tratamiento de pacientes.

Reconocimiento y vigilancia facial

En los Estados Unidos, una doctrina legal de larga data que se aplica a los problemas de protección de la privacidad, incluida la vigilancia facial, es proteger la autonomía individual contra la interferencia del gobierno. En este contexto, las tecnologías de reconocimiento facial plantean desafíos de privacidad significativos, así como los riesgos de posibles sesgos.

El software de reconocimiento facial, comúnmente utilizado en la vigilancia predictiva y la seguridad nacional, ha exhibido prejuicios contra personas de color y, en consecuencia, a menudo se considera una amenaza para las libertades civiles. Un estudio innovador de los científicos informáticos Joy Buolamwini y Timnit Gebru descubrieron que el software de reconocimiento facial plantea Desafíos significativos para los negros y otras minorías históricamente desfavorecidas. El software de reconocimiento facial fue menos probable que identifique correctamente caras más oscuras.

El sesgo también se arrastra en los datos utilizados para entrenar estos algoritmos, por ejemplo, cuando la composición de los equipos Esa guía el desarrollo de dicho software de reconocimiento facial carece de diversidad.

A finales de 2024, 15 estados en los Estados Unidos habían promulgado leyes para limitar los daños potenciales del reconocimiento facial. Algunos elementos de las regulaciones a nivel estatal son requisitos para los proveedores para Publicar informes de prueba de sesgo y prácticas de gestión de datos, así como la necesidad de revisión humana en el uso de estas tecnologías.

Modelos generativos de IA y base

El uso generalizado de la IA generativa también ha provocado preocupaciones de los legisladores en muchos estados. Utah’s Ley de Política de Inteligencia Artificial Requiere que las personas y las organizaciones revelen claramente cuando usan sistemas de IA generativos para interactuar con alguien cuando esa persona pregunta si se está utilizando AI, aunque la Legislatura posteriormente redujo el alcance a interacciones que podrían implicar dispensar asesoramiento o recopilar información confidencial.

El año pasado, California pasó AB 2013Una ley de IA generativa que requiere que los desarrolladores publiquen información en sus sitios web sobre los datos utilizados para capacitar a sus sistemas de inteligencia artificial, incluidos los modelos básicos. Los modelos de base son cualquier modelo de IA que esté capacitado en conjuntos de datos extremadamente grandes y que pueda ser adaptado a una amplia gama de tareas sin entrenamiento adicional.

Los desarrolladores de IA tienen típicamente no ha sido próxima sobre los datos de entrenamiento que usan. Dicha legislación podría ayudar a los propietarios de derechos de autor del contenido utilizado en la capacitación de IA a superar la falta de transparencia.

Tratando de llenar el vacío

En ausencia de un marco legislativo federal integral, los estados han tratado de abordar la brecha avanzando con sus propios esfuerzos legislativos. Si bien este mosaico de leyes puede complicar los esfuerzos de cumplimiento de los desarrolladores de la IA, creo que los estados pueden proporcionar una supervisión importante y necesaria sobre la privacidad, los derechos civiles y las protecciones del consumidor.

Mientras tanto, la administración Trump anunció su Plan de acción de AI el 23 de julio de 2025. El plan dice que “el gobierno federal no debería permitir que los fondos federales relacionados con la IA se dirijan a los estados con regulaciones de IA …”

El movimiento podría obstaculizar los esfuerzos estatales Para regular la IA si los estados tienen que sopesar las regulaciones que podrían entrar en conflicto con la definición de la administración de carga contra la financiación federal necesaria para la IA.

Proporcionado por la conversación

Este artículo se republicó de La conversación bajo una licencia Creative Commons. Leer el artículo original.

Cita: Cómo los estados colocan barandillas alrededor de la IA en ausencia de una fuerte regulación federal (2025, 6 de agosto) recuperado el 6 de agosto de 2025 de https://techxplore.com/news/2025-08-states-guardrails-ai-absence-trong.html

Este documento está sujeto a derechos de autor. Además de cualquier trato justo con el propósito de estudio o investigación privada, no se puede reproducir ninguna parte sin el permiso por escrito. El contenido se proporciona solo para fines de información.

Fuente de noticias