Home Tecnología NIST libera superposiciones de control para gestionar los riesgos de ciberseguridad en...

NIST libera superposiciones de control para gestionar los riesgos de ciberseguridad en el uso y el desarrollo de los sistemas de IA

77
0

El Instituto Nacional de Normas y Tecnología (NIST) ha presentado un documento conceptual integral que describe las propuestas de control NIST SP 800-53 superposiciones para asegurar sistemas de IA, marcando un hito significativo en el establecimiento de marcos de ciberseguridad estandarizados para aplicaciones de inteligencia artificial.

Lanzado el 14 de agosto de 2025, esta iniciativa aborda la creciente necesidad de enfoques estructurados de gestión de riesgos tanto en el desarrollo del sistema de inteligencia artificial como en las fases de implementación, que abarca la IA generativa, la IA predictiva y las arquitecturas de IA de múltiples agentes.

Control de llave
1.
2. Cubre sistemas generativos/predictivos de IA y simples/agentes múltiples.
3. Proyecto COSAIS lanzado con Slack Channel para la colaboración de las partes interesadas

Marco integral para los controles de seguridad de IA

El documento conceptual recientemente publicado establece una base para la gestión de riesgos de ciberseguridad en diversas implementaciones de IA a través del marco de control NIST SP 800-53.


Las superposiciones propuestas se dirigen específicamente a cuatro casos de uso crítico: sistemas de IA generativos que crean contenido, modelos de IA predictivos para pronósticos y análisis, aplicaciones de IA de agentes únicos y sistemas de IA de múltiples agentes que involucran entidades coordinadas de inteligencia artificial.

Estas superposiciones de control extienden el marco de seguridad cibernética NIST existente para abordar vulnerabilidades únicas inherentes a los sistemas de IA, incluidos los ataques de envenenamiento de datos, las técnicas de inversión de modelos y las amenazas de aprendizaje automático adversario.

El marco incorpora componentes técnicos esenciales, como procedimientos de validación del modelo de IA, controles de integridad de datos de capacitación y requisitos de transparencia algorítmica.

Las organizaciones que implementan estas superposiciones necesitarán establecer mecanismos de monitoreo continuo para el comportamiento del sistema de IA, implementar controles de acceso adecuados para entornos de desarrollo de IA y mantener senderos de auditoría integrales para la capacitación de modelos y los procesos de implementación.

Superposición de control

Las superposiciones también enfatizan la importancia de establecer estructuras de gobernanza claras para la gestión de riesgos de IA, incluidas las evaluaciones de seguridad regulares y los procedimientos de respuesta a incidentes específicamente adaptados para eventos de seguridad relacionados con la IA.

NIST ha lanzado las superposiciones de control para el Proyecto AI (COSAIS) junto con un canal de holgura dedicado (#NIST-Overlays-Securing-AI) para facilitar la colaboración de las partes interesadas y la recopilación de comentarios en tiempo real.

Este enfoque impulsado por la comunidad permite a los profesionales de ciberseguridad, desarrolladores de IA y especialistas en gestión de riesgos contribuir directamente al proceso de desarrollo de superposición a través de discusiones facilitadas con investigadores principales de NIST.

La estrategia de implementación fomenta la participación activa de las partes interesadas de la industria que pueden proporcionar información sobre los desafíos prácticos de asegurar sistemas de IA en entornos de producción.

El marco colaborativo garantiza que las superposiciones de control final reflejen los requisitos de seguridad del mundo real mientras se mantiene la alineación con los estándares de seguridad cibernética NIST establecidas y las mejores prácticas para la gestión de riesgos empresariales.

Detonar de forma segura archivos sospechosos para descubrir amenazas, enriquecer sus investigaciones y reducir el tiempo de respuesta de incidentes. Comience con una prueba de Sandbox Anyrun

Fuente de noticias