Home Tecnología Cómo construir una IA confiable sin datos confiables

Cómo construir una IA confiable sin datos confiables

1
0

Crédito: Dominio público de Pixabay/CC0

Hoy, casi todos han oído hablar de la IA y millones en todo el mundo que ya usan, o están expuestos, desde el chatgpt que escriben nuestros correos electrónicos hasta ayudar con el diagnóstico médico.

En su base, la IA usa algoritmos —sets de instrucciones matemáticamente rigurosas, que decirle a una computadora cómo realizar una variedad de funciones avanzadas o transformar los hechos en información útil. Los grandes modelos de idiomas (LLM) que impulsan la IA cada vez más potente de hoy son tipos especiales de algoritmos que aprenden de conjuntos de datos masivos y centralizados.

Sin embargo, centralizar estos enormes conjuntos de datos genera problemas en torno a la seguridad, la privacidad y la propiedad de los datos; de hecho, la frase “datos es el nuevo petróleo” significa que se ha convertido en un recurso crucial, impulsando la innovación y el crecimiento en la economía digital actual.

Para contrarrestar estas preocupaciones, un enfoque llamado aprendizaje federado ahora está revolucionando la IA. Al contrario de la capacitación de modelos de IA en enormes conjuntos de datos centralizados, el aprendizaje federado permite que estos modelos aprendan a través de una red de dispositivos descentralizados (o servidores), manteniendo los datos sin procesar en su fuente.

Datos desconfiantes

“La IA de hoy capacitada con el aprendizaje federado reúne los datos de todo el mundo: Internet, otras grandes bases de datos, hospitales, dispositivos inteligentes, etc.

Los datos pueden ser malos por muchas razones. Quizás la falta de atención o el error humano significa que se ingresa incorrectamente en una base de datos, tal vez hay errores en los datos para empezar, tal vez los sensores u otros instrumentos están rotos o que no funcionan mal, los datos incorrectos o peligrosos pueden registrarse maliciosamente, etc. A veces, los datos son buenos, pero la máquina aloja o está pirateada o falsa. En cualquier caso, si estos datos se utilizan para entrenar a la IA, hace que los sistemas sean menos confiables e inseguros.

“Todo esto plantea una pregunta clave”, dice Guerraoui, “¿podemos construir sistemas de IA confiables sin confiar en alguna fuente individual de datos?” Después de una década de trabajo teórico dedicado a abordar este desafío, el profesor y su equipo dicen que la respuesta es sí. Un libro reciente resume sus principales hallazgos.

Confiar en conjuntos de datos

En colaboración con el Instituto Nacional de Investigación de Investigación en Digital y Tecnología, ahora están poniendo a trabajar sus ideas. Han desarrollado BYZFL, una biblioteca que utiliza el lenguaje de programación de Python que está diseñado para comparar y mejorar los modelos de aprendizaje federado contra amenazas adversas, datos particulares.

“Creemos que la mayoría de los datos es bueno, pero ¿cómo sabemos en qué conjuntos de datos no podemos confiar?” pregunta Guerraoui. “Nuestra biblioteca BYZFL prueba si un sistema es robusto contra los ataques priori desconocidos y luego hace que ese sistema sea más robusto. Más específicamente, damos a los usuarios un software para emular datos malos para las pruebas, así como incluir filtros de seguridad para garantizar la robustez.

BYZFL no aísla y localiza bien de los datos malos, pero utiliza esquemas de agregación robustos (por ejemplo, mediana) para ignorar las entradas extremas. Por ejemplo, si tres sensores registran una temperatura de 6, 7 y 9 grados pero otros registros -20, arruina un cálculo completo. El software BYZFL excluye los extremos para que el impacto de los datos malos sea limitado, mientras que la información está agregada.

Asegurar que funcione la IA de próxima generación

Se espera que la inteligencia artificial toque cada parte de nuestras vidas en un futuro no muy lejano. Guerraoui argumenta que hoy, la mayoría de las empresas usan formas muy primitivas de IA, por ejemplo, plataformas de transmisión que recomiendan películas o asistentes de IA que ayuden a escribir texto. Si a alguien no le gusta la película que se recomienda o un correo electrónico no es perfecto, no es gran cosa.

Mirando hacia el futuro, para cualquier aplicación que sea crítica, como diagnosticar el cáncer, conducir un automóvil o controlar un avión, es esencial una IA segura. “El día en que realmente ponemos IA generativa en hospitales, automóviles o infraestructura de transporte, creo que veremos que la seguridad es problemática debido a los malos datos”, dice Guerraoui. “El mayor desafío en este momento es pasar de lo que yo llamo un circo animal al mundo real con algo en lo que podemos confiar. Para aplicaciones críticas, estamos lejos del punto en que podemos dejar de preocuparnos por la seguridad. El objetivo de Byzfl es ayudar a cerrar esta brecha”.

Un papel para Suiza

El profesor preocupa que pueda tomar algunos grandes accidentes para que el público y los formuladores de políticas comprendan que la IA creada hasta la fecha no debe usarse para la medicina, el transporte o cualquier misión crítica y que el desarrollo de una nueva generación de IA segura y robusta es esencial.

“Creo que Suiza puede desempeñar un papel aquí porque tenemos una tradición de seriedad. Construimos cosas que funcionan, podemos usar la garantía de calidad suiza para demostrar un sistema de certificación utilizando este tipo de software para mostrar que la IA realmente es segura sin confiar en ningún componente individual”, concluyó.

Proporcionado por Ecole Polytechnique Federal de Lausanne

Cita: Cómo construir una IA confiable sin datos confiables (2025, 10 de abril) Consultado el 10 de abril de 2025 de https://techxplore.com/news/2025-04-trustworthy-ai.html

Este documento está sujeto a derechos de autor. Además de cualquier trato justo con el propósito de estudio o investigación privada, no se puede reproducir ninguna parte sin el permiso por escrito. El contenido se proporciona solo para fines de información.