Crédito: dominio público CC0
Un equipo de informáticos en UC Riverside ha desarrollado un método para borrar datos privados y con derechos de autor de modelos de inteligencia artificial, sin necesidad de acceso a los datos de capacitación originales.
Este avance, detallado en un documento presentado en julio en la Conferencia Internacional sobre Aprendizaje Machine en Vancouver, Canadá, aborda una creciente preocupación global sobre los materiales personales y con derechos de autor que quedan en los modelos de IA indefinidamente, y, por lo tanto, accesibles para los usuarios de modelos, a pesar de los creadores originales para eliminar o proteger su información con Mallys y contraseñas de pago.
El estudio también fue publicado en el servidor de preimpresión ARXIV.
La innovación de UCR obliga a los modelos AI a “olvidar” la información seleccionada mientras mantiene la funcionalidad de los modelos con los datos restantes. Es un avance significativo que puede enmendar los modelos sin tener que volver a hacerlos con los voluminosos datos de entrenamiento originales, que es costoso e intensivo en energía. El enfoque también permite la eliminación de información privada de los modelos de IA, incluso cuando los datos de capacitación originales ya no están disponibles.
“En situaciones del mundo real, no siempre puedes regresar y obtener los datos originales”, dijo ümit Yiğit Başaran, un estudiante doctoral de ingeniería eléctrica e informática de la UCR y autor principal del estudio. “Hemos creado un marco certificado que funciona incluso cuando esos datos ya no están disponibles”.
La necesidad es presionando. Las empresas tecnológicas enfrentan nuevas leyes de privacidad, como la regulación general de protección de datos de la Unión Europea y la Ley de Privacidad del Consumidor de California, que rigen la seguridad de los datos personales integrados en los sistemas de aprendizaje automático a gran escala.
Además, The New York Times está demandando a OpenAi y Microsoft por el uso de sus muchos artículos con derechos de autor para entrenar modelos generativos de transformadores pretrontrados, o GPT.
Los modelos de IA “aprenden” los patrones de palabras de grandes cantidades de texto raspados de Internet. Cuando se consulta, los modelos predicen las combinaciones de palabras más probables, generando respuestas en idioma natural a las indicaciones del usuario. A veces generan reproducciones casi verbatinas de los textos de capacitación, lo que permite a los usuarios evitar los muroes de pago de los creadores de contenido.
El equipo de investigación de UC Riverside, comprimido Başaran, el profesor Amit Roy-Chowdhury y el Profesor Asistente Başak Güler, desarrolló lo que llaman un método de “desaprendizaje certificado sin fuente”. La técnica permite a los desarrolladores de IA eliminar los datos específicos mediante el uso de un conjunto de datos sustituto o “sustituto” que se asemeja estadísticamente a los datos originales.
El sistema ajusta los parámetros del modelo y agrega ruido aleatorio cuidadosamente calibrado para garantizar que la información específica se borre y no se pueda reconstruir.
Su marco se basa en un concepto en la optimización de la IA que se aproxima de manera eficiente a cómo cambiaría un modelo si hubiera sido reentrenado desde cero. El equipo de UCR mejoró este enfoque con un nuevo mecanismo de calibración de ruido que compensa las discrepancias entre los conjuntos de datos originales y sustitutos.
Los investigadores validaron su método utilizando conjuntos de datos sintéticos y del mundo real y descubrieron que proporcionaba garantías de privacidad cercanas a las logradas con reentrenamiento completo, el prequero requería mucho menos potencia informática.
El trabajo actual se aplica a modelos más simples, aún ampliamente utilizados, pero eventualmente podría escalar a sistemas complejos como ChatGPT, dijo Roy-Chowdhury, codirector de la Investigación y Educación de Investigación de Inteligencia Artificial de Riverside de la UCR (Raise) Institute y profesor en la Facultad de Ingeniería de Marlan y Rosemary Bourns.
Más allá del cumplimiento regulatorio, la técnica es prometedora para las organizaciones de medios, las instituciones médicas y otros que manejan datos confidenciales integrados en modelos de IA, dijeron los investigadores. También podría capacitar a las personas para exigir la eliminación de contenido personal o con derechos de autor de los sistemas de inteligencia artificial.
“La gente merece saber que sus datos pueden borrarse de los modelos de aprendizaje automático, no solo en teoría, sino de manera comprobable y práctica”, dijo Güler.
Los próximos pasos del equipo implican refinar el método para trabajar con tipos de modelos y conjuntos de datos más complejos y herramientas de construcción para que la tecnología sea accesible para los desarrolladores de IA en todo el mundo.
El título del documento es “un enfoque de desaprendizaje certificado sin acceso a los datos de origen”. Se realizó en colaboración con SK Miraj Ahmed, un asociado de investigación de ciencias computacionales en el Laboratorio Nacional de Brookhaven en Upton, Nueva York, que recibió su doctorado en UCR.
Tanto Roy-Chowdhury como Güler son miembros de la facultad en el Departamento de Ingeniería Eléctrica e Informática con nombramientos secundarios en el Departamento de Informática e Ingeniería.
Más información: Umit Yigit Basaran et al, un enfoque de desaprendizaje certificado sin acceso a los datos de origen, ARXIV (2025). Doi: 10.48550/arxiv.2506.06486
Información en el diario: ARXIV
Proporcionado por la Universidad de California – Riverside
Cita: el nuevo método permite a los modelos AI olvidar los datos privados y con derechos de autor (2025, 29 de agosto) recuperado el 29 de agosto de 2025 de https://techxplore.com/news/2025-08-scientists-private-ai.html
Este documento está sujeto a derechos de autor. Además de cualquier trato justo con el propósito de estudio o investigación privada, no se puede reproducir ninguna parte sin el permiso por escrito. El contenido se proporciona solo para fines de información.