Home Tecnología Las estrategias de IA prometen sistemas más inteligentes sin sacrificar la privacidad...

Las estrategias de IA prometen sistemas más inteligentes sin sacrificar la privacidad personal

52
0

Sonakshi Garg, estudiante de doctorado en el Departamento de Ciencias de la Computación, muestra que la privacidad no es una barrera para el progreso: es una base para construir una IA mejor y más confiable. Crédito: Hans Karlsson

Cada vez que abre una aplicación, visita al médico o realiza una compra en línea, está generando datos. Esos datos alimentan los sistemas de inteligencia artificial (IA) que ayudan a las empresas a mejorar los servicios, los médicos detectan enfermedades más rápido y los gobiernos toman decisiones informadas.

Pero a medida que la IA se vuelve más poderosa y depende de la información personal, las preocupaciones sobre cómo se utilizan nuestros datos, y si se mantienen a salvo, se están haciendo más fuertes. En el corazón de esta tensión hay una pregunta crítica: ¿podemos seguir beneficiándonos de la tecnología más inteligente sin renunciar a nuestra privacidad?

Sonakshi Garg, un estudiante de doctorado en la Universidad de Umeå, cree que la respuesta es sí. En su tesis titulada “puente de IA y privacidad: soluciones para datos de alta dimensión y modelos de cimientos”, Garg presenta un conjunto de estrategias innovadoras que tienen como objetivo garantizar que la IA pueda ser inteligente y respetuosa con los datos personales. Ella llama a esto la “paradoja de la privacidad”: ¿elegimos una IA fuerte o una privacidad fuerte?

“Ya no tenemos que elegir uno u otro que podamos tener ambos”, argumenta.

Para resolver este problema, Garg utiliza el aprendizaje múltiple para simplificar los datos de alta dimensión mientras mantiene su estructura significativa. “Imagine desarrollar un mapa arrugado sin perder las carreteras y los puntos de referencia, esto es lo que hace un múltiple aprendizaje para conjuntos de datos complicados”, dice Garg.

También presenta un modelo de privacidad híbrido que combina las fortalezas de dos enfoques existentes, lo que permite a los usuarios controlar mejor cuánta información está protegida al tiempo que preserva más de la utilidad de los datos. “Crea datos” falsos “altamente realistas que se comportan como lo real pero que no revela la identidad de cualquier persona real. Esto significa que los investigadores y desarrolladores pueden capacitar a los sistemas de IA de forma segura sin necesidad de acceder a datos confidenciales”, argumenta Garg.

Finalmente, aborda los riesgos de privacidad planteados por grandes modelos de IA como GPT y Bert, que pueden “memorizar” accidentalmente información privada. Su método comprime estos modelos para hacerlos más pequeños y más eficientes al tiempo que agrega capas de protección de la privacidad, lo que les permite funcionar de forma segura incluso en dispositivos personales como los teléfonos inteligentes. Lo más importante, la investigación de Garg empodera a las personas comunes.

“Demuestra que es posible beneficiarse de los servicios personalizados y los sistemas inteligentes sin renunciar al control sobre su vida personal. La privacidad no es un obstáculo para el progreso, es una base para construir una IA mejor y más confiable”.

A medida que la tecnología se integra cada vez más en nuestras vidas, la investigación de Sonakshi Garg proporciona un plan muy necesario para un futuro donde la IA y la privacidad pueden prosperar uno al lado del otro.

“Mi investigación es un recordatorio audaz y oportuno de que la innovación inteligente nunca debería llegar a expensas de la dignidad humana” y con las herramientas adecuadas, no tiene que hacerlo “, dice Sonakshi.

Esta tesis aborda la creciente tensión entre el poder de la IA y la necesidad de proteger la privacidad personal en una era de datos de alta dimensión. Identifica las debilidades de los métodos de privacidad existentes como la anonimato K y la privacidad diferencial cuando se usan en conjuntos de datos de alta dimensión y propone soluciones mejoradas utilizando el aprendizaje múltiple, la generación de datos sintéticos y la compresión del modelo de preservación de la privacidad.

La investigación introduce marcos avanzados y escalables que mejoran tanto la utilidad de los datos como la privacidad. En general, la tesis ofrece un enfoque completo para construir sistemas de IA éticos y conscientes de la privacidad que son prácticos para aplicaciones del mundo real.

Más información: Tesis: puente de IA y privacidad: soluciones para datos de alta dimensión y modelos de cimientos

Proporcionado por la Universidad de Umea

Cita: las estrategias de IA prometen sistemas más inteligentes sin sacrificar la privacidad personal (2025, 2 de junio) Recuperado el 2 de junio de 2025 de https://techxplore.com/news/2025-06-ai-strategies-smarter-sacrificing-personal.html

Este documento está sujeto a derechos de autor. Además de cualquier trato justo con el propósito de estudio o investigación privada, no se puede reproducir ninguna parte sin el permiso por escrito. El contenido se proporciona solo para fines de información.