Crédito: Dominio público de Pixabay/CC0
El potencial de la IA para transformar la vida de las personas en áreas que van desde la atención médica hasta el mejor servicio al cliente es enorme. Pero a medida que avanza la tecnología, debemos adoptar políticas para asegurarnos de que los riesgos no abruman y sofocen esos beneficios.
Es importante destacar que debemos estar en alerta por el sesgo algorítmico que pueda perpetuar la desigualdad y la marginación de las comunidades de todo el mundo.
El sesgo algorítmico ocurre cuando los sistemas, a menudo en función del aprendizaje automático o la IA, los resultados o las decisiones sesgadas del lanzador porque los datos que se les ha dado son incompletos, desequilibrados o no completamente representativos.
Yo y sus colegas aquí en Cambridge y en Warwick Business School hemos propuesto una nueva forma de pensar sobre el tema: llamamos a esto una “perspectiva de riesgo relacional”. Este enfoque analiza no solo cómo se está utilizando AI ahora, sino cómo se puede usar en el futuro y en diferentes geografías, evitando lo que llamamos “el lado oscuro de la IA”. El objetivo es salvaguardar los beneficios de la IA para todos, al tiempo que minimiza el daño.
Miramos el lugar de trabajo como un ejemplo. La IA ya está teniendo un gran impacto en los trabajos, afectando las tareas de rutina y creativa, y afectando las actividades que hemos considerado como humanos únicos, como crear arte o escribir guiones de películas.
A medida que las empresas usan la tecnología más, y tal vez se vuelven demasiado dependientes de ella, corremos el riesgo de socavar la experiencia profesional y el pensamiento crítico, dejando a los trabajadores desmotivados y esperan diferir a las decisiones generadas por la máquina.
Esto afectará no solo las tareas sino también el tejido social del lugar de trabajo, al influir en cómo los trabajadores se relacionan entre sí y con las organizaciones. Si la IA se usa en el reclutamiento, la falta de representación en los conjuntos de datos puede reforzar las desigualdades cuando se usa para tomar decisiones sobre la contratación o las promociones.
También exploramos cómo esta industria de mil millones de dólares a menudo es respaldada por los trabajadores en gran medida “invisibles” en el sur global que limpia los datos y refinan los algoritmos para un grupo de usuarios predominantemente en el norte global. Este ‘colonialismo de datos’ no solo refleja las desigualdades globales, sino que también refuerza la marginación: las personas cuyo trabajo permite que AI prospere son las mismas personas que están en gran medida excluidas de los beneficios de esa tecnología.
Los datos de atención médica son en particular el peligro de dicho sesgo basado en datos, por lo que debemos garantizar que la información relacionada con la salud analizada por los grandes modelos de idiomas utilizados para capacitar a las herramientas de IA refleje una población diversa. Basar la política de salud en los datos de comunidades seleccionadas y quizás más privilegiadas puede conducir a un círculo vicioso en el que la disparidad está más profundamente arraigada.
Lograr su potencial
Creo que podemos contrarrestar estas amenazas, pero el tiempo es de la esencia a medida que AI se incrusta rápidamente en la sociedad. Debemos recordar que la IA generativa sigue siendo una tecnología emergente, y tomar nota de que está progresando más rápido de lo que el panorama ético o regulatorio puede mantener el ritmo.
Nuestra perspectiva del riesgo relacional no presenta la IA como inherentemente buena o mala. Más bien, se considera que la IA tiene potencial de beneficio y daño dependiendo de cómo se desarrolle y experimente en diferentes contextos sociales. También reconocemos que los riesgos no son estáticos, ya que evolucionan con las relaciones cambiantes entre la tecnología, sus usuarios y estructuras sociales más amplias.
Los formuladores de políticas y los tecnólogos deben anticipar, en lugar de reaccionar, las formas en que la IA puede afianzar o desafiar las desigualdades existentes. También deben considerar que algunos países pueden desarrollar la madurez de la IA más rápidamente que otros.
Finalmente, aprovechemos a las partes interesadas por todas partes para establecer la política de riesgo de IA. Un enfoque multidisciplinario que ayudará a evitar el sesgo, al mismo tiempo que ayuda a demostrar al público que la política de IA realmente refleja intereses y comunidades variadas y diversas.
Proporcionado por la Universidad de Cambridge
Cita: Opinión: Debemos equilibrar los riesgos y beneficios de la IA (2025, 7 de abril) Recuperado el 7 de abril de 2025 de https://techxplore.com/news/2025-04-opinion-benefits-ai.html
Este documento está sujeto a derechos de autor. Además de cualquier trato justo con el propósito de estudio o investigación privada, no se puede reproducir ninguna parte sin el permiso por escrito. El contenido se proporciona solo para fines de información.