Home Tecnología Las personas transgénero, no binarias y discapacitadas tienen más probabilidades de ver...

Las personas transgénero, no binarias y discapacitadas tienen más probabilidades de ver la IA negativamente, muestra el estudio

23
0

Los conjuntos de datos utilizados para capacitar a los algoritmos de IA pueden subrepresentar a las personas mayores. Crédito: Dominio público de Pixabay/CC0

AI parece estar bien en camino de volverse generalizado. Escuchas retumbos de que la IA se usa, en algún lugar detrás de escena, en el consultorio de tu médico. Sospecha que puede haber jugado un papel en la contratación de decisiones durante su última búsqueda de trabajo. A veces, tal vez incluso a menudo, lo usas tú mismo.

Y sin embargo, mientras que AI ahora influye en decisiones de alto riesgo como Qué tipo de atención médica reciben las personas, quien es contratado y ¿Qué noticias ven la gente?Estas decisiones son no siempre se hace de manera equitativa. La investigación ha demostrado que el sesgo algorítmico a menudo perjudica a los grupos marginados. Sistemas de reconocimiento facial a menudo clasificar erróneamente a las personas transgénero y no binariasLa IA utilizada en la aplicación de la ley puede conducir al arresto injustificado de los negros a tasas desproporcionadamente altasy los sistemas de diagnóstico algorítmico pueden prevenir personas discapacitadas desde el acceso a la atención médica necesaria.

Estas desigualdades plantean una pregunta: ¿las minorías raciales y de género y las personas discapacitadas tienen actitudes más negativas hacia la IA que la población general de los Estados Unidos?

Soy un Académico de informática social La OMS estudia cómo las personas y las comunidades marginadas usan tecnologías sociales. En un nuevo estudio, mis colegas Samuel Reiji Mayworm, Alexis Shore ingber, Nazanina andalibi Y encuesté a más de 700 personas en los Estados Unidos, incluida una muestra representativa a nivel nacional y una sobremuestra intencional de individuos trans, no binarios, discapacitados y raciales minoritarios. Preguntamos a los participantes sobre sus actitudes generales hacia la IA: Si creían que mejoraría sus vidas o su trabajo, si lo vieron positivamente y si esperaban usarlo ellos mismos en el futuro.

Los resultados revelan una división sorprendente. Los participantes transgénero, no binarios y discapacitados informaron, en promedio, significativamente más actitudes negativas hacia la IA que sus homólogos cisgénero y no discapacitados. Estos resultados indican que cuando las minorías de género y las personas discapacitadas deben utilizar sistemas de IA, como en el lugar de trabajo o en los entornos de atención médica, pueden estar haciéndolo mientras albergan serias preocupaciones o dudas. Estos hallazgos desafían la industria tecnológica predominante narrativa de que los sistemas de IA son inevitables y beneficiará a todos.

La percepción pública juega un papel poderoso en la configuración de cómo es AI desarrollado, adoptado y regulado. La visión de la IA como un bien social se desmorona si beneficia principalmente a aquellos que ya tienen poder. Cuando las personas deben usar la IA y al mismo tiempo disgustarla o desconfiarla, puede limitar la participación, erosionar la confianza y las desigualdades compuestas.

Actitudes de género, discapacidad y IA

Las personas no binarias en nuestro estudio tenían las actitudes de IA más negativas. Las personas transgénero en general, incluidos los hombres trans y las mujeres trans, también expresaron actitudes de IA significativamente negativas. Entre las personas cisgénero, aquellas cuya identidad de género coincide con el sexo que se les asignó al nacer, las mujeres informaron más actitudes negativas que los hombres, una tendencia que resonaba investigación previaPero nuestro estudio agrega una dimensión importante al examinar las actitudes no binarias y trans también.

Los participantes discapacitados también tuvieron puntos de vista significativamente más negativos de la IA que los participantes no discapacitados, particularmente aquellos que son neurodivergentes o tienen afecciones de salud mental.

Estos hallazgos son consistentes con un creciente cuerpo de investigación que muestra cómo AI Systems a menudo clasificados erróneos, perpetuar la discriminación hacia o De lo contrario, dañar personas trans y discapacitadas. En particular, las identidades que desafían el choque de categorización con sistemas de IA que están inherentemente diseñados para reducir la complejidad en categorías rígidas. Al hacerlo, los sistemas de IA simplifican las identidades y pueden replicar y reforzar el sesgo y la discriminación, y las personas se dan cuenta.

Una imagen más compleja para la raza

A diferencia de nuestros hallazgos sobre género y discapacidad, encontramos que las personas de color y los participantes negros en particular tenían puntos de vista más positivos hacia la IA que los participantes blancos. Este es un hallazgo sorprendente y complejo, considerando que la investigación previa ha documentado ampliamente sesgo racial en sistemas de IAde algoritmos de contratación discriminatoria a vigilancia desproporcionada.

Nuestros resultados no sugieren que la IA funcione bien para las comunidades negras. Más bien, pueden reflejar una apertura pragmática o esperanzadora al potencial de la tecnología, incluso frente al daño. La investigación futura podría examinar cualitativamente el equilibrio ambivalente de las personas negras de crítica y optimismo en torno a la IA.

Implicaciones de la política y la tecnología

Si las personas marginadas no confían en la IA, y por una buena razón, ¿qué pueden hacer los formuladores de políticas y los desarrolladores de tecnología?

Primero, proporcione una opción de consentimiento significativo. Esto les daría a todos la oportunidad de decidir si AI se usa en sus vidas y cómo. El consentimiento significativo requeriría que los empleadores, los proveedores de atención médica y otras instituciones revelen cuándo y cómo están utilizando la IA y brindan a las personas oportunidades reales para optar por no participar sin penalización.

A continuación, proporcione transparencia de datos y protecciones de privacidad. Estas protecciones ayudarían a las personas a comprender de dónde provienen los datos que informan los sistemas de IA, qué sucederá con sus datos después de que la IA lo recopile y cómo se protegerán sus datos. La privacidad de los datos es especialmente crítica para las personas marginadas que ya han experimentado vigilancia algorítmica y mal uso de datos.

Además, al construir sistemas de IA, los desarrolladores pueden tomar medidas adicionales para probar y evaluar los impactos en los grupos marginados. Esto puede involucrar enfoques participativos que involucran a las comunidades afectadas en el diseño del sistema de IA. Si una comunidad le dice no a la IA, los desarrolladores deben estar dispuestos a escuchar.

Finalmente, creo que es importante reconocer qué actitudes negativas de IA entre los grupos marginados nos dicen. Cuando las personas con alto riesgo de daño algorítmico, como las personas trans y las personas discapacitadas, también son las más cautelosas de la IA, eso es una indicación para que los diseñadores, desarrolladores y formuladores de políticas de IA reevalúen sus esfuerzos. Creo que un futuro basado en la IA debería tener en cuenta las personas que la tecnología pone en riesgo.

Más información: Oliver L. Haimson et al, actitudes de IA entre las poblaciones marginadas en los EE. UU.: No binarios, transgénero y discapacitados informan actitudes de IA más negativas, procedimientos de la Conferencia ACM de 2025 sobre justicia, responsabilidad y transparencia (2025). Doi: 10.1145/3715275.3732081

Proporcionado por la conversación

Este artículo se republicó de La conversación bajo una licencia Creative Commons. Leer el artículo original.

Cita: personas transgénero, no binarias y discapacitadas con más probabilidades de ver negativamente la IA, muestra el estudio (2025, 7 de agosto) recuperado el 7 de agosto de 2025 de https://techxplore.com/news/2025-08-transgender-disaped-disaped-people-view.html

Este documento está sujeto a derechos de autor. Además de cualquier trato justo con el propósito de estudio o investigación privada, no se puede reproducir ninguna parte sin el permiso por escrito. El contenido se proporciona solo para fines de información.

Fuente de noticias