Home Tecnología Género, la nacionalidad puede influir en la sospecha de usar IA en...

Género, la nacionalidad puede influir en la sospecha de usar IA en la escritura independiente

7
0

Crédito: dominio público CC0

Con el desarrollo de asistentes de escritura de IA como ChatGPT y Microsoft Copilot, los modelos de lenguaje grande (LLM) ahora se utilizan en varias profesiones de escritura para generar ideas y trabajar de manera más eficiente.

Pero, ¿hay asociaciones negativas o una reacción profesional potencial para los escritores injustamente (o legítimamente) sospechosos de usar AI? ¿Esta sospecha varía según la raza del escritor, el género o la nacionalidad?

Un nuevo estudio realizado por investigadores de Cornell Tech y la Universidad de Pensilvania muestra que los escritores independientes sospechosos de usar IA tienen peores evaluaciones y resultados de contratación. Los trabajadores independientes cuyos perfiles sugirieron que tenían identidades del este de Asia tenían más probabilidades de ser sospechosos de usar IA que perfiles de estadounidenses blancos. Y los hombres tenían más probabilidades de ser sospechosos de usar IA que mujeres.

“Hemos sabido durante mucho tiempo que la sospecha de usar AI causó una evaluación reducida de la confiabilidad para la persona que supuestamente la usa, y también que las personas no son buenas para detectar el uso de la IA”, dijo el coautor Mor Naaman, Don y Mibs Follett en Cornell Tech. “Dado que una larga línea de investigación muestra que las evaluaciones y resultados sesgados son comunes en el lugar de trabajo y otros entornos, queríamos entender cómo estas percepciones de IA pueden diferir en función del género, la raza y la nacionalidad de la persona que produce el contenido”.

El equipo presentó su trabajo: “La IA generativa y los daños perceptivos: ¿quién se sospecha que usa LLM?” En la Conferencia de la Asociación para la Machinería de Computación sobre Factores Humanos en Sistemas de Computación (CHI 2025), 26 de abril al 1 de mayo en Yokohama, Japón.

Los investigadores realizaron experimentos en línea para investigar los efectos del uso percibido de IA por escritores independientes. Los investigadores pidieron a los participantes que evaluaran los perfiles de redes sociales de los escritores, evaluando si los participantes sospecharon que los escritores de usar IA, la calidad percibida del trabajo de los escritores y la probabilidad de que los participantes fueran contratar a los escritores.

Sin el conocimiento de los participantes, los escritores eran todos ficticios y sus nombres e imágenes inventados sugirieron que pertenecían a diferentes grupos demográficos basados ​​en el género, la raza y la nacionalidad.

El estudio encontró que los escritores sospechosos de usar IA recibieron evaluaciones de menor calidad y sufrieron una disminución de la probabilidad de contratación en todos los grupos demográficos. Sin embargo, los participantes en el estudio tenían más probabilidades de sospechar a los escritores de ciertos grupos de uso de IA, exhibiendo algunos sesgos subyacentes.

En particular, los perfiles independientes que sugirían identidades de Asia oriental tenían más probabilidades de ser sospechosos de usar IA que perfiles de estadounidenses blancos. Sin embargo, no hubo diferencias en las evaluaciones de calidad o los resultados laborales para estos perfiles.

Además, los hombres tenían más probabilidades de ser sospechosos de usar IA que las mujeres, aunque los investigadores no encontraron diferencias en las evaluaciones de calidad o los resultados laborales para estos grupos una vez que se explica la sospecha.

“Creemos que esta diferencia de género podría deberse a los estereotipos sobre el uso de la tecnología: la creencia de que los hombres tienen más probabilidades de usar la IA o se perciben como dispuestos a hacer trampa”, dijo Naaman, quien es profesor en el Instituto Jacobs Technion-Cornell y el Cornell Ann S. Bowers College of Computing and Information Science.

En su artículo, los investigadores piden más investigación sobre los efectos potencialmente dañinos de las percepciones de IA en diferentes grupos demográficos.

“Si se sospecha que usa AI, sus resultados serán peores”, continuó Naaman. “Es esencial seguir estudiando cómo estas percepciones afectan a varios grupos y desarrollar estrategias para mitigar estos daños”.

Los coautores del estudio son el profesor asistente Danaé Metaxa de la Universidad de Pensilvania y Kowe Kadoma, un Ph.D. de Cornell Tech. Estudiante en el campo de las ciencias de la información, que ayudó a pensar en la idea del estudio.

“En conversaciones casuales con amigos y familiares, alguien mencionaría que sospechaba que un correo electrónico o mensaje para ser generado por IA. Luego me sentí curioso sobre cuándo las personas sospechan que la IA escribe y si algunas personas son elogiadas por usar herramientas de IA, mientras que otras son penalizadas por ello”, dijo Kadoma. “A medida que más personas adoptan tecnologías de IA, debemos considerar quién podría beneficiarse y quién podría estar en desventaja. La tecnología está cambiando rápidamente, y también las normas en torno a su uso”.

Más información: Resumen: Programs.sigchi.org/chi/2025/p … Ogram/Content/188472

Proporcionado por la Universidad de Cornell

Cita: Género, la nacionalidad pueden influir en la sospecha del uso de IA en la escritura independiente (2025, 8 de mayo) Recuperado el 8 de mayo de 2025 de https://techxplore.com/news/2025-05- Gender-Nationality-Suspicion-Ai-Freelance.html

Este documento está sujeto a derechos de autor. Además de cualquier trato justo con el propósito de estudio o investigación privada, no se puede reproducir ninguna parte sin el permiso por escrito. El contenido se proporciona solo para fines de información.