Crédito: Universidad de California – San Diego
El aprendizaje automático es una parte integral de la toma de decisiones de alto riesgo en una amplia franja de interacciones humanas-computadora. Solicitas un trabajo. Usted presenta una solicitud de préstamo. Los algoritmos determinan quién avanza y quién es rechazado.
Los informáticos de la Universidad de California en San Diego y la Universidad de Wisconsin – Madison están desafiando la práctica común de usar un modelo de aprendizaje automático (ML) para tomar decisiones críticas. Preguntaron cómo se sienten las personas cuando los modelos ML “igualmente buenos” llegan a diferentes conclusiones.
El profesor asociado Loris D’Antoni con el Departamento de Ciencias e Ingeniería de la Escuela de Ingeniería de Jacobs dirigió la investigación que se presentó recientemente en la conferencia sobre factores humanos en sistemas informáticos (Chi 2025). El documento, “Percepciones de los impactos de la equidad de la multiplicidad en el aprendizaje automático”, describe el trabajo D’Antoni comenzó con otros investigadores durante su mandato en la Universidad de Wisconsin y continúa hoy en UC San Diego. Es disponible en el servidor de preimpresión ARXIV.
D’Antoni trabajó con los miembros del equipo para construir la evidencia existente de que los modelos distintos, como sus homólogos humanos, tienen resultados variables. En otras palabras, un buen modelo podría rechazar una aplicación, mientras que otro la aprueba. Naturalmente, esto lleva a preguntas sobre cómo se pueden tomar decisiones objetivas.
“Los investigadores de ML postulan que las prácticas actuales representan un riesgo de equidad. Nuestra investigación profundizó en este problema. Preguntamos a las partes interesadas lay, o a las personas regulares, cómo creen que las decisiones deben tomarse cuando múltiples modelos altamente precisos dan diferentes predicciones para una entrada dada”, dijo D’Antoni.
El estudio descubrió algunos hallazgos significativos. Primero, las partes interesadas se resistieron a la práctica estándar de confiar en un solo modelo, especialmente cuando múltiples modelos no estuvieron de acuerdo. En segundo lugar, los participantes rechazaron la noción de que las decisiones deben ser aleatorizadas en tales casos.
“Encontramos estos resultados interesantes porque estas preferencias contrastan con la práctica estándar en el desarrollo de ML y la investigación de filosofía sobre prácticas justas”, dijo First Autor y Ph.D. La estudiante Anna Meyer, a quien fue asesorada por D’Antoni en la Universidad de Wisconsin y comenzará como profesora asistente en el Carlton College en el otoño.
El equipo espera que estas ideas guíen el desarrollo y la política futuros del modelo. Las recomendaciones clave incluyen expandir las búsquedas en una variedad de modelos e implementar la toma de decisiones humanas para juzgar los desacuerdos, especialmente en entornos de alto riesgo.
Otros miembros del equipo de investigación incluyen AWS Albarghouthi, profesor asociado en ciencias de la computación en la Universidad de Wisconsin, y Yea-Seul Kim de Apple.
Más información: Anna P. Meyer et al, Percepciones de los impactos de equidad de la multiplicidad en el aprendizaje automático, ARXIV (2024). Doi: 10.48550/arxiv.2409.12332
Información en el diario: ARXIV
Proporcionado por la Universidad de California – San Diego
Cita: cuando las apuestas son altas, ¿los modelos de aprendizaje automático toman decisiones justas? (2025, 17 de julio) Recuperado el 17 de julio de 2025 de https://techxplore.com/news/2025-07-stakes-high-machine-fair-decisions.html
Este documento está sujeto a derechos de autor. Además de cualquier trato justo con el propósito de estudio o investigación privada, no se puede reproducir ninguna parte sin el permiso por escrito. El contenido se proporciona solo para fines de información.







