Home Tecnología La red neuronal aprende a dudar para mejorar la precisión

La red neuronal aprende a dudar para mejorar la precisión

53
0

Crédito: Dominio público de Pixabay/CC0

Investigadores del Centro Skoltech AI, junto con colegas del Instituto de Problemas de Transmisión de Información de la Academia de Ciencias de Rusia, han desarrollado un método que permite a las redes neuronales evaluar con mayor precisión su “confianza” en pronósticos.

El método utiliza un conjunto especial de datos de capacitación consciente de la confianza y tiene como objetivo mejorar la confiabilidad de los modelos de redes neuronales en tareas de alto riesgo, por ejemplo, en medicina o fabricación.

Los resultados se presentaron en la Conferencia Internacional de Invierno sobre Aplicaciones de Visión Computadora (WACV-2025) y en las Actas de la Conferencia.

Los modelos modernos de redes neuronales a menudo demuestran una alta precisión, pero a veces confían demasiado en sus predicciones, incluso en situaciones en las que los datos son ambiguos o contienen ruido. Esto puede ser crítico en áreas como medicina, seguridad industrial o sistemas autónomos. Al controlar su comportamiento con mayor precisión en escenarios complejos y límite, el enfoque desarrollado puede aumentar la confiabilidad de los modelos.

El nuevo método ayuda a la red neuronal en la identificación de casos donde su pronóstico podría requerir verificación humana. El equipo de investigación probó la tecnología en los datos del mundo real, incluidas las tareas de diagnóstico médico para la tipificación de sangre, y obtuvo un aumento significativo en la precisión de la evaluación de la incertidumbre en las tareas de clasificación y segmentación.

A diferencia de los enfoques clásicos, donde solo se utilizan etiquetas binarias (0 o 1) en muestras de entrenamiento, el nuevo método también introduce etiquetas “blandas”, valores que van de 0 a 1, lo que refleja la confianza de los expertos en la precisión del markup de datos. Esto ayuda al modelo a construir una estrategia de toma de decisiones más cuidadosa y responder de manera más efectiva a situaciones con un alto grado de incertidumbre.

Además, el método permite considerar dos tipos de incertidumbre: epistémica, asociado con la insuficiencia e incompletitud de los datos de entrenamiento, y aleato, que surge del ruido natural o la ambigüedad en los datos en sí.

“Nuestro método ayuda a la red neuronal a comprender dónde tener cuidado. En la práctica, esto reduce el riesgo de su exceso de confianza al manejar casos complejos o límite. Probamos el método en datos reales y confirmamos su efectividad en la estimación de la incertidumbre”, dijo Aleksandr Yugay, un ingeniero de investigación junior en el Centro Skoltech AI.

La nueva tecnología se puede aplicar en áreas críticas donde la confiabilidad de la inteligencia artificial es importante, incluidos los sistemas de diagnóstico médico, la automatización industrial, los sistemas de control técnico y las soluciones autónomas.

“Nos centramos en enseñar el modelo no solo para tomar decisiones, sino también para identificar casos en los que el riesgo de error es particularmente alto. Gracias al uso del margen de confianza, nuestra solución se destaca de las existentes. Una evaluación de ‘precaución’ es crítica para la toma de decisiones en la medicina y otras áreas con un alto costo de error”, comentó Alexey Zaytsev, un profesor asociado en Skoltech, el jefe de Skoltech-Sberbank aplicó el Laboratorio.

Más información: Sergey Korchagin, et al. Mejora de la estimación de la incertidumbre con datos de capacitación conscientes de la confianza. Actas de la conferencia de invierno sobre aplicaciones de visión por computadora (WACV) (2025). api.semanticscholar.org/corpusid:276676168

Proporcionado por el Instituto de Ciencia y Tecnología Skolkovo

Cita: Neural Network aprende a dudar para mejorar la precisión (2025, 26 de marzo) Recuperado el 26 de marzo de 2025 de https://techxplore.com/news/2025-03-neural-network-hesitate-accuracy.html

Este documento está sujeto a derechos de autor. Además de cualquier trato justo con el propósito de estudio o investigación privada, no se puede reproducir ninguna parte sin el permiso por escrito. El contenido se proporciona solo para fines de información.