Home Tecnología ¿Qué sucede cuando AI enfrenta el problema humano de la incertidumbre?

¿Qué sucede cuando AI enfrenta el problema humano de la incertidumbre?

46
0

Crédito: Dominio público de Pixabay/CC0

En un mundo cada vez más formado por la inteligencia artificial, la cuestión de cómo las máquinas toman decisiones en condiciones inciertas se vuelven más urgentes todos los días.

¿Cómo sopesamos los valores competitivos cuando los resultados son inciertos? ¿Qué constituye la opción razonable cuando la información perfecta no está disponible? Estas preguntas, una vez confinadas a la filosofía académica, ahora están al frente y al centro a medida que deleguamos decisiones cada vez más complejas para la IA.

Un nuevo marco del modelo de idioma grande (LLM) desarrollado por Willie Neiswanger, profesor asistente de ciencias de la computación en la Escuela de Ingeniería de la USC Viterbi y la Escuela de Computación Avanzada de la USC, junto con los estudiantes en el Departamento de Ciencias de la Computación, combina la teoría de decisiones clásicas y los principios de la teoría de la utilidad para mejorar significativamente la capacidad de AI para enfrentar la incertidumbre y abordar esas decisiones complejas.

Neiswanger’s investigación fue destacado en la conferencia internacional de 2025 sobre representaciones de aprendizaje y publicado en el servidor de preimpresión ARXIV. Recientemente discutió cómo la IA maneja la incertidumbre con USC News.

¿Qué piensas sobre la diferencia entre la inteligencia artificial y humana?

Neiswanger: En la actualidad, la inteligencia humana tiene varias fortalezas en relación con la inteligencia de la máquina. Sin embargo, la inteligencia máquina también tiene ciertas fortalezas en relación con los humanos, lo que la hace valiosa.

Modelos de lenguaje grande (LLMS): sistemas AI capacitados en grandes cantidades de texto que pueden comprender y generar respuestas humanas, por ejemplo, pueden ingerir y sintetizar rápidamente grandes cantidades de información de informes u otras fuentes de datos, y pueden generar a escala simulando muchos futuros posibles o proponiendo una amplia gama de resultados previstos. En nuestro trabajo, nuestro objetivo es aprovechar las fortalezas de los LLM mientras los equilibramos contra las fortalezas y el juicio de los humanos.

¿Por qué los modelos actuales de lenguaje de IA Lengua luchan con la incertidumbre?

Neiswanger: La incertidumbre es un desafío fundamental en la toma de decisiones del mundo real. Los sistemas actuales de IA luchan para equilibrar adecuadamente la incertidumbre, la evidencia y el proceso de hacer predicciones basadas en la probabilidad de diferentes resultados, así como las preferencias del usuario cuando se enfrentan a variables desconocidas.

A diferencia de los expertos humanos que pueden expresar títulos de confianza y reconocer los límites de su conocimiento, los LLM generalmente generan respuestas con aparente confianza, independientemente de si se basan en patrones bien establecidos o haciendo predicciones inciertas que van más allá de los datos disponibles.

¿Cómo se cruza su investigación con la incertidumbre?

Neiswanger: Me concentro en desarrollar métodos de aprendizaje automático para la toma de decisiones bajo incertidumbre, con énfasis en la toma de decisiones secuenciales, las situaciones en las que toma una serie de opciones a lo largo del tiempo, con cada decisión afectando las opciones futuras, en el entorno donde los datos son costosos de adquirir.

Esto incluye aplicaciones como la optimización de la caja negra (encontrar la mejor solución cuando no puede ver cómo funciona el sistema internamente), diseño experimental (estudios de planificación o pruebas para obtener la información más útil) y tareas de toma de decisiones en ciencia e ingeniería, por ejemplo, materiales o descubrimiento de fármacos, y la optimización de los sistemas informáticos.

También estoy interesado en cómo los modelos de base grandes (sistemas de IA masivos capacitados en enormes conjuntos de datos que sirven como base para muchas aplicaciones), especialmente los modelos de idiomas grandes, pueden mejorar y beneficiarse de estos marcos de toma de decisiones: por una mano, ayudan a los humanos a tomar mejores decisiones en entornos incentivos, y en los otros, utilizando métodos de matemáticas óptimas para mejorar los mejores resultados con los datos menos capacitación y la calidad en entornos y fictos de los matemáticos.

¿Cómo abordó su investigación el problema de la incertidumbre y la IA?

Neiswanger: Nos centramos en mejorar la capacidad de una máquina para cuantificar la incertidumbre, esencialmente enseñándole a medir y expresar cuán seguro debería estar sobre diferentes predicciones.

En particular, desarrollamos un enfoque de cuantificación de incertidumbre que permite a los modelos de lenguaje grandes tomar decisiones bajo información incompleta, al tiempo que realizamos predicciones con niveles de confianza medibles que pueden verificarse y elegir acciones que proporcionen el mayor beneficio alineado con las preferencias humanas.

El proceso comenzó identificando variables inciertas clave que son relevantes para la toma de decisiones, y luego los modelos de lenguaje asignan puntajes de probabilidad basados en el lenguaje a diferentes posibilidades (como el rendimiento de un cultivo, el precio de una acción, la fecha de un evento incierto, el volumen proyectado de envíos de almacén, etc.), basado en informes, datos históricos y otra información contextual, que luego se convergieron con probabilidades numéricas.

¿Hay aplicaciones inmediatas?

Neiswanger: en contextos comerciales, puede mejorar la planificación estratégica al proporcionar evaluaciones más realistas de las incertidumbres del mercado y la dinámica competitiva.

En entornos médicos, puede proporcionar apoyo de diagnóstico o ayudar con la planificación del tratamiento al ayudar a los médicos a explicar mejor la incertidumbre en los síntomas y los resultados de las pruebas. En la toma de decisiones personales, puede ayudar a los usuarios a obtener consejos más informados y relevantes de los modelos de idiomas sobre las opciones cotidianas.

La capacidad del sistema para alinearse con las preferencias humanas ha sido particularmente valiosa en contextos en los que dejar que las computadoras encuentren la “mejor” solución matemáticamente “podría perder valores o restricciones humanas importantes.

Al modelar explícitamente las preferencias de los interesados e incorporarlas en evaluaciones matemáticas de cuán valiosos son los diferentes resultados para las personas, el marco produce recomendaciones que no solo son técnicamente óptimas, sino que también son prácticamente aceptables para las personas que los implementan.

¿Qué sigue para tu investigación?

Neiswanger: Ahora estamos explorando cómo este marco puede extenderse a una gama más amplia de toma de decisiones del mundo real bajo tareas de incertidumbre, incluidas las aplicaciones en la investigación de operaciones (utilizando métodos matemáticos para resolver problemas comerciales complejos), logística y atención médica. Un enfoque en el futuro es mejorar la auditabilidad humana: desarrollar interfaces que brinden a los usuarios una visibilidad más clara de por qué una LLM toma una decisión particular y por qué esa decisión es óptima.

Más información: Ollie Liu et al, Dellma: toma de decisiones bajo incertidumbre con modelos de idiomas grandes, ARXIV (2024). Doi: 10.48550/arxiv.2402.02392

Información en el diario: ARXIV

Proporcionado por la Universidad del Sur de California

Cita: Preguntas y respuestas con Profesor de Ciencias de la Computación: ¿Qué sucede cuando AI enfrenta el problema humano de la incertidumbre? (2025, 23 de julio) Consultado el 23 de julio de 2025 de https://techxplore.com/news/2025-07-qa-professor-science-ai-human.html

Este documento está sujeto a derechos de autor. Además de cualquier trato justo con el propósito de estudio o investigación privada, no se puede reproducir ninguna parte sin el permiso por escrito. El contenido se proporciona solo para fines de información.

Fuente de noticias