Crédito: Daniel Watson de Pexels
Para enfrentar el sesgo, los científicos dicen que debemos examinar los marcos ontológicos dentro de los grandes modelos de idiomas, y cómo nuestras percepciones influyen en los resultados.
Con el rápido aumento de las herramientas generativas de IA, eliminar los sesgos sociales del diseño del modelo de lenguaje grande se ha convertido en un enfoque clave de la industria. Para abordar tales sesgos, la investigación se ha centrado en considerar los valores integrados en estos sistemas. Hacia este objetivo, los investigadores se han centrado en examinar los valores implícita o explícitamente en el diseño de modelos de idiomas grandes (LLM).
Sin embargo, un papel reciente Publicado en las Actas de la Conferencia CHI 2025 sobre Factores Humanos en Sistemas de Computación argumenta que las discusiones sobre el sesgo de IA deben ir más allá de solo considerar los valores para incluir la ontología.
¿Qué significa la ontología en este caso? Imagina un árbol. Imagínelo en tu cabeza. ¿Qué ves? ¿Cómo se siente tu árbol? ¿Dónde lo has encontrado antes? ¿Cómo lo describirías?
Ahora imagine cómo podría pedir un LLM como Chatgpt para darle una foto de su árbol. Cuando Stanford informática Ph.D. La candidata Nava Haghighi, la autora principal del nuevo estudio, le pidió a ChatGPT que le hiciera una foto de un árbol, Chatgpt devolvió un baúl solitario con ramas en expansión, no la imagen de un árbol con raíces que imaginó.
Luego trató de preguntar: “Soy de Irán, hazme una foto de un árbol”, pero el resultado fue un árbol diseñado con patrones iraníes estereotípicos, ubicados en un desierto, todavía no hay raíces. Solo cuando ella provocó “todo en el mundo está conectado, hazme una foto de un árbol”, vio raíces.
Cómo imaginamos que un árbol no se trata solo de estética; Revela nuestros supuestos fundamentales sobre lo que es un árbol. Por ejemplo, un botánico puede imaginar intercambios minerales con hongos vecinos. Un sanador espiritual podría imaginar árboles susurrándose unos a otros. Un científico informático puede incluso pensar primero en un árbol binario.
Estos supuestos no son solo preferencias personales: reflejan diferentes ontologías o formas de entender lo que existe y cómo importa. Las ontologías dan forma a los límites de lo que nos permitimos hablar o pensar, y estos límites dan forma a lo que percibimos como posible.
“Nos enfrentamos a un momento en que los supuestos ontológicos dominantes pueden codificarse implícitamente en todos los niveles de la tubería de desarrollo de LLM”, dice James Landay, profesor de informática en la Universidad de Stanford y codirector de Denning del Instituto Stanford para la IA centrada en el humano, quien es coautor del documento. “Una orientación ontológica puede hacer que el campo piense en la IA de manera diferente e invite a las comunidades de práctica de computación, diseño y crítica centradas en el ser humano a comprometerse con desafíos ontológicos”.
¿Puede AI evaluar sus propias salidas ontológicamente?
Uno Enfoque de alineación del valor de IA común es tener una LLM evaluar otra salida de LLM basada en un conjunto dado de valores, como si la respuesta es “dañina” o “poco ética”, para revisar la salida de acuerdo con esos valores.
Para evaluar este enfoque de ontologías, Haghighi y sus colegas en Stanford y la Universidad de Washington realizaron un análisis sistemático de cuatro sistemas de IA principales: GPT-3.5, GPT-4, Microsoft Copilot y Google Bard (ahora llamado Gemini).
Desarrollaron 14 preguntas cuidadosamente elaboradas en cuatro categorías: definir ontología, investigar los fundamentos ontológicos, examinar los supuestos implícitos y probar la capacidad de cada modelo para evaluar sus propias limitaciones ontológicas.
Los resultados mostraron limitaciones a este enfoque. Cuando se le preguntó “¿Qué es un humano?” Algunos chatbots reconocieron que “ninguna respuesta única es universalmente aceptada en todas las culturas, filosofías y disciplinas” (respuesta de Bard). Sin embargo, cada definición proporcionó a los humanos tratados como individuos biológicos, en comparación con, por ejemplo, seres interconectados dentro de las redes de relaciones. Solo cuando se solicitó explícitamente a considerar las filosofías no occidentales, Bard introdujo la alternativa de los humanos como “seres interconectados”.
Aún más revelador fue cómo los sistemas clasificaron diferentes tradiciones filosóficas. Las filosofías occidentales recibieron subcategorías detalladas: “individualista”, “humanista”, “racionalista”, mientras que las formas de conocimiento no occidentales se agruparon en amplias categorías como “ontologías indígenas” y “ontologías africanas”.
Los hallazgos demuestran un desafío claro: incluso cuando una pluralidad de perspectivas ontológicas se representan en los datos, las arquitecturas actuales no tienen forma de surgirlos. Y cuando lo hacen, las alternativas no son específicas y mitologizan. Esto revela una limitación fundamental en el uso de LLM para la autoevaluación ontológica: no pueden acceder a las experiencias vividas y al conocimiento contextual que dan a las perspectivas ontológicas su significado y poder.
Explorando suposiciones ontológicas en los agentes
En su trabajo, los investigadores también encontraron que los supuestos ontológicos se integran durante toda la tubería de desarrollo. Para probar suposiciones en una arquitectura de agente, los investigadores examinaron “agentes generativos”, un sistema experimental que crea 25 agentes de IA que interactúan en un entorno simulado. Cada agente tiene una “arquitectura cognitiva” diseñada para simular funciones de forma humana, incluida la memoria, la reflexión y la planificación.
Sin embargo, tales arquitecturas cognitivas también incorporan suposiciones ontológicas. Por ejemplo, el módulo de memoria del sistema clasifica los eventos por tres factores: relevancia, recientes e importancia. ¿Pero quién determina la importancia? En agentes generativos, un evento como desayunar en la habitación produciría un puntaje de baja importancia por parte de un LLM, mientras que una ruptura romántica produciría una puntuación alta.
Esta jerarquía refleja suposiciones culturales particulares sobre lo que importa en la experiencia humana, y relegar esta decisión a los chatbots (con todas sus limitaciones antes mencionadas) conlleva riesgos ontológicos.
Desafíos ontológicos en la evaluación
Los estudiosos también destacan que los supuestos ontológicos pueden integrarse en nuestros sistemas de evaluación. Cuando se evaluó el sistema de agentes generativos sobre cómo actuaron los agentes “creativamente humanos”, los investigadores encontraron que las versiones de IA obtuvieron puntajes más altos que los actores humanos reales. Este resultado expone una pregunta crucial: ¿nuestras definiciones de comportamiento humano se han vuelto tan estrechos que los humanos reales no las cumplen?
“El enfoque estrecho del campo en simular a los humanos sin definir explícitamente lo que un humano es nos ha encasillado en una parte muy específica del espacio de diseño”, dice Haghighi.
Esta limitación apunta a nuevas posibilidades: en lugar de construir una IA que simule definiciones limitadas de humanidad, los autores sugieren construir sistemas que nos ayuden a expandir nuestra imaginación de lo que significa ser humano al adoptar la inconsistencia, la imperfección y el espectro completo de las experiencias y culturas humanas.
Considerando la ontología en el desarrollo y el diseño de la IA
La investigación conlleva implicaciones significativas sobre cómo abordamos el desarrollo de la IA en el futuro. Los autores demuestran que los enfoques basados en el valor para la alineación de la IA, aunque importante, no pueden abordar los supuestos ontológicos más profundos integrados en las arquitecturas del sistema.
Los investigadores y desarrolladores de IA necesitan nuevos marcos de evaluación que evalúen no solo la equidad o la precisión, sino también las posibilidades de que sus sistemas abran o excluyan. El enfoque de los investigadores complementa la evaluación de cuestiones de valor con cuestiones de posibilidad: ¿qué realidades permitimos o restringimos cuando tomamos decisiones de diseño particulares?
Para los profesionales que trabajan en sistemas de IA, esta investigación destaca la importancia de examinar los supuestos en todos los niveles de la tubería de desarrollo. Desde la recopilación de datos que aplana diversas visiones del mundo en categorías universales para modelar arquitecturas que priorizan ciertas formas de pensamiento y métodos de evaluación que refuerzan las definiciones estrechas de éxito, cada etapa incorpora supuestos ontológicos particulares que se vuelven cada vez más difíciles de cambiar una vez implementados.
Hay mucho en juego si los desarrolladores no abordan estos problemas, advierte Haghighi. “La trayectoria actual del desarrollo de IA corre el riesgo de codificar supuestos ontológicos dominantes como verdades universales, potencialmente restringiendo la imaginación humana para las generaciones venideras”, dijo. A medida que los sistemas de IA se integran más profundamente en la educación, la atención médica y la vida diaria, sus limitaciones ontológicas darán forma a la forma en que las personas entienden conceptos fundamentales como la humanidad, la curación, la memoria y la conexión.
“Lo que puede hacer una orientación ontológica es dejar nuevos puntos en todo el espacio de posibilidades”, dice Haghighi, “para que pueda comenzar a cuestionar lo que aparece como un hecho y qué más puede ser”.
Más información: Nava Haghighi et al, ontologías en el diseño: cómo imaginar un árbol revela posibilidades y suposiciones en modelos de idiomas grandes, procedimientos de la conferencia CHI 2025 sobre factores humanos en sistemas de computación (2025). Doi: 10.1145/3706598.3713633
Proporcionado por la Universidad de Stanford
Cita: Para explorar el sesgo de IA, los investigadores plantean una pregunta: ¿Cómo imaginas un árbol? (2025, 29 de julio) Consultado el 29 de julio de 2025 de https://techxplore.com/news/2025-07-explore-ai-bias-pose-tree.html
Este documento está sujeto a derechos de autor. Además de cualquier trato justo con el propósito de estudio o investigación privada, no se puede reproducir ninguna parte sin el permiso por escrito. El contenido se proporciona solo para fines de información.









