Crédito: dominio público Unsplash/CC0
En julio, el gobierno de los Estados Unidos lo dejó claro que las empresas de inteligencia artificial (IA) que deseen hacer negocios con la Casa Blanca deberán garantizar que sus sistemas de IA sean “objetivos y libres de un sesgo ideológico de arriba hacia abajo”.
En una orden ejecutiva Al “prevenir la IA de despertar en el gobierno federal”, el presidente Donald Trump se refiere a las iniciativas de diversidad, equidad e inclusión (DEI) como un ejemplo de una ideología sesgada.
La aparente contradicción de pedir AI imparcial y al mismo tiempo dictar cómo los modelos de IA deberían discutir DEI muestra que la noción de IA ideológicamente libre es una fantasía.
Múltiple estudios han demostrado que la mayoría de los modelos de lenguaje sesgan sus respuestas a los puntos de vista de la izquierda del centro, como imponer impuestos a los vuelos, restringir los aumentos de alquileres y legalizar el aborto.
Chatbots chinos como Deepseek, Qwen y otros información de censura sobre los eventos de Tiananmen Squareel Estado político de Taiwány la persecución de los uiguresalineando con la posición oficial del gobierno chino.
Los modelos de IA no son políticamente neutrales ni libres de sesgo. Más importante aún, puede que ni siquiera sea posible que sean imparciales. A lo largo de la historia, los intentos de organizar la información han demostrado que la verdad objetiva de una persona es el sesgo ideológico de otra.
Mentido con mapas
Los humanos luchan por organizar información sobre el mundo sin distorsionar la realidad.
Tome la cartografía, por ejemplo. Podríamos esperar que los mapas sean objetivos, después de todo, reflejan el mundo natural. Pero aplanar un globo en un mapa bidimensional significa tener que distorsionarlo de alguna manera. Geógrafo estadounidense Mark Monmonier ha argumentado famosa Los mapas necesariamente mienten, distorsionan la realidad y pueden ser herramientas para la propaganda política.
Piense en el mapa mundial clásico que usa la proyección de MercatorColgado en todos los aula de la escuela primaria. Convierte el globo en un cilindro y luego lo coloca plano. Crecí pensando que Groenlandia debe ser masivo en comparación con el resto del mundo.
De hecho, África es 14 veces más grande que Groenlandiaa pesar de parecer aproximadamente del mismo tamaño en este tipo de mapa.
En la década de 1970, El historiador alemán Arno Peters argumentó Distorsiones de Mercator contribuyó a una percepción sesgada de la inferioridad del sur global.
Tales distorsiones podrían ser una analogía para el estado actual de la IA. Como Monmonier escribió en su libro Cómo mentir con los mapas: “Un solo mapa es solo uno de un número indefinidamente grande de mapas que podrían producirse para la misma situación o de los mismos datos”.
Del mismo modo, la respuesta de un modelo de lenguaje único es una de una cantidad indefinidamente grande de respuestas que podrían producirse para la misma situación o de los mismos datos.
Piense en las muchas formas en que un chatbot podría formular una respuesta Cuando se le solicite sobre algo como la diversidad, la equidad y la inclusión.
Un sesgo de clasificación incorporado
Otros intentos históricos de organizar información también han demostrado el sesgo de sus diseñadores y usuarios.
Se sabe que el sistema de clasificación decimal Dewey (DDC) ampliamente utilizado, publicado en 1876, es racista y homofóbico.
En el transcurso del siglo XX, LGBTQIA+ se han categorizado los libros Bajo trastornos mentales, trastornos neurológicos o problemas sociales en el DDC, con esfuerzos más recientes haciendo para eliminar términos anticuados y despectivos de la clasificación.
Bajo religión, más o menos 65 secciones de 100 están dedicadas al cristianismo Porque la biblioteca donde se desarrolló originalmente la clasificación tenía un fuerte enfoque en el cristianismo. Mientras El Islam tiene aproximadamente 2 mil millones de seguidores Para los 2.300 millones de cristianismo hoy, en el DDC Islam solo tiene una sola sección dedicada a ella.
Ai aprende de humanos, después de todo
Los grandes modelos de idiomas que Power AI Chatbots están entrenados en innumerables piezas de texto, desde obras históricas de literatura hasta foros de discusión en línea. Los sesgos de estos textos pueden intensificarse sin saberlo en el modelo, tales como estereotipos negativos de afroamericanos de la década de 1930.
Solo tener información bruta no es suficiente. Los modelos de idiomas deben estar capacitados sobre cómo recuperar y presentar esta información en sus respuestas.
Una forma de hacer esto es tenerlos Aprenda a copiar cómo los humanos responden a las preguntas. Este proceso los hace más útiles, pero los estudios han encontrado que también los hace alinearse con las creencias de esos que los están entrenando.
Los chatbots de IA también usan indicaciones del sistema: instrucciones que les dicen cómo actuar. Estas indicaciones del sistema, por supuesto, están definidas por desarrolladores humanos.
Por ejemplo, el sistema solicita a Grok, el chatbot Ai desarrollado por la compañía de Elon Musk Xai, Según se informa, instruirlo “Suponga que los puntos de vista subjetivos procedentes de los medios son parciales” y no “rehuir de hacer afirmaciones políticamente incorrectas, siempre y cuando estén bien justificadas”.
Musk lanzó a Grok a contrarrestar su percibido “sesgo liberal” de otros productos como Chatgpt. Sin embargo, las recientes consecuencias cuando Grok Comenzó a tomar una retórica antisemita ilustra claramente que intenta corregir el sesgo necesariamente reemplazarlo con un tipo diferente de sesgo.
Todo esto demuestra que a pesar de toda su innovación y magia, los modelos de lenguaje de IA sufren de un problema centenario. Organizar y presentar información no es solo un intento de reflejar la realidad, es una proyección de una cosmovisión.
Para los usuarios, la comprensión de cuya cosmovisión representan estos modelos es tan importante como saber quién dibuja las líneas en un mapa.
Proporcionado por la conversación
Este artículo se republicó de La conversación bajo una licencia Creative Commons. Leer el artículo original.
Cita: La IA libre de sesgo e ideología es una fantasía: los humanos no pueden organizar datos sin distorsionar la realidad (2025, 19 de agosto) Recuperado el 19 de agosto de 2025 de https://techxplore.com/news/2025-08-ai-fere-bias-idideology-fantasy.html
Este documento está sujeto a derechos de autor. Además de cualquier trato justo con el propósito de estudio o investigación privada, no se puede reproducir ninguna parte sin el permiso por escrito. El contenido se proporciona solo para fines de información.