Home Tecnología La IA puede evolucionar para sentirse culpable, pero solo en ciertos entornos...

La IA puede evolucionar para sentirse culpable, pero solo en ciertos entornos sociales

21
0

La frecuencia de las estrategias y el nivel de cooperación total en función del costo de culpa, γ. Crédito: Journal of the Royal Society Interface (2025). Doi: 10.1098/rsif.2025.0164

La culpa es una cualidad muy ventajosa para la sociedad en su conjunto. Es posible que no preveniera las irregularidades iniciales, pero la culpa permite a los humanos juzgar sus propios juicios anteriores como dañinos y evita que vuelvan a suceder. La angustia interna causada por sentimientos de culpa a menudo, pero no siempre, se presenta en la persona que asume algún tipo de penitencia para aliviarse de la agitación interna. Esto podría ser algo tan simple como admitir sus fechorías con los demás y asumir un ligero estigma de alguien que es moralmente corrupto. Este costo inicial puede ser inicialmente doloroso, pero puede aliviar una mayor culpa y conducir a una mejor cooperación para el grupo en el futuro.

A medida que interactuamos cada vez más con la inteligencia artificial y la usamos en casi todos los aspectos de nuestra sociedad moderna, encontrar formas de inculcar la toma de decisiones éticas se vuelve más crítico. En un estudio reciente, publicado En el Journal of the Royal Society Interface, los investigadores utilizaron la teoría de juegos para explorar cómo y cuándo la culpa evoluciona en los sistemas de múltiples agentes.

Los investigadores utilizaron el “dilema de los prisioneros”, un juego donde dos jugadores deben elegir entre cooperar y desertar. El defecto proporciona a un agente una recompensa más alta, pero deben traicionar a su pareja. Esto, a su vez, hace que sea más probable que el compañero también defente. Sin embargo, si el juego se repite una y otra vez, la cooperación resulta en una mejor recompensa para ambos agentes.

Inicialmente, sin embargo, este cambio de defecto a cooperación requiere un “sentimiento” de culpa y penitencia en forma de puntos reducidos. Esta versión iterada se utilizó en el estudio entre estructuras de red bien mezcladas y de red (homogéneas) y sin escala (heterogéneas).

Los investigadores también distinguieron entre dos tipos diferentes de culpa: la culpa social, que requiere conciencia de los estados de los demás y la culpa no social, que se enfoca y no requiere conciencia social.

En última instancia, los resultados mostraron que la culpa social y no social evolucionó y persistió en las poblaciones más estructuradas, donde las estrategias que involucran la culpa dominaron y condujeron a niveles más altos de cooperación. La culpa no social fue más vulnerable a la explotación de personas que no se sintieron culpabilidad, pero sobrevivieron agrupando con estrategias similares con inclinación emocional. Las poblaciones bien mezcladas, por otro lado, experimentaron mucha menos cooperación. La culpa social evolucionó solo cuando el costo social era lo suficientemente pequeño, pero la culpa no social no evolucionó en absoluto.

Un hilo común parecía ser que a los agentes les resultaba más ventajoso expiar sus acciones (perdiendo puntos y cooperando en lugar de desertar) solo cuando su pareja también exhibió culpa, lo que era más probable que ocurriera en redes sociales estructuradas. Y así, evaluar las acciones de su pareja fue una parte importante del proceso.

Los autores del estudio escriben: “La cooperación no surge cuando los agentes solo alivian su propia culpa (es decir, la culpa no social), sin considerar las actitudes propias de sus co-jugadores sobre el alivio de la culpa también. Ese es el caso en el que los agentes de la culpa son fácilmente dominados por los agentes que no expresan la culpa o que no tienen la motivación para aliviar su propia culpa. Mutual (es decir, culpa social) puede prosperar la cooperación “.

Si bien las redes sociales de la vida real pueden ser más complejas que las de las simulaciones, este estudio proporciona una información valiosa sobre cómo la culpa y la cooperación ética podrían integrarse en los sistemas de IA.

Escrito para usted por nuestro autor Crystal Kasaleditado por Lisa Locky verificado y revisado por Robert Egan—Este artículo es el resultado de un trabajo humano cuidadoso. Confiamos en lectores como usted para mantener vivo el periodismo científico independiente. Si este informe le importa, considere un donación (especialmente mensual). Obtendrá una cuenta sin anuncios como agradecimiento.

Más información: Theodor Cimpeanu et al, La ventaja evolutiva de la culpa: coevolución de la culpa social y no social en poblaciones estructuradas, Journal of the Royal Society Interface (2025). Dos: 10.1098/rsif.2025.0164. RoyalSocietypublishing.org/doi …. 1098/rsif.2025.0164

© 2025 Science X Network

Cita: La IA puede evolucionar para sentirse culpable, pero solo en ciertos entornos sociales (2025, 30 de julio) recuperado el 30 de julio de 2025 de https://techxplore.com/news/2025-07-ai-evolve-guilt-social-enmentments.html

Este documento está sujeto a derechos de autor. Además de cualquier trato justo con el propósito de estudio o investigación privada, no se puede reproducir ninguna parte sin el permiso por escrito. El contenido se proporciona solo para fines de información.

Fuente de noticias