Crédito: dominio público Unsplash/CC0
Un nuevo estudio sugiere que las poblaciones de agentes de inteligencia artificial (IA), similares a ChatGPT, pueden desarrollar espontáneamente convenciones sociales compartidas solo a través de la interacción.
La investigación de la Ciudad de San Jorge, la Universidad de Londres y la Universidad de TI de Copenhague sugiere que cuando estos agentes de inteligencia artificial (IA) del modelo de lenguaje grande (LLM) se comunican (AI) en grupos, no solo siguen guiones o patrones repetidos, sino que se organizan autoorganizan, alcanzando el consenso sobre las normas lingüísticas como las comunidades humanas.
El estudio, “Convenciones sociales emergentes y sesgo colectivo en poblaciones de LLM”, se publica en la revista Science Advances.
Los LLM son poderosos algoritmos de aprendizaje profundo que pueden comprender y generar lenguaje humano, con los más famosos hasta la fecha en Chatgpt.
“La mayoría de la investigación hasta ahora ha tratado a LLMS de forma aislada”, dijo el autor principal Ariel Flint Ashery, un investigador doctoral de City St George’s “, pero los sistemas de IA del mundo real se centrarán cada vez más en que muchos agentes interactuantes.
En el estudio, los investigadores adaptaron un marco clásico para estudiar convenciones sociales en humanos, basado en el modelo de “juego de nombres” de formación de convenciones.
En sus experimentos, los grupos de agentes de LLM variaron en tamaño de 24 a 200 individuos, y en cada experimento, dos agentes de LLM se emparejaron aleatoriamente y se les pidió que seleccionen un “nombre” (por ejemplo, una letra de alfabeto o una cadena aleatoria de caracteres) de un grupo compartido de opciones. Si ambos agentes seleccionaron el mismo nombre, obtuvieron una recompensa; Si no, recibieron una penalización y se les mostró las elecciones del otro.
Los agentes solo tenían acceso a una memoria limitada de sus propias interacciones recientes, no de la población completa, y no se les dijo que eran parte de un grupo. Durante muchas de esas interacciones, una convención de nombres compartidas podría surgir espontáneamente a través de la población, sin ninguna coordinación central o solución predefinida, imitando las normas de abajo hacia arriba se forman en las culturas humanas.
Aún más sorprendente, el equipo observó sesgos colectivos que no podían remitirse a los agentes individuales.
“El sesgo no siempre viene de adentro”, explicó Andrea Baronchelli, profesora de ciencias de la complejidad en City St George’s y autora principal del estudio. “Nos sorprendió ver que puede surgir entre los agentes, solo de sus interacciones. Este es un punto ciego en la mayoría del trabajo de seguridad de IA actual, que se centra en modelos individuales”.
En un experimento final, el estudio ilustra cómo estas normas emergentes pueden ser frágiles: pequeños grupos comprometidos de agentes de IA pueden inclinar a todo el grupo hacia una nueva convención de nombres, haciéndose eco de efectos de punto de inflexión bien conocidos, o dinámica de “masa crítica”, en sociedades humanas.
Los resultados del estudio también fueron robustos en el uso de cuatro tipos diferentes de LLM, llamados LLAMA-2-70B-CHAT, LLAMA-3-70B-INSTRUCT, LLAMA-3.1-70BINSTRUCT y CLAUDE-3.5-ENONNET.
A medida que los LLM comienzan a completar los entornos en línea, desde las redes sociales hasta los vehículos autónomos, los investigadores imaginan su trabajo como un trampolín para explorar más a fondo cómo el razonamiento humano y la IA que convergen y divergen, con el objetivo de ayudar a combatir algunos de los peligros éticos más apremiantes planteados por LLM AIS propagados de los besis alimentados por ellos por la sociedad, lo que puede hacer daño a los grupos marginales.
El profesor Baronchelli agregó: “Este estudio abre un nuevo horizonte para la investigación de seguridad de la IA. Muestra la profundidad de las implicaciones de esta nueva especie de agentes que han comenzado a interactuar con nosotros, y cohapentarán nuestro futuro. como nosotros “.
Más información: convenciones sociales emergentes y sesgo colectivo en poblaciones de LLM, avances científicos (2025). Doi: 10.1126/sciadv.adu9368
Proporcionado por City St George’s, Universidad de Londres
Cita: los grupos de agentes de IA forman espontáneamente sus propias normas sociales sin ayuda humana, sugiere (2025, 14 de mayo) recuperados el 14 de mayo de 2025 de https://techxplore.com/news/2025-05-groups-ai-agents spontánely-social.html
Este documento está sujeto a derechos de autor. Además de cualquier trato justo con el propósito de estudio o investigación privada, no se puede reproducir ninguna parte sin el permiso por escrito. El contenido se proporciona solo para fines de información.









