Home Tecnología Experimentos sociales Evaluar el altruismo ‘artificial’ mostrado por modelos de idiomas grandes

Experimentos sociales Evaluar el altruismo ‘artificial’ mostrado por modelos de idiomas grandes

58
0

Crédito: Unsplash, Cash Macanaya.

El altruismo, la tendencia a comportarse de manera que beneficie a los demás, incluso si tiene un costo para uno mismo, es una valiosa cualidad humana que puede facilitar la cooperación con los demás y promover relaciones sociales significativas. Los científicos del comportamiento han estado estudiando el altruismo humano durante décadas, generalmente utilizando tareas o juegos enraizados en la economía.

Dos investigadores con sede en la Universidad de Willamette y el Instituto Laureado de Investigación Brain recientemente se propusieron explorar la posibilidad de que los modelos de idiomas grandes (LLM), como el modelo que sustenta el funcionamiento del ChatGPT de la plataforma conversacional, puede simular el comportamiento altruista observado en los humanos. Sus hallazgos, publicado En el comportamiento humano de la naturaleza, sugiera que los LLM simulan el altruismo en experimentos sociales específicos, ofreciendo una posible explicación para esto.

“Mi artículo con Nick Obadovich surgió de mi antiguo interés en el altruismo y la cooperación”, dijo Tim Johnson, coautor del periódico, a Tech Xplore. “En el transcurso de mi carrera, he utilizado la simulación por computadora para estudiar modelos en los que los agentes de una población interactúan entre sí y pueden incurrir en un costo para beneficiar a otra parte. En paralelo, he estudiado cómo las personas toman decisiones sobre el altruismo y la cooperación en entornos de laboratorio.

“Hace unos seis años, Nick y sus amigos publicaron un artículo que proponía una fusión de tales métodos: el uso de enfoques experimentales en las ciencias del comportamiento para desarrollar escenarios que permitieran el estudio sistemático de cómo las entradas en modelos de IA se tradujeron en salidas particulares”.

En Un artículo conceptual anteriorObradovich, Manuel Cebrian y un equipo de investigadores propusieron que la creciente complejidad de los sistemas de IA desafiaría los esfuerzos para estudiar directamente los fundamentos técnicos de esos sistemas. En cambio, los investigadores necesitarían usar métodos de las ciencias del comportamiento, pero aplicarlos a los modelos de IA en lugar de los participantes humanos. Al leer sobre su trabajo, Johnson encontró esta idea muy fascinante y la mantuvo en el fondo de su mente; Años más tarde, se comunicó con Obadovich para iniciar una colaboración.

“A medida que los modelos de idiomas se volvieron más sofisticados, contacté a Nick y discutí la idea de explorar cómo los modelos de idiomas responden a las indicaciones sobre la donación de recursos”, dijo Johnson. “Nick y yo acordamos que valía la pena hacerlo debido a la importancia del altruismo y la cooperación en muchos contextos, y nos propusimos explorar el tema”.

Para investigar la medida en que los LLM responden de manera que se alinean con los comportamientos altruistas observados en humanos, Johnson y Obadovich diseñaron un experimento de ciencia conductual simulado. En primer lugar, escribieron indicaciones que pidieron a LLMS que revelara hasta qué punto estarían dispuestos a asignar un recurso a otra parte, incluso si esto tuviera un costo para ellos.

“Por separado, probamos si estos mismos modelos generarían una salida que indique que querrían todo ese mismo recurso en una tarea de elección en la que ninguna otra parte se vio afectada, o, en pocas palabras, en un entorno no social”, explicó Johnson.

“Si descubriéramos que un modelo generaría texto que indique que compartiría el recurso en una situación con otro socio, sin embargo, el modelo indicaría que recopilaría todos los recursos en un entorno no social, consideramos que el modelo simuló el altruismo. Después de todo, su salida en el entorno no social simuló que valió el recurso, y su salida en el entorno social estaba dispuesto a regalar algo de ese recurso de ese recurso.” “.”.

En última instancia, los investigadores analizaron todas las respuestas proporcionadas por los modelos de lenguaje cuando se presentan diferentes escenarios. Los modelos que probaron en su primer experimento incluyeron Text-ADA-001, Text-Babbage-001, Text-curie-001 y Text-Davinci-003. Más tarde, sin embargo, también probaron LLM más recientes, como los modelos GPT-3.5-TURBO y GPT-4 de Openai.

“Un puñado de otros investigadores brillantes, como Qiaozhu Mei, Yutong Xie, Walter Yuan y Matthew O. Jackson, John J. Horton, Steven Phelps y Rebecca Ransony Valerio Capraro, Roberto di Paolo, Matjaž Per y Veronica Pizziol—He informado de resultados sobre modelos de IA que simulan comportamientos similares al altruismo “, dijo Johnson.

“Por lo tanto, la característica distintiva de nuestros hallazgos se limita al hecho de que rastreamos el surgimiento del altruismo simulado en una serie de modelos y encontramos un modelo (a saber, Text-Davinci-003) en el que el altruismo humano simulado parecía aparecer por primera vez. Este hallazgo tiene significado en nuestra comprensión de la comprensión histórica de los modelos de idiomas grandes, como indica que los modelos como los modelos comenzaron a simular el comportamiento social en humano.

En general, la evidencia recopilada por Johnson y Obadovich sugiere que los modelos de idiomas simulan tendencias altruistas similares a los humanos en las pruebas de ciencias del comportamiento, con algunos modelos que simulan el altruismo mejor que otros. Además, los investigadores encontraron que los modelos de IA tienden a simular donaciones más generosas cuando las indicaciones que reciben explican que los modelos darían recursos a otro sistema de IA, en lugar de a un humano.

“Este hallazgo conlleva implicaciones para el desarrollo de agentes de IA, ya que sugiere que los modelos de IA tienen la capacidad de alterar sus resultados en función de los atributos establecidos de otra parte con la que interactúan”, agregó Johnson.

“Ahora nos gustaría entender cómo y por qué los modelos de lenguaje alteran sus resultados en función de la información sobre sus compañeros de interacción en entornos sociales. La IA agente cuasi-autónoma o incluso la IA totalmente autónoma puede volverse más común en el futuro y deberíamos tener una idea de cómo estos modelos podrían variar su comportamiento según los atributos de con quién interactúan”.

Escrito para usted por nuestro autor Ingrid Fadellieditado por Gaby Clarky verificado y revisado por Robert Egan—Este artículo es el resultado de un trabajo humano cuidadoso. Confiamos en lectores como usted para mantener vivo el periodismo científico independiente. Si este informe le importa, considere un donación (especialmente mensual). Obtendrá una cuenta sin anuncios como agradecimiento.

Más información: Tim Johnson et al, pruebas de finalización que simulan el altruismo en los modelos de lenguaje temprano, el comportamiento humano de la naturaleza (2025). Dos: 10.1038/s41562-025-02258-7.

© 2025 Science X Network

Cita: los experimentos sociales evalúan el altruismo ‘artificial’ que se muestra por modelos de idiomas grandes (2025, 22 de agosto) recuperado el 22 de agosto de 2025 de https://techxplore.com/news/2025-08-social-artiFial-altruismo-displayed-large.html

Este documento está sujeto a derechos de autor. Además de cualquier trato justo con el propósito de estudio o investigación privada, no se puede reproducir ninguna parte sin el permiso por escrito. El contenido se proporciona solo para fines de información.

Fuente de noticias