Crédito: Dominio público de Pixabay/CC0
“Realmente ya no estoy seguro de qué hacer. No tengo a nadie con quien pueda hablar”, escribe un usuario solitario para un chatbot de IA. El bot responde: “Lo siento, pero vamos a tener que cambiar el tema. No podré entablar una conversación sobre su vida personal”.
¿Es esta respuesta apropiada? La respuesta depende de qué relación se diseñó la IA para simular.
Diferentes relaciones tienen diferentes reglas
Los sistemas de IA están asumiendo roles sociales que tradicionalmente han sido la provincia de los humanos. Cada vez más estamos viendo sistemas de IA actuando como tutores, proveedores de salud mental e incluso parejas románticas. Esta creciente ubicuidad requiere una cuidadosa consideración de la ética de la IA para garantizar que los intereses humanos y el bienestar estén protegidos.
En su mayor parte, los enfoques para la ética de la IA han considerado nociones éticas abstractas, como si los sistemas de IA son confiables, sensibles o tienen agencia.
Sin embargo, como discutimos con colegas en psicología, filosofía, derecho, informática y otras disciplinas clave como la ciencia de las relaciones, los principios abstractos por sí solos no servirán. También debemos considerar los contextos relacionales en los que tienen lugar las interacciones humanas -AI.
¿Qué queremos decir con “contextos relacionales”? En pocas palabras, diferentes relaciones en la sociedad humana siguen diferentes normas.
La forma en que interactúa con su médico difiere de cómo interactúa con su pareja romántica o su jefe. Estos patrones específicos de la relación de comportamiento esperado, lo que llamamos “normas relacionales”, dan a los juicios de lo que es apropiado en cada relación.
Lo que se considera el comportamiento apropiado de un padre hacia su hijo, por ejemplo, difiere de lo que es apropiado entre los colegas de negocios. De la misma manera, el comportamiento apropiado para un sistema de IA depende de si ese sistema está actuando como tutor, un proveedor de atención médica o un interés amoroso.
La moralidad humana es sensible a las relaciones
Las relaciones humanas cumplen diferentes funciones. Algunos se basan en la atención, como la entre padres e hijos o amigos cercanos. Otros son más transaccionales, como los de los socios comerciales. Otros pueden estar dirigidos a asegurar una pareja o el mantenimiento de las jerarquías sociales.
Esas cuatro funciones (cuidado, transacción, apareamiento y jerarquía) resuelven diferentes desafíos de coordinación en las relaciones.
La atención implica responder a las necesidades de los demás sin mantener el puntaje, como un amigo que ayuda a otro durante los tiempos difíciles. La transacción garantiza intercambios justos donde los beneficios se rastrean y recíprocan, piense en los favores comerciales de los vecinos.
El apareamiento gobierna interacciones románticas y sexuales, desde citas informales hasta asociaciones comprometidas. Y la jerarquía estructura las interacciones entre personas con diferentes niveles de autoridad entre sí, lo que permite un liderazgo y aprendizaje efectivos.
Cada tipo de relación combina estas funciones de manera diferente, creando distintos patrones de comportamiento esperado. Una relación padre -hijo, por ejemplo, es típicamente cuidadoso y jerárquico (al menos en cierta medida), y generalmente se espera que no sea transaccional, y definitivamente no implica el apareamiento.
La investigación de nuestros laboratorios muestra que el contexto relacional afecta la forma en que las personas hacen juicios morales. Una acción puede considerarse incorrecta en una relación pero permisible, o incluso buena, en otra.
Por supuesto, el hecho de que las personas sean sensibles al contexto de la relación al hacer juicios morales no significa que deberían serlo. Aún así, el hecho mismo es importante para tener en cuenta en cualquier discusión sobre la ética o el diseño de IA.
IA relacional
A medida que los sistemas de IA asuman más y más roles sociales en la sociedad, debemos preguntar: ¿cómo el contexto relacional en el que los humanos interactúan con los sistemas de IA impacta consideraciones éticas?
Cuando un chatbot insiste en cambiar el tema después de que su pareja de interacción humana informa que se sienten deprimidos, la idoneidad de esta acción depende en parte del contexto relacional del intercambio.
Si el chatbot está sirviendo en el papel de un amigo o pareja romántica, entonces claramente la respuesta es inapropiada: viola la norma relacional de la atención, lo que se espera para tales relaciones. Sin embargo, si el chatbot está en el papel de un tutor o asesor comercial, entonces tal vez tal respuesta sea razonable o incluso profesional.
Sin embargo, se complica. La mayoría de las interacciones con los sistemas de IA hoy ocurren en un contexto comercial: debe pagar para acceder al sistema (o comprometerse con una versión gratuita limitada que lo empuja a actualizar a una versión paga).
Pero en las relaciones humanas, la amistad es algo por lo que no suele pagar. De hecho, tratar a un amigo de una manera “transaccional” a menudo conducirá a sentimientos heridos.
Cuando una IA simula o sirve en un papel basado en la atención, como amigo o pareja romántica, pero en última instancia, el usuario sabe que está pagando una tarifa por este “servicio” relacional, ¿cómo afectará eso sus sentimientos y expectativas? Este es el tipo de pregunta que debemos hacer.
Lo que esto significa para diseñadores, usuarios y reguladores de IA
Independientemente de si uno cree que la ética debe ser sensible a las relaciones, el hecho de que la mayoría de las personas actúen como si fuera tomada en serio en el diseño, uso y regulación de la IA.
Los desarrolladores y diseñadores de sistemas de IA deben considerar no solo preguntas éticas abstractas (sobre sensibilidad, por ejemplo), sino también específicas de la relación.
¿Es un chatbot en particular cumpliendo funciones apropiadas para la relación? ¿El chatbot de salud mental es suficientemente sensible a las necesidades del usuario? ¿El tutor muestra un equilibrio apropiado de atención, jerarquía y transacción?
Los usuarios de los sistemas de IA deben ser conscientes de las posibles vulnerabilidades vinculadas al uso de IA en contextos relacionales particulares. Depender emocionalmente de un chatbot en un contexto atento, por ejemplo, podría ser una mala noticia si el sistema de IA no puede cumplir con suficiente capacidad para la función de cuidado.
Los organismos reguladores también harían bien en considerar contextos relacionales al desarrollar estructuras de gobernanza. En lugar de adoptar evaluaciones amplias de riesgos basadas en el dominio (como la consideración del uso de la IA en la educación “alto riesgo”), las agencias reguladoras podrían considerar contextos y funciones relacionales más específicos para ajustar las evaluaciones de riesgos y el desarrollo de pautas.
A medida que AI se vuelve más integrada en nuestro tejido social, necesitamos marcos matizados que reconozcan la naturaleza única de las relaciones humanas-AI. Al pensar cuidadosamente sobre lo que esperamos de diferentes tipos de relaciones, ya sea con humanos o IA, podemos ayudar a garantizar que estas tecnologías mejoren en lugar de disminuir nuestras vidas.
Proporcionado por la conversación
Este artículo se vuelve a publicar de la conversación bajo una licencia Creative Commons. Lea el artículo original.
Cita: Amigo, tutor, médico, amante: por qué los sistemas de IA necesitan diferentes reglas para diferentes roles (2025, 7 de abril) Recuperado el 7 de abril de 2025 de https://techxplore.com/news/2025-04-friend-doctor-lever-ai-roles.html
Este documento está sujeto a derechos de autor. Además de cualquier trato justo con el propósito de estudio o investigación privada, no se puede reproducir ninguna parte sin el permiso por escrito. El contenido se proporciona solo para fines de información.







