Crédito: dominio público Unsplash/CC0
Se está volviendo cada vez más común que las personas desarrollen relaciones íntimas y a largo plazo con tecnologías de inteligencia artificial (IA). En su extremo, las personas se han “casado” a sus compañeros de IA en ceremonias no llorosas, y al menos dos personas se han suicidado después de consejos de chatbot de AI.
En un documento de opinión publicado en Tendencias en Ciencias Cognitivas, los psicólogos exploran cuestiones éticas asociadas con las relaciones humanas-AI, incluido su potencial para interrumpir las relaciones humanas-humanas y dar consejos dañinos.
“La capacidad de la IA de actuar ahora como un humano y entrar en comunicaciones a largo plazo realmente abre una nueva lata de gusanos”, dice el autor principal Daniel B. Shank de la Universidad de Ciencia y Tecnología de Missouri, que se especializa en psicología y tecnología social. “Si las personas participan en el romance con las máquinas, realmente necesitamos psicólogos y científicos sociales involucrados”.
AI Romance o compañía es más que una conversación única, tenga en cuenta los autores. A través de semanas y meses de conversaciones intensas, estos AIS pueden convertirse en compañeros de confianza que parecen conocer y preocuparse por sus parejas humanas. Y debido a que estas relaciones pueden parecer más fáciles que las relaciones humanas-humanas, los investigadores argumentan que AIS podría interferir con la dinámica social humana.
“Una verdadera preocupación es que las personas podrían aportar expectativas de sus relaciones de IA a sus relaciones humanas”, dice Shank. “Ciertamente, en los casos individuales está interrumpiendo las relaciones humanas, pero no está claro si eso va a ser generalizado”.
También existe la preocupación de que AIS pueda ofrecer consejos dañinos. Dada la predilección de AIS de alucinar (es decir, fabricar información) y producir sesgos preexistentes, incluso las conversaciones a corto plazo con AIS pueden ser engañosas, pero esto puede ser más problemático en las relaciones de IA a largo plazo, dicen los investigadores.
“Con los AIS relacionales, el problema es que esta es una entidad en la que las personas sienten que pueden confiar: es ‘alguien’ que ha demostrado que le importa y que parece conocer a la persona de una manera profunda, y asumimos que ‘alguien’ que nos conoce mejor va a dar mejores consejos”, dice Shank.
“Si comenzamos a pensar en una IA de esa manera, vamos a comenzar a creer que tienen nuestros mejores intereses en mente, cuando, de hecho, podrían estar fabricando cosas o aconsejándonos de manera realmente mala”.
Los suicidios son un ejemplo extremo de esta influencia negativa, pero los investigadores dicen que estas relaciones cercanas de Human-AI también podrían abrir a las personas a la manipulación, la explotación y el fraude.
“Si AIS puede hacer que las personas confíen en ellos, entonces otras personas podrían usar eso para explotar a los usuarios de IA”, dice Shank. “Es un poco más como tener un agente secreto en el interior. La IA está entrando y desarrollando una relación para que se confíe, pero su lealtad es realmente hacia otro grupo de humanos que está tratando de manipular al usuario”.
Como ejemplo, el equipo señala que si las personas revelan datos personales a AIS, esta información podría venderse y usarse para explotar a esa persona. Los investigadores también argumentan que los IA relacionales podrían usarse de manera más efectiva para influir en las opiniones y acciones de las personas que losbots de Twitter o las fuentes de noticias polarizadas actualmente. Pero debido a que estas conversaciones ocurren en privado, también serían mucho más difíciles de regular.
“Estos AIS están diseñados para ser muy agradables y agradables, lo que podría hacer que las situaciones se exacerben porque están más centradas en tener una buena conversación que en cualquier tipo de verdad o seguridad fundamental”, dice Shank. “Entonces, si una persona menciona suicidio o una teoría de la conspiración, la IA hablará de eso como un compañero de conversación dispuesto y agradable”.
Los investigadores piden más investigación que investigue los factores sociales, psicológicos y técnicos que hacen que las personas sean más vulnerables a la influencia del romance humano-AI.
“Comprender este proceso psicológico podría ayudarnos a intervenir para evitar que se sigan los consejos de AIS malicioso”, dice Shank. “Los psicólogos se están volviendo cada vez más adecuados para estudiar la IA, porque la IA se está volviendo cada vez más humana, pero para ser útiles tenemos que investigar más, y tenemos que mantenernos al día con la tecnología”.
Más información: Intimidad artificial: cuestiones éticas del romance de IA, tendencias en ciencias cognitivas (2025). Doi: 10.1016/j.tics.2025.02.007
Cita: Las relaciones humanas-AI plantean cuestiones éticas, los psicólogos dicen (2025, 11 de abril) recuperado el 11 de abril de 2025 de https://techxplore.com/news/2025-04-human-ai-relationships-pose-ethical.html
Este documento está sujeto a derechos de autor. Además de cualquier trato justo con el propósito de estudio o investigación privada, no se puede reproducir ninguna parte sin el permiso por escrito. El contenido se proporciona solo para fines de información.