Tecnología

AI El exceso de confianza refleja un trastorno del lenguaje humano

La naturaleza de la dinámica de las señales tanto en el cerebro de las personas con afasia como en los modelos de idiomas grandes, o LLMS, demostró ser sorprendentemente similares cuando se representa visualmente. Crédito: 2025 Watanabe et al. Cc-by-nd

Los agentes, los chatbots y otras herramientas basadas en la inteligencia artificial (IA) son cada vez más utilizadas en la vida cotidiana por muchos. Los llamados agentes basados ​​en el modelo de lenguaje grande (LLM), como ChatGPT y LLAMA, se han vuelto impresionantemente fluidos en las respuestas que forman, pero a menudo proporcionan información convincente pero incorrecta.

Investigadores de la Universidad de Tokio dibujan paralelos entre este tema y un trastorno del lenguaje humano conocido como afasia, donde los pacientes pueden hablar con fluidez pero hacer declaraciones sin sentido o difícil de entender. Esta similitud podría apuntar hacia mejores formas de diagnóstico para la afasia, e incluso proporcionar información a los ingenieros de IA que buscan mejorar los agentes basados ​​en LLM.

Este artículo fue escrito por un ser humano, pero el uso de la IA generadora de texto está en aumento en muchas áreas. A medida que más y más personas se usan y confían en tales cosas, existe una necesidad cada vez mayor de asegurarse de que estas herramientas ofrecen respuestas e información correctas y coherentes a sus usuarios.

Muchas herramientas familiares, incluidos ChatGPT y otros, parecen muy fluidos en lo que entregue. Pero no siempre se puede confiar en sus respuestas debido a la cantidad de contenido esencialmente inventado que producen. Si el usuario no tiene suficientes conocimientos sobre el área temática en cuestión, puede caer fácilmente en una falta de asumir que esta información es correcta, especialmente dado el alto grado de confianza que ChatGPT y otros muestran.

“No se puede dejar de notar cómo algunos sistemas de IA pueden parecer articulados mientras producen errores a menudo significativos”, dijo el profesor Takamitsu Watanabe del Centro Internacional de Investigación de Neurointeligencia (WPI-CIRCN) en la Universidad de Tokio.

“Pero lo que golpeó a mi equipo y a mí fue una similitud entre este comportamiento y el de las personas con afasia de Wernicke, donde esas personas hablan con fluidez, pero no siempre tienen mucho sentido. Eso nos llevó a preguntarnos si los mecanismos internos de estos sistemas de IA podrían ser similares a los del cerebro humano afectados por la afasia, y de ser así, cuáles podrían ser las implicaciones”.

La similitud entre una herramienta de IA y un trastorno cerebral en humanos podría abrir la puerta a nuevas formas de explorar ambas. Crédito: 2025 Watanabe et al. Cc-by-nd

Para explorar esta idea, el equipo utilizó un método llamado análisis de paisajes energéticos, una técnica desarrollada originalmente por físicos que buscan visualizar los estados de energía en metal magnético, pero que recientemente se adaptó para la neurociencia. El artículo se publica en la revista Advanced Science.

Examinaron patrones en la actividad cerebral en reposo de personas con diferentes tipos de afasia y los compararon con los datos internos de varios LLM disponibles públicamente. Y en su análisis, el equipo descubrió algunas similitudes sorprendentes.

La forma en que la información digital o las señales se mueven y manipulan dentro de estos modelos de IA coincidían estrechamente en la forma en que algunas señales cerebrales se comportaban en el cerebro de las personas con ciertos tipos de afasia, incluida la afasia de Wernicke.

“Puedes imaginar el paisaje energético como una superficie con una pelota. Cuando hay una curva, la pelota puede bajar y descansar, pero cuando las curvas son superficiales, la pelota puede rodar caóticamente”, dijo Watanabe.

“En la afasia, la pelota representa el estado cerebral de la persona. En LLMS, representa el patrón de señal continua en el modelo basado en sus instrucciones y un conjunto de datos internos”.

La investigación tiene varias implicaciones. Para la neurociencia, ofrece una posible nueva forma de clasificar y monitorear afecciones como la afasia en función de la actividad cerebral interna en lugar de solo los síntomas externos. Para la IA, podría conducir a mejores herramientas de diagnóstico que ayuden a los ingenieros a mejorar la arquitectura de los sistemas de IA desde adentro hacia afuera. Sin embargo, a pesar de las similitudes que descubrieron los investigadores, instan a la precaución de no hacer demasiadas suposiciones.

“No estamos diciendo que los chatbots tienen daño cerebral”, dijo Watanabe.

“Pero pueden estar encerrados en una especie de patrón interno rígido que limita cuán flexible pueden recurrir al conocimiento almacenado, al igual que en la afasia receptiva. Si los modelos futuros pueden superar esta limitación aún no se puede ver, pero comprender estos paralelos internos puede ser el primer paso hacia la IA más inteligente y más confiable también”.

Más información: Takamitsu Watanabe et al, comparación del modelo de lenguaje grande con afasia, ciencia avanzada (2025). Doi: 10.1002/advs.202414016

Proporcionado por la Universidad de Tokio

Cita: AI El exceso de confianza refleja un trastorno del lenguaje humano (2025, 15 de mayo) Consultado el 15 de mayo de 2025 de https://techxplore.com/news/2025-05-ai-overcidence-mirrors-human-language.html

Este documento está sujeto a derechos de autor. Además de cualquier trato justo con el propósito de estudio o investigación privada, no se puede reproducir ninguna parte sin el permiso por escrito. El contenido se proporciona solo para fines de información.

Back to top button