Distribuciones de asociación de color para nieve (arriba) y odio (medio) en la condición “normal” (izquierda) y “negada” (derecha), y para el boodoma de pseudoword (abajo a la izquierda) y su contraparte modificada fonéticamente blodoma (abajo a la derecha). Las asociaciones de color de cada grupo se ordenan desde los colores más comunes (inferiores) hasta menos comunes (arriba), y los colores del segmento de la barra reflejan sus respuestas. Tenga en cuenta que nuestras preguntas de la encuesta utilizan términos de color en lugar de parches de color visuales. Cada segmento de barra superior al 5% está etiquetado por su término de color correspondiente. Crédito: ciencia cognitiva (2025). Doi: 10.1111/cogs.70083
ChatGPT funciona analizando grandes cantidades de texto, identificando patrones y sintetizándolos para generar respuestas a las indicaciones de los usuarios. Las metáforas de color como “Feeling Blue” y “See Red” son comunes en todo el idioma inglés y, por lo tanto, comprenden parte del conjunto de datos en el que se capacita el chatgpt.
Pero si bien ChatGPT ha “leído” miles de millones de palabras sobre lo que podría significar sentirse azul o ver rojo, en realidad nunca ha visto un cielo azul o una manzana roja de las formas en que los humanos tienen. Esto plantea las preguntas: ¿Las experiencias encarnadas, la capacidad del sistema visual humano para percibir el color, permiten que las personas entiendan el lenguaje colorido más allá de las formas textuales en que lo hace Chatgpt? ¿O es el lenguaje solo, tanto para la IA como para los humanos, suficiente para comprender las metáforas de color?
Nuevos resultados de un estudio Publicado en Cognitive Science dirigida por la profesora Lisa Aziz-Zadeh y un equipo de investigadores universitarios y de la industria ofrecen algunas ideas sobre esas preguntas y plantean aún más.
“ChatGPT utiliza una enorme cantidad de datos lingüísticos para calcular las probabilidades y generar respuestas muy humanas”, dijo Aziz-Zadeh, autor principal de la publicación. “Pero lo que estamos interesados en explorar es si todavía es una forma de conocimiento de segunda mano, en comparación con el conocimiento humano basado en experiencias de primera mano”.
Aziz-Zadeh es el director del Centro de la Neurociencia de la Cognición encarnada y tiene una cita conjunta en el Instituto de Creatividad y Brain de la USC Dornsife. Su laboratorio utiliza técnicas de imágenes cerebrales para examinar cómo la neuroanatomía y la neurocognición están involucradas en habilidades de orden superior, incluyendo lenguaje, pensamiento, emociones, empatía y comunicación social.
El equipo interdisciplinario del estudio incluyó psicólogos, neurocientíficos, científicos sociales, informáticos y astrofísicos de UC San Diego, Stanford, Université de Montréal, la Universidad del Oeste de Inglaterra y Google Deepmind, la compañía de investigación de IA de Google con sede en Londres.
Chatgpt entiende ‘muy rosa fiesta’ mejor que ‘reunión burdeos’
El equipo de investigación realizó encuestas en línea a gran escala que comparan cuatro grupos participantes: adultos que ve el color, adultos daltónicos, pintores que trabajan regularmente con pigmentos de color y chatgpt. Cada grupo tenía la tarea de asignar colores a palabras abstractas como “física”. También se pidió a los grupos que descifraran metáforas de color familiares (“estaban en alerta roja”) y las desconocidas (“Era una fiesta muy rosa”), y luego explicar su razonamiento.
Los resultados muestran que los humanos de color y ciego de color eran sorprendentemente similares en sus asociaciones de color, lo que sugiere que, al contrario de la hipótesis de los investigadores, la percepción visual no es necesariamente un requisito para la comprensión metafórica. Sin embargo, los pintores mostraron un impulso significativo en la interpretación correcta de nuevas metáforas de color. Esto sugiere que las experiencias prácticas que usan color desbloquean representaciones conceptuales más profundas en el lenguaje.
ChatGPT también generó asociaciones de color altamente consistentes, y cuando se le pidió que explique su razonamiento, a menudo referenciadas asociaciones emocionales y culturales con varios colores. Por ejemplo, para explicar la metáfora de Pink Party, Chatgpt respondió que “el rosa a menudo se asocia con la felicidad, el amor y la amabilidad, lo que sugiere que la fiesta estaba llena de emociones positivas y buenas vibraciones”.
Sin embargo, ChatGPT usó explicaciones encarnadas con menos frecuencia que los humanos. También se rompió más a menudo cuando se le solicitó interpretar metáforas novedosas (“la reunión lo hizo burdeos”) o invertir asociaciones de color (“lo opuesto al verde”).
A medida que AI continúa evolucionando, estudios como este subrayan los límites de los modelos solo de lenguaje para representar la gama completa de comprensión humana. La investigación futura puede explorar si la integración de la entrada sensorial, como datos visuales o táctiles, podría ayudar a los modelos de IA a acercarse a la cognición humana.
“Este proyecto muestra que todavía hay una diferencia entre imitar los patrones semánticos y el espectro de la capacidad humana para aprovechar las experiencias encarnadas y prácticas en nuestro razonamiento”, dijo Aziz-Zadeh.
Más información: ¿Ethan O. Nadler et al, estadístico o encarnado? Comparación de colorseeing, colorblind, pintores y grandes modelos de lenguaje en su procesamiento de metáforas de color, ciencia cognitiva (2025). Doi: 10.1111/cogs.70083
Proporcionado por la Universidad del Sur de California
Cita: ¿Puede ChatGPT realmente ‘ver’ rojo? Los resultados de los nuevos estudios son matizados (2025, 8 de julio) Recuperados el 8 de julio de 2025 de https://techxplore.com/news/2025-07-chatgpt-rod-results-nuanced.html
Este documento está sujeto a derechos de autor. Además de cualquier trato justo con el propósito de estudio o investigación privada, no se puede reproducir ninguna parte sin el permiso por escrito. El contenido se proporciona solo para fines de información.