Home Tecnología Probar ‘pensamientos’ revela que los modelos usan matemáticas similares a los árboles...

Probar ‘pensamientos’ revela que los modelos usan matemáticas similares a los árboles para rastrear la información de cambio

8
0

Crédito: ARXIV (2025). Doi: 10.48550/arxiv.2503.02854

Digamos que estás leyendo una historia o jugando un juego de ajedrez. Es posible que no haya notado, pero en cada paso del camino, su mente realizó un seguimiento de cómo estaba cambiando la situación (o “estado del mundo”). Puede imaginar esto como una especie de secuencia de la lista de eventos, que utilizamos para actualizar nuestra predicción de lo que sucederá a continuación.

Los modelos de idiomas como ChatGPT también rastrean cambios dentro de su propia “mente” al terminar un bloque de código o anticipar lo que escribirá a continuación. Por lo general, hacen conjeturas educadas utilizando transformadores, arquitecturas internas que ayudan a los modelos a comprender los datos secuenciales, pero los sistemas a veces son incorrectos debido a los patrones de pensamiento defectuoso.

Identificar y ajustar estos mecanismos subyacentes ayuda a los modelos de lenguaje a convertirse en pronosticadores más confiables, especialmente con tareas más dinámicas como pronosticar el clima y los mercados financieros.

¿Pero estos sistemas de IA procesan situaciones en desarrollo como nosotros? Un nuevo papel Publicado en el servidor de preimpresión ARXIV de investigadores en el Laboratorio de Informática e Inteligencia Artificial del MIT (CSAIL) y el Departamento de Ingeniería Eléctrica y Ciencias de la Computación muestran que los modelos usan atentos matemáticos inteligentes entre cada paso progresivo en una secuencia, y finalmente hacen predicciones razonables.

El equipo hizo esta observación al pasar bajo el capó de los modelos de lenguaje, evaluando qué tan cerca podían realizar un seguimiento de los objetos que cambian la posición rápidamente. Sus hallazgos muestran que los ingenieros pueden controlar cuando los modelos de lenguaje utilizan soluciones particulares como una forma de mejorar las capacidades predictivas de los sistemas.

Juegos con cáscara

Los investigadores analizaron el funcionamiento interno de estos modelos utilizando un experimento inteligente que recuerda a un juego de concentración clásico. ¿Alguna vez tuvo que adivinar la ubicación final de un objeto después de colocarlo debajo de una taza y barajarse con contenedores idénticos? El equipo utilizó una prueba similar, donde el modelo adivinó la disposición final de dígitos particulares (también llamado permutación). Los modelos recibieron una secuencia inicial, como “42135” e instrucciones sobre cuándo y dónde mover cada dígito, como mover el “4” a la tercera posición y en adelante, sin conocer el resultado final.

En estos experimentos, los modelos basados en transformadores aprendieron gradualmente a predecir los arreglos finales correctos. Sin embargo, en lugar de barajar los dígitos en función de las instrucciones que se les dio, los sistemas agregaron información entre estados sucesivos (o pasos individuales dentro de la secuencia) y calcularon la permutación final.

Un patrón de referencia que el equipo observó, llamado “algoritmo asociativo”, esencialmente organiza los pasos cercanos en los grupos y luego calcula una suposición final. Puede pensar que este proceso está estructurado como un árbol, donde la disposición numérica inicial es la “raíz”. A medida que avanza por el árbol, los pasos adyacentes se agrupan en diferentes ramas y se multiplican juntos. En la parte superior del árbol se encuentra la combinación final de números, calculado multiplicando cada secuencia resultante en las ramas juntas.

La otra forma en que los modelos lingüísticos supusieron la permutación final fue a través de un mecanismo astuto llamado “Algoritmo Asociativo de Paridad”, que esencialmente reduce las opciones antes de agruparlas. Determina si la disposición final es el resultado de un número par o impar de reordenamientos de dígitos individuales. Luego, el mecanismo agrupa secuencias adyacentes de diferentes pasos antes de multiplicarlas, al igual que el algoritmo asociativo.

“Estos comportamientos nos dicen que los transformadores realizan simulación mediante una exploración asociativa. En lugar de seguir los cambios en el estado paso a paso, los modelos los organizan en jerarquías”, dice MIT Ph.D. Estudiante y afiliada de CSAIL Belinda Li SM ’23, autora principal en el periódico.

“¿Cómo alentamos a los transformadores a aprender un mejor seguimiento de estado? En lugar de imponer que estos sistemas formen inferencias sobre los datos de una manera secuencial y similar a la humana, tal vez deberíamos atender los enfoques que usan naturalmente cuando el estado de rastreo cambia”.

“Una vía de investigación ha sido expandir la computación del tiempo de prueba a lo largo de la dimensión de profundidad, en lugar de la dimensión del token, al aumentar el número de capas de transformador en lugar del número de tokens de cadena de pensamiento durante el razonamiento de tiempo de prueba”, agrega Li. “Nuestro trabajo sugiere que este enfoque permitiría a los transformadores construir árboles de razonamiento más profundos”.

A través del vaso de aspecto

Li y sus coautores observaron cómo los algoritmos asociativos y asociativos de paridad funcionaron utilizando herramientas que les permitieron mirar dentro de la “mente” de los modelos de idiomas.

Primero usaron un método llamado “sondeo”, que muestra qué información fluye a través de un sistema de IA. Imagine que podría investigar el cerebro de un modelo para ver sus pensamientos en un momento específico, de manera similar, la técnica mapea las predicciones de experiencia media del sistema sobre la disposición final de los dígitos.

Luego se utilizó una herramienta llamada “parcheo de activación” para mostrar dónde cambia el modelo de lenguaje a una situación. Implica entrometerse con algunas de las “ideas” del sistema, inyectar información incorrecta en ciertas partes de la red mientras mantiene constantes otras partes, y ver cómo el sistema ajustará sus predicciones.

Estas herramientas revelaron cuándo los algoritmos cometerían errores y cuándo los sistemas “descubrieron” cómo adivinar correctamente las permutaciones finales. Observaron que el algoritmo asociativo aprendió más rápido que el algoritmo asociativo de paridad, al tiempo que funciona mejor en secuencias más largas. Li atribuye las dificultades de este último con instrucciones más elaboradas a una excesiva dependencia de la heurística (o reglas que nos permiten calcular una solución razonable rápidamente) para predecir las permutaciones.

“Hemos descubierto que cuando los modelos de idiomas usan una heurística al principio de la capacitación, comenzarán a desarrollar estos trucos en sus mecanismos”, dice Li. “Sin embargo, esos modelos tienden a generalizarse peor que los que no dependen de la heurística. Descubrimos que ciertos objetivos de pre-entrenamiento pueden disuadir o alentar estos patrones, por lo que en el futuro, podemos buscar técnicas de diseño que desanimen los modelos de elegir malos hábitos”.

Los investigadores señalan que sus experimentos se realizaron en los modelos de lenguaje a pequeña escala ajustados en los datos sintéticos, pero descubrieron que el tamaño del modelo tenía poco efecto en los resultados. Esto sugiere que los modelos de lenguaje más grandes, como GPT 4.1, probablemente producirían resultados similares. El equipo planea examinar sus hipótesis más de cerca probando modelos de lenguaje de diferentes tamaños que no se han ajustado, evaluando su rendimiento en tareas dinámicas del mundo real, como el código de seguimiento y siguiendo cómo evolucionan las historias.

Postdoc de la Universidad de Harvard Keyon Vafa, quien no participó en el documento, dice que los hallazgos de los investigadores podrían crear oportunidades para avanzar en los modelos de idiomas. “Muchos usos de modelos de idiomas grandes dependen del estado de seguimiento: cualquier cosa, desde proporcionar recetas hasta escribir código hasta realizar un seguimiento de los detalles en una conversación”, dice.

“Este documento hace un progreso significativo en la comprensión de cómo los modelos de lenguaje realizan estas tareas. Este progreso nos proporciona información interesante sobre lo que los modelos de idiomas están haciendo y ofrece nuevas estrategias prometedoras para mejorarlas”.

Más información: Belinda Z. Li et al, (¿Cómo) los modelos de idiomas rastrean el estado?, Arxiv (2025). Doi: 10.48550/arxiv.2503.02854

Información en el diario: ARXIV

Proporcionado por el Instituto de Tecnología de Massachusetts

Esta historia se vuelve a publicar por cortesía de MIT News (web.mit.edu/newsoffice/), un sitio popular que cubre noticias sobre la investigación del MIT, la innovación y la enseñanza.

Cita: sondeo de ‘pensamientos’ revela modelos Usar matemáticas similares a árboles para rastrear información de cambio (2025, 21 de julio) Recuperado el 21 de julio de 2025 de https://techxplore.com/news/2025-07-probing-ai-theughts-reveals-tree.html

Este documento está sujeto a derechos de autor. Además de cualquier trato justo con el propósito de estudio o investigación privada, no se puede reproducir ninguna parte sin el permiso por escrito. El contenido se proporciona solo para fines de información.

Fuente de noticias