Crédito: personal de Liz Zonarich/Harvard
Imagine una hormiga que se arrastra en la arena, rastreando un camino que se parece a Winston Churchill. ¿Diría que la hormiga creó una imagen del ex primer ministro británico? Según el fallecido filósofo de Harvard, Hilary Putnam, la mayoría de la gente diría que no: la hormiga necesitaría saber sobre Churchill, líneas y arena.
El experimento mental ha renovado la relevancia en la era de la IA generativa. A medida que las empresas de inteligencia artificial lanzan modelos cada vez más avanzados que razonan, investigan, crean y analizan, los significados detrás de esos verbos se vuelven resbaladizos rápidamente. ¿Qué significa realmente pensar, entender, saber? La respuesta tiene grandes implicaciones sobre cómo usamos la IA y, sin embargo, aquellos que estudian inteligencia todavía están considerando.
“Cuando vemos cosas que hablan como humanos, que pueden hacer muchas tareas como humanos, escribir pruebas y rimas, es muy natural para nosotros pensar que la única forma en que la cosa podría estar haciendo esas cosas es que tiene un modelo mental del mundo, de la misma manera que los humanos”, dijo Keyon Vafa, un becario postdoctoral en el Iniciativo de la ciencia de datos Harvard. “Nosotros, como campo, estamos dando pasos tratando de entender, ¿qué significaría que algo entienda? Definitivamente no hay consenso”.
En la cognición humana, la expresión de un pensamiento implica comprensión de él, dijo la profesora titular de filosofía Cheryl Chen. Suponemos que alguien que dice “está lloviendo” sabe sobre el clima, ha experimentado la sensación de lluvia en la piel y tal vez la frustración de olvidarse de empacar un paraguas. “Para una comprensión genuina”, dijo Chen, “debes estar integrado en el mundo de una manera que ChatGPT no lo es”.
Aún así, los sistemas de inteligencia artificial de hoy pueden parecer terriblemente convincentes. Tanto los modelos de lenguaje grande como otros tipos de aprendizaje automático están hechos de redes neuronales, modelos de competencia que pasan información a través de capas de neuronas modeladas libremente después del cerebro humano.
“Las redes neuronales tienen números dentro de ellos; los llamamos pesas”, dijo Stratos Idreos, profesor de informática de Gordon McKay en Seas. “Esos números comienzan de forma predeterminada al azar. Obtenemos datos a través del sistema, y hacemos operaciones matemáticas basadas en esos pesos, y obtenemos un resultado”.
Dio el ejemplo de una IA entrenada para identificar tumores en imágenes médicas. Alimenta el modelo cientos de imágenes que conoces contienen tumores y cientos de imágenes que no. Según esa información, ¿puede el modelo determinar correctamente si una nueva imagen contiene un tumor? Si el resultado es incorrecto, le da al sistema más datos y juega con los pesos, y lentamente el sistema converge en la salida correcta. Incluso podría identificar tumores que los médicos extrañarían.
Vafa dedica gran parte de su investigación a poner a AI a prueba, a descubrir lo que los modelos realmente entienden y cómo lo sabríamos con certeza. Su criterio se reduce a si el modelo puede demostrar de manera confiable un modelo mundial, un marco estable pero flexible que le permite generalizar y razonar incluso en condiciones desconocidas.
A veces, dijo Vafa, seguro que parece un sí.
“Si observa modelos de idiomas grandes y les hace preguntas que presumiblemente no han visto antes, como,” si quisiera equilibrar una mármol encima de una bola de playa inflable sobre una olla de estufa encima del césped, ¿en qué orden debería ponerlos? “, El LLM respondería correctamente, aunque esa pregunta específica no estaba en sus datos de entrenamiento”, dijo. Eso sugiere que el modelo tiene un modelo mundial efectivo, en este caso, las leyes de la física.
Pero Vafa argumenta que los modelos mundiales a menudo se desmoronan bajo una inspección más cercana. En un estudio anterior, él y un equipo de colegas entrenaron un modelo de IA en direcciones de la calle alrededor de Manhattan, y luego le pidieron rutas entre varios puntos. El noventa y nueve por ciento del tiempo, el modelo escupe direcciones precisas. Pero cuando intentaron construir un mapa cohesivo de Manhattan a partir de sus datos, descubrieron que el modelo había inventado caminos, saltó a través de Central Park y viajaron en diagonal a través de la famosa cuadrícula en ángulo a la derecha de la ciudad.
“Cuando giro a la derecha, me dan un mapa de Manhattan, y cuando giro a la izquierda, me dan un mapa completamente diferente de Manhattan”, dijo. “Esos dos mapas deberían ser coherentes, pero la IA esencialmente está reconstruyendo el mapa cada vez que das un giro. Realmente no tenía ningún tipo de concepción de Manhattan”.
En lugar de operar a partir de una comprensión estable de la realidad, argumenta, AI memoriza innumerables reglas y las aplica lo mejor que puede, una especie de enfoque Slapdash que parece intencional la mayor parte del tiempo pero que ocasionalmente revela su incoherencia fundamental.
Sam Altman, el CEO de Openai, ha dicho que llegaremos a la inteligencia general artificial, que puede hacer cualquier tarea cognitiva que una persona pueda … “relativamente pronto. “Vafa mantiene su atención para una evidencia más esquiva: que AIS demuestre de manera confiable modelos mundiales consistentes, en otras palabras, que entienden.
“Creo que uno de los mayores desafíos sobre llegar a AGI es que no está claro cómo definirlo”, dijo Vafa. “Es por eso que es importante encontrar formas de medir qué tan bien pueden” comprender “los sistemas o si tienen buenos modelos mundiales: es difícil imaginar cualquier noción de AGI que no implique tener un buen modelo mundial. Los modelos mundiales de los LLM actuales faltan, pero una vez que sabemos cómo medir su calidad, podemos avanzar en mejorarlos”.
El equipo de Idreos en el Laboratorio de Sistemas de Datos está desarrollando enfoques más eficientes para que la IA pueda procesar más datos y razonar más rigurosamente. Él ve un futuro donde los modelos especializados y construidos a medida resuelven problemas importantes, como identificar curas para enfermedades raras, incluso si los modelos no saben qué es la enfermedad. Si eso cuenta o no como comprensión, dijo Idreos, ciertamente cuenta como útil.
Proporcionado por la Universidad de Harvard
Esta historia se publica cortesía de la Gaceta de HarvardEl periódico oficial de la Universidad de Harvard. Para noticias universitarias adicionales, visite Harvard.edu.
Cita: ¿La IA entiende? (2025, 17 de julio) Consultado el 17 de julio de 2025 de https://techxplore.com/news/2025-07-ai.html
Este documento está sujeto a derechos de autor. Además de cualquier trato justo con el propósito de estudio o investigación privada, no se puede reproducir ninguna parte sin el permiso por escrito. El contenido se proporciona solo para fines de información.








