Crédito: dominio público Unsplash/CC0
Operai afirma que Su nuevo modelo insignia, GPT-5, marca “un paso significativo en el camino hacia AGI”, es decir, la inteligencia general artificial que los jefes de IA y los autoproclamados expertos a menudo afirman que está a la vuelta de la esquina.
Según la propia definición de OpenAi, AGI sería “un sistema altamente autónomo que supera a los humanos a la mayoría de los trabajos económicamente valiosos”. Dejando a un lado si esto es algo por lo que la humanidad debería esforzarse, CEO de Operai Argumentos de Sam Altman para GPT-5 siendo Un “paso significativo” en esta dirección suena notablemente poco espectacular.
Afirma que GPT-5 es mejor para escribir código de computadora que sus predecesores. Se dice que “alucina” un poco menos, y es un poco mejor para seguir las instrucciones, especialmente cuando requieren seguir múltiples pasos y usar otro software. El modelo también es aparentemente más seguro y menos “sycofántico”, porque no engañará al usuario ni proporcionará información potencialmente dañina solo para complacerlos.
Altman dice Esa “GPT-5 es la primera vez que realmente se siente como hablar con un experto en cualquier tema, como un experto en el nivel de doctorado”. Sin embargo, todavía no tiene ni idea de si algo que dice es exacto, como puede ver en su intento a continuación de dibujar un mapa de América del Norte.
Tampoco puede aprender de su propia experiencia, o lograr más del 42% de precisión en un punto de referencia desafiante como el “último examen de la humanidad”, que contiene preguntas difíciles sobre todo tipo de temas científicos (y otros). Esto está ligeramente por debajo del 44% que Grok 4, el modelo lanzado recientemente por Xai de Elon Musk, se dice que ha logrado.
La principal innovación técnica detrás de GPT-5 parece ser la introducción de un “enrutador”. Esto decide qué modelo de GPT delegar cuando se le hace una pregunta, esencialmente preguntándose cuánto esfuerzo invertir en calcular sus respuestas (luego mejorar con el tiempo aprendiendo de comentarios sobre sus elecciones anteriores).
Las opciones para la delegación incluyen los modelos principales anteriores de GPT y también un nuevo modelo de “razonamiento más profundo” llamado GPT-5 Thinking. No está claro cuál es este nuevo modelo. Operai no dice que se respalde por ningún algoritmos nuevos o se capacita en ningún dato nuevo (ya que todos los datos disponibles ya se usaban).
Por lo tanto, se podría especular que este modelo es realmente otra forma de controlar los modelos existentes con consultas repetidas y presionarlos para que trabajen más duro hasta que produce mejores resultados.
¿Qué son los LLM?
Fue De vuelta en 2017 Cuando los investigadores de Google descubrieron que un nuevo tipo de arquitectura de IA era capaz de capturar patrones tremendamente complejos dentro de largas secuencias de palabras que sustentan la estructura del lenguaje humano.
Al capacitar a estos llamados modelos de lenguaje grande (LLM) en grandes cantidades de texto, podrían responder a las indicaciones de un usuario al mapear una secuencia de palabras a su continuación más probable de acuerdo con los patrones presentes en el conjunto de datos. Este enfoque para imitar la inteligencia humana mejoró y mejoró a medida que los LLM fueron entrenados en cantidades cada vez mayores de datos, lo que acumula sistemas como ChatGPT.
En última instancia, estos modelos solo codifican una tabla enorme de estímulos y respuestas. Un mensaje de usuario es el estímulo, y el modelo podría buscarlo en una tabla para determinar la mejor respuesta. Teniendo en cuenta cuán simple parece esta idea, es sorprendente que los LLM hayan eclipsado las capacidades de muchos otros sistemas de IA, si no en términos de precisión y confiabilidad, ciertamente en términos de flexibilidad y usabilidad.
El jurado aún puede estar fuera de si estos sistemas podrían ser capaces de un verdadero razonamiento, o comprender el mundo de manera similar a la nuestra, o hacer un seguimiento de sus experiencias para refinar su comportamiento correctamente, todos los ingredientes de AGI posiblemente necesarios.
Mientras tanto, ha surgido una industria de compañías de software de IA que se centra en “domar” a los LLM de propósito general para ser más confiables y predecibles para casos de uso específicos. Después de haber estudiado cómo escribir las indicaciones más efectivas, su software puede solicitar un modelo varias veces o usar numerosos LLM, ajustando las instrucciones hasta que obtenga el resultado deseado. En algunos casos, podrían “ajustar” un LLM con complementos a pequeña escala para que sean más efectivos.
El nuevo enrutador de Openai está en la misma línea, excepto que está integrado en GPT-5. Si este movimiento tiene éxito, los ingenieros de empresas más abajo en la cadena de suministro de IA serán necesarios cada vez menos. GPT-5 también sería más barato para los usuarios que sus competidores LLM porque sería más útil sin estos adornos.
Al mismo tiempo, esto puede ser una admisión de que hemos llegado a un punto en el que los LLM no pueden mejorarse mucho más para cumplir con la promesa de AGI. Si es así, reivindicará esos científicos y expertos de la industria quienes han estado discutiendo por un tiempo que no será posible superar las limitaciones actuales en la IA sin ir más allá de las arquitecturas de LLM.
¿Vino viejo en nuevos modelos?
El nuevo énfasis de Openai en el enrutamiento también vuelve al “meta razonamiento” que ganó prominencia en IA en la década de 1990, basada en la idea del “razonamiento sobre el razonamiento”. Imagine, por ejemplo, estaba tratando de calcular una ruta de viaje óptima en un mapa complejo. Dirigirse en la dirección correcta es fácil, pero cada vez que considera otras 100 alternativas para el resto de la ruta, es probable que solo obtenga una mejora del 5% en su mejor opción anterior. En cada punto del viaje, la pregunta es cuánto más piensa que vale la pena hacer.
Este tipo de razonamiento es importante para lidiar con tareas complejas al dividirlas en problemas más pequeños que pueden resolverse con componentes más especializados. Este fue el paradigma predominante en la IA hasta que el enfoque cambió a LLM de uso general.
Es posible que la liberación de GPT-5 marce un cambio en la evolución de la IA que, incluso si no es un retorno a este enfoque, puede marcar el final de la creación de modelos cada vez más complicados cuyos procesos de pensamiento son imposibles de entender para cualquiera.
Es difícil decir si eso podría ponernos en un camino hacia AGI. Pero podría crear una oportunidad para avanzar hacia la creación de AIS que podamos controlar el uso de rigurosos métodos de ingeniería. Y podría ayudarnos a recordar que la visión original de la IA no era solo replicar la inteligencia humana, sino también comprenderla mejor.
Proporcionado por la conversación
Este artículo se republicó de La conversación bajo una licencia Creative Commons. Leer el artículo original.
Cita: GPT-5: ¿Ai se ha estancado? (2025, 12 de agosto) Consultado el 12 de agosto de 2025 de https://techxplore.com/news/2025-08-gpt-ai-plateeaed.html
Este documento está sujeto a derechos de autor. Además de cualquier trato justo con el propósito de estudio o investigación privada, no se puede reproducir ninguna parte sin el permiso por escrito. El contenido se proporciona solo para fines de información.