Crédito: Dominio público de Pixabay/CC0
La inteligencia artificial está en todas partes últimamente, en las noticias, en podcasts y alrededor de cada enfriador de agua. Un nuevo término buzzy, inteligencia general artificial (AGI), está dominando las conversaciones y planteando más preguntas de las que responde.
Entonces, ¿qué es AGI? ¿Reemplazará empleos o desbloqueará soluciones a los mayores desafíos del mundo? ¿Se alineará con las prioridades sociales o las redefinirá? ¿Nuestro futuro es más “los Jetsons” o “The Terminator”? Las respuestas no son simples. Dependen de cómo definimos la IA y qué esperamos que haga.
Como director inaugural del Centro para el Aprendizaje de AI, el centro comunitario de Emory para la alfabetización de IA y un componente central de la iniciativa AI.Humanity, Joe Sutherland no es ajeno a las preguntas difíciles sobre la IA. El verano pasado, se embarcó en una gira estatal que buscaba desmitificar la IA y empoderar a los georgianos con habilidades para prosperar en un futuro centrado en la tecnología. Diversas audiencias compuestas por profesionales, dueños de negocios, legisladores y estudiantes compartieron muchas de las mismas preguntas básicas.
En este Q&A, Sutherland responde nuestras preocupaciones más apremiantes sobre AGI, ayudándonos a reducir la exageración para encontrar la esperanza.
¿Cuál es la diferencia entre la inteligencia artificial, la inteligencia general artificial y la súper inteligencia artificial?
Las definiciones han cambiado con el tiempo, y eso ha causado cierta confusión. La inteligencia artificial no es una tecnología monolítica. Es un conjunto de tecnologías que automatizan tareas o imitan las decisiones que los humanos normalmente toman. Estamos delegando la autoridad para tomar esas decisiones en una máquina.
Tradicionalmente, cuando la gente hablaba de inteligencia general artificial (AGI), se referían a Skynet de “The Terminator” o Hal de “2001: A Space Odyssey”, máquinas que supuestamente tenían libre albedrío y habilidades humanas aproximadas.
Hoy, algunos laboratorios de investigación importantes han redefinido el AGI para significar un programa de computadora que puede funcionar tan bien o mejor que los humanos expertos en tareas específicas.
La súper inteligencia artificial (ASI) es el término moderno para lo que solíamos llamar superinteligencia o singularidad. Eso es lo que solíamos pensar simultáneamente como agi: robots humanoides que superan la inteligencia humana.
¿Ya tenemos AGI?
Depende de qué definición use. Si está utilizando la definición orientada a tareas de los laboratorios, sí. La IA es excelente para recuperar información y resumirla de una manera que cualquier evaluación humana diga: “Oh, esto es bastante bueno”.
Los modelos de idiomas grandes (LLM) como ChatGPT pueden superar a los humanos que intentan ingresar a la escuela de medicina en el MCAT. Pero esa no es una inteligencia real. Es como darle a un estudiante Google durante un examen. El verdadero AGI debería mostrar razonamiento, no solo la recuperación de información y la coincidencia de patrones.
¿Cuál es la diferencia entre el razonamiento y qué hace la IA de hoy?
Los modelos de hoy dan la impresión de que son razonados, pero solo están investigando secuencialmente la información y luego la resumen. No entienden el mundo, solo predicen qué palabra viene a continuación en función de los patrones. Cuando se prueban en tareas de razonamiento reales, como la Torre de Hanoi o los rompecabezas lógicos, los LLM a menudo fallan a menos que hayan memorizado las respuestas.
El humor es otro ejemplo en el que la IA se queda corta. Desde la perspectiva de las humanidades, el humor se encuentra en la intersección de la comodidad y la incomodidad. Ese límite cambia todo el tiempo. Los chatbots solo regurgitan las cosas que han visto en el pasado; No entienden ese límite. El verdadero humor es algo que no pueden hacer.
Del mismo modo, las empresas a menudo no tienen datos que indican tendencias más amplias que tienen lugar “fuera” de la empresa. Sus modelos de IA, que están entrenados en datos internos, no pueden sintetizar dónde hemos estado con dónde vamos. Eso requeriría razonamiento, intuición y alineación de valores: cosas que luchamos para articular incluso para nosotros mismos.
Entonces, ¿qué tan cerca estamos de Agi, realmente?
Si estamos utilizando la vieja definición de AGI, como “The Terminator”, creo que estamos lejos. LLMS no nos acercará a ningún lado porque no tienen razonamiento o habilidades intuitivamente creativas. No les hemos dado un marco para descubrir eficientemente una nueva información. Tendremos que desarrollar arquitecturas totalmente nuevas si queremos acercarnos.
Un paso en la dirección correcta es la arquitectura predictiva de incrustación conjunta, o JEPA. En lugar de unir palabras como un LLM, infiere relaciones más profundas entre los conceptos y activa esas inferencias para lograr un objetivo de nivel superior.
Es refrescante aprender que arrojar todas las entradas de la enciclopedia de la sociedad a un LLM no produce inteligencia a nivel humano. Lo estoy reduciendo, por supuesto. Hay más en la humanidad de lo que parece.
¿Cuáles son las mayores promesas y peligros de AGI?
Las tecnologías actuales son fantásticas. Permiten a las personas realizar tareas en horas en las que anteriormente tuvieron que pasar días. La promesa es la eficiencia: toolas que pueden resumir la investigación, ayudar en el diagnóstico médico, ayudarlo a planificar su lista de compras para la semana. Eso ayudará a las personas a ganar más dinero, pasar más tiempo con sus familias o en pasatiempos y ayudará a vivir vidas más largas y saludables.
El peligro no es el técnico; Es la falta de comprensión pública. Necesitamos alfabetización de IA, por lo que las personas entienden cuándo se usa AI de la manera correcta y cuándo no lo es.
¿Qué tipo de supervisión o barandas se necesitan?
La clave es proporcionar un marco que equilibre el valor de lo que se está construyendo con la propiedad intelectual que alimenta a estos modelos, es decir, los conjuntos de datos.
Algunas compañías han argumentado en la corte que raspar los datos de las personas sin consentimiento o compensación está justificado porque avanza la sociedad. Ese es un argumento manipulador y preocupante.
Si las necesidades de las personas que contribuyen a estas tecnologías están representadas y se recompensan adecuadamente, incentivaría una mayor innovación y uso. También necesitamos pruebas exhaustivas para identificar dónde se rompen o producen resultados sesgados.
¿Podemos alinear la IA con los valores humanos?
Esa es más una pregunta social que técnica. El verano pasado, di conversaciones sobre Georgia para la gira de Desarrollo de la Fuerza Laboral de IA de AI de Emory con la Fundación Rowen y la Cámara de Comercio de Georgia, que llamamos “Ai + You”. Un miembro de la audiencia preguntó: “¿Cómo podemos asegurarnos de que los modelos de IA que estamos construyendo tengan valores estadounidenses?”
Lo que hace que Estados Unidos sea especial es que valoramos la oportunidad de disidencia. Nunca vamos a estar de acuerdo en todo, por lo que la pregunta más importante es: ¿cómo creamos un sistema con barandillas receptivas que se adaptan a nuestros valores sociales en evolución? ¿Cuál es el marco que nos permite tener un debate sólido y, en última instancia, tomar buenas decisiones?
Estas preguntas no son nuevas para el advenimiento de la IA. Les hemos estado preguntando durante siglos. Pero el rápido aumento de la tecnología, y su poder cada vez más centralizado, nos obliga a revisar cómo abordamos la acción colectiva.
Si tenemos a AGI correctamente, ¿cómo es la mejor versión del futuro?
Creo que la mejor versión del futuro con todas estas tecnologías es una en la que nos liberan para hacer un trabajo más significativo y pasar menos tiempo en cosas que no disfrutamos. Esto significa más tiempo para la innovación y la resolución creativa de problemas.
La investigación de IA de Emory ya está transformando la atención médica, lo que lleva a un diagnóstico mejorado y al tratamiento de enfermedades como el cáncer, la enfermedad cardíaca y la diabetes. Estamos utilizando el análisis de texto para descubrir patrones en políticas públicas que harán que la gobernanza sea más eficiente y equitativa. Nuestros estudiosos también están analizando cómo la IA puede proteger los derechos de las personas y hacer crecer los negocios.
La IA ofrece más beneficios que los inconvenientes, si empoderamos a las personas a través de la educación y las incluimos en la conversación para que puedan abogar por ellos mismos y para aquellos que les importa.
Si se implementa cuidadosamente, estas tecnologías pueden amplificar el potencial humano, no reemplazarlo.
Proporcionado por la Universidad de Emory
Cita: Preguntas y respuestas: Cuando se habla de AI, definiciones Matter (2025, 27 de junio) Recuperado el 27 de junio de 2025 de https://techxplore.com/news/2025-06-qa-ai-definitions.html
Este documento está sujeto a derechos de autor. Además de cualquier trato justo con el propósito de estudio o investigación privada, no se puede reproducir ninguna parte sin el permiso por escrito. El contenido se proporciona solo para fines de información.








