Home Tecnología Empresas e investigadores en desacuerdo sobre la IA sobrehumana

Empresas e investigadores en desacuerdo sobre la IA sobrehumana

64
0

Las tres cuartas partes de los encuestados a una encuesta realizada por la Asociación de EE. UU. Para el avance de la inteligencia artificial acordaron que era poco probable que ‘ampliar’ LLMS produzca inteligencia general artificial.

Hype está creciendo a partir de los líderes de las principales compañías de inteligencia artificial de que la inteligencia informática “fuerte” superará inminentemente a los humanos, pero muchos investigadores en el campo ven las afirmaciones como giro de marketing.

La creencia de que la inteligencia humana o mejor, a menudo llamada “inteligencia general artificial” (AGI), surgirá de las técnicas actuales de aprendizaje automático que alimenta hipótesis para el futuro que van desde la hiperabundancia de la máquina hasta la extinción humana.

“Los sistemas que comienzan a señalar a AGI están apareciendo”, escribió el jefe de OpenAi, Sam Altman, en una publicación de blog el mes pasado. Dario Amodei de Anthrope ha dicho que el hito “podría llegar tan pronto como 2026”.

Tales predicciones ayudan a justificar los cientos de miles de millones de dólares que se vierten en hardware informático y los suministros de energía para ejecutarlo.

Otros, aunque son más escépticos.

El principal científico de IA de Meta, Yann Lecun, dijo a AFP el mes pasado que “no vamos a llegar a la IA de nivel humano simplemente ampliando LLM”, los modelos de idiomas grandes detrás de los sistemas actuales como ChatGPT o Claude.

La opinión de Lecun aparece respaldada por la mayoría de los académicos en el campo.

Más de las tres cuartas partes de los encuestados a una encuesta reciente realizada por la Asociación de los Estados Unidos para el Avance de la Inteligencia Artificial (AAAI) acordaron que “ampliar los enfoques actuales” era poco probable que produzca AGI.

‘Genio fuera de la botella’

Algunos académicos creen que muchas de las afirmaciones de las compañías, que a veces los jefes han flanqueado con advertencias sobre los peligros de AGI para la humanidad, son una estrategia para captar la atención.

Las empresas “han realizado estas grandes inversiones, y tienen que pagar”, dijo Kristian Kersting, investigador líder en la Universidad Técnica de Darmstadt en Alemania y miembro de AAAI.

“Simplemente dicen: ‘Esto es tan peligroso que solo yo puedo operarlo, de hecho, me temo, pero ya hemos dejado que el genio salga de la botella, así que me sacrificaré en tu nombre, pero entonces eres dependiente de mí'”.

El escepticismo entre los investigadores académicos no es total, con cifras prominentes como el físico ganador del Nobel Geoffrey Hinton o el ganador del Premio Turing 2018 Yoshua Bengio advierten sobre los peligros de la poderosa IA.

“Es un poco como el de ‘The Sorcerer’s Apprentice’ de Goethe, tienes algo que de repente ya no puedes controlar”, dijo Kersting, refiriéndose a un poema en el que un aspirante a hechicero pierde el control de una escoba que ha encantado para hacer sus tareas.

Un experimento de pensamiento similar y más reciente es el “maximizador de clips”.

Esta IA imaginada perseguiría su objetivo de hacer clips con tanta mentalidad que convertiría la Tierra y, en última instancia, toda la materia en el universo en PaperClips o Máquinas de fabricación de papeles, lo que primero se deshizo de los seres humanos que juzgó podría obstaculizar su progreso al desconectarlo.

Si bien no es “malvado” como tal, el maximizador se quedaría fatalmente corto en lo que los pensadores en el campo llaman “alineación” de IA con objetivos y valores humanos.

Kersting dijo que “puede entender” tales miedos, al tiempo que sugiere que “la inteligencia humana, su diversidad y calidad son tan excepcionales que llevará mucho tiempo, si es que las computadoras lo coincidan.

Está mucho más preocupado por los daños a corto plazo de la IA ya existente, como la discriminación en los casos en que interactúa con los humanos.

‘Cosa más grande de la historia’

El aparentemente marcado Gulf en la perspectiva entre los académicos y los líderes de la industria de la IA puede simplemente reflejar las actitudes de las personas mientras eligen una carrera profesional, sugirió Sean O Heigeartaigh, director del programa de futuros y responsabilidades de la Universidad de Gran Bretaña.

“Si eres muy optimista sobre cuán poderosas son las técnicas actuales, probablemente sea más probable que vayas a trabajar en una de las compañías que ponen muchos recursos para tratar de que esto suceda”, dijo.

Incluso si Altman y Amodei pueden ser “bastante optimistas” sobre las escalas de tiempo rápidas y AGI emergen mucho más tarde, “deberíamos estar pensando en esto y tomarlo en serio, porque sería lo más importante que sucedería”, agregó O Heigeartaigh.

“Si fuera algo más … una posibilidad de que los extraterrestres llegaran para 2030 o que habría otra pandemia gigante o algo así, pasaríamos algo de tiempo planeando”.

El desafío puede radicar en comunicar estas ideas a los políticos y al público.

Hablar de Super-AI “crea instantáneamente este tipo de reacción inmune … suena como ciencia ficción”, dijo O Heigeartaigh.

© 2025 AFP

Cita: empresas e investigadores en desacuerdo sobre la IA sobrehumana (2025, 27 de marzo) recuperadas el 27 de marzo de 2025 de https://techxplore.com/news/2025-03-firms-odds-superhuman-ai.html

Este documento está sujeto a derechos de autor. Además de cualquier trato justo con el propósito de estudio o investigación privada, no se puede reproducir ninguna parte sin el permiso por escrito. El contenido se proporciona solo para fines de información.