Home Tecnología Los escépticos más destacados de la IA generativo se doblan

Los escépticos más destacados de la IA generativo se doblan

57
0

El crítico generativo de la IA Gary Marcus, habla en la Conferencia de Tecnología Vancouver 2025 de Web Summit Vancouver en Vancouver Canadá.

Dos años y medio desde que Chatgpt sacudió el mundo, el científico y escritor Gary Marcus sigue siendo el gran escéptico de inteligencia artificial generativa, interpretando a una contra-narrativa de los verdaderos creyentes de AI de Silicon Valley.

Marcus se convirtió en una figura prominente de la Revolución AI en 2023, cuando se sentó junto al jefe de Openai, Sam Altman, en una audiencia del Senado en Washington, ya que ambos hombres instaron a los políticos a tomar la tecnología en serio y considerar la regulación.

Mucho ha cambiado desde entonces. Altman ha abandonado sus llamados a la precaución, en lugar de unirse a SoftBank y fondos de Japón en el Medio Oriente para impulsar a su compañía a valoraciones altas mientras trata de hacer de Chatgpt el próximo gigante tecnológico que define la próxima era.

“Sam ya no está obteniendo dinero del establecimiento de Silicon Valley”, y su búsqueda de fondos del extranjero es un signo de “desesperación”, dijo Marcus a la AFP al margen de la cumbre web en Vancouver, Canadá.

La crítica de Marcus se centra en una creencia fundamental: la IA generativa, la tecnología predictiva que produce contenido a nivel humano, es simplemente demasiado defectuoso para ser transformadora.

Los grandes modelos de idiomas (LLM) que alimentan estas capacidades están inherentemente rotas, argumenta, y nunca cumplirán con las grandes promesas de Silicon Valley.

“Soy escéptico de la IA, ya que se practica actualmente”, dijo. “Creo que la IA podría tener un valor tremendo, pero los LLM no son el camino allí. Y creo que las compañías que lo administran no son principalmente las mejores personas del mundo”.

Su escepticismo contrasta con el estado de ánimo predominante en la Cumbre Web, donde la mayoría de las conversaciones entre 15,000 asistentes se centraron en la promesa aparentemente infinita de IA generativa.

Muchos creen que la humanidad se encuentra en la cúspide de lograr una súper inteligencia o tecnología de inteligencia general artificial (AGI) que podría igualar e incluso superar la capacidad humana.

Ese optimismo ha llevado la valoración de OpenAI a niveles de $ 300 mil millones, sin precedentes para una startup, con Xai Racing del multimillonario Elon Musk para mantener el ritmo.

Sin embargo, a pesar de todo el bombo, las ganancias prácticas siguen siendo limitadas.

La tecnología sobresale principalmente en la asistencia de codificación para programadores y generación de texto para el trabajo de oficina. Las imágenes creadas en AI, aunque a menudo entretenidas, sirven principalmente como memes o fallas profundas, ofreciendo poco beneficio obvio para la sociedad o los negocios.

Marcus, profesor de la Universidad de Nueva York desde hace mucho tiempo, defiende un enfoque fundamentalmente diferente para construir una IA, una que cree que en realidad podría lograr la inteligencia a nivel humano de manera que la IA generativa actual nunca lo hará.

“Una consecuencia de ir todo en LLM es que cualquier enfoque alternativo que pueda ser mejor se hambre”, explicó.

Esta visión del túnel “causará un retraso en llegar a la IA que puede ayudarnos más allá de la codificación, un desperdicio de recursos”.

‘Las respuestas correctas importan’

En cambio, Marcus aboga por la IA neurosymbólica, un enfoque que intenta reconstruir la lógica humana artificialmente en lugar de simplemente capacitar modelos de computadora en vastas conjuntos de datos, como se hace con ChatGPT y productos similares como Géminis de Google o Claude de Anthrope.

Él descarta el temor de que la IA generativa elimine los trabajos de cuello blanco, citando una realidad simple: “Hay demasiados trabajos de cuello blanco donde obtener la respuesta correcta realmente importa”.

Esto apunta al problema más persistente de la IA: alucinaciones, la tendencia bien documentada de la tecnología a producir errores de suena confiados.

Incluso los defensores más fuertes de la IA reconocen que este defecto puede ser imposible de eliminar.

Marcus recuerda un intercambio revelador de 2023 con el fundador de Linkedin, Reid Hoffman, un peso pesado de Silicon Valley: “Me apostó cualquier cantidad de dinero que las alucinaciones desaparecieran en tres meses. Le ofrecí $ 100,000 y no tomaría la apuesta”.

Mirando hacia el futuro, Marcus advierte sobre una consecuencia más oscura una vez que los inversores se den cuenta de las limitaciones de IA generativa. Empresas como OpenAI inevitablemente monetizarán su activo más valioso: los datos del usuario.

“Las personas que pusieron todo este dinero querrán sus retornos, y creo que eso los lleva hacia la vigilancia”, dijo, señalando los riesgos orwellianos para la sociedad.

“Tienen todos estos datos privados, por lo que pueden venderlos como un premio de consolación”.

Marcus reconoce que la IA generativa encontrará aplicaciones útiles en áreas donde los errores ocasionales no importan mucho.

“Son muy útiles para completar automáticamente los esteroides: codificación, lluvia de ideas y cosas así”, dijo.

“Pero nadie va a ganar mucho dinero porque son caros de ejecutar, y todos tienen el mismo producto”.

© 2025 AFP

Cita: el escéptico más destacado de Generation AI Down (2025, 29 de mayo) recuperó el 29 de mayo de 2025 de https://techxplore.com/news/2025-05-generative-ai-prominent-skeptic.html

Este documento está sujeto a derechos de autor. Además de cualquier trato justo con el propósito de estudio o investigación privada, no se puede reproducir ninguna parte sin el permiso por escrito. El contenido se proporciona solo para fines de información.