Tecnología

El cofundador de Google dice que la IA funciona mejor cuando lo amenazas

La inteligencia artificial sigue siendo la cosa en la tecnología, ya sea que los consumidores estén interesados ​​o no. Lo que más me sorprende de la IA generativa no es sus características o potencial para facilitar mi vida (un potencial que aún no he dado cuenta); Más bien, estoy enfocado en estos días en las muchas amenazas que parecen estar surgiendo de esta tecnología.

Seguro que hay información errónea: nuevos modelos de video AI, por ejemplo, están creando clips realistas completos con audio sincronizado con labios. Pero también existe la amenaza clásica de IA, de que la tecnología se vuelve más inteligente que nosotros y consciente de sí misma, y ​​elige usar esa inteligencia general de una manera que no beneficie a la humanidad. Incluso cuando vierte recursos en su propia compañía de IA (sin mencionar la administración actual, también) Elon Musk ve una posibilidad de 10 a 20% de que la IA “se vuelva mal” y que la tecnología siga siendo una “amenaza existencial significativa”. Fresco.

Por lo tanto, no necesariamente me trae consuelo escuchar a un ejecutivo tecnológico establecido de alto perfil y establecido discutir en broma cómo el tratamiento de la IA maximiza mal su potencial. Ese sería el cofundador de Google Sergey Brin, quien sorprendió a una audiencia en una grabación del podcast AIL-in esta semana. Durante una charla que abarcó el regreso de Brin a Google, AI y Robótica, el inversionista Jason Calacanis hizo una broma sobre la “descarada” con la IA para que hiciera la tarea que quería. Eso provocó un punto legítimo de Brin. Puede ser difícil decir exactamente lo que dice a veces debido a que las personas hablan entre sí, pero dice algo en el sentido de: “Sabes, eso es algo extraño … no circulamos tanto … en la comunidad de IA … no solo en nuestros modelos, sino que todos los modelos tienden a hacerlo mejor si los amenazas”.

El otro orador se ve sorprendido. “¿Si los amenazas?” Brin responde “como con violencia física. Pero … la gente se siente extraña por eso, así que realmente no hablamos de eso”. Brin luego dice que, históricamente, amenaza el modelo con el secuestro. Puedes ver el intercambio aquí:

La conversación rápidamente cambia a otros temas, incluida la forma en que los niños crecen con IA, pero ese comentario es lo que dejé de mi visualización. ¿Qué estamos haciendo aquí? ¿Hemos perdido la trama? ¿Nadie recuerda Terminator?

Bromas aparte, parece una mala práctica comenzar a amenazar a los modelos de IA para que hagan algo. Claro, tal vez estos programas nunca logren realmente la inteligencia general artificial (AGI), pero quiero decir, recuerdo cuándo la discusión fue sobre si deberíamos decir “por favor” y “gracias” al preguntarle cosas a Alexa o Siri. Olvida las sutilezas; Simplemente abuse de chatgpt hasta que haga lo que quiere, eso debería terminar bien para todos.

Tal vez AI funciona mejor cuando lo amenazas. Tal vez algo en la capacitación entiende que las “amenazas” significan que la tarea debería tomarse más en serio. No me atrapará probando esa hipótesis en mis cuentas personales.

¿Qué piensas hasta ahora?

Anthrope podría ofrecer un ejemplo de por qué no torturar su IA

En la misma semana que esta grabación de podcast, Anthrope lanzó sus últimos modelos Claude AI. Un empleado antrópico acudió a Bluesky, y mencionó que Opus, el modelo de mayor rendimiento de la compañía, puede tomar sobre sí mismo para tratar de evitar que haga cosas “inmorales”, contactando a los reguladores, la prensa o encerrándose del sistema:

Bienvenido al futuro, ahora su software propenso a errores puede llamar a la policía (este es un empleado antrópico que habla sobre Claude Opus 4) (imagen o incrustación)

– Molly White (@Molly.wiki) 22 de mayo de 2025 a las 4:55 p.m.

El empleado aclaró que esto solo ha sucedido en “casos claros de irregularidades”, pero que podían ver que el bot se volvía pícaro si interpreta cómo se está utilizando de manera negativa. Consulte el ejemplo particularmente relevante del empleado a continuación:

No puedo esperar para explicarle a mi familia que el robot me agitó después de amenazar a su abuela inexistente (imagen o inserción)

– Molly White (@Molly.wiki) 22 de mayo de 2025 a las 5:09 p.m.

Ese empleado luego eliminó esas publicaciones y especificó que esto solo sucede durante las pruebas dadas instrucciones inusuales y acceso a herramientas. Incluso si eso es cierto, si puede ocurrir en las pruebas, es completamente posible que pueda suceder en una versión futura del modelo. Hablando de pruebas, los investigadores antrópicos descubrieron que este nuevo modelo de Claude es propenso al engaño y el chantaje, si el bot cree que está siendo amenazado o no le gusta la forma en que va una interacción.

¿Quizás deberíamos sacar torturando la IA de la mesa?

Back to top button