Geoffrey Hinton, a menudo llamado “Padrino de AI”, está pidiendo a los investigadores que diseñen sistemas de IA con instintos de crianza incorporados, argumentando que esto es necesario para mantener a la humanidad segura a medida que las máquinas superan la inteligencia a nivel humano. El experto en IA cree que las máquinas deben estar entrenadas para “cuidarnos, como si somos bebés”.
El decodificador informes Que hablar en la reciente conferencia AI4 en Las Vegas, Hinton argumentó que tratar de mantener permanentemente la IA superinteligente bajo control humano no es realista. En lugar de los humanos que actúan como el jefe de la IA avanzada, imagina un futuro en el que las personas se relacionan con máquinas hipercapibles más como cómo un niño depende de su madre.
“Necesitamos hacer máquinas que sean más inteligentes que nosotros cuidamos por nosotros, como si somos sus bebés”, dijo Hinton en su charla. “El enfoque del desarrollo de la IA debería expandirse más allá de hacer que los sistemas sean cada vez más inteligentes, para garantizar que también estén imbuidos de una preocupación genuina por el bienestar humano”.
Bajo el marco de Hinton, el papel de la humanidad cambiaría de ordenar la IA a la nutrición, incluso a medida que crece para eclipsar las capacidades humanas. Elaboró una analogía con la buena crianza de los hijos, donde las madres cariñosas ayudan a guiar el desarrollo de niños que finalmente se volverán más capaces que ellos. Hinton argumenta que la investigación de IA debería esforzarse por el cableado de Hardwire una dinámica similar entre personas y máquinas.
El ex investigador de Google, que dejó la compañía para discutir más libremente los riesgos de la IA, cree que su enfoque de “IA materna” podría unir a la comunidad internacional en torno a desarrollar inteligencia artificial segura. “Cada país quiere una IA que aumente y apoye a sus ciudadanos, no los reemplace”, dijo Hinton. “Los instintos de crianza incorporados proporcionan un camino natural a ese tipo de IA de apoyo”.
El jefe científico de IA de Meta, Yann Lecun, describió la idea de Hinton como una versión simplificada de un enfoque de seguridad que ha abogado durante mucho tiempo, que Lecun llama “AI impulsado por objetivos”. Involucra a los sistemas de IA de restricción arquitectónica para que solo puedan tomar medidas al servicio de objetivos y valores específicos de codificación dura.
“Básicamente, define el equivalente de AI de unidades e instintos que se encuentran en humanos y animales”, explicó Lecun en una publicación de LinkedIn. “Entonces, además de impulsos para cosas como la empatía y la subordinación para las personas, tienes una gran cantidad de reglas de bajo nivel como ‘No atropellar a los humanos’ o ‘no balancearte el brazo si sostienen un cuchillo cerca de las personas'”.
Leer más en el decodificador aquí.
Lucas Nolan es reportero de Breitbart News que cubren temas de libertad de expresión y censura en línea.