Hay tantas áreas que SSI hablan de riesgos, ya estamos viviendo con muchas de ellas: perder nuestra capacidad de leer y escribir para recurrir a Chatgpt, nuestra capacidad de guiarnos en el espacio para depender de Waze, la capacidad de conducir, cuando los vehículos autónomos se popularizan; el uso de profundos en secuestros, estafas virtuales y manipulación de elecciones; Si se evalúa en exámenes y solicitudes laborales, y en el futuro cercano, también juzgado y condenado por algoritmos en lugar de personas; Para confiar el cuidado y las terapias a las entidades no humanas.
Muchos de estos avances también tienen la pérdida de empleos, como en las etapas anteriores de la revolución industrial: las máquinas han estado reemplazando a los humanos en el trabajo manual primero y ahora en el trabajo intelectual. Muy temprano, en 1873, Samuel Butler postuló en su novela erewhon de que las leyes de la evolución darwiniana podrían aplicarse a las máquinas, que fabricarían versiones cada vez más perfectas de sí mismas y terminarían adquiriendo autoconciencia y reemplazándonos: una visión tecnológica de la supervivencia de los más adecuados. Frente a estos peligros, los movimientos de resistencia surgieron temprano: los Luditas, que rompieron telares mecánicos a principios del siglo XIX, se extendieron en las neoluditas actuales: en la trascendencia de la película intentan matar al investigador de lo interpretado por Johnny Depp para evitar que alcance la singularidad tecnológica (un cuasi divino); Los activistas antitecnología de los Estados Unidos han descubierto que para desactivar un vehículo autónomo, es suficiente colocar un cono de tráfico en el capó.
A todo esto se agrega la creciente voracidad del agua, los minerales y la energía de estos sistemas. La Agencia Internacional de Energía estima que para fines de esta década, la IA consumirá tanta energía como Japón entera, y el consumo de los centros de datos duplicará los valores de 2022 en 2026, alcanzando el 4.5% del consumo mundial: estamos seguros de que IA contribuirá al desarrollo de las energías verdes, pero por ahora ha sido mucho más efectiva para aumentar la huella de carbono.
Estos no les gustan los autoritarios
El ejercicio del periodismo profesional y crítico es un pilar fundamental de la democracia. Es por eso que molesta a quienes creen que son los dueños de la verdad.
Y son, por supuesto, los riesgos existenciales de poner a la IA a cargo de las tecnologías de guerra. El decisivo, aquí, es su grado de autonomía: una cosa es que los misiles o los drones son manejados por operadores humanos, que deciden qué o a quién disparar; Otro muy diferente es que son autónomos, para identificar el objetivo y tomar la decisión de destruirlo por sí mismos. Uno podría pensar que dejar los ataques con armas de destrucción masiva o ataques cibernéticos que dejan ciudades en la oscuridad y caen los aviones a cargo de una IA no es mucho más riesgoso que dejarlas en manos de Kim Jong-un, Putin, Trump o Netanyahu. El problema, por supuesto, es que ambas opciones se pueden combinar: armas autónomas en manos de políticos despiadados. Recomiendo los breves videos Slaughterbots (Bots Killer) disponibles en YouTube, hecho por el Future of Life Institute y Stuart Russell, uno de los principales especialistas en el control de riesgos de la IA: un enjambre de microdrones utiliza tecnología de reconocimiento facial para identificar a los estudiantes de una clase de la misma Russell de Facebook, este escenario ya es posible con la tecnología actual, lo que dude de la voluntad política para implementar la voluntad política para implementarlo.
Pero el riesgo, el peligro e incluso el daño concreto no equivalen al terror. Los ataques de tiburones causan entre cuatro y ocho muertes por año en el mundo, mientras que un millón de doscientos mil personas mueren en accidentes de tráfico; Aun así, Shark continúa teniendo más miedo que Cupido motorizado. El terror hunde sus raíces en el inconsciente, no solo de la cultura sino quizás de la especie, y poco y, a veces, no tiene nada que ver con el riesgo concreto. Lo que realmente aterroriza y captura nuestra imaginación es la posibilidad de que las máquinas adquieran la autoconciencia y la voluntad, y se vuelvan contra nosotros. Estas fantasías siguen tres modelos básicos: las máquinas se rebelan contra los humanos e intentan aniquilar: Terminator. Las máquinas dominan y nos esclavizan: la matriz. Las máquinas hacen todo por nosotros y terminan atrofia: Wall-E (solo en los dos primeros casos, las máquinas “toman el control”; en el tercero, simplemente hacen lo que les pedimos).
Es un terror metafísico, más que un riesgo específico: como la mayoría de los especialistas explican, no es necesario que las máquinas desarrollen sus propias ideas, deseo y voluntad, que nos aniquilen. Es suficiente con una instrucción mal dada, con un poco de algoritmo elaborado. Es el núcleo de la propuesta de Russell en su libro humano compatible y en las cuatro conferencias Reith de 2012, disponibles en la página de la BBC: el peligro no es que las máquinas hagan lo que quieren, sino que hacen exactamente lo que pedimos.
El gran descubrimiento de programas de juego como Deep Blue en Chess y Alphago in the Go no es solo que han logrado derrotar a los jugadores humanos, sino que lo hicieron con jugadas que ningún jugador humano, en los miles de años que existen, habían imaginado. Esto sucedió cuando se modificó su forma de aprendizaje: en lugar de alimentarlos con los juegos jugados por humanos a lo largo de la historia, ya que se hicieron inicialmente, se les enseñó las reglas del juego y luego les dejaron jugar contra otra versión de sí mismos. Lo mismo sucederá en todos los aspectos de la vida: la máquina hará lo que soliciten, pero según su lógica. Y como es diferente de el nuestro, no podemos anticipar lo que hará y, por lo tanto, no podemos escribir las restricciones necesarias en su programa.
Otro especialista en AI, Nick Bostrom, en su superinteligencia de libros, explica cómo una IA beneficiosa puede terminar causando una catástrofe existencial con el ejemplo del maximizador de los clips: “Suponga que tenemos una IA cuyo único objetivo es átomos que podría convertirse en clips”. Convergencia instrumental “es el nombre inargable que se ha dado a esta vista de la computadora de la apocalipse de apocal.
Durante décadas me pregunté cómo nuestro universo de galaxias, estrellas y planetas podrían ser reemplazados por uno de los libros, como Borges imagina en la Biblioteca Babel. Estas fantasías tecnológicas ofrecen una posible respuesta: en el futuro, alguien dará a un general la instrucción para crear una biblioteca que agote todas las combinaciones posibles de las cartas en un libro de cierto formato: suponiendo que los estantes y los edificios se estén construyendo mientras imprimen los libros, y que algunos seres humanos quedan vivos para que hagan bibliotecianos, agotarán los asignaturas de nuestro planeta, luego la galaxia y finalmente de la universidad entera; If your priority is the impression of books, eventually you will have to resort to the atoms of the librarians themselves, until you reach the final state of stillness imagined by Borges’ narrator: “I suspect that the human species is about to become extinguished and that the library will endure: illuminated, lonely, infinite, perfectly motionless, armed with precious volumes, useless, uncorproopible, secret.”
*Escritor.