Home Noticias del mundo Las regulaciones basadas en vibraciones no funcionan: la política debe provenir de...

Las regulaciones basadas en vibraciones no funcionan: la política debe provenir de hechos y datos

17
0

Las narrativas públicas sobre la ciencia a menudo se forman menos por datos que por incentivos. Cuando la narración de cuentos reemplaza la evidencia, corremos el riesgo de sofocar la innovación que podría resolver problemas reales e ignorar la necesidad de salvaguardas sensatas donde realmente están justificados. Ambos resultados ponen en peligro la seguridad pública y se erosionan la confianza en la ciencia.

En ninguna parte es esto más claro que en la convergencia de desarrollo de la energía nuclear y la inteligencia artificial.

El fracaso para escalar la energía nuclear sigue siendo una de las grandes tragedias morales y estratégicas de la era moderna. Cada año se pierden más de 8 millones de vidas por contaminación fósil relacionada con los combustibles. Miles de millones viven sin acceso a energía confiable, retraso en el crecimiento económico, obstaculizan la industria y la profundización de la pobreza. Los bosques se despejan para la agricultura donde la agricultura de invernadero con energía nuclear podría haber alimentado a millones. La escasez de agua dulce, la inestabilidad geopolítica y la dependencia de los regímenes de petróleo hostiles se remontan a una falla: abandonamos la promesa de energía nuclear, no porque la ciencia lo exigió sino porque los incentivos se alinearon contra ella.

El perfil de seguridad de la energía nuclear ha sido bien establecido. La Agencia Internacional de Energía Atómica informa que la nuclear causa menos muertes por hora terawatt que el petróleo, el viento o la hidroeléctrica. El petróleo da como resultado 18.4 muertes por hora terawatt, mientras que nuclear representa solo 0.03. Incluso teniendo en cuenta los accidentes de alto perfil como Chernobyl y Fukushima, la energía nuclear sigue siendo notablemente segura. Los diseños modernos de reactores solo han mejorado estos márgenes.

Entonces, ¿por qué dimos la espalda a la nuclear? No porque la ciencia cambió, sino porque la historia lo hizo, y porque demasiados actores se beneficiaron de contar el incorrecto. La información errónea, el sensacionalismo de los medios, el cabildeo de combustibles fósiles y las campañas de miedo activista combinadas para crear un estigma y una oposición que persiste incluso entre los defensores del clima.

Afortunadamente, la marea en el discurso público sobre nuclear finalmente puede estar cambiando. Después de décadas de miedo al miedo, incluso los críticos están comenzando a reconocer lo que los datos siempre han mostrado: la nuclear es una de las fuentes de energía más seguras, más limpias y escalables disponibles.

Si bien el cambio de vibra en la nuclear es prometedor, el catalizador debería darnos una pausa. El cambio está dirigido por un poderoso sector que ahora tiene piel en el juego. La industria tecnológica busca construir reactores nucleares para impulsar los centros de datos necesarios para realizar sus aspiraciones de crear inteligencia general artificial.

Las mismas compañías que exigen una reforma nuclear también son inteligencia general artificial de aceleración, una tecnología poderosa, de alto riesgo y poco entendida con poca o ninguna supervisión regulatoria. No hay salvaguardas obligatorias contra la falla catastrófica, los marcos de responsabilidad, los interruptores de muerte o las líneas rojas para el despliegue. Recientemente, un grupo de principales científicos de IA señaló: “Hay menos regulaciones sobre sistemas de IA que podrían plantear riesgos catastróficos que en las tiendas de sándwiches o peluqueros”.

Este es el reverso del problema nuclear. Donde la nuclear estaba paralizada por el miedo a pesar de los claros datos de seguridad, la inteligencia general artificial con riesgos bien documentados se está apresurando bajo una bandera tecnológica sin escrutinio grave. Una vez más, los incentivos superan la ciencia.

Este patrón de narración convincente reina suprema sobre la ciencia clara no se limita a la nuclear y la IA. Los cultivos modificados genéticamente han pasado pruebas de seguridad rigurosas y ofrecen un enorme potencial para alimentar al mundo de manera sostenible. Pero las prohibiciones europeas, impulsadas por el miedo, no los hechos, bloquean su adopción. Por el contrario, muchos aditivos alimentarios que se ha demostrado que causan problemas de salud están prohibidos en Europa, pero siguen siendo legales en los Estados Unidos, para conveniencia de grandes alimentos. Como señaló un informe gubernamental sobre biotecnología, “la regulación a menudo se escribe para combatir el riesgo percibido en lugar del riesgo real”.

Si queremos desbloquear un futuro abundante, seguro e innovador, debemos dejar de regular según las vibraciones y comenzar a regular en función de la ciencia verificable. Eso significa defender la innovación cuando la evidencia la respalda, como con los organismos nuclear y genéticamente modificados. Tendríamos que defender la responsabilidad real cuando hay riesgos que necesitan mitigación, como la inteligencia general artificial y los aditivos alimentarios.

El público no debería tener que elegir entre aceleración imprudente y estancamiento anti-tecnología. Hay un tercer camino: progreso con salvaguardas. Pero esas salvaguardas deben ser diseñadas por científicos independientes y nuevas instituciones alineadas con la búsqueda de la verdad, no los cabilderos corporativos, no los equipos de relaciones públicas, no los mismos actores que no pudieron cuestionar, o incluso amplificadas y convenientes narraciones falsas de la primera vez.

La oportunidad que tenemos ante nosotros es enorme: abundancia de energía, curado de enfermedades y crecimiento sostenible para miles de millones. Pero si repetimos los errores del pasado, corremos el riesgo de perder ese futuro, o peor, creando uno que no podemos controlar. Es hora de voltear el guión y realinear incentivos para mantener cada narrativa, ya sea utópica o distópica, al estándar de la verdad.

Emilia Javorsky es directora del programa de futuros en el Future of Life Institute.