Doge está usando ai de la manera incorrecta

La iniciativa Doge del presidente Trump y Elon Musk está aplicando mal la inteligencia artificial y está perdiendo todo su potencial.
La primera ronda de despidos masivos de empleados del gobierno ha resultado en una reacción pública. En respuesta, el presidente dijo que la próxima fase de la iniciativa Doge será más precisa: “No quiero ver un gran corte donde se cortan muchas buenas personas”.
Entonces, ¿cómo se vería un mejor enfoque para aprovechar la IA en un paisaje gubernamental, el bisturí en lugar de la motosierra? Comencemos examinando el uso actual de la IA y por qué le falta la marca.
Hasta ahora, el enfoque de Musk es utilizar la IA sobre las respuestas de los empleados del gobierno, que se han incluido como resultado de su controvertido correo electrónico a los trabajadores federales en febrero pidiendo los principales puntos de bala que resumen en qué están trabajando. La IA, basada en la adaptación de un modelo de idioma grande, utiliza estos datos para determinar si los empleados son esenciales o no.
En teoría, es una idea inteligente: capacitar a un modelo de IA utilizando un conjunto de datos confiable para determinar y validar qué tipos de trabajos son innecesarios o maduros para la automatización. Según sus datos de capacitación, la IA podría haber determinado, por ejemplo, que si un trabajo sigue reglas bien definidas sin interacción o coordinación, ese trabajo tal vez podría ser realizado de manera más efectiva por un algoritmo.
Pero este enfoque corre el riesgo de cometer errores graves debido a los sesgos integrados en LLMS. ¿Cuáles podrían ser estos sesgos? Es difícil saberlo, y ahí radica el problema.
Nadie entiende completamente el funcionamiento interno de LLM y cómo se les ocurre sus respuestas. Los falsos negativos al aplicar dicho algoritmo, disparar empleados esenciales, pueden tener un costo de error inusualmente alto. La mayoría de las organizaciones tienen empleados discretos que a menudo son las personas de referencia para el conocimiento institucional o la productividad de turbocompresión en una organización.
¿Cómo calificaría un LLM una respuesta como “Respondo las preguntas de las personas”? Es difícil saberlo, pero no confiaría en la máquina. Me gustaría más información de los jefes y colegas del encuestado. Y así me encuentro de vuelta a usar humanos, no IA, para determinar el valor de los trabajadores.
Entonces, si bien el enfoque actual es simple y tiene la ventaja de no requerir muchos datos, es probable que comete errores graves.
En cambio, instaría firmemente al nuevo “bisturí” de Musk a aprovechar datos más objetivos de las agencias gubernamentales. De esta manera, la IA primero “tendrá sentido” de las diversas agencias. Por ejemplo, ¿cuál es la misión de USAID, sus objetivos, cómo se miden y qué tan efectiva ha sido la agencia para lograr los objetivos? ¿Qué tal el Pentágono?
Imagine, por ejemplo, si le damos un acceso a una LLM a la historia del Pentágono, incluidos todos sus contratos y proyectos hasta la fecha, comunicaciones anonimizadas relacionadas con ellos y todos los resultados. Este tipo de datos podría “ajustar” el LLM. Ahora, imagine preparar una IA tan ajustada con el siguiente tipo de aviso: “Dada la misión del Pentágono y sus objetivos, objetivos y presupuesto actuales, identifique las áreas de mayor riesgo, potencial de falla y el impacto en el presupuesto”.
El programa actual de combate de huelga conjunta F-35 Lightning II, por ejemplo, tiene un presupuesto estimado de aproximadamente $ 2 billones. El programa submarino de clase Columbia tiene un presupuesto que se acerca a $ 500 mil millones. Estos son elementos de boletos grandes. ¿Podría una IA dar sentido a ellos?
De hecho, evaluar programas dentro de las agencias está dentro del alcance de la IA moderna. Tal enfoque requeriría realizar una evaluación crítica del sistema ajustado en casos de prueba cuidadosamente construidos donde se conoce “la verdad”. Por ejemplo, los casos de uso histórico para capacitar a la IA podrían ser el bombardero B-52, el submarino Trident, el misil Minuteman y otros tipos de programas que incluyen armas defensivas y ofensivas. Dichos casos podrían usarse para construir un modelo que pueda predecir qué tipos de proyectos actuales y previstos, como el F-35, probablemente tengan las tasas o retrasos de falla más altas, y las razones para ellos.
Los desafíos técnicos para crear una herramienta de IA en un contexto federal no son triviales e implican problemas de privacidad y seguridad, pero no son insuperables. Las preguntas importantes son quién debería tener la autoridad para ajustar a la IA para responder tales preguntas, ¿quién debería tener la autoridad para emitir la consulta y qué podrían hacer con las respuestas?
En una corporación, el CEO claramente tendría la autoridad para hacer ambas cosas y tener una amplia libertad sobre cómo actuar sobre las respuestas. De hecho, una gran parte del trabajo de un CEO es garantizar que los recursos comerciales se implementen en el interés a largo plazo de sus accionistas.
¿Es diferente para el gobierno de los Estados Unidos? ¿Debería el presidente tener la autoridad para ajustar la IA en datos específicos del gobierno, hacer tal pregunta y tomar posibles acciones basadas en las respuestas?
En mi opinión, la respuesta a la primera pregunta es claramente sí, aunque probablemente requeriría un comité de seguridad nacional, que necesitaría seguir un proceso bien definido para crear los datos de capacitación adecuados para la IA y un método bien definido para evaluar sus respuestas.
La segunda pregunta es más complicada y depende de las acciones específicas que se toman. Los gobiernos elegidos democráticamente deben seguir el debido proceso, para lo cual la IA también podría asesorar al comité y al presidente sobre posibles cursos legales de acción y sus consecuencias.
Ahora es el momento para que el almizcle se recalibre, aprovechando el máximo potencial de la IA de manera aún más transformadora. Con una guía estratégica y una fuerte supervisión del Congreso, Estados Unidos puede ejercer este bisturí de IA para revolucionar y sobrealimentar el gobierno federal.
Vasant Dhar es profesor en la Stern School of Business y el Centro de Ciencias de los Datos en NYU. Investigador de inteligencia artificial y científico de datos, organiza el podcast “Brave New World”, que explora cómo la tecnología y la virtualización en la era posterior al covid están transformando la humanidad.