Crédito: Dominio público de Pixabay/CC0
La inteligencia artificial está en todas partes, escribiendo correos electrónicos, recomendando películas e incluso conducir autos, pero ¿qué pasa con la IA que no ves? ¿Quién (o qué) está detrás de escena que desarrolla los algoritmos que pasan desapercibidos? ¿Y se puede confiar?
Hablamos con dos expertos de UC San Diego del Instituto de Ciencias de Datos Halıcıoğlu, parte de la Escuela de Computación, Información y Ciencias de los Datos (SCID). Le preguntamos a ambos expertos qué sigue para la IA, incluidos sus desafíos, oportunidades y limitaciones naturales.
David Danks, MA ’99, Ph.D. ’01, profesor de ciencia de datos, filosofía y política, examina no solo cómo se construyen los sistemas de IA, sino cómo dan forma a la sociedad. Lily Weng, profesora asistente, lidera el confiable Laboratorio de Aprendizaje Machine, que garantiza que los sistemas de IA sean robustos, confiables, explicables y dignos de nuestra confianza.
¿Cómo definirías la IA en su nivel más fundamental?
Danks: AI es cualquier sistema que reemplace, mejore o aumente el trabajo cognitivo humano. Al igual que las máquinas reemplazaron el parto físico, la IA ayuda o mejora nuestras tareas de pensamiento. Mientras que otros pueden centrarse en los aspectos técnicos, enfatizo una visión centrada en el ser humano, lo que AI nos permite hacer.
Weng: Puede pensar que es un sistema que funciona de manera diferente a los humanos, pero está diseñado con el objetivo de ayudarnos. Si bien hacer una IA más inteligente o más eficiente es parte del proceso, su propósito es beneficiar a la humanidad.
A medida que más personas adoptan IA en su vida cotidiana, ¿qué es lo que más te sorprende?
Danks: Para mí, es la voluntad de las personas para experimentar y jugar con estos sistemas. La gente parece muy dispuesta a pasar su tiempo y energía probando los sistemas. Sin embargo, la experimentación a menudo no se traduce en uso continuo o confía en el sistema. Y eso es importante porque probablemente no deberíamos confiar en muchos de estos sistemas en este momento. Me ha sorprendido que en una sociedad donde tantas personas actúen como si fueran muy reacios a la tecnología y no les guste la tecnología, no obstante están muy dispuestos a experimentar e interactuar con los sistemas de IA, al menos cuando las apuestas son bajas.
¿Dónde encaja ‘AI responsable’?
WENG: Queremos que AI sea responsable y confiable por los usuarios y desarrolladores. Por ejemplo, desea que AI le diga qué hace y cómo toma una decisión. Luego, podemos monitorear o auditar si hay sesgos o posibles preocupaciones cuando llega a las decisiones. También queremos que la IA sea robusta: no quieres que sea sensible al ruido externo o un adversario que intenta manipularlo. Queremos que la IA siga ciertos principios que esperamos que tenga.
El campo de la IA está cambiando tan rápido; ¿En qué deberíamos estar pensando? ¿En qué estás pensando?
Weng: Un problema en el que mi laboratorio se ha centrado es en la opacidad de la IA. Por ejemplo, la arquitectura de un sistema basado en el aprendizaje profundo es muy complicada. Entonces, aunque se ha probado y funciona bien, hay muchos escenarios que pueden suceder y muchos errores inesperados. Mi laboratorio está trabajando para garantizar que un sistema de IA sea interpretable y, si no es así, cómo podemos hacerlo más explicable.
Danks: Paso una buena cantidad de tiempo pensando en todos los usos de la IA que no son obvios. Cuando voy a Chatgpt, sé que estoy usando AI. Pero cuando conduzco mi automóvil, que en estos días es como una computadora sobre ruedas, no sé cuánto AI ha sido puesto allí por el fabricante de automóviles. No sé hasta qué punto están utilizando AI para controlar el motor o con fines de vigilancia, tal vez están vendiendo mis datos a una compañía de seguros.
Entonces, si bien es genial cuando la IA puede ocurrir detrás de escena y mejorar todo, también plantea oportunidades para riesgos adicionales en los que no tendremos el recurso apropiado, particularmente si ni siquiera sabemos que ha ocurrido un daño. Necesitamos transparencia sobre si se está utilizando AI, y necesitamos transparencia sobre lo que está haciendo la IA cuando se está utilizando.
¿Cómo abordará la escuela más nueva de UC San Diego, SCIDS, algunos de los problemas y preguntas que ha presentado?
Danks: Creo que la escuela crea enormes oportunidades para nosotros como investigadores y educadores porque comienza a desglosar los silos entre las investigaciones fundamentales y experimentales que ocurre en el Halıcıoğlu Data Science Institute y los despliegues de software de nivel comercial de grado empresarial que son posibles a través del Centro de Supercomiter de San Diego.
Creo que la escuela tiene la oportunidad de ver la investigación desde el laboratorio hasta el impacto comercial y social. Y esto crea no solo oportunidades, sino también nuevas obligaciones para nosotros hacer esto de manera responsable y ética y demostrar que la IA responsable no es un oxímoron.
¿Qué es algo que AI nunca podría reemplazar?
Danks: cualquier tarea de trabajo que requiera algún tipo de conexión emocional o empática con otro ser humano será muy difícil. AI Systems puede simular una conexión empática, pero construir esa conexión a largo plazo es algo que los sistemas tendrán muchas dificultades.
Otra área donde los sistemas de IA continuarán luchando es lidiar con situaciones en las que no está del todo claro qué significa el éxito. Estos sistemas están construidos para optimizar las soluciones a los problemas en los que sabemos qué es el éxito, pero hay momentos en que no sabemos lo que realmente cuenta como éxito, y lo descubrimos al confundir nuestras vidas.
¿Qué es lo emocionante para ti del futuro de la IA?
Weng: Estoy muy entusiasmado con el potencial de la IA en la atención médica. Por ejemplo, ¿cómo podemos proporcionar una mayor calidad de atención médica con la ayuda de la IA? Pero un cuello de botella importante es la confiabilidad, ya que las aplicaciones de atención médica conllevan riesgos significativamente más altos y requieren medidas de seguridad estrictas. Tienen un estándar mucho más alto que, por ejemplo, un chatbot o las herramientas que usamos a diario.
Es por eso que un diagnóstico confiable se vuelve muy importante, especialmente cuando se trata de interpretabilidad: debemos asegurarnos de que las decisiones impulsadas por la IA sean transparentes y confiables. Estoy entusiasmado con la investigación en mi laboratorio y el trabajo de mis colegas de HDSI a medida que nos esforzamos por desarrollar sistemas de IA en los que las personas puedan confiar.
¿Alguna idea final sobre la IA para nuestros lectores?
Danks: a veces hay una tentación de pensar en la IA como un huracán que solo nos está dando cuenta: transformará nuestras vidas, tal vez incluso destrozar nuestras vidas, y no hay nada que podamos hacer al respecto. Pero creo que esa es la forma incorrecta de pensar en la tecnología porque la IA está construida por nosotros. La IA es un futuro que estamos construyendo en este momento. Deberíamos verlo como una oportunidad en lugar de algo que no tenemos idea de si lo lograremos.
Proporcionado por la Universidad de California – San Diego
Cita: ¿Qué tan confiable es la IA? (2025, 2 de junio) Consultado el 2 de junio de 2025 de https://techxplore.com/news/2025-06-trustworthy-ai.html
Este documento está sujeto a derechos de autor. Además de cualquier trato justo con el propósito de estudio o investigación privada, no se puede reproducir ninguna parte sin el permiso por escrito. El contenido se proporciona solo para fines de información.









