Crédito: dominio público Unsplash/CC0
En la Universidad de Brown, un nuevo proyecto innovador está revelando que enseñar inteligencia artificial para percibir las cosas más como las personas pueden comenzar con algo tan simple como un juego. El proyecto invita a los participantes a jugar un juego en línea llamado Haz clic en míLo que ayuda a los modelos de IA a aprender cómo las personas ven e interpretan imágenes. Si bien el juego es divertido y accesible, su propósito es más ambicioso: comprender las causas raíz de los errores de IA y mejorar sistemáticamente la forma en que los sistemas de IA representan el mundo visual.
Durante la última década, los sistemas de IA se han vuelto más potentes y ampliamente utilizados, particularmente en tareas como reconocer imágenes. Por ejemplo, estos sistemas pueden identificar animales, objetos o diagnosticar afecciones médicas a partir de imágenes. Sin embargo, a veces cometen errores que los humanos rara vez cometen.
Por ejemplo, un algoritmo de IA podría etiquetar con confianza una foto de un perro que usa gafas de sol como un animal completamente diferente o no reconoce una señal de alto si está parcialmente cubierta por graffiti. A medida que estos modelos se vuelven más grandes y complejos, este tipo de errores se vuelven más frecuentes, revelando una brecha creciente entre cómo la IA y los humanos perciben el mundo.
Reconociendo este desafío, los investigadores proponen combinar ideas de la psicología y la neurociencia con el aprendizaje automático para crear la próxima generación de IA alineada por los humanos. Su objetivo es comprender cómo las personas procesan la información visual y traducen esos patrones en algoritmos que guían a los sistemas de IA para actuar de manera similar.
El juego Click Me juega un papel central en esta visión. En el juego, los participantes hacen clic en partes de una imagen que creen que será más informativa para que la IA lo reconozca. La IA solo ve las partes de la imagen a las que se ha hecho clic. Por lo tanto, se alienta a los jugadores a pensar estratégicamente sobre las partes más informativas de la imagen en lugar de hacer clic al azar para maximizar el aprendizaje de la IA.
La alineación Ai-Human ocurre en una etapa posterior, durante la cual la IA está entrenada para clasificar las imágenes. En este procedimiento de “armonización neuronal”, los investigadores obligan a la IA a centrarse en las mismas características de imagen que los humanos habían identificado, los que hicieron clic durante el juego, para asegurarse de que su estrategia de reconocimiento visual se alinee con la de los humanos.
Lo que hace que este proyecto sea especialmente notable es cuán exitoso ha involucrado al público. El equipo ha atraído a miles de personas a participar en Click Me, ayudándolo a llamar la atención entre plataformas como Reddit e Instagram, y generando decenas de millones de interacciones con el sitio web para ayudar a capacitar al modelo AI. Este tipo de participación pública a gran escala permite al equipo de investigación recopilar rápidamente datos sobre cómo las personas perciben y evalúan la información visual.
Al mismo tiempo, el equipo también ha desarrollado un nuevo marco computacional para entrenar modelos de IA utilizando este tipo de datos de comportamiento. Al alinear los tiempos y opciones de respuesta de la IA con los de los humanos, los investigadores pueden construir sistemas que no solo coinciden con lo que los humanos deciden, sino también cuánto tiempo tardan en decidir. Esto lleva a un proceso de toma de decisiones más natural e interpretable.
Las aplicaciones prácticas de este trabajo son de gran alcance. En medicina, por ejemplo, los médicos deben comprender y confiar en las herramientas de IA que ayudan con los diagnósticos. Si los sistemas de IA pueden explicar sus conclusiones de manera que coincidan con el razonamiento humano, se vuelven más confiables y más fáciles de integrar en la atención.
Del mismo modo, en los autos autónomos, la IA que comprende mejor cómo los humanos toman decisiones visuales pueden ayudar a predecir el comportamiento del conductor y prevenir accidentes. Más allá de estos ejemplos, la IA alineada por humanos podría mejorar las herramientas de accesibilidad, el software educativo y el apoyo a la decisión en muchas industrias. Es importante destacar que este trabajo también arroja luz sobre cómo funciona el cerebro humano.
Al emular la visión humana en los sistemas de IA, los investigadores han podido desarrollar modelos más precisos de percepción visual humana que los disponibles anteriormente.
Esta iniciativa subraya por qué el apoyo federal para la investigación fundamental es importante. A través de la inversión de NSF, los investigadores avanzan la ciencia de la IA y su relevancia para la sociedad. La investigación no solo empuja los límites del conocimiento, sino que también ofrece herramientas prácticas que pueden mejorar la seguridad y la confiabilidad de las tecnologías que usamos diariamente.
Proporcionado por la National Science Foundation
Cita: los investigadores están enseñando a la IA a ver más como humanos (2025, 19 de junio) recuperado el 19 de junio de 2025 de https://techxplore.com/news/2025-06-ai-humans-1.html
Este documento está sujeto a derechos de autor. Además de cualquier trato justo con el propósito de estudio o investigación privada, no se puede reproducir ninguna parte sin el permiso por escrito. El contenido se proporciona solo para fines de información.







